Nascido nos Estados Unidos, formou-se em Matemática e Engenharia Elétrica em 1936 pela Universidade de Michigan. Em 1937 ele estabeleceu uma ligação entre os circuitos elétricos e o formalismo lógico. Ao longo da Segunda Guerra Mundial, seus estudos deram origem a um ramo de estudos conhecido como Teoria da Informação. Shannon mostrou um caminho para projetar máquinas baseadas na lógica algébrica descrita por George Boole, a qual se baseia em dois valores lógicos: 0 se um valor é falso e 1 se é verdadeiro. Na álgebra de Boole, se operações lógicas forem colocadas juntas, estas passam a formar uma nova operação lógica. Shannon, então, percebeu que essa álgebra poderia descrever o comportamento de circuitos elétrico chaveados. Esse foi o ponto de partida para a construção de computadores digitais: a capacidade de um circuito elétrico realizar operações e armazenar informações. Em 1948 Shannon publicou dois trabalhos que originaram a Teoria da Informação. Em 1950 publicou A Chess Playing Machine em que propunha que computadores digitais poderiam trabalhar simbolicamente com elementos representando palavras e proposições o que originaria, alguns anos depois, a Inteligência Artificial. Uma
máquina que joga xadrez
|
|
||||||