Shannon es reconocido por haber fundado el campo de la teoría de la información con la publicación Una teoría matemática de la comunicación, que supuso un hito en 1948. Es quizás igualmente conocido por haber sentado las bases de la teoría del diseño del ordenador digital y el circuito digital en 1937. Con 21 años, mientras realizaba su maestría en el Massachusetts Institute of Technology (MIT), demostró con su tesis, que las aplicaciones electrónicas de álgebra booleana podrían construir cualquier relación lógico-numérica.3 Shannon contribuyó asimismo al campo del criptoanálisis para la defensa de Estados Unidos durante la Segunda Guerra Mundial, con trabajos sobre el descifrado de códigos y la seguridad en las telecomunicaciones.
(Claude Elwood Shannon; Gaylord, 1916 - Medford, 2001) Ingeniero estadounidense, padre de la moderna teoría de la información, una formulación matemática que analiza las unidades de información (bits) y su pérdida en los procesos de transmisión. Claude Shannon se graduó en ingeniería por la Universidad de Michigan en 1936 y, cuatro años más tarde, obtuvo un doctorado de matemáticas en el Massachusetts Institute of Technology.
Claude Shannon dice que el tiempo necesario para transmitir información es proporcional a la cantidad de información transmitida sea, si se transmite más información, será necesario mayor tiempo.
Shannon trató de establecer a través de esta teoría una ecuación matemática para poder medir el valor informativo de los mensajes (la fidelidad con la que es transmitido el mensaje del emisor al rceptor), tomando en consideración la "información" como un valor cuantificable en los procesos de comunicación.