Mi chiamo Seth Lloyd, sono professore di Ingegneria di Meccanica Quantistica al MIT, e sono un membro aggiunto di facoltà del Santa Fe Institute. Sono qui per parlarvi dell'informazione e della Teoria dell'Informazione. Quindi non è un segreto che il mondo sia inondato di informazioni, siamo in mezzo a un processo di rivoluzione delle informazioni che si basa su computer superveloci e comunicazione a banda ultralarga e smartphones e tutte queste cose. Ma che cosa è l'informazione? E come descriverla? Come trattarla in modo matematico e scientifico? C'è una famosa frase di Gregory Bateson, che dice:"Che cos'è l'informazione?" "E' la differenza che fa la differenza" Che cosa significa? Veramente non ho idea di che cosa significhi. La differenza che fa la differenza. E' troppo difficile per me. Iniziamo con l'idea di differenza che in qualche modo, l'informazione, che proviene dalla parola latina "informare", "cambiare la forma di", l'informazione è legata a ciò che fa di noi noi stessi. Che cosa fa me me stesso? Come l'informazione genetica nel mio DNA, o il colore della mia maglietta o gli scarsi capelli. Questa è la forma che possiedo. Quindi che cosa è l'informazione? Un buon modo per pensare a ciò è: come misuriamo l'informazione? Quindi come misuriamo l'informazione? Qual'è l'unità dell'informazione? Un modo carino è pensare in termini di energia. L'energia è un concetto antico. Viene da Aristotele. Energon. Energon è il lavoro interno. Ergon è lavoro, significa anche lavoratore, e energon è lavoro che è in qualche modo dentro a una cosa. Anni fa, quando ero uno studente, ho frequentato la prima summer school al Santa Fe Institute nel 1998, e frequentavo il bar El Farol, un bar locale. Ho iniziato a chiacchierare con la persona vicina ed era una persona il cui lavoro era andare nelle case e eliminare le vibrazioni pericolose dei cristalli. Mi disse che le vibrazioni dei cristalli hanno un'enorme quantità di energia ed è una energia buona e positiva, ma alcune volte i cristalli assorbono energia negativa dagli ospiti, e quindi lui eseguiva riti che coinvolgevano le energie dei delfini e degli angeli per togliere le vibrazioni pericolose dai cristalli. Quindi gli dissi, "Veramente sono un fisico ed è vero che c'è energia nelle vibrazioni dei cristalli, ma quest'energia è molto piccola. La quantità di energia è più piccola che la quantità di energia in questo pezzo di formaggio." Poi mi raccontò quanti soldi faceva invocando le energie dei delfini e degli angeli è ho dovuto zittirlo perché stava facendo più soldi di me che ero un postdoc a Los Alamos. Ma una delle cose più importanti dell'energia è che la possiamo misurare. I grandi progressi nello studio dell'energia furono nel 19mo secolo, quando le persone capirono che il calore era una forma di energia, il calore poteva essere trasformato in lavoro, e si può misurare la quantità di energia del calore, potreste misurare la quantità di energia nel lavoro, indipendentemente dal fatto che l'origine sia dovuta ad angeli, delfini o cristalli. E lo stesso è vero per l'informazione. Quindi pensiamo che l'informazione sia molto importante. E' una cosa che esce dai nostri iPhone, è una cosa che tu puoi dire a me, che io posso dire a te, che fa la differenza fra di noi, ma, se cerchiamo veramente di misurare l'informazione, allora dobbiamo fare una lunga strada. Infatti, è ben saputo, che c'è un'unità di informazione. Il bit. Il bit è l'unità di informazione, significa BInary Digit, termine coniato da John Tukey all'IBM che era stato preso da Claude Shannon che era il fondatore della moderna teoria dell'informazione. E l'idea è che un bit è una misura di differenza. Un bit misura la distinzione tra due possibilità, che sono chiamate notoriamente 0 e 1. Ma ci potrebbero essere altre due possibilità, vero e falso, sì e no, caldo e freddo, se dite che alcune cose sono molto calde e alcune molto fredde, mostrando che l'informazione è spesso approssimativa. E il modo in cui funziona questa rivoluzione dell'elaborazione di informazioni di cui siamo parte, è che i dispositivi che elaborano l'informazione , la spezzano in piccoli pezzi, bit, e poi commutano questi bit. Quindi, ad esempio, 0 che diventa 1 e 1 che diventa 0 sono commutazioni. O in caso della logica, (la commutazione) è chiamata "not". Quindi non vero è falso, non falso è vero. Quindi se abbiamo una nozione binaria dell'informazione, possiamo parlare sia dell'unità fondamentale di informazione, il bit, sia parlare dell'elaborazione delle informazioni. E alla fine, questa completa rivoluzione dell'elaborazione delle informazioni a cui stiamo partecipando proviene dal suddividere le informazioni in piccoli pezzi , i bit, e commutarli in modo sistematico. Quindi, se si osserva dentro al cervello, che sta elaborando informazioni, i nostri neuroni sono cellule che prendono informazioni da molti altri neuroni e che decidono di passare da uno stato di riposo che chiamiamo 0, ad uno attivo, che chiamiamo 1. Poi il bit di informazione, questo 1, questo stato attivo viene elaborato e propagato in modo elettromagnetico ad altri neuroni che si accendono per proprio conto, e tutto ciò che avviene dentro le nostre teste è solo questa commutazione e elaborazione e trasmissione di bit. E questo è quello che succede dentro i vostri PC, i vostri Mac, i vostri IPod, i vostri iPhone o qualsiasi processo stia facendo il vostro dispositivo. E da questa idea centrale, che c'è un'unità di informazione, che possiamo misurare l'informazione, deriviamo tutta la teoria dell'informazione e dell'elaborazione. Quindi, fatemi descrivere il funzionamento in modo un po' più dettagliato.