Buongiorno a tutti in questo video introdurremo la nozione di "informazione" e la sua relazione con "ordine" e "disordine" nei sistemi complessi Inizieremo con il concetto di entropia che è una particolare misura del "disordine" Dopo spiegheremo la seconda legge della termodinamica e daremo un'occhiata al famoso paradosso detto del diavoletto di Maxwell che collega fisica e teoria dell'informazione. In seguito introdurremo la meccanica statistica che ci darà le basi per quantificare la nozione di informazione. Parleremo della definizione di informazione data da Claude Shannon e dei suoi limiti nel quantificare l'elaborazione dell'informazione nei sistemi complessi. Infine, sentiremo parlare Jim Crutchfield, un fisico dell'università della California e del Santa Fe Institute a proposito del suo lavoro sulla teoria dell'informazione applicata ai sistemi complessi. Iniziamo. Nella Unità 1 abbiamo visto parecchi esempi di sistemi complessi in cui c'è auto-organizzazione. Per esempio, abbiamo visto come le formiche siano capaci di produrre in modo collettivo strutture organizzate come ponti fatti dai loro stessi corpi, come le termiti si auto organizzano per costruire strutture intricate, come i neuroni si organizzano in unità funzionali cognitive, come i trilioni di cellule del sistema immunitario si organizzano per difendere il corpo da intrusi, e abbiamo visto come gli individui si auto organizzano in ecologie, reti sociali, città, ed economie complesse. Nelle unità 2 e 3 abbiamo parlato brevemente delle dinamiche e dei frattali e di come le interazioni di regole semplici portino a sistemi complessi, come ciò porta a organizzazione e caos. Ma un'altra chiave del fenomeno di auto-organizzazione è il concetto di informazione. Per capire il fenomeno di auto-organizzazione abbiamo bisogno di capire come è rappresentata l'informazione, comunicata ed elaborata nei sistemi complessi. Come detto dal fisico Murray Gell-Mann "Sebbene i sistemi complessi sono molto diversi nei loro attributi fisici, si assomigliano tra loro nel modo in cui gestiscono l'informazione. Questa caratteristica comune è forse il miglior punto iniziale per esplorare come operano." In questa unità, vedremo alcuni modi in cui l'informazione può essere quantificata. Storicamente, la struttura matematica dell'informazione inizia con le leggi della termodinamica. La prima legge dice semplicemente che in un sistema isolato, l'energia si conserva. Un sistema isolato è un sistema in cui non si aggiunge energia dall'esterno e l'energia non può uscire. Quindi che cosa significa esattamente per energia? L'energia è definita in fisica come il potenziale di un sistema per produrre lavoro. I lavoro, qui, ha un significato tecnico. Ma potete considerarlo in modo colloquiale cioè, il lavoro permette di fare le cose. Quindi in modo molto informale, l'energia è il potenziale del sistema per fare le cose. Ci sono diverse forme di energia, e può essere trasformata da una forma ad un'altra. Ecco alcuni esempi. L'energia delle luce del sole può trasformarsi in energia chimica nelle piante per mezzo della fotosintesi. L'energia elettrica si trasforma in energia termica. Il riscaldamento elettrico ed il forno agiscono così. L'energia chimica del cibo o della benzina si può trasformare in energia meccanica o cinetica per muovere i muscoli o i veicoli. Ora, secondo la prima legge, in un sistema isolato, bene, l'energia si può trasformare in tipi diversi, la quantità totale di energia del sistema rimane sempre la stessa. Significa che "l'energia si conserva". Ora, la seconda legge della termodinamica dice che in un sistema isolato, l'entropia aumenta sempre, fino al valore massimo. Cosa significa entropia? Quando l'energia viene trasformata da un tipo all'altro, c'è sempre una perdita che non può essere usata per il lavoro. E' chiamata a volte perdita di calore. Il termine tecnico di ciò è entropia. Per esempio, supponiamo che spingiate una bicicletta su una collina ripida. L'energia delle calorie si trasforma in energia meccanica o cinetica, che è il movimento della bici e del vostro corpo. Ma c'è un prezzo da pagare. Questa trasformazione diviene anche perdita di calore del vostro corpo. Che è l'energia che non può essere usata per il lavoro. In altre parole, l'energia che non contribuisce a muovere voi e la bici sulla collina. Questa è l'entropia prodotta dal trasferimento di energia. L'entropia può essere pensata come la misura del disordine del sistema. La seconda legge della termodinamica dice che il disordine in un sistema cresce sempre, fino a raggiungere il valore massimo. Spieghiamolo con un semplice esempio. Userò un modello della libreria di NetLogo. E' chiamato GasLab Two Gas. Quindi, andiamo in Chimica e Fisica, e GasLab, e questo chiamato GasLab Two Gas. Quindi lo apro. Osserviamo il Setup. Quello che fa, è illustrare il comportamento di due camere piene di gas. E il gas è semplicemente un insieme di particelle in movimento. Quindi, ciascuna di queste palline è una particella, come una molecola. Questo simula la fisica di un gas. Mostrerò questo modello con un numero di molecole nella parte destra uguale al numero di molecole nella parte sinistra. Ciano è il colore blu. Magenta è il rosso. La velocità iniziale sarà 30 per la destra e 10 per la sinistra. CIascuna ha massa 8. Questo diventa molto semplice. Facciamo "Setup". E ora, ciò che succede è che queste molecole iniziano a muoversi. Ho impostato la velocità iniziale delle blu più elevata che la velocità iniziale delle rosse. Se osserviamo la loro velocità,potete vedere che il blu hanno una velocità maggiore, le rosse una minore, e così via. Quindi questo è un sistema ordinato perché abbiamo tutte le particelle rosse di qui e le blu qui. E non si mescolano. Ma se permettiamo che si mescolino premendo "Open Up" qui, vediamo cosa succede. E metto un po' più veloce. Quando si scontrano, perdono energia e rallentano. E potete vedere che come permettiamo che si muovano secondo le leggi della fisica un questo gas senza frizione, iniziano a mischiarsi molto velocemente e tendono a una velocità media, la loro energia media diventa la stessa. E l'intero sistema diventa molto disordinato. Quindi cominciamo, se faccio stop. Cominciamo da un sistema molto ordinato, con bassa entropia, e se permettiamo di mischiarle, il sistema molto velocemente diventa un sistema disordinato, con molta entropia. Ora queste cose si muovono collidendo tra loro, e plausibilmente, come per uno strano caso, tutte le blu potrebbero tornare indietro a destra, e le rosse potrebbero tornare a sinistra, Ma questo è incredibilmente improbabile. E questa è l'idea della seconda legge della termodinamica, che dice semplicemente che un sistema come questo diventerà più disordinato, e non più ordinato a meno che qualcuno non faccia lavoro mettendo più ordine. La seconda legge della termodinamica ha profonde implicazioni. Primo, i sistemi sono naturalmente disordinati. Cioè, non possono diventare ordinati senza l'input di qualche lavoro. Questo implica che le macchine con moto perpetuo non sono possibili. Una macchina con moto perpetuo è una che potrebbe creare e alimentarsi con energia ed essere sempre in moto senza l'input di energia ulteriore dall'esterno. Questa sarebbe una macchina in cui non ci sarebbe alcuna perdita di calore. E la seconda legge della termodinamica implica che è impossibile. E terzo, il tempo ha una direzione. Che è la direzione della crescita dell'entropia. Possiamo vederlo in un esempio straordinario in cui osserviamo il film al contrario di un bicchiere che si rompe Facciamolo andare di nuovo. Questo è qualcosa che potete osservare e capite subito che è al contrario. E lo sapete perché sapete che per le leggi della fisica le cose come i bicchieri rotti non si riparano e tornano indietro magicamente. Bisogna mettere molto lavoro nel sistema del bicchiere rotto per ripararlo, anche se è molto facile rompere un bicchiere. Quindi abbiamo un senso in cui il tempo scorre osservando questo tipo di film. Questo è un risultato fondamentale della seconda legge della termodinamica, che in un certo senso rende significato alla nozione del tempo.