Intelligenza artificiale

atlantenuove tecnologie

Il termine “informare” viene dal latino e significa dare forma, dare ordine. Fino alla prima metà del secolo scorso l’informazione sembrava qualcosa di qualitativo e non misurabile. Con lo sviluppo della telefonia c’era bisogno di quantificare e misurare l’informazione per calcolare le dimensioni adeguate dei cavi attraverso cui far passare tutte le telefonate. 

In fisica termodinamica l’entropia misura il disordine di un sistema, tenendo presente che, se il sistema è lasciato a se stesso, tende ad aumentare tornando verso il caos originario. Se consideriamo una stanza o una casa che lasciamo abbandonata senza mai rimettere in ordine, il disordine tenderà progressivamente a crescere, fino a che tutto si confonderà tendendo verso il caos. Se abbiamo bisogno di qualcosa, non riusciamo a trovarla nella confusione generale, perché siamo privi di informazione sulla collocazione di quella cosa. Per cercarla dobbiamo rimettere in ordine, e cioè ridare forma al caos che abbiamo trovato. Per rimettere in ordine dobbiamo osservare gli oggetti mescolati a caso, e riporre insieme quelli dello stesso genere: libri con libri, calze con calze, bicchieri con bicchieri. In tal modo il sistema si allontana dal caos e si ricarica di informazione, ridiventando utile. Ecco dunque che l’informazione è l’opposto dell’entropia, quindi la formula per calcolarla è quella dell’entropia cambiata di segno. L’informazione infatti viene definita anche negentropia, entropia negativa.

Però l’informazione ha bisogno anche del cambiamento. Dopo che la casa è tutta in ordine, ci abituiamo e finiamo per non vedere più le cose che restano tranquille al loro posto. Notiamo solo un quadro storto, un bicchiere fuori posto, un piatto che si rompe. Non notiamo più il camion della nettezza urbana che tutti i giorni passa a raccogliere i rifiuti, ce ne accorgiamo se per qualche giorno non passa e i rifiuti si accumulano.

Più grande è la nostra incertezza su ciò che dovrà contenere un messaggio, e maggiore sarà l’informazione che riceveremo quando il messaggio sarà arrivato. Se il risultato non è incerto non c’è informazione. Il messaggio “2+2=4” ci sembra ovvio e non ci dice niente di emozionante. La partita di calcio è avvincente se non sappiamo il risultato, altrimenti perde di attrattiva. L’informazione è tutto ciò che può consentire di ridurre il nostro grado di incertezza su un evento che si può verificare.

Una caratteristica interessante dell’informazione è che il suo valore raddoppia se viene condivisa. Se ti do la mia mela, non ce l’ho più. Se ti dico qualcosa, ora la sappiamo tutti e due. Però devi voler ricevere la mia informazione, altrimenti non ti arriva o non la userai.

Poiché il problema è una domanda e la soluzione è una risposta a quella domanda, domanda e risposta sono ambedue informazione. Quindi l’informazione serve a risolvere problemi.

L’informazione potenziale è quella contenuta in un oggetto prima che venga usato. Un hard disk o un dizionario contengono molta informazione potenziale, che però diventa reale solo quando vengono usati.

Il processo informativo parte da un emittente e arriva ad un ricevente attraverso un canale e per mezzo di un codice.

L’informazione è un dato, ma soprattutto la relazione fra dati. Il solo dato “calcio” ha il significato ambiguo di elemento chimico, pedata, sport. La relazione fra “calcio” e “angolo” nella locuzione “calcio d’angolo” ci fa capire che stiamo parlando di sport.

Se una stessa informazione viene data con più linguaggi e più canali, parliamo di ridondanza. Se invio una email e faccio anche una telefonata per prendere un appuntamento, sono ridondante. La ridondanza spreca informazione, ma si rende necessaria quando si teme che una sola informazione possa andare perduta.

Nella percezione visiva scegliamo che cosa per noi è la figura, che cosa lo sfondo. Consideriamo figura ciò che ci interessa, sfondo ciò che sta intorno e dietro la figura. Qualcosa di simile avviene con suoni e messaggi. Ciò che ci interessa viene percepito come suono, o come segnale, ossia come qualcosa che per noi ha qualche significato. Tutto il resto è considerato come rumore, ossia come qualcosa che disturba la ricezione del messaggio e la comprensione del significato. Il rapporto fra segnale e rumore indica la qualità del suono, del messaggio, del canale. Il rumore deve essere presente per “ambientare” il segnale, che in totale assenza di rumore sembrerebbe troppo astratto e irreale, ma non deve disturbare il segnale, interferendo con esso o addirittura sovrastandolo.

L’informazione è un insieme di dati interpretati e comprensibili al destinatario. Un dato singolo non contiene molta informazione. “1789” non significa niente. Abbinandoci “Bastiglia” acquista significato per chi sa che nel 1789 con la presa della Bastiglia è scoppiata la Rivoluzione Francese.
L’informazione può essere esplicita (la data di nascita) e dedotta (l’età, calcolata facendo la differenza fra data nascita e data attuale). Le deduzioni possono essere precise o approssimative, come accade quando non si hanno informazioni complete. La deduzione avviene con il processo logico se… allora (if/then) che può essere fatto sia dall’uomo sia dal computer, per esempio con i salti condizionati programmabili su un foglio elettronico.
La quantità d’informazione in informatica si misura in bit e byte, con i multipli megabyte, gigabyte, terabyte.