Il Valore dell’informazione

«Le informazioni mediano tra il materiale e l’astratto, tra il reale e l’ideale»

Von Baeyer

In principio c’era solo la materia, percepita e misurata in termini di massa, ingombro, pesantezza. Poi con l’Età moderna si è aggiunta l’invisibile forza dell’energia nelle sue diverse manifestazioni fisiche. Oggi abbiamo l’informazione: oggi la materia è sempre massa, c’è sempre l’energia, ma c’è sempre più informazione.

Ma cosa è l’informazione?

A partire dal XIX secolo l’energia è stata definita e misurata prima dalla fisica poi dalle altre discipline. In realtà noi non sappiamo cosa è l’energia, siamo solo in grado di comprenderla, misurarla, prevederne i fenomeni a essa legati, e sappiamo, in funzione del campo applicativo coinvolto, misurarla, assegnarle un valore di mercato, tassarla (Von Baeyer).

Sicuramente sappiamo ancor meno definire cosa sia l’informazione, data la sua intangibilità e soggettività.

Cerco di spiegarmi meglio. L’energia è in un qualche modo legata e circoscritta a qualcosa di fisico, ad un sistema fisico: l’energia elettrica accumulata in una comune batteria, l’energia nucleare processata in una centrale termonucleare, l’energia chimica imprigionata in una bombola di gas, l’energia cinetica prodotta dal vento che gonfia le vele di un vascello. Invece l’informazione non necessariamente è legata ad un sistema fisico, anzi il più delle volte è nella nostra mente. Il numero |348456172| potrebbe essere tante cose: un numero telefonico, un codice per aprire una cassaforte, piuttosto che l’invidiabile saldo contabile di un conto corrente bancario.

L’aurea di intangibilità e di soggettività che circonda il concetto di informazione rende il tutto alquanto difficile nello sforzo di darne una definizione, una misurazione, un valore.

Democrito di Abdera, filosofo e matematico vissuto circa 2.400 anni fa, fece scalpore affermando che il mondo, dunque la realtà, nonostante le apparenze e le superstizioni, era fatto di elementari cose: gli atomi. Per Democrito, dunque, «il dolce è un’opinione, l’amaro è un’opinione, il caldo un’opinione, il freddo un’opinione, il colore un’opinione; in verità, ci sono solo atomi e vuoto». Così per Democrito l’impressione e la percezione sensoriale erano opinioni, ma la realtà era ben altra cosa.

«L’intelletto: il dolce è un’opinione, l’amaro è un’opinione, il caldo un’opinione, il freddo un’opinione, il colore un’opinione; in verità, ci sono solo atomi e vuoto. I sensi: mente sciagurata, proprio da noi stai prendendo le prove con le quali vorresti usurparci? La tua vittoria è anche la tua sconfitta».

Democrito

Nei secoli successivi i fisici hanno, come sappiamo, seguito la dicotomia indicata dal filosofo greco, discriminando le percezioni soggettive dalla realtà vera, oggettiva. Le scoperte effettuate nel campo della fisica e della chimica hanno poi spostato dal soggettivo all’oggettivo quei fenomeni per i quali si sono dimostrate le proprietà fisiche degli atomi: la temperatura è da tempo patrimonio di conoscenza scientifica, quindi definita come la misura della velocità media delle molecole. Ma la dicotomia è rimasta. Almeno fino alla teoria della relatività generale e alla intuizione della quantistica, campo di ricerca che ha dimostrato che le distanze che separano il mondo percepito dal mondo inanimato – a livello di scala delle distanze atomiche – si dissolvono clamorosamente. In tal senso l’oggettività assoluta (la verità) potrebbe essere una illusione, anche se in termini pratici potrà ancora esserci utile, pena una esplosione di frustrazione e incertezza esistenziale.

Riporto di seguito un brano di Faynman sul quale Baeyer ci invita a riflettere: «Se, in un qualche cataclisma, tutta la conoscenza scientifica fosse distrutta e solo una frase venisse trasmessa alle seguenti generazioni di creature, quale affermazione conterrebbe il maggior numero di informazioni in meno parole possibili? Io credo che sia l’ipotesi atomica, cioè che tutte le cose sono fatte di atomi, piccole particelle che si muovono in moti perpetui, attraendosi le une alle altre quando sono poco distanti tra loro, ma respingendosi quando vengono compresse l’una all’altra. In quest’unica frase, chiaramente, c’è un enorme quantità di informazioni sul mondo, se solo ci si applica con un po’ di immaginazione e di riflessione». Come si vede il termine |informazione| è presente due volte nel brano, che in buona sostanza appare come una moderna rivisitazione delle tesi atomistiche di Democrito.

Ma qui si rileva una intrinseca proprietà dell’informazione, una caratteristica che la distingue da altre cose: la capacità di comprimere i dati, di sintetizzare strati di conoscenza, di nidificare conoscenze consolidate in poco spazio concettuale.

Le equazioni di Einstein hanno elaborato (consegnandoci una teoria generale che spiega i fenomeni dell’intero universo) le leggi del moto e della gravità di Newton, il quale a sua volta aveva formulato le proprie leggi inglobando le formule messe a punto da Keplero, che era riuscito a sintetizzare, con pochi segni, interi testi che descrivevano meticolosamente le orbite dei pianeti e le loro relative posizioni nella volta celeste.

Se vi parlo di tasso variabile non devo descrivervi tutta la matematica finanziaria, così come se indico con il 3% ad un marketing manager il tasso di redemption a seguito di una campagna, non devo spiegargli tutta la matematica del marketing. La stessa cosa succede nella teoria delle comunicazioni quando si parla di algoritmi di compressione dei dati. Anziché comunicare una stringa lunghissima di |010101010101….|, posso trasmettere |Ripetere 01 * N| dando all’intera stringa un significato operazionale, ovvero dandole una informazione utile ad eseguire una ripetizione, risparmiando tempo e spazio di canale.

Secondo l’analisi etimologica i termini |informazione|, |deformazione|, |conformazione|, e – particolare interessante – |trasformazione|, derivano entrambi dal termine |formazione|, quindi, andando alla radice, sono eredi del termine |forma|. Sembra dunque che l’informazione sia una specie di “stampo” che conferisce una forma a qualcosa che in precedenza è informe.

Ancora una volta dobbiamo scomodare Platone e Aristotele, che per primi discussero in ordine al concetto di forma. Il primo illustre filosofo utilizzo la parola |eidos| (radice dei termini |idea| e |ideale|) dandole un significato, secondo la sua nota filosofia, di perfezione assoluta, una forma ideale che alberga nell’iperuranio (mondo soprasensibile e che è parzialmente visibile alle anime slegate dai loro corpi) della quale gli oggetti del mondo sensibile non sono che una copia imperfetta.

Toccò poi ad Aristotele darne una interpretazione più scientifica, definendola come la somma esauriente delle proprietà essenziali di una cosa: una (di altre) proprietà essenziale di un cavallo è essere quadrupede, mentre non lo può essere il colore, proprietà condivisa con altri esseri, risultando quindi solo accidentale. Aristotele poi va oltre, insegnandoci che noi percepiamo e quindi comprendiamo il mondo grazie alle forme, che altro non sono che idee e concetti che possediamo nel nostro intelletto: «Non è la pietra ad essere presente nell’anima (mente), ma la sua forma».

Ma il concetto di forma si porta con se quelli di struttura, di relazione e di azione, sui quali dobbiamo argomentare per ricondurci poi ad una definizione teorica (significato) e pragmatica (uso) dell’informazione.

Per struttura intendiamo, in estrema sintesi, i componenti e i rispettivi legami che tengono insieme un sistema, che concretamente costituiscono una unità particolare nella realizzazione della forma, conferendogli delle proprietà, appunto, di forma. Per certi versi ci riporta alla sostanza di Aristotele nella sua metafisica.

Pensiamo al sistema alfabetico (la sintassi che lega i segni tra loro), al sistema binario come quello digitale. Quando si attualizza una struttura in una forma (il sinolo aristotelico) si ha significato.

Quando una notazione musicale scritta su di un pentagramma diventa un suono generato da uno strumento, tra il sistema di scrittura (la notazione musicale) e la vibrazione dei nostri timpani e la conseguente elaborazione delle vibrazioni da parte del nostro cervello, assistiamo a diversi cambi di codice (di struttura, prima secondo la notazione musicale, poi secondo processi fisici e in ultimo neuronali) ma la forma rimane intatta, la forma voluta dal compositore.

Ma un sistema, di qualunque natura sia, non sarebbe intelligibile se non fosse inserito, in un qualche modo, in una o più relazioni, quindi in rapporti con altro.

«Non possiamo pensare ad alcun oggetto se non rispetto alla possibilità della sua connessione con altre cose».

Wittgenstein

Quando si tratta di informazioni le relazioni vanno intese come relazioni che si sviluppano temporalmente, diciamo che hanno a che fare inesorabilmente col tempo, più che con lo spazio. Se prendiamo due oggetti nello spazio come due sassi, aventi quindi una massa, la relazione tra loro si esprime attraverso la distanza che li separa (ora, in questo momento) e dalla loro mutua attrazione, così come insegnatoci dalla legge di gravitazione di Newton. In realtà, proprio grazie alla legge della gravità, i nostri due inconsapevoli oggetti si spostano nel tempo (dopo), quindi la loro reciproca distanza si modifica. Questo esempio per dire che la relazione in oggetto non è solo descrivibile in termini spaziali (la distanza), ma necessita di avvalersi della dimensione del tempo, come poi ci ha spiegato Einstein con la sua teoria della relatività, introducendo il sistema di riferimento.

Il marconista che trasmette punti e linee in realtà trasmette delle relazioni temporali che sono esse stesse parti costitutive del messaggio. La sequenza di alcune lettere del sistema alfabetico, che in se, prese singolarmente, non sono portatrici di significato, assumono un valore informativo perché, secondo le regole sintattiche e semantiche (la struttura), sviluppano sequenzialmente – nel tempo, come abbiamo visto in precedenza – una forma portatrice di senso. Così le relazioni tra altezza, durata, intensità, e timbro dei suoni sono portatrici di una forma musicale: l’armonia nella teoria musicale è in fondo una faccenda di relazioni che si sviluppano organizzando il tempo. La pittura è a sua volta una faccenda di relazioni tra gli spazi, i segni (tratti del disegno) e il gioco dei colori (cromia).

Dunque la forma esprime una struttura e delle relazioni, riportandoci ancora all’informazione. Ma l’informazione non è una entità statica, deve necessariamente stare in movimento pena la sua caduta di valore. Un’informazione (lascio a voi scegliere la natura: finanziaria, commerciale, politica, etc.) che rimanga statica implode nella sua stessa struttura, recide in se ogni relazione di senso, in ultima analisi perde le sue proprietà, si dissolve la sua forma attualizzata.

Prendiamo un pezzo di una pellicola cinematografica (avete presente l’Alfredo interpretato da Noiret nel film Nuovo cinema paradiso di Tornatore?) e immaginiamo di dispiegarlo nella sua lunghezza (spaziale) sul pavimento di un corridoio. Sappiamo che in essa sono registrate le sequenze del film (struttura). Viste così non ci permettono di provare alcuna emozione. Ma se riprendiamo la pellicola e la facciamo scorrere (azione) nel proiettore, ecco che tutto cambia, il movimento ci restituisce l’azione, ci comunica il suono e l’animazione, lo spazio diventa tempo (prima plasmato e sequenzializzato nella pellicola), le relazioni ci danno una forma comunicata, ci appare infine un flusso informativo attualizzato.

L’informazione è movimento, è attività, è azione. Quando si dice informare una persona, in sostanza si parla di una azione volta a formare l’altro, a modificare la sua mente, o meglio a influenzare i concetti della mente dell’altro. Informare è allora modificare qualcosa nella mente dell’altro, è comunicare una forma, rendere attuale una differenza: si ha un qualche trasferimento di conoscenza da una mente all’altra. Da qui l’alone di intangibilità, impalpabilità e soggettività che circonda l’informazione.

Certo, qualcuno direbbe che l’informazione può essere memorizzata fuori dalle menti, immagazzinata nelle memorie dei computer: ma, come detto sopra, una informazione perché non perda le sue proprietà (forma, struttura, relazione e azione) prima o poi dovrà uscire dalle memorie elettroniche per essere rimessa in circolazione tra le menti, e ciò dovrà avvenire comunque il più presto possibile. Quando nella seconda parte del libro parleremo di business intelligence e in particolare di riduzione del tempo di latenza decisionale nelle organizzazioni, partiremo proprio da quest’ultimo principio.

Allora, giunti questo punto, possiamo dare una definizione di informazione dicendo che è un flusso comunicato di segni, di relazioni entro una struttura in grado di attualizzare una forma che comporta una azione in chi riceve tale flusso.

Il carattere di struttura che implica la definizione di informazione ci induce a precisare che l’informazione ha una stretta relazione con la complessità, nel difficile equilibrio tra l’ordine e il disordine dei componenti di un sistema, sia esso naturale che sociale. La descrizione dello stato globale di un sistema composto da molte unità discrete si avvale dei noti concetti di ordine, disordine, probabilità. In un sistema complesso le forme di stato disordinato sono naturalmente altamente probabili (per probabile si intende il rapporto esistente fra il numero di modi nei quali si possono distribuire i componenti per dare una data forma allo stato di un sistema oggetto di studio, e il numero totale delle possibili forme di distribuzione). Al contrario le forme di stato ordinato in un dato sistema complesso sono molto meno probabili – richiedono regole, strutture, costi, sottrazioni di potenzialità – per distribuire in modo ordinato i componenti del sistema. La legge di Boltzmann a tal proposito misura il disordine definendo l’entropia in termini di logaritmo della probabilità che un certo stato si manifesti dentro un dato sistema.

Negli anni quaranta lo stesso Shannon si pose lo stesso problema, quello di misurare quantitativamente l’informazione contenuta in un messaggio composto da una sequenza di unità discrete. La sua intuizione fu quella di cogliere l’analogia del suo lavoro con i paradigmi dell’entropia. Credo che sia per il lettore intuitivo osservare che in un messaggio, composto da unità (lettere, parole, etc.) di un certo sistema (alfabeto, numerazione decimale, etc.) prese a caso, quindi in una forma non-forma, si è in presenza di uno stato di massimo disordine, dove si ha in nuce la massima probabilità che si manifesti (il messaggio) in un numero enorme di modi, ma purtroppo non è foriero di alcuna informazione (non è portatore di alcuna significazione).

Immaginiamo di disporre di un contenitore di palline, ognuna delle quali riporta una lettera dell’alfabeto, e lasciamo cadere le palline su un tavolo. Vedremo tante palline e tante lettere in una forma (disordine) a noi non accettabile, senza alcun senso. Il senso è in nuce, o meglio, nascosti nella caotica disposizione delle palline, ci sono infiniti sensi potenzialmente producibili se ci riferiamo al sistema sintattico e semantico dell’alfabeto. Ma in questa disposizione troviamo una situazione di entropia, nella quale abbiamo il massimo delle possibilità combinatorie, ma nessuna struttura di senso. Se invece formiamo una parola (quindi portatrice di senso secondo il sistema alfabetico) nella lingua a noi conosciuta, useremo solo alcune palline e scarteremo le restanti (in un sistema non tutte le combinazioni sono ammissibili). Quindi abbiamo ridotto considerevolmente il potenziale implicito nella disposizione precedente, per far emergere solo alcune possibilità. Se abbiamo formato la parola |porto| abbiamo prodotto solo alcuni possibili significati, secondo la lingua italiana: ||porto marittimo||, piuttosto che come la forma presente della prima persona del verbo |portare|.

Interessante è dunque osservare che la teoria di Shannon permette di misurare in termini quantitativi l’informazione contenuta in un messaggio utilizzando la stessa relazione logaritmica (tranne un segno) che rapporta l’entropia con la probabilità.

Quanto detto funziona con i sistemi composti da unità discrete, come il sistema digitale, l’alfabeto. Purtroppo se il messaggio è analogico (ha cioè una struttura continua come un suono) diventa di fatto impossibile valutare il grado di probabilità con il metodo di Boltzmann. Occorrerà cambiare la struttura del messaggio, ad esempio digitalizzandolo (applicando il teorema del campionamento di Fourier), componendolo in singole unità discrete, aderenti al sistema più semplice inventato dall’uomo: il sistema che prevede solo due unità, |1| e |0|. In questo sistema l’unità di informazione è il bit che prevede solo due scelte.

La traduzione dei messaggi (sistemi) analogici in sistemi digitali è la spiegazione, ormai a tutti nota, della rivoluzione delle tecnologie dell’informazione e della comunicazione che ha caratterizzato la nostra recente epoca.

La relazione che ho voluto descrive tra l’entropia e l’informazione mi permetterà poi, nella seconda parte del libro, di dare una dimensione “epistemologica” agli approcci e ai paradigmi della business intelligence, in ordine all’uso strategico dell’informazione per la competitività delle imprese e più in generale, oserei dire, per la sostenibilità e sopravvivenza delle società umane caratterizzate oggi da una crescente complessità, e lontani da un qualsiasi stato di equilibrio.

Mi affascina in questa sede portare la vostra attenzione ai paradigmi della termodinamica, non tanto quella classica (il cui oggetto di studio sono i sistemi prossimi all’equilibrio), ma quella che ci spiega i processi irreversibili dei sistemi (di diversa natura, sia essa biologica, sociale, ed economica) che sopravvivono grazie al fatto di essere inesorabilmente attraversati da flussi di materia, energia e informazione, e distanti dallo stato di equilibrio.

L’analogia nasce dai sistemi complessi come sono gli organismi viventi, caratterizzati da bassi livelli di entropia, attraversati da flussi di informazione (di natura genetica, generata dai processi di simbiosi, o generata dalle relazioni con l’ambiente esterno), che creano stati di ordine, espellendo all’esterno l’eccesso di entropia che altrimenti li disintegrerebbe.

Tutto ciò ci porta a considerare che, così come in natura, una struttura, una organizzazione, una società, sopravvive solo se è immersa nei flussi informativi e sa, grazie a quest’ultimi, adattarsi pro-attivamente nelle continue relazioni con l’esterno o con altre entità appartenenti allo stesso eco-sistema.

A differenza dalle macchine che pongono la loro “aspettativa di vita” nell’intelligenza “cablata” e data a priori nei lori circuiti o nei propri organi meccanici, una struttura complessa (organismi viventi) necessità che la circolazione di informazioni non si arresti mai, che i canali comunicativi siano sempre aperti, pena l’implosione e l’agonia comportamentale.

Fonte: Gianni Previdi – Il Valore dell’Informazione – 2009 – Franco Angeli



twitterlinkedin