L’era dell’informazione secondo l’ingegneria e la matematica

Se c’è appellativo con cui questo periodo storico passerà alla storia, molto probabilmente avrà a che fare con l’informazione. L’ICT, cioè le tecnologie dell’informazione, permeano la nostra quotidianità. Ma, esattamente trattandosi di tecnologie, gli ingegneri come vedono l’informazione?

La comunicazione

In primis per comunicare si individuano tre “attori”: trasmettitore, canale e ricevitore. Il trasmettitore è chi invia, il canale è la tecnologia che porta l’informazione e il ricevitore è chi riceve. Per esempio quando invio un messaggio il mio telefono è il trasmettitore, il canale è la rete telefonica e il ricevitore è lo smartphone del destinatario. Il canale può essere influenzato dal rumore, detto noise. Esso è difficile da rimuovere e può rendere inutile la trasmissione.

Esistono vari tipo di comunicazione: unidirezionale, bidirezionale, in cui il ricevitore e il trasmettitore sono coincidenti, con ricevitore ignoto e con trasmettitore ignoto. La monodirezionale e la bidirezionale sono quelle che comunemente usiamo. Le altre le vediamo comunque comunemente ma spesso non ce ne rendiamo conto: basti pensare che una semplice ecografia rappresenta un esempio di comunicazione in cui trasmettitore e ricevitore sono coincidenti, infatti inviando un segnale e vedendo come ritorna vediamo come si comporta il canale, cioè i tessuti da analizzare.

L’informazione

L’informazione si compone inoltre di tre aspetti importanti:

  • Sintattico, che riguarda la grammatica o la sintassi usata per la descrizione, memorizzazione o trasmissione di un messaggio.
  • Semantico, che riguarda il significato del messaggio.
  • Pragmatico, che sarebbe lo scopo del messaggio.

La definizione matematica dell’informazione

Matematicamente l’informazione viene definita da Shannon in questo modo: “Il contenuto di informazione (l, in bit) di un messaggio relativo ad un evento accaduto con una probabilità di occorrenza pari a p:

l=-log2(p)  con  0≤p≤1

Questa definizione sta  a significare che un evento che si verifica con una maggiore probabilità porta con sé un minor numero di bit di informazione, mentre un evento raro porta più informazioni.

Agli antipodi dell’informazione c’è un concetto squisitamente fisico, anzi termodinamico, l’entropia. Per definizione l’entropia è il disordine infatti l’entropia dell’informazione è definita come l=-E dove è l’entropia.

 

Bit & byte

Si è parlato di bit. In effetti le informazioni in ingegneria vengono espresse in bit. Un bit non è altro che un valore che può assumere due valori: 1 o 0. Per compensare concetti complessi, del resto nulla nel mondo è solo bianco o solo nero, si usa un multiplo del bit, cioè il  byte. Il byte contiene 8 bit. In questo modo con un singolo byte si possono avere 2^8 valori diversi, cioè 256 “sfumature”.

La parola byte avrà sicuramente combaciato nella mente di qualcuno con le memorie degli smartphone o con al quantità di dati che l’operatore telefonico mette a disposizione. In effetti è così, solo che ormai anche nell’elettronica di consumo, si usano i multipli del byte. Essi hanno esattamente gli stessi prefissi delle altre unità di misura del sistema internazionale (si veda l’articolo “Ho preso 3 perché non ho messo le unità di misura, ma non servono a nulla!” a riguardo, nel caso si volesse approfondire) a partire dal kilo. La differenza principale sta nel fatto che ogni “prefisso” non si ottiene moltiplicando per 10 ma equivale ad una potenza del 2. Porto un esempio, perché è più comprensibile di mille definizioni: 1kB (kilobyte) è 2^10 byte, cioè 1024 byte. Se voglio considerare i MB (megabyte) dovrò moltiplicare per 2^20 e avrò 104857 byte e così via.

In questo modo è possibile rappresentare tutte le lettere dell’alfabeto secondo una specifica codifica, detta ASCII, oltre che rappresentare tutti i numeri, anche usando più byte.

Lascia un commento

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.