L'uomo è abituato a parlare, leggere e scrivere in sequenza poiché i suoi organi sensoriali lavorano spontaneamente in questo modo. L'udito e la vista captano i messaggi uno dietro l'altro e dunque la comunicazione vocale prima e la scrittura poi sono state strutturate senquenzialmente. Tuttavia l'uomo non pensa sequenzialmente, al contrario la mente opera secondo associazioni di idee e di concetti che
arrivano ad elevati livelli di complessità e che
potremmo rappresentare con ramificazioni, ritorni indietro, salti ecc.: un diagramma intricato oltre misura. Ad esempio per ragioni culturali siamo soliti collegare Giulio Cesare alla città di Roma ed alla sua storia in specie alla nascita dell'impero, l'impero a sua volta è legato all'evoluzione della città. Il grafo offre un piccolissimo, microscopico esempio del modo con cui noi organizziamo le idee.


Nel 1966 Ted Nelson, sociologo e filosofo americano, ideò una struttura informativa complessa e conforme alle dinamiche del pensiero. Il sistema battezzato ipertesto (hypertext), accede alle informazioni secondo un percorso variegato e multiplo. Permette nella scrittura e/o nella lettura di seguire senza forzature la dinamica della mente, raggiungendo di volta in volta le informazioni che sono logicamente e fisicamente connesse. Un esempio di ipertesto viene da queste pagine dove il lettore trova la dicitura: (vedi risposta x), la quale raccorda una risposta con un'altra e questa ne richiama un'altra ancora,

Esempi di ipertesti si trovano in tutta Internet, poiché solitamente le pagine web collegano pagine dello stesso sito o collocate lontano anche all'altro capo del mondo. In una pagina web troviamo infatti bottoni, tendine, finestre ed anche semplici parole che, una volta che ci clicchi sopra, immediatamente ti danno il testo collegato. Si può dire che tutto il world wide web è un unico ipertesto globale (vedi anche risposta 12)

 

Gli ipertesti non sono esclusivi dell'informatica. Talora i libri tradizionali contengono note, collegamenti, citazioni e referenze che creano una forma rudimentale di ipertesto su carta.

Solo con l'elettronica l'ipertesto diventa uno strumento potentissimo e veloce, raccorda i documenti più vari: carte geografiche, mappe, diagrammi, nuovi ed antichi reperti, ecc. Quando l'ipertesto collega forme mediatiche diverse: documenti scritti, brani musicali, video, filmati ecc. si parla di ipertesto multimediale (hypermedia).

 

I documenti collegati si dicono tipicizzati se sono state appositamente organizzati per lo scopo. In caso contrario sono informazioni che esistono per proprio conto e vengono richiamati da altri così come sono. L'ipertesto è statico quando i collegamenti vengono fissati una volta per tutte. E' invece dinamico quando l'assetto viene modificato come nel caso di un insegnante che prepara il materiale e continuamente lo aggiorna. Ad esempio la nostra rubrica 'Capire l'Informatica' è un ipertesto tipicizzato e dinamico.
 

L'unico limite dell'ipertesto è che esso di regola non è analitico, cioè  lavora mediante parole-chiave o puntatori (chiamati link) i quali non raggiungono il dato particolare che interessa ma di regola connettono l'intera pagina che contiene il particolare. Per cui il lettore il dato particolare se lo deve cercare all'interno della pagina.

 

anno 2009

171.Si parla quotidianamente di ipertesti, ma ho le idee confuse.

172.Il professore ci ha consigliato di programmare mediante una maschera ma non ho capito molto bene.

Nella programmazione si chiama maschera (in inglese mask) uno strumento che serve per controllare la rappresentazione di un insieme di dati.

Supponiamo che un programma deve stampare due tabulati i quali servono uffici diversi. Ogni ufficio ha esigenze proprie e vuole che i dati vengano disposti in modo conveniente per il proprio lavoro. Allora il programma software calcola i dati AAA, BBBB, CCC e DDD, e poi usa due maschere per preparare il primo ed il secondo formato pagina.

 

Nella programmazione imperativa la maschera di solito è una dichiarativa (vedi risposta 151) che si codifica con metodi diversi a seconda del linguaggio e di altre esigenze tecniche.

In particolare la maschera occupa un suo specifico spazio di memoria quando ad esempio è una PIC X in Cobol. Non occupa spazio se la maschera è una Dummy Section in Assembler ad esempio.

La maschera si usa anche al di fuori della programmazione classica. Ad esempio si vuole rappresentare una serie di dati statistici e si crea la seguente maschera che verrà riempita in un secondo tempo.

 

 

La maschera assicura che i dati andranno visualizzati in un certo modo e se uno vuole cambiare tale veste grafica, basta che cambia la maschera ed il gioco è fatto.

  

 

anno 2009

Claude Shannon nel 1948 definiva una rigorosa teoria al fine di calcolare le condizioni ottimali del canale e dei dati ivi trasmessi. La misura base è l'entropia H

Dove pi è la probabilità del generico dato elementare i trasmesso. Come esempio prendiamo un testo composto dalle 23 lettere dell'alfabeto latino le quali sono i dati elementari del testo e sono più o meno frequenti cioè si presentano con probabilità pa, pb,  pc, ... pz. L'entropia indica quanti bit sono necessari per codificare le lettere dell'alfabeto trasmesse nel canale con probabilità pa, pb,  pc, ... pz.

L'entropia ha quattro principali caratteristiche.

1) Tra i circa venti teoremi dimostrati dall'autore ricordiamo il primo teorema di Shannon o teorema sulla codifica di una sorgente il quale asserisce che una sorgente di segnali non può essere rappresentata con un numero di bit inferiore alla sua entropia. In pratica H fornisce il numero minimo di bit necessari per tradurre un generico messaggio in binario, come è stato spiegato con le lettere dell'alfabeto.

2) Shannon assume che H sia la quantità di informazione trasmessa. Infatti l'entropia aumenta quando aumenta il numero n dei segnali elementari.

3) L'entropia cresce man mano che i dati elementari diventano equiprobabili e diminuisce quando le loro probabilità sono sbilanciate. Se i dati hanno tutti la stessa probabilità vuol dire che il ricevente ha la massima insicurezza su ciò che arriva. Invece quando un dato è altamente probabile e gli altri sono improbabili, il ricevente ha una precisa propensione su quanto verrà trasmesso. Questo vuol dire che H è collegata all'incertezza.

4) L'entropia termodinamica aumenta con il mischiarsi delle molecole di un gas ed H dipende dalla distribuzione più o meno caotica dei dati elementari. Dunque tra le due entropie c'è una certa correlazione ovvero si può dire che un gas costituisce una fonte di informazione di cui H dà il valore.

 

La teoria di Shannon viene richiamata in molti lavori teorici ed è fondamentale in alcuni settori pratici. In particolare nell'ICT (information and communication technology) serve per dimensionare i canali trasmissivi, per la compressione dei dati, per la crittografia, per il pattern matching e qualche altra applicazione.

 

Intorno al lavoro di Shannon con il passare degli anni è cresciuta una enfasi che vorrebbe porla come universale interpretazione dell'informazione e che invece stride con i suoi limiti.
Un aspetto fortemente criticato è che la teoria non tiene conto della semantica dell'informazione cioè del suo significato la quale, da che mondo è mondo, viene riconosciuta come la stessa ragione d'essere dell'informazione.
A cosa servirebbe infatti una informazione senza significato ?

Un critica serrata è stata condotta da molti esperti i quali non negano l'utilità di H sul piano tecnico ma ne contestano il valore come unica interpretazione dell'informazione. La pretesa universalità non regge alle innumerevoli situazioni che l'entropia non spiega. Anche in ambito tecnico la teoria di Shannon, che risale a più di 50 anni fa, dimostra evidenti limiti alla luce delle più recenti applicazioni vedi ad esempio il web semantico, l'Intelligenza Artificiale ed altri lavori che si basano sulla semantica e che essa non tratta (vedi anche risposta 72).

 

 

anno 2009

173.Mi
può riassumere
l'entropia e l'informazione
in breve?