L’attuale formazione a distanza (FAD) ha radici interessanti dal punto di vista storico perché è un pò il punto di confluenza di due indipendenti filoni didattico-tecnologici supportati da macchine e da canali di comunicazione.

(A) - Nella seconda guerra mondiale l’esercito americano doveva addestrare un alto numero di persone piuttosto alla svelta e per tale ragione cominciarono ad utilizzare delle ‘teaching machines’ le quali fornivano pagine da studiare e poi ponevano quesiti. Quando l’allievo non rispondeva con sufficiente precisione, la macchina lo rimandava indietro per migliorare la sua preparazione. Poteva definirsi studio autodidattico con controllo meccanico. Va da sé che si trattava di una formazione operativa, per niente elevata dal punto di vista dei contenuti, e prevalentemente orientata alla popolazione adulta.
Diverso tempo dopo, alla fine degli anni sessanta, a seguito della diffusione degli elaboratori fu ripreso questo metodo di fare formazione. I sistemi digitali potevano impartire lezioni in modo ancor più sofisticato di quanto non facevano i macchinari usati durante il conflitto mondiale. Per l'insegnamento 'meccanizzato' furono definiti linguaggi di programmazione appositi (es CourseWriter ed APL) così che i corsi venivano preparati con una certa facilità.
Nonostante l’enfasi che sempre accompagna ogni nuova applicazione informatica, gli specialisti europei si mostrarono molto più scettici rispetto ai colleghi americani, e non perdevano occasione per sottolineare i limiti delle nuove metodiche. Di fatto avvenne che il computer based training (CBT) fu sfruttato soprattutto dalle aziende dello stesso settore informatico che preparavano tecnici propri e delle società clienti. La metodica non ebbe un successo esteso, anche per i bassi contenuti che potevano essere illustrati.

(B) - La seconda esperienza didattica si incentrò nell’uso di canali comunicativi di volta in volta disponibili. Come primo canale fu usato il servizio postale. Alcune scuole, per lo più private, spedivano il materiale di studio agli allievi localizzati in varie città, li seguivano e li esaminavano sempre via posta. In Italia negli anni cinquanta divenne famosa la Scuola Radio Elettra dedicata alla preparazione di tecnici riparatori radio e tv. Un secondo filone tecnico-didattico usava la televisione per veicolare le lezioni. La posta continuava ad essere utilizzata per stabilire un contatto personale tra l’insegnante e l’allievo. La trasmissione ‘Non è mai troppo tardi’ condotta dal maestro Alberto Manzi ebbe molto successo tra il 1960 ed il 1968.

 

Negli anni novanta con la diffusione di Internet si registrò un svolta. Le tecnologie digitali erano ormai mature per forme comunicative multimediali, la rete assicurava il collegamento bidirezionale con qualsiasi angolo del mondo, le memorie di massa avevano grandi capacità, si pensi alla tecnologia cloud (vedi Risposta 206). I filoni didattico-tecnologici (A) e (B) si fusero per mettere in piedi la moderna formazione a distanza la quale riscosse l'immediata attenzione da parte, ad esempio, delle aziende che avevano necessità di preparare o aggiornare la formazione del personale distribuito su un ampio territorio (es. la rete dei concessionari di automobili). Ancora riscosse l’attenzione degli enti governativi responsabili della preparazione scolastica di giovani dislocati su vasti territori come ad esempio in Australia ed in Cina.

L’elemento centrale dell’insegnamento a distanza è la piattaforma o learning management system (LMS) la quale è provvista di apposito database ed offre funzioni di vario tipo quali la connessione remota con gli studenti, l’uso di altre piattaforme (es. YouTube), le statistiche dei risultati, l’asincronia dei vari interventi, la compatibilità con strumenti mobili, la lavagna virtuale, il materiale didattico da parte di terzi (es. Istituto Treccani, Rai). Ricerche specifiche continuamente potenziano e migliorano queste funzioni didattiche.
Gli insegnanti italiani possono servirsi di LMS messe a disposizione in modo gratuito; tra le principali ricordiamo GSuite, Office 365 Education, Moodle, Claroline, Docebo.

La formazione a distanza offre palesi vantaggi quali la riduzione dei costi di gestione, la possibilità di raggiungere numerosi allievi, di insegnare ad allievi vincolati da orari (ad esempio per lavoro), la fornitura di materiale talora suggestivo. Vanno nel contempo sottolineate le sue difficoltà.
- La formazione a distanza sminuisce l'interazione empatica tra docente e studente.
- La tecnologia costituisce un ostacolo per coloro che sono poco avvezzi al suo uso.
- A monte richiede una specifica ed onerosa preparazione della lezione.

Questo è appunto l’ostacolo che molti insegnanti stanno scoprendo ora. Infatti un corso FAD dovrebbe essere realizzato mediante un progetto specifico cui partecipano vari esperti: insegnanti della materia, tecnici di sistema, specialisti del LMS ecc. La completa realizzazione richiede talvolta parecchie settimane dunque l’emergenza imposta dal Coronavirus ha portato ad un evidente stress che – quel che è peggio – non era né previsto né ben valutato dagli interessati.

Anche dalla parte degli studenti il FAD è impegnativo sotto vari punti di vista. Un’ora di lezione davanti al video è ben più pesante di un’ora in classe. La fissità imposta dai supporti digitali non trova confronti. Tanto per fare un paragone, la legge prevede che i lavoratori impegnati al terminale facciano periodicamente delle pause. Dunque l’insegnamento a distanza va calibrato seguendo criteri che non si possono stabilire una volta per tutte e che dipendono anche dalla sensibilità del corpo docente.

 

Indietro

anno 2020

265. In questo periodo noi docenti siamo alquanto stressati dall’insegnamento a distanza: chi ha inventato questo metodo?
 

266.  A più riprese la TV parla della futura rete unica ultraveloce.

L’epidemia di Covid ha imposto il distanziamento sociale ed ha prodotto significativi cambiamenti nella vita di molte persone. Sono aumentati i contatti telefonici, abbiamo assistito al diffondersi del lavoro da casa (smart working), dell’insegnamento a distanza, degli spettacoli con pay-tv, richiesta di big-data ecc. (Risposta 236 e Risposta 243).

L’accresciuta domanda di servizi telematici ha sovraccaricato le reti di telecomunicazione ed ha stimolato nuovi investimenti. Purtroppo la privatizzazione selvaggia avvenuta in Italia negli anni novanta ha prodotto disservizi ben noti in vari settori (vedi il caso autostrade). Nelle telecomunicazioni esistono una pluralità di reti wi-fi che producono diverse inefficienze. Riunendole tutte in una struttura integrata si verrebbero a creare notevoli sinergie e potenziamenti che spianerebbero la strada verso la quinta generazione (5G). La rete ultraveloce 5G oltre a rispondere alle aumentate richieste sopra ricordate fornirebbe benefici aggiuntivi, ad esempio aiuterebbe la competitività delle imprese e la ripopolazione di parti del Paese che si stanno svuotando.

Il 5G è l'ultima tecnologia disegnata per aumentare la velocità e la reattività delle reti. Si prevede una velocità di download pari ad almeno 20 gigabit al secondo (Gbps) e una velocità in upload minima di 10 Gbps. I tempi di latenza scendono al di sotto del millisecondo quanto mai necessari per avere risposte in tempo reale. La tecnologia 5G non richiede sovvertimenti strutturali, si basa sulla Long-Term Evolution adottata per il 4G con frequenze maggiori che si collocano tra i 30 ed i 300 gigahertz (GHz) (riguardo le tecnologie 1G, 2G, 3G e 4G vedi Risposta 218). A differenza del 4G, che richiede torri grandi e ad alta potenza per irradiare segnali su larghe distanze, i segnali 5G sono veicolati da onde millimetriche (Risposta 45) i quali si comportano in modo simile alla normale luce. Si diffondono dunque in linea retta e sono soggetti alle interferenze causate da agenti atmosferici e da ostacoli fisici, in conseguenza richiedono un gran numero di piccole stazioni distribuite un po' dovunque sopra pali della luce o tetti di edifici ad esempio. L'industria wireless sta anche considerando l'abbassamento delle frequenze con un compromesso che farebbe riutilizzare le stazioni che già si possiedono.

La tecnologia 5G si sta diffondendo nel mondo e l’Italia è tra i primi paesi essendo servite alcune grandi città dalla nuova tecnologia.

 

Indietro

anno 2020


La sigla sta per Internet Protocol Television dunque non è altro che un protocollo, uno dei tanti, che servono per trasmettere dati tra gli utenti di Internet, in particolare esso è specializzato per gestire i segnali televisivi. Ha due modalità di funzionamento distinte: una per riprese in diretta e l'altra per trasmissioni on demand.

IPTV è piuttosto diffuso in tutto il mondo ed utilizzato da parte delle società pay-tv che fanno vedere spettacoli televisivi dietro pagamento, di solito in abbonamento.

Immagino che la sua domanda sia stata motivata dai recenti fatti di cronaca rimbalzati sui mass media. Approfittando di lacune legislative che proteggono i diritti d’autore alcune organizzazioni trasmettevano mediante IPTV – a prezzi stracciati – eventi sportivi e spettacoli riprendendoli in maniera illegale da varie emittenti. Per questa ragione la guardia di finanza ha colpito tali organizzazioni oscurandone i siti, sequestrando i server ed altre apparecchiature. In aggiunta ha accusato di ricettazione chi è cliente di questi servizi.
C'è da dire che colpisce la vastità delle strutture che servivano oltre 150.000 utenti attirati dalla varietà degli intrattenimenti offerti e dai bassi prezzi.

 

Indietro

anno 2020

267. Che significa la sigla IPTV?
 

268.  Alcuni dati non sono rintracciabili in Internet, perché?

In Internet talora si pongono problemi di riservatezza nel senso che alcuni dati vengono messi a disposizione delle persone interessate però non è bene che gli stessi dati siano spiattellati a tutti. Per esempio, le amministrazioni locali in ossequio alla legge sulla trasparenza devono pubblicare le cifre pagate ai loro consulenti. I dati sono fruibili dietro accesso diretto ma spesso si preferisce non farli rintracciare mediante i motori di ricerca. Accanto a questa riservatezza del tutto legittima ci sono occultamenti illeciti che sono propri ad esempio del web profondo di cui abbiamo parlato nella Risposta 208.

Il principale strumento per limitare gli accessi è il file robots.txt, proprio di ogni sito web, il quale riporta le regole cui dovrà sottostare il motore di ricerca se gli verranno richiesti i contenuti di quel sito. In particolare, ogni riga del robots.txt riporta le pagine che non potranno essere accedute liberamente ed il codice del crawler ovvero del motore. Infatti il motore di ricerca non accede direttamente al robots.txt ma lo fa in via preventiva un suo programma chiamato web crawler (spider o robot o knowbot vedi Risposta 210) il quale analizza tutti i siti della rete in modo sistematico. Esso legge il robots.txt di ogn sito traendone indicazioni per il motore di ricerca il quale dietro richiesta dell'utenza offrirà o meno la visualizzazione dei contenuti.
Questa tecnica talora risulta insufficiente perché se la pagina Y rimanda alla pagina X che si vuole proteggere, la pagina X potrebbe essere comunque raggiunta via Y nonostante l'interdizione di robots.txt. Per evitare questo, si protegge X tramite password oppure con l'istruzione noindex.
In pratica, nella <head> della pagina X si inserisce la seguente istruzione HTML con l'opzione noindex:

 <meta name="robots" content="noindex" />

Con queste tecniche, tutto sommato semplici, si limita il rintracciamento dei dati da parte dei motori di ricerca.

 

Indietro

anno 2020


Le soft skills sono 'capacità umane e conoscitive' oggi giudicate molto importanti nella vita lavorativa. Vengono contrapposte alle hard-skills che sono le competenze tecnico-professionali. Nel settore informatico queste si dividono in:
    - Digital-skills come ad esempio programmare, fare manutenzione del software, istallare apparecchiature.
    - Non-digital skills sono le competenze tecniche di solito legate al settore in cui si lavora. Ad esempio in una fabrica il capo progetto IT conosce bene i sistemi ed i macchinari di produzione, i quali costituiscono le sue competenze tecniche non-digitali.

 Talora le soft-skills vengono divise in competenze personali, sociali e metodologiche.

► Al primo gruppo appartengono, ad esempio, il senso di responsabilità, la motivazione, l'autodisciplina, lo spirito di iniziativa, il tenersi aggiornati.

► Tra le capacità sociali si ricordano la comunicazione in madrelingua, la padronanza delle lingue straniere, saper lavorare in gruppo, l'empatia, il sapersi integrare.

► Tra le abilità metodologiche ci sono la gestione dei carichi di lavoro, la capacità di pianificazione, il saper lavorare per obbiettivi.

Da diversi anni a questa parte le soft skills hanno acquisito importanza crescente nel settore informatico. Sono un fondamentale elemento di valutazione tanto da essere richieste nel curriculum vitae come nel suo caso. Si dice bene:

 "Le hard skills portano ad un colloquio, le soft skills fanno ottenere il posto di lavoro".

Gli esperti della gestione del personale hanno stabilito indicatori precisi. Il soft skill rate è la stima dell’incidenza percentuale delle soft skill all’interno della categoria professionale esaminata. In Italia l' Osservatorio delle Competenze Digitali ha rilevato che il soft skill rate assume un valore medio di circa il 28% per tutte le professioni ICT in Italia. Il peso è minore per figure professionali tecnico-operative ed aumenta per i dirigenti. Ad esempio viene attribuito un peso di oltre il 50% al soft skil rate dell'operation manager. 

 

Indietro

anno 2021

269. Cosa sono i soft-skills? Me li hanno chiesti nel curriculum
 

270.  Perché l'hard-disk si 'frammenta'?

L'hard disk possiede varie piste concentriche dove fisicamente vanno registrati i dati. L'utente è sollevato dal compito di decidere quali piste usare, quanto spazio prendere ecc. Questo lavoro viene svolto dal 'file system' o 'data manager' che è un componente del sistema operativo (vedi Risposta 46). Mentre l'utente vede il file come un qualcosa che occupa globalmente un certo spazio, il file system segue precisi criteri per collocarlo, aggiornarlo, cancellarlo ecc.

Quando il disco è nuovo il file system ha piste intere e contingue a sua disposizione. Al seguito di aggiornamenti, cancellazioni ed altre operazioni, ha porzioni di piste che con il tempo diventano sempre più piccine, disordinate e frammentarie. Il file system può  utilizzare porzioni di disco spezzettate e distanti tra loro per registrare un solo file, tuttavia tale soluzione diventa lenta ed inefficiente. Si dice che l'hard-disk è frammentato ed a quel punto risulta necessaria la 'deframmentazione' che consiste nel ricopiare i files archiviati in piste contigue e lasciare spazi liberi su piste il più possibile vicine tra loro.

 Lo 'spezzettamento' dell'hard-disk sopra descritto è un fenomeno fisico comune anche ad altri tipi di memorie es. floppy disk, pennette ecc. che vengono riorganizzati con gli stessi criteri.

 

Indietro

anno 2021


I microprocessori (Risposta 146) col progredire della tecnologia sono diventati più potenti, ed anche più complicati. Per espletare le connessioni con l’esterno il numero di piedini o pin del chip è cresciuto a dismisura. I costruttori hanno preparato una apposita piastra per cui oggi abbiamo due componenti:

- il core è il "nucleo elaborativo" contenente la CU, ALU ecc. cioè i circuiti.
- il socket sostiene meccanicamente il core e gli assicura i collegamenti elettrici con l’esterno.


Il core è spesso visibile come un piccolo rettangolo, leggermente sporgente al centro del socket.

pa71.jpgpa72.jpg


Fino agli anni duemila la potenza elaborativa cresceva con l’aumentare della frequenza che è la velocità di clock (Risposta 174). Sul principio il metodo rimase gestibile ma poi cominciò ad andare fuori controllo. Il grafico seguente mostra come passando da 1,5 a 3,0 GHz, cioè raddoppiando la frequenza c’è un modesto aumento di potenza assorbita, ma passando da 2,5 GHz a circa 5,0 GHz a la potenza assorbita cresce più del doppio con conseguente riscaldamento.

pa73.jpg


Era evidente che la frequenza non poteva essere aumentata a dismisura, ed i progettisti di microprocessori hanno introdotto una soluzione da tempo praticata nei supercomputer (Risposta 107). Invece di un solo core hanno raddoppiato il numero (dual-core), poi sono passati a quattro, ad otto ecc. In questo modo anche il riscaldamento dei chip risulta meglio controllabile. Dunque un socket sostiene uno, due o più core.

 

Indietro

anno 2021

271. Che cos’è il core? ...
 

272. ... e l'ARM?

In genere, i computer desktop utilizzano l'alimentazione della rete, le batterie non hanno limiti di peso, hanno un processore grafico ed un efficiente sistema di raffreddamento. Al contrario gli smartphone, i tablet, i laptop, i dispositivi IoT (Risposta 236) ed altri portatili si alimentano soltanto con batterie le quali per giunta devono essere piccole, non hanno spazi per un sistema di raffreddamento. Il problema è veramente consistente ecco perché l’industria elettronica si specializza su due grandi filoni. Ad esempio Intel e AMD lavorano soprattutto per computer fissi; Qualcomm, Apple, Samsung implementano sistemi mobili.


I processori RISC furono originariamente sviluppati negli anni '80 senza avere un grande impatto sul mercato (Risposta 99) oggi sono tornati di grande attualità. Verso gli anni 2010 la società ARM Holdings ha riproposto l’architettura RISC per servire dispositivi mobili. I microcroprocessori ARM (Advanced RISC Machine) a 32bit e poi a 64 bit offrono vantaggi palpabili. Il ridotto set di istruzioni richiede meno transistor e quindi minore assorbimento di energia (dell’ordine di decine di volte di meno). Per la sua semplicità ARM ha costi più bassi ma come contropartita è meno potente ovvero è ‘più lento’ del desktop.
La ARM Holdings non produce direttamente i chip, ma progetta lo standard architetturale e concede in licenza di costruzione ad altre aziende. Questo è il motivo per cui ci sono tante varianti di processori ARM ed ognuna sembra funzionare diversamente. A complicare ulteriormente le cose, il software deve essere progettato specificamente e non è compatibile o esportabile da altre architetture.

Indietro

anno 2021


Il doxer è colui che fa il doxing che è una contrazione di dropping dox dove 'drop' significa distribuire e 'dox' è una forma gergale di 'docs' cioè documenti. Il doxer è un individuo che raccoglie e diffonde nella rete i dati sensibili  di un cittadino senza il suo consenso come ad esempio l'indirizzo di residenza ed il numero telefonico, ma anche informazioni sul suo lavoro, sulla sua fedina penale ecc.

La divulgazione intenzionale di informazioni personali online ha due aspetti opposti.

1) Quando ha lo scopo di attaccare, punire, intimidire o umiliare una vittima si configura come una attività di dossieraggio finalizzata al pubblico discredito, un vero e proprio reato per cui la vittima può sporgere denuncia al Garante della privacy.

2) Quando il doxing è rivolto contro criminali o autori di pratiche occulte diventa un modo utile per portare le azioni fortemente sospette all'attenzione delle autorità e dell'opinione pubblica. In questo caso il doxing ha una valenza positiva. 

A causa dei diversi scopi che vengono perseguiti, la discussione sulla legalità o meno del doxing è aperta e le opinioni rimangono controverse. Infatti fanno doxing hackers malevoli e seri giornalisti.

Il doxer di regola raccoglie i dati nella rete e dunque per non restare vitima di attacchi resta sempre valida la raccomandazione di comportarsi con cautela, di non fornire dati personali entro Internet con disinvoltura, di sospettare potenziali fishing (Risposta 136 e 253) in modo da non dare noi stessi informazioni private e diventare complici di un cyberbullismo a nostro proprio danno.

 

Indietro

anno 2021

273. Il doxer è una nuova figura professionale?