La stampa 3D in cucina? Sembra proprio di si. E presto potremmo trovarci nella condizione di sentirci dire da nostro figlio: “Mamma, stasera per cena mi stampi la pizza?”.
Solitamente in Italia, quando si parla di innovazione nel mondo alimentare, tutti si mettono sulla difensiva e gridano “Eresia!”. A quanto pare non più. Già da qualche anno infatti il settore del “food printing” sta vivendo un periodo di grazia, vedendo il fiorire di un mercato totalmente nuovo che abbraccia ormai gli alimenti più disparati. Passando dalla cioccolata alla pizza 3D appunto.
Per quest’ultimo alimento poi si guarda già all’alta qualità, con collaborazioni come quella fra BeeHex e lo chef internazionale Pasquale Cozzolino, che ha contribuito al progetto di una macchina in grado di stampare pizze 3D. Mantenendo caratteristiche importanti come l’utilizzo del lievito madre.
Stampa 3D in cucina: il cibo diventa tecnologico
Il motivo è piuttosto semplice, come per la normale produzione industriale, con la stampa 3D si ha modo di abbattere fortemente i costi di produzione. Mantenendo uno standard qualitativo estremamente omogeneo sui prodotti.
Per quanto riguarda poi i prodotti, e non solo gli alimenti, composti da miscugli, quindi da miscele di polveri e solventi, come potrebbe essere il cemento, il processo risulta particolarmente favorevole. Riducendo al minimo la perdita di qualità rispetto alle tecniche realizzative tradizionali ed ottimizzando tempi e costi di produzioni.
La dimostrazione è la nascita delle prime società in grado di stampare case in 3D. Ovviamente la stampa riguarda solo lo scheletro e le parti in muratura. Tutti gli altri lavori vengono eseguiti con tecniche tradizionali. Ma a guardar bene non manca molto prima che si possa dire di avere una casa interamente stampata in 3D, arredi compresi.
unsplash.com
La prima abitazione di questo tipo costruita in Europa si trova a Milano, in piazza Beccaria, ad opera di Massimiliano Locatelli di Cls Architetti. Realizzato nel 2018, si tratta di un edificio di 100 mq distribuiti su un solo piano. Sono attualmente in corso gli studi per la realizzazione del secondo piano. Segno evidente che non sono ancora pienamente note le possibilità tecniche di questo sistema costruttivo. Ma l’entusiasmo generale è motivato dai promettenti risultati finora raggiunti.
Ad oggi le stampanti 3D iniziano a farsi largo nel mercato di massa, raggiungendo così prezzi abbordabili e prestazioni elevate. Ma purtroppo la gamma si limita ai modelli in grado di stampare polimeri plastici o vegetali. Materiali utilizzati principalmente per gadgettistica ed elementi d’arredo, in quanto ovviamente ogni modello è predisposto per stampare solo una limitata qualità di materiali.
Manca ancora del tempo quindi prima di frasi tipo “Te le ricordi le lasagne di nonna?! Come le stampava lei…”
Tutti conoscete l’animazione digitale, ma vi siete mai chiesti come si realizza un cartone animato? Le tecniche di animazione digitale hanno subito qualche variazione nel tempo. Più che altro si tratta di facilitazioni, in effetti. Ma i metodi rimangono all’incirca identici. In particolare se parliamo di animazione 2D.
L’animazione tradizionale
Il sistema più conosciuto è quello a cui ci ha abituati la Disney con i suoi grandi classici, come “la Sirenetta” o “Il Re Leone”, tanto che viene chiamata “animazione tradizionale”.
In sostanza si tratta di disegnare ogni singolo fotogramma dell’animazione. Che verrà poi riprodotto come se fosse un normale fotogramma in pellicola, con qualche possibilità di variazione sugli fps [Nda: fotogrammi per secondo]. Di solito sono 24, anche se un valore più alto fornisce una maggiore fluidità di movimento. E di solito viene percepito come una maggiore qualità nella realizzazione.
Alcuni videogames, per esempio, raggiungono picchi di anche 200 fps per mantenere la fluidità necessaria ad alcuni movimenti particolarmente veloci. I giocatori più incalliti sapranno bene quanto è importante avere una buona visione della scena in questi momenti!
Animazione digitale, quanto è cambiata dagli inizi? (pixabay.com by DG-RA)
Il supporto del digitale all’animazione
Questa tecnica ovviamente comporta la necessità di ridisegnare moltissime volte gli stessi soggetti. E proprio come quando il Sig. Disney fondò il suo impero, ancora oggi questa necessità è viva e vegeta. Perché il software non è in grado di creare elementi dal nulla. Può solo aiutare a modificare o muovere cose che il disegnatore ha inserito a mano, alla vecchia maniera. Avendo anzi la difficoltà aggiuntiva di dover lavorare su un supporto che spesso non è confortevole come la carta.
Sicuramente poter cancellare senza rovinare il foglio è un grande aiuto. Così come l’automazione di moltissimi processi, la possibilità di suddividere i piani di profondità, come il soggetto o lo sfondo, senza doverli disegnare tutti ogni volta (un tempo si sarebbero utilizzati dei fogli trasparenti. Oggi si chiamano livelli, ma sono la stessa cosa. Ma da qui a dire che “tanto il lavoro lo fa il pc”, ovviamente ce ne passa.
Una cassetta degli attrezzi, ma molto più fornita
Questo per dire, purtroppo, che verso la creazione di contenuti digitali, si tratti di musica, di video o di immagini, c’è ancora molto mistero. Quindi, cose che potrebbero sembrare facili, in realtà si dimostrano ben più complesse. Si pensi ad esempio ai titoli di coda di un film di animazione. La lista dei nomi è lunghissima per una ragione specifica. Ognuna di quelle persone ha curato un aspetto specifico del progetto, così da ottenere il risultato migliore in ogni singola componente.
I software sono come della cassette degli attrezzi, spesso permettono di svolgere più agilmente un compito. Ma difficilmente possono rimuoverlo del tutto. La difficoltà è inoltre costantemente aumentata dalla richiesta del pubblico che, abituandosi in fretta, chiede di continuo prodotti migliori e più spettacolari.
Lucas vs Lucas
Un buon esempio per il confronto è la saga di Star Wars, considerando i primi sei film. Non per gusto ma perché i film a produzione Disney ed i primi tre capitoli della saga, cioè gli ultimi prodotti prima dell’acquisizione della società, sfruttano tecnologie molto simili, semplicemente aggiornate.
Mentre i film recenti sfruttano totalmente tecnologie digitali come ricostruzioni 3d ed effetti di post-produzione video, i vecchi film come quelli del ‘77 sfruttavano sistemi analogici. Per quanto la logica sia identica.
Nonostante stavolta non si tratti di animazione 2D ma 3D, il caso risulta ugualmente calzante.
Per le esplosioni delle navette, ad esempio, Lucas costruì dei modellini che posizionò davanti ad uno sfondo dipinto dello spazio. Iniziò poi a romperli seguendo i criteri di un’esplosione, simulando le fiamme con dell’ovatta colorata, scattando 24 foto al secondo. Così da poterle inserire come fotogrammi, secondo una tecnica chiamata “passo uno”.
Per i film più recenti invece, sono stati ricostruiti tutti i modelli, stavolta in un software 3d. Sono state inserite le luci, le texture per simulare i materiali, effetti particellari per simulare fumi, grane, combustioni e altri disturbi. Così da ottenere un’immagine meno pulita, più realistica. Poi è stata inserita una camera 3d per filmare la scena e tutti i modelli, camera inclusa, sono stati animati. Ovvero gli sono stati impartiti i comandi, dopo aver inserito un’ossatura (ad esempio per i “walkers”) a cui associarli.
Ovviamente, poi c’è la post produzione [Nda: fase terminale dei lavori di ripresa o animazione, durante la quale si aggiungono effetti, filtri, correzioni cromatiche e similari]. Nei film degli anni ‘80 si coloravano i laser sulle pellicole, fotogramma per fotogramma. Adesso si disegnano i laser in digitale, spesso fotogramma per fotogramma.
Star Wars – Animazione digitale, quanto è cambiata dagli inizi? (pixabay.com by Patrice_Audet)
Analogie e differenze
Analogie e differenze risultano evidenti, anche a chi non è allenato. I processi di creazione della medesima tipologia di prodotti si vanno raffinando nel tempo. Affilando gli strumenti grazie alla traduzione in digitale di moltissimi processi, mantenendosi invece pressoché inalterati nella struttura. La fotografia, allo stesso modo, si è resa più accessibile, meno severa nella realizzazione. Adesso le possibilità di fotoritocco sono estreme, così come le possibilità di scatto, grazie a nuovi sensori, nuove batterie, nuove ottiche. D’altra parte la pressione del mercato sull’abbattimento dei costi rimarrà sempre la voce dominante, per cui i Simpson li animano in Korea.
Il digitale è in continua evoluzione, il digital marketing pure. Basti pensare come ha rapidamente trasformato la società e le abitudini di consumo. Da una televisione ed un telefono per appartamento – nel 1970 – ad una moltitudine di apparecchi multimediali e iper-intelligenti (ovvero “Smart”): PC, smartphone, laptop, Smart Tv, consolle per gaming, apparecchi per la realtà virtuale e chi più ne ha più ne metta.
Uffici, sale operatorie, concerti, informazione e mezzi comunicativi; tutto è cambiato radicalmente da vent’anni a questa parte. Non abbiamo più risme e risme di carta e documenti contabili cartacei, basta un PC portatile; ai concerti non utilizziamo più gli accendini per creare coreografie sceniche su invito della star, piuttosto facciamo video con lo smartphone; il giornale praticamente non lo legge più nessuno, perché si può trovare tutta la stampa del mondo con uno smartphone.
Questi, come mille altri esempi sono ciò che potrebbe essere definito come “il panorama digitale” odierno. E l’offerta di prodotti e servizi, non segue più quelle logiche proprie del secolo scorso, – dove la più generale pubblicità veniva offerta al pubblico più indifferenziato – mutando invece in una dimensione sempre più individuale, sempre più iper-personalizzata. Il mercato offre specifici prodotti a specifiche categorie di consumatori, o addirittura a specifiche persone!
I numeri del digital marketing
Nel mondo vivono circa 7,5 miliardi di persone. Quattro di queste hanno accesso a internet. Tre di queste sono utenti di almeno un social network. Cinque miliardi di persone posseggono uno smartphone e 2,7 miliardi di essi lo utilizzano per accedere a Internet o ai socials.
Photo credit: typographyimages, by pixabay
Con un focus su Internet, circa il 51% della popolazione mondiale ne ha usufruito almeno una volta e, tramite smartphone (i cui possessori sono quasi quattro miliardi), circa il 92% ne usufruisce quotidianamente. Parlando di social, circa il 40% della popolazione mondiale ha un account su almeno un social e 37% di questi vi accede principalmente tramite smartphone.
Il digitale in Italia
Volendo definire la situazione italiana, sappiamo che su circa sessanta milioni di italiani (popolazione totale censita), il 60% di questi (quasi quaranta milioni) ha accesso a internet, e il 52% utilizza piattaforme social. Inoltre, più dell’85% degli italiani possiede uno smartphone e il 50% di essi è attivo sui social.
Potremmo stare qui per giorni a mostrare statistiche e cifre del mercato dei social in Italia e nel mondo, ma tutta questa carrellata di numeri, serve a fare un semplicissimo ragionamento: se tutte queste persone sono così “addicted”, dipendenti e, in qualche modo, persuase dalle nuove tecnologie digitali, il mercato che si prospetta per le nuove strategie di marketing è spaventosamente ampio.
Che si parli di social media marketing (che da solo meriterebbe un discorso a parte) o che si parli del marketing digitale più “tradizionale” (e-mail marketing, banners, advertising, commercials ecc.) è lampante quanto – in termini prettamente monetari – l’orizzonte sia potenzialmente infinito.
Previsioni nel settore del digital marketing: +80% in 5 anni
Recenti stime (inizi 2018) affermano che il flusso di denaro per quelle branche di aziende che si occupano di comunicazione commerciale e marketing digitale aumenterà di circa l’80% in 5 anni. Stiamo parlando di fiumi di miliardi (!).
Concludiamo questo excursus con alcuni simpatici aneddoti sulle principali società digitali del nostro tempo.
UBER: la più grande compagnia di “taxi” al mondo, non possiede neanche un taxi.
ARIBNB: il maggiore fornitore di alloggi, non possiede immobili a lui intestati.
SKYPE / WE CHAT: le più grandi phone companies non possiedono infrastrutture telefoniche.
ALIBABA: il rivenditore più quotato al mondo non ha nessun archivio merci.
FACEBOOK: il social media più popolare che ci sia, non ha alcun contenuto creato da sé.
NETFLIX: la più grande movie house non possiede sale cinematografiche.
GOOGLE / APPLE: i maggiori rivenditori di software non “scrivono” app.
Si sente sempre più parlare di supercomputer, costose quanto sofisticate macchine, che hanno reso possibili molte ricerche e scoperte scientifiche nei campi più disparati. Le intelligenze artificiali (AI), le galassie virtuali, le analisi molecolari, le previsioni meteorologiche, simulazioni fisiche, e molto altro ancora.
Che cos’è un supercomputer?
Ma perché questi super calcolatori rendono tutto questo possibile? Per “supercomputer” si intende un’unità di calcolo progettata per operare ad altissime prestazioni. Processando enormi quantità di dati e variabili parallelamente.
Basti pensare a varie operazioni matematiche che, piuttosto che essere eseguite sequenzialmente, cioè una per volta, vengono eseguite nello stesso istante.
Si capisce bene che per applicare un tale processo a quantità di dati molto estese, servono dispositivi in grado di svolgere queste attività quasi istantaneamente.
Ad oggi, i computer diffusi per uso comune sono dotati di processori con prestazioni non molto distanti da quelli utilizzati da queste potenti macchine. Sebbene queste ne posseggano decine o centinaia di migliaia, collegati tra loro per formare un unico e super performante computer.
supercomputer
La nascita dei supercomputer
I supercomputer non sono un fenomeno recente. Difatti la loro storia inizia già nella prima metà del secolo scorso. Ed affonda le proprie radici addirittura nel XIX secolo, condividendo i principi della macchina analitica ideata da Babbage. Considerato il primo scienziato proto-informatico, per primo concepì l’idea di un calcolatore programmabile.
Molti esperti informatici fanno risalire i supercomputer agli anni ‘50, individuando nel NORC, prodotto da IBM, il primo super calcolatore. Sebbene possedesse un decimo della capacità di calcolo di un odierno smartphone, e fosse dotato di un singolo processore, sarebbe stato il precursore delle tecnologie odierne.
Il vero boom nello sviluppo dei supercomputer avvenne tra gli anni ‘60 e ‘70, anche grazie al più famoso pioniere del campo, Seymour Cray, che negli anni seguenti avrebbe rappresentato il leader indiscusso nel settore del supercalcolo.
Introdusse lui i sistemi di raffreddamento a liquido, e l’idea di riunire le componenti nelle famose torri. Che riducono drasticamente i tempi di comunicazione tra i dispositivi interconnessi.
Tra la fine degli anni ‘80 e inizio anni ‘90 si sviluppò il parallelismo massivo. Cioè la connessione di centinaia, se non migliaia, di macchine parallele. Dovuto alla diminuzione dei costi di produzione a causa delle prime produzioni in scala dei componenti informatici. Da allora lo sviluppo e la produzione dei supercomputer sono cresciuti esponenzialmente. Complice sia il crescente numero di utenti che utilizzano il PC, sia per la diffusione dei giochi tridimensionali, che si servono di processori e schede grafiche molto simili.
Attualmente gli Stati uniti detengono il primato per il supercomputer più potente, con il Summit di IBM. Riportando sul suolo americano il primato precedentemente battuto dalla Cina, che si posiziona così al secondo posto con il Sunway TaihuLight.
La curiosità
Per quanto riguarda l’Europa, il computer più performante si trova in Spagna: all’interno di una chiesa cattolica sconsacrata. La cappella Torre Girona ospita dal 2005 il supercomputer MareNostrum, gestito dal Barcelona Supercomputing Centre, in quello che è ritenuto essere il centro dati più bello del mondo.
MareNostrum supercomputer al Barcelona Supercomputing Center
Sempre più persone, per via della pandemia, hanno cominciato a lavorare da casa. Lo smart working per molti è diventata la nuova quotidianità, in attesa che le norme sanitarie divenissero meno stringenti.
In questo processo è stato necessario ripensare al modo di tutelare la sicurezza dei dati aziendali. Le compagnie hanno quindi introdotto nuove best practice per evitare attacchi informatici. Tra queste migliori antivirus, connessione internet più protetta, firewall, autenticazione a due fattori e molto altro.
Nei prossimi paragrafi scoprirai 6 modi per proteggere i dati quando si lavora da remoto. Queste precauzioni sono molto importanti in quanto gli attacchi informatici, non solo espongono a malintenzionati dei dati sensibili, ma generano dei costi non da sottovalutare per le aziende. Se i dati sono la ricchezza del terzo millennio, occorre mettere in atto tutte le strategie per proteggerli.
Quindi, meglio investire del denaro per proteggersi piuttosto che perderlo per via di pericolosi attacchi hacker. Di seguito presentiamo i 6 modi più frequenti con cui proteggere i dati quando si lavora da remoto.
1. Formazione del personale
Spesso i lavoratori commettono degli errori che potrebbero costare caro all’azienda. Molti di questi possono essere evitati semplicemente attraverso la giusta formazione. E’ l’azienda stessa che dovrebbe erogare corsi circa la gestione delle informazioni riservate fuori dall’ufficio.
Per evitare controversie, è bene che i dipendenti vengano messi al corrente dei protocolli utilizzati per proteggere i dati. A volte basta una distrazione, come connettersi a un wifi pubblico non sicuro o il clic su un link dannoso, per mettere a rischio la sicurezza dell’azienda. La formazione riduce il rischio di errore umano nella sicurezza informatica.
2. Connessioni sicure
Le connessioni Wi-Fi pubbliche non protette mettono i dati aziendali a rischio. Infatti, gli hacker potrebbero entrare nei sistemi proprio attraverso la rete internet.
Per evitare questa evenienza, è bene adottare alcune misure di sicurezza: usare innanzitutto una VPN, tenere spento il WiFi quando non lo si usa, visitare solo le versioni HTTPS dei siti web quando possibile.
I dipendenti dovrebbero comprendere la reale importanza della VPN: essa offre un accesso privato a Internet con connessione crittografata. Ciò significa che gli hacker non possono avere accesso alle informazioni private. Le attività svolte mediante l’uso di una VPN restano anonime e protette.
3. Antivirus
Sui dispositivi utilizzati per lavorare da casa è necessario installare un Antivirus sicuro e che protegga dai malware. Il supporto tecnico aziendale dovrebbe adoperarsi per garantire la corretta configurazione di questi software, in modo che difendano i dati e non ostacolino il lavoro dei dipendenti. Essi sono molti e ognuno incontra delle esigenze diverse, scopri di più sul software antivirus gratuito qui (ad link).
4. Backup
Sono tantissime le aziende che hanno compreso la sicurezza delle soluzioni di backup di terze parti. Tante, ma non tutte. Infatti, i sistemi IT delle aziende si basano spesso su infrastrutture virtuali e fisiche molto complesse per gestire i propri dati, rendendoli però più vulnerabili.
Il backup di terze parti si basa interamente su cloud e esegue il salvataggio dei dati da tutti i tipi di storage. Questo rende l’infrastruttura meno complessa e ampia, riducendo drasticamente la possibilità di attacchi informatici.
5. Gestore di password
Le password sono il modo più semplice ed efficace per proteggere qualsiasi cosa. I dipendenti delle aziende devono utilizzare password forti e diverse per prevenire le violazioni il più possibile.
Un gestore di password è una soluzione davvero comoda per generare chiavi di accesso automaticamente e mantenendole anche lontane da occhi indiscreti. La loro funzione è quella di inserire le password automaticamente nei sistemi, generandone per ogni programma una diversa e complessa. Questo aumenta la protezione dei dati e allontana con facilità i malintenzionati.
6. Autenticazione a due fattori
Il furto di credenziali è tra le violazioni più comuni quando si parla di dati aziendali. Oltre che all’uso di un gestore di password, l’ideale è affidarsi all’autenticazione a due fattori.
Essa richiede all’utente di dimostrare la sua identità prima di effettuare l’accesso. Oltre che a nome utente e password, a volte viene richiesto di digitare un codice inviato al dispositivo mobile o di scannerizzare un QR con lo smartphone.
Cosa sono i nuovi Oled display pieghevoli, trasparenti e addirittura altoparlanti? Samsung ha recentemente dichiarato, per l’ennesima volta in realtà, l’interesse a commercializzare, inizialmente nel settore automobilistico, i primi schermi pieghevoli, figli dei già commercializzati schermi curvi. Insieme a questi schermi semitrasparenti (44% di visibilità), impermeabili e addirittura uno schermo altoparlante.
Cos’è un Oled Display?
La tecnologia usata è quella degli Oled (Organic Light Emitting Diode ovvero diodo organico a emissione di luce), una tecnologia che permette di realizzare display a colori in grado di emettere luce propria, a differenza ad esempio degli schermi LCD.
Gli aspetti positivi, com’è evidente, sono moltissimi. Dalla qualità dell’immagine e dei colori fino alle infinite possibilità date dalla flessibilità e dalla leggerezza di questi schermi. Gli aspetti negativi, come succede sempre con le tecnologie entranti, sono altrettanti: costo elevato, breve vita, alti consumi.
Casa Samsung infatti parla ancora di campo automobilistico per la necessità del settore di integrare informazioni durante la guida. Senza compromettere l’attenzione del conducente. Ma anche perché l’allestimento di uno di questi monitor all’interno di un abitacolo risulta tecnicamente meno impegnativa.
Oled display integrato nel volante, by Samsung
Cosa propone il mercato degli schermi Oled?
La risposta di LG, uno dei principali competitor di Samsung nello sviluppo di nuovi monitor, è stata quella rendere pubblico un prototipo (ancora non in vendita). Si tratta di un monitor in grado di scomparire all’interno di una propria “scatola protettiva”. Grazie alla sua estrema flessibilità. Sicuramente una novità, ma ancora anni luce da quelle meraviglie elettroniche che ci propone il cinema Hollywoodiano.
Quindi, per quanto sia facile immaginarsi un cellulare trasparente o un televisore pieghevole, questo tipo di tecnologia avrà bisogno di ulteriore sviluppo quindi prima di poter finire nei nostri smartphone.
Per quanto la conclusioni sembri inesorabile. Se si cerca Oled in rete infatti il mercato attuale si limita ad offrire una vasta gamma di “banali” televisori ultrapiatti ad altissima risoluzione.
Ovviamente tutti a prezzi decisamente importanti. Segno che comunque le capacità di resa visiva e la possibilità di avere un monitor “al vivo” (senza cornice di contenimento) sono già caratteristiche allettanti per chi può permettersi una spesa che, inevitabilmente, entro un paio d’anni dovrà rifare.
Oled, una tecnologia quindi che ha già moltissime applicazioni. Tanto che anche nel campo artistico sta diventando di uso comune (ad esempio “bourrasque” di Paul Cocksage sfrutta questa tecnologia). Malgrado alcune lacune che probabilmente verranno colmate con lo sviluppo.
Non resta che avere pazienza e godersi la sorpresa, che sempre mamma Samsung anticipa nel video concept, piuttosto criticato, della sua idea di smartphone Oled. Voi che ne pensate?
Qual è il rapporto tra formazione e cittadinanza digitale, quanto è importante formare giovani e meno giovani all’uso delle nuove tecnologie? E cosa comporta tutto questo?
Nel 2010 un’insegnante americana chiese ad un suo studente se sapesse cosa fosse un’enciclopedia, lo studente rispose: “Qualcosa di simile a Wikipedia?”.
Ecco questo succedeva nel 2010, 8 anni fa, Wikipedia aveva più o meno 9 anni. Per chi oggi ha 10 anni (la cosiddetta generazione Z, i nati dopo il 2000) il mondo dei media analogici, a parte qualche libro di carta e poco altro, è qualcosa che si può vedere solo nei film.
Tutto quello che fino a 15 anni fa stava sulla scrivania trova oggi posto in un pc (molto spesso anche solo un tablet o uno smartphone). Questo significa che il vero valore di tutti gli oggetti di un tempo non era altro che il “dato”. Che una volta digitalizzato trova posto in un unico device.
Del digitale si è detto e scritto tutto ed il contrario di tutto, pensiamo alla musica. Il digitale ad un certo punto avrebbe dovuto distruggere un mercato (quello discografico) che invece dal 2012 ha fatto segnare importanti segnali di ripresa e che oggi sembra aver trovato, nel digitale, forme e prodotti nuovi di fruizione e svago. In molti settori si è assistito ad una ibridazione tra strumenti “tradizionali” e digitali. Se pensiamo che in Italia su 60 milioni di abitanti 43 milioni sono connessi ad internet e 34 milioni accedono regolarmente ai social network, capiamo come la portata del fenomeno sia immensa.
Social = Relazioni
In questo contesto del tutto nuovo chi si occupa di formazione deve essere consapevole dei cambiamenti in atto o già avvenuti. Anche chi pensa di essere “al passo coi tempi” potrebbe non esserlo, data la velocità con cui si evolve la tecnologia. Ad esempio si potrebbe pensare che il principale social network giovanile sia Facebook, non è così. Da anni i più giovani fuggono dal social di Zuckerberg, perché lo abbiamo colonizzato noi! La fascia d’eta maggiormente rappresentata su Facebook è 34/45 anni! Nuovi social si affacciano prepotentemente all’orizzonte: Snapchat, Musical.ly (oggi TikTok),Twich. Le giovani generazioni ci passano ore, non a rimbambirsi (come spesso sentiamo dire) ma a tessere relazioni.
Formazione e cittadinanza digitale: il Piano Nazionale Scuola Digitale
In Italia qualche anno fa è stato lanciato il Piano Nazionale Scuola Digitale (PNSD). Un documento di indirizzo del Ministero dell’Istruzione, dell’Università e della Ricerca per il lancio di una strategia complessiva di innovazione della scuola italiana e per un nuovo posizionamento del suo sistema educativo nell’era digitale.
Il digitale per la prima volta non viene visto in modo meramente strumentale ma come possibilità di svolta culturale. L’Italia è al 25° posto in Europa per numero di utenti connessi alla rete. E al 23° per competenze digitali di base, ultima per tutta una serie di parametri connessi al digitale. Si impone dunque una formazione prima di tutto ai docenti!
Operazione più che mai complicata, in considerazione del fatto che l’età media dei docenti italiani è la più alta d’Europa. In questo il Piano invitava i docenti ad inserire nel set degli strumenti tecnici con cui insegnare anche le tecnologie digitali e gli ambienti digitali
Società iperconnessa e competenze per il XXI secolo
Il cittadino digitale ha tutti i servizi, i diritti ed i doveri del cittadino del XX secolo. Ma in un contesto che è fortemente mutato ed in cui è necessario avere nuove conoscenze/competenze. Vogliamo parlare del cyberbullismo? Insegnare a verificare l’attendibilità delle fonti e scoprire le fake news? Ragionare sulle autorizzazioni all’utilizzo di immagini, video, testi? Protezione dei dati e privacy sono sempre più argomenti all’ordine del giorno, dal momento che tutti i nostri dati (o quasi) sono online. E’ un dovere per la scuola lavorare per la formazione di un cittadino digitale consapevole. Educare alla partecipazione responsabile (cosa stai condividendo, perché lo fai, dove hai preso quella informazione?) i futuri cittadini della società della conoscenza.
Formazione e cittadinanza digitale, temi più che mai attuali in un mondo sempre più iperconnesso. Photo Credit: Geralt, by Pixabay.
Ma quali sono le competenze di base dei cittadini digitali?
Una considerazione finale che parte dalla constatazione delle nuove competenze (che poi sono le vecchie “rivisitate” in ottica digitale). Se tutto diventa software (softwarizzazione) la realizzazione di questi algoritmi non può essere argomento solo per “tecnici” ma deve interessare tutti.
Un algoritmo non è più una questione matematica e basta, ma diventa la modalità con cui andiamo a regolare anche questioni socio-culturali.
Per questo nella “costruzione” dei nuovi software (algoritmi) devono essere compresi anche umanisti, filosofi, sociologi, ecc. Il fulcro deve sempre essere l’uomo. Ma un essere umano che sta vivendo in un mondo che ha prodotto e che oggi è fatto di agenti digitali: sensori, software, robot, che lavorano insieme a noi. La formazione si deve occupare di questi temi?
Si, la formazione deve affrontare questi cambiamenti in modo laico poiché il “futuro algoritmico” non è il futuro, ma è già il nostro presente.
In questo articolo riproponiamo la relazione del Prof. Mario Pireddu, che ha affrontato il tema del ruolo della formazione per la cittadinanza digitale, nel corso del Digital Day 2018 organizzato da Moondo.
Sentiamo sempre più spesso parlare di mobile gaming, soprattutto dopo il Blizzcon di quest’anno, dove è stato annunciato il lancio di Diablo Immortal, nuovo capitolo della saga hack and slash di “mamma” Blizzard.
Il gioco è stato solamente annunciato senza ancora una data di uscita certa e ha da subito scatenato enormi discussioni online, riaprendo il dibattito sul mercato del mobile gaming.
Il mercato del mobile gaming
Negli ultimi anni si sono visti moltissimi titoli celebri uscire nella versione per mobile, sfruttando l’uscita di dispositivi sempre più potenti. Addirittura iniziano a spuntare i primi dispositivi pensati per i videogiocatori come l’Asus ROG phone e il Razer Phone, con i loro accessori specifici pensati per i giocatori. Come dissipatori di calore o “impugnature” con tasti dorsali e levette analogiche.
Bisogna anche dire che oltre Nintendo, che ha rilasciato la “Switch”, unica vera console portatile della sua generazione (di cui si vocifera uscirà un nuovo modello a breve), le altre case non sono state molto attive su questo fronte. Lasciando di fatto che lo smartphone divenisse la nuova console “on the go”.
Candy Crush
Credo ci siano una serie di fattori da tenere in considerazione, pensando al mercato dei videogiochi mobile, primo fra tutti la diffusione estrema che hanno raggiunto gli smartphone, elemento sottolineato anche da Blizzard durante la presentazione di Diablo.
Questo apre il mondo del videogioco ad un pubblico totalmente nuovo e più vasto. Che magari non è nemmeno in grado di gestire installazione e aggiornamento di un gioco su Pc. Ma che si trova perfettamente a suo agio nel contesto mobile, in cui è il sistema a sbrogliare gran parte dei processi.
Credo sia scontato il fenomeno Candy Crush, una delle prime app ad avvicinare moltissime nuove persone al gaming. Fra i primi ad inserire delle nuove meccaniche (come le vite a tempo, o “shoppabili”) che intrappolano un pubblico di nuovi giocatori, ma che sicuramente fanno storcere il naso ai gamers più navigati.
Mobile gaming, sempre più ibridazione tra smartphone e consolle tradizionali. Photo credit: ArtificialOG, by pixabay
Perchè proliferano giochi per smartphone?
In più probabilmente ad oggi lo smartphone, o il tablet, è il primo approccio tecnologico che hanno i bambini più piccoli ai videogame. Si trovano davanti ad un modo di giocare diverso, ovvero quello attraverso il touch screen, che è sicuramente la maniera più semplice di interagire. Senza l’utilizzo di mouse e tastiera o di un pad. Poter toccare direttamente un personaggio di gioco e vedere come questo reagisce è più stimolante di farlo attraverso un controller e più intuitivo per un bambino.
Siamo destinati ad avere solo giochi casual su smartphone
Solo per giocatori occasionali e per bambini? Secondo me no, e gli annunci di giochi come Diablo Immortal sono una nuova spinta al mercato del gaming, che può trovare in questo mezzo dei nuovi stimoli e un nuovo pubblico.
Inoltre si sta lavorando da tempo alla possibilità di integrare lo smartphone con i giochi da Pc\console. Ad esempio alcuni party game moderni utilizzano proprio il telefono come controller.
Aiutando così gruppi di amici a giocare anche in 8, senza bisogno di 8 controller (che non ci sono mai). Oppure alcuni giochi come Destiny 2 danno la possibilità di integrare delle funzioni attraverso un app companion. Che ti permette di gestire l’equipaggiamento, seguire la mappa, ripercorrere la storia, un po’ come un menù tascabile.
In definitiva, il mercato gaming mobile è destinato a crescere e ad essere sempre più connesso ai nostri videogiochi “tradizionali”. Ma non dobbiamo vederlo come un demone perché avvicina più casual a questo mondo, ma anzi un valore aggiunto.
Il tema del rapporto fra frammentazione e complessità nel mondo digitale è il tema su cui sto lavorando in questo periodo e da cui vorrei partire.
Si dice spesso che la rete è frammentata. Ma da che punto di vista questo è vero, perché per altri versi noi potremmo dire altrettanto legittimamente che la rete è qualcosa di estremamente complesso e sofisticato. Un insieme complesso di tecnologie che sono collegate fra loro in tanti modi diversi.
Però se noi andiamo a guardare i contenuti che circolano in rete, ci accorgiamo che effettivamente i contenuti che circolano in rete sono prevalentemente frammentati, brevi, granulari.
Pensate solo alle forme di testualità digitali. Dall’email agli sms, dai messaggini di WhatsApp ai posto di un blog. Dai messaggi di stato di un social network ai Tweet. I contenuti che circolano in rete sono prevalentemente brevi e granulari.
E questo vale non soltanto nel campo del testo scritto ma vale anche per esempio nel campo dei video. La durata media dei video di YouTube è tra i due minuti e mezzo e i 3 minuti e mezzo (così come l’audio).
Perché questa granularità dei contenuti in Rete?
E’ una caratteristica in qualche modo naturale, essenziale, dell’informazione in formato digitale? Questa tesi è stata sostenuta per esempio da Morozov, secondo me male, perché la sua idea è “il digitale è naturalmente granulare perché si basa su una codifica che parte da due entità discrete lo zero e l’uno. E questa specie di granularità di base si riverbera progressivamente su tutti i contenuti che vengono creati”.
Sembra una tesi abbastanza debole perché tutta la nostra produzione, anche la testualità tradizionale si basa su unità discrete (fonemi, grafemi) che noi ricombiniamo. Ma non è affatto detto che il risultato di queste ricombinazione debba essere necessariamente breve e frammentato.
Se noi riflettiamo di per sè il digitale è solo una forma di codifica delle informazioni, la base del digitale è il fatto di codificare testi, suono, immagini, video usando solo zero ed uno. Ma noi possiamo codificare un’informazione breve come un Tweet ho l’intera “Guerra e pace”, dal punto di vista della codifica digitale non cambia assolutamente niente. Possiamo codificare un film di 5 ore o un video di un minuto e mezzo, perché allora prevalgono i contenuti brevi?
L’epoca dei cacciatori-raccoglitori
Io credo che possa aiutare un’analogia tra lo sviluppo della rete e lo sviluppo delle società umane. Internet, come sapete, esisteva come “Arpanet” dall’inizio degli anni Settanta. Ma ha cominciato un po’ a diffondersi sostanzialmente nella seconda metà degli anni 80, a superare il muro degli enti strettamente di ricerca o militari.
E quella prima epoca, la seconda metà degli anni 80 (prima del web, ma con i primi rudimentali strumenti di internet) possiamo considerarla un po’ come un’epoca di cacciatori-raccoglitori. C’erano tribù relativamente piccole di entusiasti che frequentavano questi territori. Andavano a cercare le informazioni che si trovavano, si cacciava e si raccoglieva quello che si trovava (relativamente poco e prodotto da pochi soggetti).
Ci si collegava per poco tempo. Si afferravano le prede informativa che si trovavano, dopo di che si tornava nella “grotta” del proprio pc offline, a consumare questo “pasto informativo” (di cui spesso si ignorava anche cosa fosse veramente). Cacciatori-raccoglitori insomma, con prede informative abbastanza casuali.
L’urbanizzazione del web
Con il web, quello che viene spesso chiamato web 1.0, quello che succede sostanzialmente è che si avvia una sorta di “urbanizzazione di questi territori virtuali”.
Non è un caso che molte delle metafore legate all’esplorazione dei territori, allo spostamento, nascano con il primo web. Non è un caso che per esempio è uno dei primi strumenti che potevano essere usati per creare pagine in rete si chiamava “geocities”. Ed era tutto basato sulla metafora degli insediamenti urbani.
“Atene” erano le pagine che riguardavano l’educazione, la letteratura, la poesia, la filosofia. “Parigi” erano le pagine che riguardavano l’arte, la musica, e così via.
In un certo senso è l’età della prima urbanizzazione e dell’inizio di una agricoltura informativo-organizzata. In questa fase i siti web sono delle entità stabili. L’informazione si identifica con il sito che la ospita e gli utenti si muovono verso questi primi centri informativi.
Il periodo dell’artigianato e del commercio
Intorno al 2000/2001 qualcosa cambia. Si avvia quello che speso viene chiamato web 2.0 e che può essere considerato come lo sviluppo di un web che funziona in maniera un po’ diversa. Intorno a quello che può essere considerato l’artigianato ed il commercio.
Si parte con la cosiddetta autoproduzione di contenuti, lo user generated content. Il contenuto generato dagli utenti è considerata come una caratteristica fondamentale del web 2.0, e il contenuto generato dagli utenti è in genere un contenuto “artigianalmente creato”.
I contenuti autogenerati (artigianali diremmo), seppur prodotti attraverso strumenti molto complessi ma di facile utilizzo da parte degli utenti della rete, diventano per questa caratteristica estremamente “granulari” e circolano. Non c’è più l’idea che l’informazione sia concentrata e fissata nel sito web.
L’informazione viene condivisa, mossa, fatta circolare. Se dovessimo scegliere uno strumento che in qualche modo simboleggia questo periodo dell’artigianato e del commercio, potrebbe essere il simbolo dei “Feed RSS”.
Convogli granulari di informazione che sono dietro social network come Facebook come Twitter come Instagram. In ciascuno di questi strumenti quello che succede è che gli utenti producono un flusso granulare di informazione autoprodotte. Poi questi flussi vengono variamente ricombinati.
Facebook ad esempio ci fa vedere l’aggregazione in base a regole dei flussi dei nostri contatti. Ma alla base ci sono flussi di informazioni granulare autoprodotta.
L’epoca delle cattedrali
Ci avviciniamo a grandi passi all’epoca delle cattedrali: costruzioni informative più articolate, più complesse (che possono essere legate a progetti come il web semantico, o il link date). Un’epoca che può essere considerata in qualche modo già abbastanza prefigurata da alcuni progetti fortemente collaborativi come Wikipedia.
Si inizia ad intravedere il fatto che la produzione individuale di informazione verrà progressivamente sostituita da una produzione più organizzata, più “industriale”, di informazioni complesse. In questo contesto i meccanismi di circolazione dalla pura granularità devono assumere delle caratteristiche sicuramente più sviluppate.
La difficoltà a produrre informazioni complesse
Se questa analogia corrisponde più o meno a quello che sta succedendo in rete, allora noi ci troviamo in una situazione in cui c’è un bisogno particolare che è un bisogno formativo (per il mondo della scuola). E un bisogno informativo che si manifesta in campi diversi come la politica, le competenze di cittadinanza, pensiamo al tema delle fake news. Con un problema di fondo che sta nel recuperare, anche in digitale, la capacità di lavorare non solo orizzontalmente, con un’informazione plurale ma frammentata, ma anche verticalmente con una informazione complessa e strutturata.
Oggi i ragazzi hanno fortissime competenze di movimento orizzontale sull’informazione, molto maggiore di quello che aveva la mia generazione, sono molto bravi a saltare al volo da un’informazione all’altra, ma hanno minori capacità di costruzione, comprensione e produzione di informazione complesse e strutturate.
La metafora di Xanadu
Io uso spesso la metafora di Xanadu, la città favolosa. Un luogo dell’immaginario anche per la rete che torna in tante situazioni diverse e che era la capitale estiva del regno mongolo caratterizzata da una enorme complessità architettonica. Anche se ricostruita di estate in estate, che usava tecniche di costruzione relativamente semplici ma molto modulari.
Questa è un po’ la metafora del passaggio della rete alla complessità delle informazioni prodotte in digitale. E qui si aprono interrogativi interessanti. Ad esempio come lavorare per favorire l’acquisizione di competenze legate alla complessità. Considerando che le nuove generazioni ne hanno di meno ma ne avranno enorme bisogno in futuro, perché la rete va in quella direzione.
Come riconquistarle in politica, dove lo scardinamento di alcuni meccanismi tradizionali di rappresentanza non è accompagnato da strumenti efficaci di negoziazione redazionale (ad es. il drafting normativo). Campi in cui la capacità di saltare le mediazioni è oggi molto forte ma la capacità di saltare le mediazioni negoziando. Cioè costruendo anche negoziazione razionale è invece relativamente debole. Stesso discorso per quello che riguarda il mondo dei prodotti e dei contenuti multimediali.
Ci si può chiedere come mai mercati come quelli del libro elettronico, per esempio, abbiano sostanzialmente prodotto pochi prodotti di grande qualità e fatichino ad imporsi e a risultare economicamente sostenibili. Mentre continuano a diffondersi e a prevalere altri tipi di meccanismi, contenuti in app, micro contenuti granulari e frammentati piuttosto che contenuti organizzati, complessi, strutturati e articolati.
Come recuperare la capacità di lavorare su contenuti complessi
Io ho l’impressione che questo sia veramente uno dei grossi temi della rete oggi: come recuperare la capacità di lavorare su contenuti complessi. Ci sono alcuni settori in cui questo viene fatto, ad esempio il settore dei videogiochi.
Alcuni videogiochi sono straordinariamente stupidi e riflettono la frammentazione, Ma altri hanno un’estrema complessità costruttiva, in cui effettivamente ci si è posto il problema di costruire nuovi mondi. Con delle proprie regole, con dei loro meccanismi di funzionamento. Tanto che alcuni di questi videogiochi possono rappresentare dei modelli di linee di tendenza verso cui ci si sposta.
Il campo accademico e della ricerca è invece ancora indietro. Possiede enormi quantità di dati e strumenti assai sofisticati. Ma l’elaborazione dei contenuti e la presentazione delle informazioni avviene in modo estremamente tradizionale.
Ci sono stati degli esempi molto interessanti, ma sono rimasti estremamente occasionali ed episodici. Tanto che oggi continuiamo a parlarne anche se sono stati pensati 20 o 30 anni fa. Insomma nel nostro settore c’è molto da fare.
Articolo a cura di Gino Roncaglia: filosofo, saggista, professore associato e direttore del Master universitario in e-learning Unitus Viterbo.
I beni culturali beneficiano da molti anni della rivoluzione digitale. Siamo sicuri che il settore abbia compreso fino in fondo le possibilità di questa rivoluzione? Siamo sicuri che il fine ultimo condiviso di chi operi del settore digitale sia distribuire conoscenza e identità sociale basata sul patrimonio storico artistico della nostra Europa?
Troppo spesso il settore si focalizza su di una catena del valore che parte dalle tecniche di digitalizzazione. Passando a quelle di processo per ottenere oggetti digitali fruibili. Per poi saltare direttamente alle informazioni di dominio costruite dagli esperti del settore ed utilizzate come contenuti. In mezzo c’è un anello mancante, intorno al quale non si è ancora ragionato abbastanza e si è fatta poca ricerca: “I linguaggi propri delle immagini e dei suoni di natura digitale”.
Linguaggio significa l’articolazione delle forme dell’audiovisivo ricostruite in funzione della possibilità di manipolare immagini, suoni, riprese. Commistioni dell’uno e dell’altro, nuovo ed antico integrati e non sommati uno all’altro come pezzi separati di un sistema. Questo anello mancante nella catena del valore può generare empatia, conoscenza e identità.
Rivoluzione digitale, beni culturali e musei narranti
Musei narranti, mostre, installazioni di successo sono quelle che applicano la catena del valore completa fino all’impatto con l’utente finale.
In questo caso gli accademici saranno i fornitori dell’informazione. Registi e sceneggiatori saranno i narratori. La tecnologia consentirà a nuovi prodotti e servizi per la cultura di emergere. L’intuizione di un artista, la conoscenza scientifica, le possibilità tecnologiche occorre che siano integrate in una nuova metodologia: la progettazione culturale.