Nei prossimi diciotto mesi un'evoluzione tecnologica pari agli ultimi trentasei anni

di Roberto Saracco

Il problema delle telecomunicazioni è il loro successo. Successo di mercato, ormai abbiamo più telefonini che persone, e successo tecnologico, abbiamo più banda che dati da trasportare. E questo problema non può che ingigantirsi nei prossimi anni con una tecnologia che continuerà a fornire prestazioni migliori a costi sempre più contenuti.

Questo articolo si propone di stimolare alcune riflessioni su come l'evoluzione tecnologica complessiva porterà ad un cambiamento nelle catene del valore cercando di evidenziare le opportunità e le criticità del settore.

Complessivamente le opportunità superano notevolmente le criticità, perlomeno questa è la mia opinione, ma per coglierle sarà necessario ripensare complessivamente il business per chi oggi opera in questo settore.

L'evoluzione tecnologica, come vedremo, può essere prevista abbastanza facilmente, più difficile è prevedere come il mercato deciderà di utilizzare quanto la tecnologia mette a disposizione. È però utile fare delle riflessioni sul rapporto tra tecnologia e mercato osservando fino a che punto possa esistere un mercato in grado di assorbire l'evoluzione della tecnologia, apprezzandone quindi il valore.

La anche troppo famosa legge di Moore, raddoppio della capacità elaborativa ogni 18 mesi, significa anche che nei prossimi 18 mesi assisteremo ad un'evoluzione tecnologica (in quel settore) equivalente a quella cui abbiamo assistito negli ultimi 36 anni. Infatti abbiamo impiegato 36 anni per passare da 4 MHz del primo microprocessore ai 4GHz del 2005. Nel 2007 arriveremo a 8GHz, una crescita di 4GHz, equivalente, appunto a quella dei 36 anni precedenti

Rispetto alla legge di Moore mi sento spesso chiedere: ma fino a quando continuerà ad essere valida? Nulla è per sempre...

Questa previsione è stata data in via di estinzione almeno due volte, una alla fine degli anni 80 e un'altra 10 anni dopo. In entrambi i casi si vedeva l'approssimarsi di barriere insuperabili, ed in entrambi i casi l'evoluzione ha portato su strade diverse che hanno aggirato (non superato) le barriere consentendo l'ulteriore prosecuzione.

Oggi l'evoluzione tecnologica nel settore e le previsioni di limiti fisici nei processi produttivi portano a preventivarne la fine entro il 2012. Probabilmente questa sarà la terza volta che ci si sbaglia. Tuttavia oggi abbiamo di fronte anche un altro tipo di barriera, non tecnologica ma di mercato. La capacità elaborativa offerta sta superando la domanda e questo cambia le regole del gioco. In effetti da circa un anno Intel non fa più annunci per sottolineare l'incremento di capacità elaborativa dei suoi microprocessori. Molti non sanno neppure a quanto si sia arrivati oggi e francamente non sono interessati. Il tempo di ricambio del PC si sta allungando, da un nuovo PC ogni 2 anni oggi siamo tra i 3 e i 4 anni.

È questa la barriera che più importa per lo scopo di questo articolo: l'interesse del mercato per una tecnologia. Per questo cercherò di descrivere allo stesso tempo evoluzione ed effetti attesi sul mercato.

Questo articolo si basa sulla presentazione effettuata alla Università di Tor Vergata il 12 maggio 2005, organizzata dal prof. Franco Vatalaro che ha anche condotto la discussione sui temi trattati tramite una tavola rotonda.

Crollano le regole

II servizio di telecomunicazioni per molto tempo è stato valorizzato in termini di distanza e tempo. Quanto più distante o quanto più a lungo si chiama e tanto più si paga. Dietro a questo modello avevamo anche un riscontro obiettivo di costi delle risorse messe a disposizione. Questo è sempre meno vero e la tendenza è verso schemi di tariffazione flat rate in cui durata e distanza diventano irrilevanti. Già oggi i ricavi da traffico per gli operatori costituiscono una percentuale in discesa dei ricavi complessivi mentre i ricavi da fornitura flat rate sono in ascesa e in breve tempo supereranno quelli da traffico (per alcuni operatori questo sorpasso è già avvenuto).

La larghezza di banda è al momento un elemento differenziale su cui basare l'offerta e il prezzo ma entro i prossimi 10 anni l'offerta sarà talmente ampia, probabilmente intorno alle centinaia di Mbps, da non consentire una differenziazione di prezzo. Questo avviene già in Corea dove si ha un'offerta intorno ai 50 Mbps. Il tentativo di un'offerta su due livelli in Italia, a 10 o a 100 Mbps, non ha avuto un successo commerciale, la tendenza è verso una crescente offerta di banda, allo stesso prezzo, per cercare di stimolare l'acquisto di servizi. Certo, nuovi servizi più voraci in termini di banda verranno offerti in futuro ma tutto lascia presumere che l'offerta di banda sarà maggiore della voracità dei servizi.

L'ulteriore parametro della Qualità del Servizio, come elemento differenziante per l'offerta (ed il prezzo) si scontra da un lato con una tecnologia che offre una qualità ottima, rispetto alle esigenze medie, e un mercato mass market che ha mostrato di tollerare qualità anche basse a condizione di poter fruire gratuitamente, o quasi, del servizio. La crescita ormai esponenziale di Skype, la voce su Ip a costo zero, o quasi, ne è dimostrazione evidente. È chiaro come a fronte di questi cambiamenti radicali nella struttura del valore dell'offerta chi opera in questo business deve ripensare il proprio posizionamento.

Si noti che un passaggio da traffico a flat rate, di per sé, non è negativo. A bocce ferme, cioè con le tariffe oggi applicate per una connettività always on ADSL, un introito da canone sottoscritto da tutti i clienti significherebbe oltre 20 miliardi di introiti all'anno per l'Italia, una cifra quindi equivalente a quella che rappresenta il business per le linee fisse. In realtà i conti da fare sono più complessi e i ritorni stimabili dal solo "canone" non sono così favorevoli nel medio lungo. È quindi essenziale lavorare su di un'offerta di servizi appetibili.

Protagonisti in fase di scomparsa

Si tende normalmente a focalizzare l'attenzione su ciò che c'è di nuovo perdendo di vista la graduale scomparsa di cose cui siamo stati abituati nel tempo. Dal punto di vista percettivo questo è facilmente spiegabile. La novità è inaspettata e proprio per questo colpisce, occorre adattarsi al nuovo. Invece la progressiva scomparsa di oggetti o servizi cui eravamo abituati è normalmente così lenta che non ce ne accorgiamo neppure. Quanti anni fa è scomparso il telex o il gettone telefonico? Occorre chiederlo ad un esperto (che forse non esiste neppure più).

Eppure è importante riflettere almeno ad alcuni casi importanti di scomparsa prossima ventura, quella dei computer, dell'accesso, della rete e dell'Operatore di Telecomunicazioni. Credo che questa frase sia sufficiente a catturare l'attenzione del lettore, e probabilmente a suscitare un immediato senso di antagonismo. Vediamo.

Il computer così come lo percepiamo oggi ha gli anni contati, certo meno di dieci. In effetti il computer è già scomparso dalla nostra percezione entrando in oggetti come la chiave elettronica, l'irrigatore dell'acqua, il giocattolo (alla recente fiera del giocattolo di New York, marzo 2005,1'85% dei nuovi giochi conteneva un microprocessore) e ovviamente, il telefonino, la radio, il forno, l'obiettivo della macchina fotografica per non parlare della macchina fotografica stessa. Tra una decina di anni sarà difficile trovare un oggetto che in qualche misura non sia in grado di "far di conto" e anche di comunicare. La FIFA, ad esempio, ha annunciato che nei campionati del mondo del 2006 il pallone conterrà un microchip permettendo quindi di stabilire se è entrato o meno in porta. Quello che stupisce, piuttosto, è che non prevedano di avere un microchip anche nelle scarpette dei giocatori in modo da determinare immediatamente se l'intervento è sulla palla o sulla caviglia...

Questa "scomparsa" è una diretta conseguenza della legge di Moore, che porta l'offerta a superare la domanda con conseguente abbattimento dei prezzi, permettendo quindi l'inclusione di capacità elaborativa in qualunque oggetto.

Questa evoluzione del computer in termini di scomparsa all'interno di oggetti metterà in crisi non poche aziende che non sono affatto preparate da un lato a gestire la complessità che ne deriva e dall'altro a sfruttare le potenzialità che vengono offerte.

La tecnologia nel settore è evoluta non solo in termini di maggiore capacità, ma anche nell'integrazione di comunicazione e computazione. Il chip è al tempo stesso un terminale e un processore. Anche questa "integrazione" porta ad un abbattimento di costi. Potenzialmente abbiamo un allargamento del mercato dal punto di vista di chi comunica di almeno un ordine di grandezza. Si aprono interessanti prospettive di nuovi servizi anche se non è affatto chiaro chi potrebbe candidarsi nella loro offerta.

Anche l'accesso è in fase di scomparsa dal punto di vista percettivo. Terminali in grado di agganciarsi automaticamente su una pluralità di reti, 3G, WiFi, WiMax e in prospettiva UWB; ma anche: ADSL, DTT, Satellite, Power Line, Cable...

L'accesso diventa così pervasivo che praticamente non ci rendiamo neppure più conto di averne bisogno. Quante volte vi siete fermati per contemplare con piacere che di fronte alla vostra porta di casa c'è una strada che potete utilizzare per andare da qualche parte? Lo stesso accadrà per l'accesso alle reti di telecomunicazioni, le daremo sempre più per scontate e questo, ovviamente, le trasforma in commodity con un elemento distintivo al ribasso: il costo della connessione.

Anche i grandi backbone che già oggi offrono banda in abbondanza tenderanno a scomparire dalla nostra percezione, in fondo lo sono già. Chi sa quale rete si utilizza quando si fa una telefonata, ed ancora più importante: a chi importa qualcosa?

In prospettiva esiste una possibilità di scomparsa ancora più marcata e più fisica. I terminali stessi potrebbero iniziare a dialogare tra loro formando una vera e propria rete in cui al crescere del numero dei terminali cresce la capacità della rete, proprio l'opposto di quanto avviene con il modello delle reti di oggi in cui ogni terminale "assorbe" un po' della capacità disponibile. L'ultimo protagonista che in una certa misura ha già iniziato a scomparire è l'Operatore di telecomunicazioni. Pensiamo a quando siamo all'estero. La maggioranza di noi non fa neppur caso a chi sia l'operatore che fornisce la connettività al nostro cellulare.

Tra pochi anni la tecnologia del software radio potrebbe ulteriormente accelerare questo processo. Entriamo in un grande magazzino e sul nostro telefonino compare un messaggio per informarci della possibilità di utilizzare la rete locale per le nostre chiamate. Se accettiamo ci viene scaricato sul telefonino il software che farà funzionare il telefonino su quella rete privata. Questa, a sua volta, si collegherà ad una rete pubblica, probabilmente di tipo fisso, a basso costo di connessione, per garantire le connessioni con il resto del mondo. Poi potremo ricevere sul telefonino messaggi del tipo "se compri per 20 euro ti regaliamo tre minuti di conversazione mentre sei nel nostro magazzino".

Gli Operatori di Telecomunicazione saranno sempre meno riconoscibili, e riconosciuti, sulla base della loro infrastruttura. Per contro potranno erogare i loro servizi su qualunque tipo di infrastruttura, sfruttando terminali di tutti i tipi, dalle Playstation Portable ai sensori.

Nuovi Protagonisti

A fronte dell'appannamento di alcuni dei protagonisti che hanno dominato lo scenario delle telecomunicazioni assisteremo ad un emergere di nuovi protagonisti e qui, a titolo di esempio, ne citerei sei: la localizzazione delle informazioni grazie alla maggiore capacità di memoria, l'always on, cioè la possibilità di essere sempre in contatto con persone e informazioni, la maggiore disponibilità di energia, i sistemi autonomici e la crescente capacita di comprensione e adattamento all'ambiente, il crescente utilizzo di prodotti usa e getta e la diffusione di sistemi di localizzazione, identificazione e profilatura.

Ovviamente sono molte le evoluzioni tecnologiche, anche nel solo settore ICT, che avranno un notevole impatto sul mercato.

Localizzazione delle informazioni. La capacità di memoria continua ad aumentare a ritmi maggiori della capacità elaborativa, che pure spesso è portata ad esempio di evoluzione tumultuosa.

Le tecnologie utilizzate sono molte, alcune anche nuovissime come Millipede, un sistema di incisione di un substrato a livello nanometrico tramite testine di scrittura composte da punte di pochi atomi di larghezza che si scaldano per meno di un microsecondo a 400 gradi, in grado di raggiungere densità di memorizzazione di due ordini di grandezza superiori alle attuali.

Le memorie a polimeri, proposte da laboratori di ricerca svedesi (ThinFilm) ed oggi studiate anche dalla Intel (pur con un certo sospetto), promettono di fornire nell'arco dei prossimi due-tre anni delle capacità dell'ordine dei TeraByte su un supporto delle dimensioni (e aspetto fisico) di una carta di credito. Andremo al cinema e ci verrà regalata una di queste carte. Una volta a casa, inserita nel televisore, avremo a disposizione una banca dati contenente i 2000 film dell'anno di cui potremo vedere alcuni spezzoni. Nel momento in cui si decide di vedere tutto il film sarà sufficiente una interazione con la rete per sbloccare (dietro pagamento) il film.

Non è più necessario scaricare il film dalla rete, questo sarà già a casa nostra. Ovvie le implicazioni sul versante della distribuzione dei contenuti...

Gli hard disk sono diventati talmente piccoli, meno di 2 cm di lato con uno spessore inferiore ai 2 millimetri, e così poco costosi (circa 10$) da poter essere inseriti all'interno di un telefonino (Samsung ne ha due modelli sul mercato con 1,5GB di capacità, Nokia ha annunciato la nuova serie di telefonini per settembre 2005 con hard drive da 5 GB).

Al tempo stesso gli hard disk per PC hanno raggiunto la capacità di 1TB ad un costo intorno ai 1000$. Entro il 2010 tutti i PC saranno equipaggiati con questo tipo di dischi (e molti con capacità maggiori) visto che il loro costo sarà sceso sotto i 100 $.

Avere capacità di memoria riscrivibile costi alta in locale cambia le regole del gioco. Molti trasferimenti di dati, oggi eseguiti in streaming - cioè in un flusso continuo - possono essere effettuati in burst, cioè in blocchi e questo sistema di trasmissione è enormemente meno costoso dell'altro. È il sistema utilizzato su reti tipo internet.

Possiamo immaginare di uscire dall'ufficio alla sera alle sei e di ordinare con il nostro telefonino un film a Blockbuster indicando che lo vogliamo vedere alle 9 di sera. Blockbuster avrà tre ore a disposizione per effettuare il trasferimento di quei 2 GB (o meno) sul nostro hard drive di casa, che sarà nel PC oppure nel set top box o ancora nel televisore. È irrilevante se il trasferimento sia effettuato subito, poco prima delle 9 o a pezzi man mano che esiste una disponibilità di rete a basso costo. Il burst prenderà il sopravvento sullo streaming per quasi tutti i servizi, voce esclusa.

Always on. La disponibilità di connettività non solo a costi contenuti ma anche tariffata in modo flat, quindi non su base consumo, e la parallela disponibilità di terminali come televisioni piatte a grande schermo porta all'emergenza di nuovi meccanismi per comunicare, quelli appunto della comunicazione sempre attiva.

Potremmo avere degli schermi piatti appesi come quadri sulle nostre pareti che diventano delle vere e proprie finestre sul mondo o più semplicemente dei canali di comunicazione tra nipoti e nonni. Gli uni con uno schermo nella cameretta (e relativa telecamera/microfono e altoparlanti), gli altri con un sistema simile nel salotto. Le dimensioni fisiche della cameretta si ampliano in modo virtuale e nasce una comunicazione diversa rispetto a quella degli usuali 3 minuti per sei volte al giorno (come si usava dimensionare la rete di telecomunicazioni). Già oggi i nostri figli tornano a casa da scuola, accendo in PC e immediatamente si attiva Skype, la voce su internet. Quando un loro compagno accende il suo PC ecco arrivare un messaggio di "presenza" e con un click si entra in conversazione aggiungendo via via gli altri compagni. Ma questa non è una telefonata e neppure una audioconferenza. La connessione rimane attiva per tutto il pomeriggio (a costo 0) e ciascuno sente cosa gli altri dicono come se fossero tutti in una stessa stanza.

La crescente disponibilità di sensori è un ulteriore elemento che fa crescere la domanda di connettività always on. Questi saranno applicati ovunque, come controllo ambientale oppure per il controllo continuo di situazioni patologiche. A questo scopo esistono già magliette con sensori in grado di rilevare battito cardiaco, ritmo respiratorio, temperatura, livello degli zuccheri nel sangue e così via.

Maggiore disponibilità di energia. Le batterie sono state il vero elemento di freno allo sviluppo di servizi e sistemi da usarsi in mobilità. Peso e capacità limitata, tempi di ricarica lunghi: problemi che tutti possono toccare con mano. I progressi sono stati notevoli (anche se in buona parte la durata delle batterie è aumentata grazie ad una elettronica più intelligente in grado di risparmiare sull'utilizzo di energia). Sono ormai disponibili celle a combustibile a dimensione telefonino (e PC portatile) la cui ricarica è molto più agevole in quanto si tratta di inserire alcune gocce di liquido nella batteria ma il livello di sicurezza offerto non è ancora sufficiente da renderle accette sugli aerei, fatto questo che ne limita notevolmente l'adozione. Entro il 2006 la NEC ha promesso di mettere sul mercato celle a combustibile adatte anche per voli aerei e usabili dai telefonini. Molto recentemente, tuttavia, due aree di ricerca nel settore dell'energia hanno dato risultati molto interessanti, quelle dei sistemi di super capacitor e le nanotecnologie. Entrambi risolvono il problema dell'energia non creando sistemi con grande capacità ma piuttosto sistemi che si ricaricano rapidamente.

Ad aprile 2005 la Toshiba ha dimostrato un prototipo di batteria che promette di commercializzare nel 2006 in grado di ricaricarsi all'80% in un minuto e completamente in 8 minuti. Le prime applicazioni sembra saranno rivolte alle auto ibride. Infatti basterà fermarsi per due minuti ad una stazione di servizio e nello stesso tempo che oggi si usa per fare il pieno di benzina si potrà fare il pieno di energia elettrica.

La disponibilità di questo tipo di batterie a pronta ricarica cambierà sostanzialmente il panorama dei sistemi mobili che potranno utilizzare chip più potenti e schermi migliori.

Sistemi autonomici. La proliferazione di oggetti in grado di contenere una capacità elaborativa e comunicativa spinge nella direziono di ambienti intelligenti, obiettivo questo della ricerca comunitaria. In questi ambienti i vari sistemi coopereranno tra loro e si adegueranno l'uno all'altro ed anche alle condizioni percepite dell'ambiente circostante. Questi sistemi non dipenderanno da sistemi esterni per decidere cosa fare o essere configurati. Saranno autonomi nella scelta delle modalità più adatte al raggiungimento dello scopo cui sono stati progettati e per cui sono utilizzati.

A questa evoluzione contribuiscono varie tecnologie, tra cui particolarmente importanti quelle di reti locali, sistemi di intelligenza, sensoristica di "awareness" (consapevolezza).

Inoltre questa evoluzione porta con sé un modo diverso di concepire le gerarchie, le annulla per lasciare il posto a sistemi di organizzazione dinamica come quelli che si trovano in natura. In questi sistemi l'intelligenza non deriva dai nodi (i singoli apparati) ma piuttosto dalla evoluzione delle interazioni tra questi.

Prodotti usa e getta. La spinta al consumismo trova un ideale partner nella evoluzione dei processi produttivi che consentono di diminuire drasticamente il prezzo dei prodotti al punto da rendere appetibile una loro sostituzione una volta utilizzati.

Prodotti sofisticati anche come macchine fotografiche digitali, ma entro tre anni anche PC dedicati ad una specifica funzione come ad esempio accesso ad informazioni su internet in una camera di albergo o su di un aereo, diverranno usa e getta. Questo stimolerà una evoluzione rapidissima orientando i prodotti ad una ben precisa funzionalità. Diverranno allora più facili da utilizzare e, come vedremo, saranno sempre più simili a servizi. Proprio per la loro rapidità di evoluzione questi prodotti giocheranno un ruolo importantissimo non solo nel soddisfacimento di esigenze puntuali ma anche come test di mercato. Inoltre la flessibilità offerta dal software contenuto nel microprocessore provvederà a personalizzare ogni prodotto alle esigenze ed abitudini della singola persona. In questo si vede la straordinaria prospettiva per gli Operatori di Telecomunicazioni che siano in grado di mantenere la personalizzazione dei servizi attraverso una varietà di apparati. La "commoditization" dell'hardware viene valorizzata tramite la personalizzazione eseguita a software.

Diffusione di sistemi di localizzazione, identificazione e profilatura. Crescente preoccupazione per la sicurezza sociale e individuale, spinta verso l'efficienza nelle catene distributive, interesse alla personalizzazione dei servizi. Sono solo alcuni degli elementi che spingono fortemente verso la diffusione dei sistemi di localizzazione (con tecnologie come GPS/Galileo, triangolazione tramite sistemi cellulari, registrazione in microcelle...), dei sistemi di identificazione (tecnologie tag RFID, identificazione biometrica) e dei software di profilatura.

Fino ad oggi la profilatura è stata uno strumento del marketing per lo studio dei diversi segmenti di mercato e la particolarizzazione dell'offerta. Nella prossima decade la profilatura sarà un servizio a vantaggio del cliente e gli permetterà di fruire meglio dei servizi. Ancora del tutto aperta la battaglia per aggiudicarsi la gestione del profilo del cliente. Certamente le società di telecomunicazioni hanno le carte in regola per farlo. Seguono il cliente per gran parte della giornata e potrebbero sviluppare le applicazioni necessarie. Per fare questo, ovviamente, devono essere riconosciute come estremamente affidabili e riservate nella gestione delle informazioni.

Vi sono in corso una varietà di progetti di ricerca che puntano a ricreare una mappa digitale dei nostri comportamenti ed esperienze da cui poter derivare informazioni e servizi. Microsoft ha lanciato dal 2003 il progetto MyLifeBits, la mia vita in bit, che si propone di registrare tutto quanto facciamo, ascoltiamo, vediamo, diciamo...Google ha lanciato il suo servizio di mail con lo slogan: non dovrete mai più cancellare una mail tanto è lo spazio che vi mettiamo a disposizione per cui tutte le vostre comunicazioni saranno facilmente consultabili. Nokia pensa ad un telefonino in grado di memorizzare tutto ciò che facciamo con lui, HP sta studiando un sistema che permette di memorizzare in immagini la nostra giornata.

Come si vedi i grandi protagonisti sono scesi in campo, ciascuno approfittando delle sue posizioni di forza. In questo panorama mancano gli Operatori di Telecomunicazioni anche se BT ha iniziato a muoversi con alcune ricerche.

(Ndr: ripreso dalla rivista Media-Duemila-giugno 2005)