Mi occupo di videocomunicazione (una volta si sarebbe detto “videoconferenza“) da più di vent’anni, avendo lavorato per un importante player mondiale.
Erano gli anni in cui la videoconferenza era qualcosa che un’azienda doveva avere ma che poi, in molti casi, usava davvero poco. Era confinata in sale riunioni tipicamente di pregio, destinata tipicamente al top management ed era spesso off-limits per il resto dell’Azienda.
Per gli addetti ai lavori, come me, era invece lo strumento che avrebbe dovuto migliorare i processi aziendali e il modo di lavorare, e, non ultimo, dare un contributo all’ambiente con una riduzione carbon footprint.
La videoconferenza: una partenza in salita
Ogni anno sembrava essere quello buono perché quella che era un’eterna promessa attecchisse definitivamente nella realtà aziendale, perché questa tecnologia potesse fare il salto di qualità ed entrasse nei favori dei decision-maker aziendali.
Addirittura ci fu chi, cinicamente, pensò che l’11 settembre (2001) avrebbe segnato la data in cui le cose sarebbero cambiate drasticamente, con una definitiva adozione da parte delle aziende delle più efficaci soluzioni di videoconferenza.
In realtà, nemmeno il fatidico 11 settembre portò a sostanziali cambiamenti.
Di fatto, la videoconferenza continuava ad essere per l’utente medio uno strumento non così semplice da usare, sempre carico di insidie tecniche, pronte a manifestarsi nei momenti meno opportuni di importanti videomeeting.
E tutto questo avveniva nonostante gli sforzi che erano stati compiuti nei decenni precedenti, sforzi che avevano portato a declinare standard univoci rispetto al sistema di trasporto. Tra i più noti: H.320 per comunicazioni su linea telefonica digitale (ISDN) e H.323 per comunicazioni su rete dati su IP.
Gli standard avevano consentito, tra una serie di vantaggi, anche quello di rendere compatibili e trasparenti tra loro dispositivi prodotti da vendor diversi: in altri termini, le macchine parlavano la stessa lingua indipendentemente dal produttore e per l’utente era irrilevante conoscere quale dispositivo avesse il proprio interlocutore all’altro capo della linea.
La svolta: 10 maggio 2011, Microsoft e Skype
Fortunatamente nel corso degli anni le cose cambiarono e, se volessimo indicare una data spartiacque di questo cambiamento, il 10 maggio 2011 Microsoft acquistò Skype per 8,5 miliardi di Euro.
Fu un evento significativo, dalle conseguenze in quel momento inimmaginabili.
Certamente Microsoft aveva già una sua piattaforma di UC, OCS (Office Communication Server) che poi divenne Lync, ma che però ancora non aveva ancora avuto un’importante diffusione, sia perché poco contemplata nelle direttive aziendali e sia, forse, perché poco compresa dagli utenti.
L’acquisizione di Skype portò le imprese a comprendere il cambio di passo compiuto da Microsoft, e che la dicotomia tra la videoconferenza ad uso professionale (quella in ufficio) rispetto a quella personale non era più così netta; che quello che già si faceva in modo naturale nella vita privata poteva diventare un’abitudine aziendale.
In altre parole, quella data sancì la volontà definitiva da parte del gruppo di Redmond di presidiare il mercato della videocomunicazione.
Si sdoganò anche il fatto che per fare videoconferenza in modo professionale non era più necessario fare uso di hardware dedicato e costoso.
Gli applicativi software per fare videocomunicazione, che fino a quel momento venivano visti con scetticismo da parte degli addetti ai lavori, non erano più un tabu.
Il cambio di paradigma per la videoconferenza aziendale
Fino ad allora, la videoconferenza aveva permeato i processi aziendali dall’alto: la scelta della tecnologia da usare nelle sale riunioni decideva conseguentemente la soluzione da usare per il desktop.
Altresì, da quel momento, cominciò in modo inarrestabile un cambio di paradigma nella scelta della piattaforma.
La scelta della soluzione tecnologica cominciò sempre più frequentemente a partire dal basso, dal desktop, condizionando le decisioni nella scelta della piattaforma da adottare anche nelle sale meeting.
In altre parole, da quel momento e in modo sempre più convincente, era la piattaforma usata dagli utenti a condizionare la scelta della tecnologia usata nelle sale riunioni. Proprio le sale riunioni dovevano essere in grado di sostenere meeting compatibili con l’applicativo software usato dagli utenti sul proprio PC, almeno quelli interni.
Altre piattaforme basate su client software cominciarono ad affermarsi sul mercato ed essere adottate massivamente dalle aziende.
Ultimo, ma non ultimo, gli anni di pandemia hanno accelerato in modo esponenziale questo processo dal momento che la piattaforma desktop è diventata predominante.
Standard e soluzioni: il vero paradosso
Tutto questo è avvenuto accettando implicitamente un paradosso: soluzioni basate su standard e compatibili tra loro, incentrate sulla solidità di un hardware dedicato e dimensionato ad-hoc, consolidate da decenni, non sono mai riuscite a diventare pervasive.
Di contro, soluzioni basate su protocolli proprietari, chiuse, basate su software e legate all’uso di un PC sono state totalmente convincenti e hanno portato alla definitiva adozione della videoconferenza.
Tutto bello e tutto senza impatti? In realtà no, però, il conto di questo paradosso è stato subito presentato, recando sempre la stessa voce: interoperabilità.
Ma questa è un’altra storia…