In occasione del Vision Broadcast, Leading Technologies ha svelato le potenzialità del suo nuovo Media Server. Si tratta di un sistema destinato a far evolvere il modo in cui professionisti e aziende riproducono, elaborano e gestiscono i contenuti. Valerio Sibilla, responsabile della divisione software dell’azienda, ci ha illustrato le caratteristiche di questa soluzione e i piani di sviluppo che la renderanno sempre più versatile e performante, nel corso del 2026.
Cosa hai presentato nel tuo corner?
Quest’anno abbiamo presentato un nuovo prodotto, si chiama Media Server. È un prodotto che abbiamo rilasciato a settembre e che subirà nei prossimi mesi una serie di importanti aggiornamenti. Entro fine anno ci sarà una nuova release e di fatto è un media server che consente all’utente di poter leggere qualsiasi tipologia di file video in questa prima versione e di poter controllare la playlist per situazioni di contribuzione e non solo. Nella prossima versione ci sarà anche un modulo di registrazione in vari formati video. Però l’aspetto più importante di questo applicativo è l’evoluzione che avrà nel corso del 2026, cioè l’integrazione con i servizi di terze parti come, per esempio, AWS, Azure o Google Cloud per l’elaborazione dei fotogrammi, dei segnali video e audio acquisiti o, in play attraverso il nostro Media Server.
Quali sono i punti di forza rispetto ad altri prodotti in competizione?
Questa prima versione è un’applicazione che prevede comunque una serie di integrazioni con applicazioni di terze parti che, non tutti gli applicativi hanno built-in; ma soprattutto quello che verrà fatto nel 2026 è una versione web che consentirà di poter controllare l’applicativo all’interno della rete, attraverso una semplice pagina web.
Parlando invece di applicazioni, per quali tipi di utilizzo è maggiormente indicato questo prodotto?
Le applicazioni sono molteplici. Leading Technologies è impegnata in più settori. Può essere di sicuro un applicativo utilizzato nel settore broadcast, ma non solo. Il modulo di playlist può essere utilizzato come sistema di contribuzione video in uno studio, ma in altre situazioni serve, ad esempio, ad alimentare dei videowall, dei ledwall. Viene utilizzato, per esempio, per integrare il sistema ad altri sistemi di gaming o anche semplicemente per gestire delle visualizzazioni di grafica su dei sistemi interattivi. Da qui, appunto, l’integrazione con altri software che abbiamo sviluppato come ad esempio il MAM. Il modulo di registrazione, a maggior ragione, come indicavo, (che ha possibilità di potersi integrare e interfacciare con i sistemi in cloud), può essere utilizzato davvero in tantissimi modi: può riconoscere gli oggetti oppure riconoscere determinate situazioni, elaborare eventualmente il segnale audio e creare in tempo reale i sottotitoli. Quindi i contesti e le modalità di utilizzo sono molteplici.
Quali sono i futuri sviluppi?
Come dicevo, nel 2026 la roadmap prevede di sicuro lo sviluppo del modulo di registrazione, l’integrazione con i servizi di terze parti e poi lo sviluppo dell’interfaccia web.
