Bonjour Tania. À quoi faut-il s’attendre pour ce Nab Show 2023 ?
On verra surtout de nouvelles approches de production. Il y a une transition claire vers un environnement de production basé IP : on abandonne de plus en plus le SDI, traditionnellement utilisé pour la production en broadcast. C’est une transition plus ou moins nécessaire avec la progression du travail à distance.
Cela va avec des solutions de production dans le cloud, qu’on voit davantage, mais aussi avec l’adoption de la 5G qui facilite la production live par le biais d’équipements IP.
Une autre tendance considérable est l’introduction et l’adoption de l’IA dans différentes phases de production, notamment l’IA générative. Elle commence à sortir du milieu de recherche et à s’intégrer dans des produits.
Point important : il y a un intérêt croissant pour les méthodes de production responsables, plus écologiques. C’est une dimension devenue vraiment centrale à toutes les étapes de la chaîne vidéo.
Et côté b<>com ?
On a une démo de la dernière version de notre convertisseur HDR, b<>com *Sublima*, qui sera présentée en partenariat avec Apantac (un de nos clients qui intègre cette technologie, et un des leaders dans l’équipement de processing vidéo). C’est une solution qui peut être utilisée dans le milieu professionnel audiovisuel, mais aussi pour la formation ou le médical par exemple.
Concrètement, quelles sont les dernières nouveautés développées sur b<>com *Sublima* ?
La dernière fonctionnalité ajoutée à b<>com *Sublima* est la possibilité d’avoir plusieurs profils de conversion, pour s’adapter à différentes approches de production. Là, c’est un besoin du marché constaté en échangeant avec des fournisseurs de contenus, des producteurs, des chaînes TV.
D’une part, il y a des façons de produire de l’HDR qui sont assez « conservatrices ». Le but est alors d’expérimenter avec ces nouveaux formats et de passer vers un workflow HDR, sans forcément trop pousser au niveau des capacités. Cette façon de produire amène à des contenus plus limités.
D’autre part, sur du contenu plutôt cinématique, séries, etc, l’HDR peut être utilisé comme un outil créatif : on a une dynamique de lumière plus large et on peut faire plus de choses, créer des effets plus intéressants.
En plus de la conversion SDR-HDR, y a-t’il d’autres technologies sur lesquelles vous travaillez au labo ?
La conversion SDR-HDR est une dimension d’amélioration de la qualité de l’image et de l’expérience utilisateur. Dans le labo, on travaille sur d’autres dimensions. On a une solution en cours de développement liée au high frame rate, une fréquence vidéo plus élevée. En général, ça demande beaucoup de données et un débit assez élevé. Ce qu’on propose, c’est une innovation qu’on appelle variable framerate, qui analyse la vidéo de façon intelligente et qui permet d’enlever des images qui ne sont pas utiles pour la qualité de l’animation et des mouvements à l’image.
On gagne ainsi de la place au niveau du stockage : on réduit le nombre d’images, pour économiser jusqu’à 30% du volume de données. Au niveau du débit, on a des aussi des gains qui atteignent jusqu’à 10% voire 15% du volume selon le contenu de la vidéo.
Dans le même esprit, on travaille aussi sur la résolution. Actuellement, il y a une poussée vers des résolutions de plus en plus élevées : la 4K est déjà adoptée, on commence à voir des téléviseurs 8K. On a une solution de super résolution intelligente, qui grâce à une approche IA nous donne une couche de métadonnées assez compacte. Ce qui permet d’avoir un upscale intelligent. On atteint quasiment la qualité haute-résolution, mais avec beaucoup moins de données.
Plus globalement, on travaille pour faciliter la transition vers tous ces nouveaux formats mais de façon plus responsable, moins consommatrice d’énergie.