La Charente est une terre de création, avec l’implantation de nombreux studios et écoles liés au secteur du cinéma (notamment l’animation) et le jeu vidéo. On connaît moins l’expertise “audio” d’Angoulême avec G4F, qui navigue aux niveaux nationaux et internationaux entre ces industries traditionnelles et la XR. Regard d’expert avec Vincent Percevault, cofondateur de G4F.
Le groupe G4F, qui sont-ils ?
Vincent Percevault – G4F fête cette année ses 15 ans (fondé en 2008), et c’est bien plus qu’un studio ! Nous sommes désormais un véritable groupe dédié au travail autour du son avec cinq divisions :
- G4F Prod est l’entité “studio”, la plus connue, et entièrement dédiée à la production audio interactive pour le jeu vidéo et la XR.
- G4F Localisation est la branche française du groupe Native Prime, un groupe européen (présent en Allemagne, Espagne, Italie, France) que j’ai créé avec des associés européens, spécialisé dans le doublage avec une trentaine de langues désormais disponibles.
- G4F SFX pour de la sonothèque, à destination des monteurs son et sound designers, avec des packages disponibles sur des marketplaces dédiées.
- G4F Records, qui est un label d’édition et de distribution de bandes originales de projets que nous accompagnons (essentiellement des jeux).
- G4F Talents, agence de talent proche du label, avec la partie juridique, accompagnement des compositeurs, casting, motion capture…
V. P. – Je viens du monde du jeu vidéo, avec un premier temps chez Cyanide Studio (après mes études au CNAM-Enjmin d’Angoulême). J’avais un profil plutôt informatique, une formation classique en conservatoire, et une vraie passion pour le son, c’était le début de la MAO (Musique Assistée par Ordinateur). C’est la rencontre avec le jeu vidéo qui m’a entraîné dans ces univers interactifs, et par la suite convaincu d’ouvrir mon propre studio pour les accueillir. Le premier nom en a été “Game Audio Factory” ! Aujourd’hui, nous sommes une 20e de personnes, et majoritairement des sound designers – Ce qui fait de G4F l’un des plus gros studios européens dans ce domaine, avec une expertise sur les dernières technologies du secteur (nous sommes l’ambassadeur français du middleware Wwise d’Audiokinetic, nos studios sont équipés en Dolby Atmos, nous disposons de différents systèmes de motion capture faciale en doublage …) qui nous permettent d’intervenir en animation, en VR, en jeu vidéo…
V. P. – Avec ce package technologique, on est très sollicité pour les portages de plateforme à plateforme – et avec la totalité des moteurs de jeu en temps réel, ou logiciels connus dans la production audiovisuelle. Si la majorité de nos clients reste française, nous sommes aujourd’hui sollicités par des équipes dans le monde entier. La plupart de nos clients sont des studios de taille moyenne (en France et en Europe) qui n’ont pas la capacité d’internaliser cette partie de leur production. Avec nos solutions, on propose une prise en charge complète des phases de post-production, nous accompagnons nos clients et sommes très autonomes.
V. P. – On a commencé à travailler pour la VR avec les Poissons Volants dès 2017 (THE WEDDING AT CANA BY PAOLO VERONESE, LAS MENINAS BY DIEGO VÉLASQUEZ) pour ARTE. Et notre expertise gaming nous a permis de travailler sur des titres plus interactifs en audio et doublage. UNIVERSAL WAR 1, MANDALA, PAPER BEAST… Et puis WOLVES IN THE WALLS pour le portage Quest, en liaison avec l’équipe Meta pour pouvoir intégrer l’œuvre sur leur plateforme. Récemment, nous avons accompagné JAILBIRDS pour Digital Rise, plusieurs expériences pour Small Creative, THE ROAMING de Mathieu Pradat…
V. P. – L’immersif ou les contenus plus traditionnels, c’est le même métier pour nous. Pour autant, on aime innover et pouvoir intervenir sur différents types d’expériences. J’enseigne au CNAM-Enjmin sur les moteurs son depuis bientôt 20ans : quand j’ai commencé, ça semblait être un sujet très restreint ! Aujourd’hui, les logiciels se sont multipliés (Wwise, FMOD…). L’audio interactif, c’est notre ADN. S’impliquer dans la VR ou d’autres expériences immersives, c’est continuer à innover avec toutes ces technologies. Je rajouterai même qu’on observe actuellement une convergence avec certaines pratiques comme le mixage objet (orienté objet, notamment pour le Dolby Atmos) dans le linéaire. La VR, c’est une continuité de nos activités, avec de la recherche et développement pour s’adapter : et on le fait depuis que Youtube propose de la diffusion à 360 degrés !
V. P. – La VR ou l’AR pour des projets liés à des simulateurs industriels sont également des cas d’usage qui nous ont permis d’améliorer notre approche de l’immersif, de développer des technologies, et cela nourrit nos projets artistiques avec d’autres enjeux, mais tout autant de technicité et de réflexion sur ce que doit être l’audio immersif.
Un état des lieux du son immersif
V. P. – C’est un secteur où on peut encore améliorer énormément de choses – et notamment les standards. La technologie existe, les outils aussi. Mais en diffusion, au moins, c’est encore flou. Dolby avance assez vite pour s’imposer en production, mais l’hétérogénéité des appareils en diffusion empêche de trouver un modèle unique, propice à travailler de façon plus sereine sur les projets. En réalité, on peut déjà tout faire avec les logiciels à notre disposition. Travailler les effets, le réalisme… Mais encore faut-il les moyens qui vont avec en diffusion. La VR a eu un apport extrêmement positif sur le développement des outils dela post-production audio.
V. P. – On reste souvent la dernière roue du carrosse, avec la queue de budget du projet, en dépendance des visuels, des VFX… Le son reste le parent pauvre, souvent dans la dernière ligne droite d’une production. Hors, en VR, le son est primordial ! Il y a une prise de conscience sur ce point, et on espère trouver une place plus conséquente sur les productions pour obtenir un vrai résultat. L’arrivée d’expérience comme NOTES ON BLINDNESS: INTO DARKNESS dès le départ, avec une approche particulièrement qualitative sur le son, a permis de mettre en avant nos métiers. C’est sans doute aussi un héritage du jeu vidéo…
V. P. – La course technologique autour de la VR est également contraignante. La réalité virtuelle est un domaine où nous devons refaire des masters tous les deux ou trois ans, en fonction des nouveaux casques qui arrivent sur le marché ! Il faut anticiper l’arrêt de certains devices, le remplacement de certains plugins… Certains projets sont revisités plusieurs fois à cet effet, alors qu’ils sont en diffusion. Il y a un vrai enjeu sur ce point, avec des formats de diffusion portables, cross-plateformes, agnostiques dans le temps. Nous n’y sommes pas encore, à l’heure où les constructeurs ne travaillent pas ensemble sur ce point.
Son immersif = son binaural ?
V. P. – Il y a un gros chantier sur le son binaural, et les réverbes à convolution (processus de simulation numérique de la réverbération d’un espace physique ou virtuel, ndlr). Chaque spectateur est en réalité unique (par son profil HRTF – ou fonction de transfert relative à la tête), même si le son 3D peut s’écouter par tous. Mais nous n’arrivons pas encore totalement à reproduire les spécificités d’écoute de chacun. Si vous êtes dans la moyenne, très bien : vous percevrez en détail le travail effectué par les équipes audio, basé sur des profils moyens. Mais si votre profil HRTF est hors norme (espace inter-aural, forme des pavillons, etc..) alors vous perdez en précision. Dans l’audio au casque, c’est le combat du moment : la reconnaissance des caractéristiques physiques de l’auditeur pour que chaque écoute soit optimisée. On peut aujourd’hui scanner sa tête via une application, et se voir proposer des dispositifs d’écoute dédiés à chaque HRTF (un “profiling”).
V. P. – A côté, on cherche à créer des acoustiques virtuelles crédibles à partir d’empreintes (réponses impulsionnelles des environnements physiques). On peut capturer et virtualiser l’empreinte acoustique d’un environnement (comme une photogrammétrie de la pièce, mais en audio) afin d’y injecter des sources sonores brutes. On peut ainsi y injecter du son, et le spatialiser , avec un réalisme extrêmement troublant. Ce “matching” permanent entre le son et l’environnement est un vrai enjeu pour les experts. Comme en visuel, nous n’en sommes pas loin ! Un bon exemple d’usage de réponses impulsionnelles reste WOLVES IN THE WALLS – Mais ça consomme beaucoup… Et on en revient à l’autonomie des casques, et à la puissance CPU allouée à l’audio.
Laisser un commentaire
Vous devez vous connecter pour publier un commentaire.