Projets R&D
Nous sommes des experts et des innovateurs, toujours à la recherche de nouvelles avancées technologiques pour créer des solutions vocales uniques, qui donnent du sens à la technologie.
Recherche Acapela
Nous sommes des experts et des innovateurs, toujours à la recherche de nouvelles avancées technologiques pour créer des solutions vocales uniques, qui donnent du sens à la technologie.
Acapela Group travaille activement sur les DNN (Deep Neural Networks) et nous sommes très enthousiastes et fiers de présenter les premières réalisations dans ce domaine et de dessiner de nouvelles opportunités pour les interfaces vocales.
Compagnons humanoïdes intelligents, les conversations multilingues, la synthèse chantée, la lecture expressive et avec émotions, l’Internet des objets, la biométrique, l’interaction multimodale homme-machine sont quelques-uns des domaines dans lesquels nous nous impliquons depuis plus de dix ans, en travaillant avec des experts dans le monde entier.
2021– FABLANG
2018– VIADUCT
2018– VOICI
2017– EMPATHIC
2017– ARCHIBALD
2014 – ChaNTeR
2013 – PATH
2013– I-Treasures
2012 – DBOX
2012 – Mardi
2012 – Content4All
2011 – DIYSE
2010– EMOSPEECH
2010– BIOSPEAK
2010 – ROMEO
2009 – GVLEX
2009 – FRANEL
2008 – HMMTTS
2007 – INDIGO
2005 – BOON Companion
2004 – DIVINES
2003 – E! 2990- MAJORCALL Majordome CRM Call Centers
2003 – STOP
2003 – NORMALANGUE
2003 – ULYCES
Les récentes innovations technologiques et le déploiement massif des technologies vocales ont considérablement modifié les attentes des utilisateurs en termes de nouveaux usages, de performance et de personnalisation. Hors, en dehors des grandes langues internationales, l’offre linguistique est actuellement limitée.
Le projet FabLang a pour mission de créer une plateforme web qui permettra à Acapela Group et à ses clients de développer de nouvelles langues, dialectes et voix avec accents – souvent peu financés- qui ne sont pas encore disponibles.
L’utilisation des DNN (réseaux de neurones profonds) nécessite la disponibilité d’un corpus suffisamment important pour pouvoir entraîner les algorithmes DNN.
L’objectif du projet est de répondre à ces besoins avec une plateforme collaborative innovante basée sur des approches d’apprentissage multi-langues, qui bénéficient du savoir-faire sur d’autres langues pour faciliter l’entrainement sur la langue cible.
L’utilisateur pourra bénéficier d’autres ressources présentes sur la plateforme.
Ce projet est financé par le Service Public de Wallonie – Département de la Recherche et du Développement Technologique.
Ce projet vise à concevoir, développer et valider une interface homme-machine multimodale, adaptative et centrée sur la parole pour conduire des voitures semi-autonomes, en prenant tout particulièrement en compte les besoins des personnes âgées. Le projet VIADUCT est le résultat d’un plan d’action développé par AW Technical CEnter et Acapela Group pour relever les défis des interfaces vocales dans les véhicules.
Le produit issu du projet VIADUCT consiste en une interface homme-machine multimodale, adaptative et basée sur les technologies vocales pour la conduite de voitures semi-autonomes (MultiModal Voice-centric HMI).
Ce produit intègre deux briques technologiques innovantes :
– Un agent conversationnel multimodal basé sur les nouvelles technologies vocales optimisées pour les véhicules avec la reconnaissance automatique de la parole (ASR) et la synthèse vocale (TTS). Cet agent organise la communication efficace entre le conducteur (ou un passager) et le véhicule, et est capable de s’adapter au profil du conducteur, et notamment aux personnes âgées, en tenant compte de leurs capacités visuelles et auditives.
– Un système de surveillance du conducteur (DMS) basé sur la technologie disponible et vendue par AW, augmenté de fonctions logicielles pour détecter l’état physique, psychologique, physiologique, cognitif du conducteur ou des passagers afin d’adapter dynamiquement le comportement de l’agent conversationnel.
L’adaptabilité dynamique du VIADUCT HMI sera appliquée à la situation des conducteurs âgés, mais est également applicable dans toute autre situation où la capacité du conducteur serait altérée (malaise, handicap …).
Ce projet contribuera à financer nos efforts de R&D sur des sujets connexes ASR & TTS et renforcera la position d’Acapela dans le secteur automobile. De plus, une nouvelle collaboration avec AW Europe pour l’exploitation du projet est déjà prévue.
Ce projet de 3 ans mobilisera pour Acapela 6 personnes (2 recrutements supplémentaires prévus) pour développer en français :
– Reconnaissance vocale naturelle et robuste dans la voiture
– Construction et évaluation d’un agent conversationnel contextuel et multimodal basé sur la parole
– Feedback vocal adapté au conducteur
– Analyse des performances des nouvelles technologies vocales développées
Forts de leurs expertises dans l’industrie automotive, les systèmes d’information véhicule, l’intelligence artificielle et les technologies vocales, AWTCE et Acapela ont mobilisé leurs savoir-faire implantés en Wallonie pour la réalisation de ce projet :
«VOICI» fait partie de «Clean Sky 2» (CS2) qui cible la recherche et l’innovation aéronautiques européennes . Le projet a pour objectif de préparer les solutions futures pour une mobilité aérienne sûre, transparente et durable qui réponde aux besoins des citoyens.
Le premier appel de CS2 comprend 29 thèmes et dispose d’un budget de financement total de 205 millions d’euros d’Horizon 2020.
Dans le cadre du 6e appel de Clean Sky 2, le projet VOICI vise à développer la technologie permettant de mettre en place un système d’interaction vocale intelligent naturel dans un environnement de cockpit allant jusqu’à TRL 3.
L’objectif principal est de démontrer la faisabilité (Proof of concept) de cet assistant, capable d’écouter toutes les communications se produisant dans le cockpit, que ce soit entre les membres d’équipage, entre l’équipage et l’ATC, en reconnaissant et en interprétant le contenu, pour interagir avec l’équipage et répondre à ses demandes, afin de simplifier ses tâches et de réduire la charge de travail.
Le leader du sujet a prédéfini : l’enregistrement sonore, la reconnaissance vocale et l’intelligence artificielle comme les trois principaux composants technologiques constituant le système, qui devraient répondre à des exigences spécifiques telles que la robustesse contre un environnement bruyant, un taux de reconnaissance élevé et l’interprétation des demandes. Un environnement d’évaluation audio sera développé qui permettra l’évaluation des systèmes d’enregistrement sonore / reconnaissance vocale et de l’assistant Equipage selon les scénarios d’évaluation fournis par le responsable du sujet.
Acapela travaillera sur le développement d’une voix spécifique pour l’environnement du cockpit afin de fournir des informations vocales claires et compréhensibles à l’équipage en utilisant différentes technologies: CTS, TTS, DNN.
Acapela Group travaille sur la partie voix digitale, pour offrir aux utilisateurs une interface ‘Voice-First’ basée sur l’apprentissage profond (Deep Learning).
Le projet fait partie du programme Horizon 2020 qui est le plus important programme européen de recherche et d’innovation jamais mené, avec près de 80 milliards d’euros d’investissements sur 7 ans (2014 à 2020).
Empathic a pour objectif d’étudier, explorer, innover et valider de nouveaux paradigmes et plateformes, en posant les fondations essentielles aux futures générations d’assistants personnels virtuels. Le consortium rassemble 10 partenaires impliqués dans l’assistance médicale, le développement des technologies et les intégrateurs ou représentant les instituts de recherche et les associations d’utilisateurs.
Les outils d’analyses multimodales du visage, les systèmes de dialogue s’adaptant à l’utilisateur et l’interface de langage naturel sont des sujets clés de recherche et d’innovation du projet qui a pour objectif de faciliter les routines quotidiennes des personnes âgées.
Acapela fournira une technologie de synthèse de la parole (Text To Speech) basée sur les réseaux de neurones profonds (DNN) ainsi que des voix spécifiques propres à augmenter les capacités expressives du système de dialogue et à l’adapter aux émotions et réactions de l’utilisateur pour apporter plus de cohérence, de naturel et de flexibilité à l’interaction. Quatre langues sont concernées : anglais, espagnol, français et norvégien.
Le projet utilisera des technologies non intrusives pour extraire les marqueurs physiologiques d’états émotionnels en temps réel et adapter les réponses de l’assistant virtuel. Il comportera également une modélisation holistique avancée des aspects comportementaux, informatiques, physiques et sociaux d’un coach virtuel expressif personnalisé.
Le projet comprendra une phase de démonstration et de validation avec des cas d’utilisation réalistes clairement définis. Il se concentrera sur des recherches validées par l’utilisateur ainsi que sur l’intégration de méthodes intelligentes de détection du contexte et ceci via l’analyse de la voix, des yeux et du visage, l’intelligence heuristique (interaction complexe, détection de l’intention de l’utilisateur, estimation de la distraction, décision du système), le système de dialogue oral et visuel et les capacités de réaction du système.
La validation se fera dans trois pays différents (Espagne, Norvège et France), en mesurant les résultats auprès de l’utilisateur final, avec 3 langues et cultures distinctes (ainsi que l’anglais pour la R&D), pour obtenir des méthodes et solutions utiles, fiables, flexible et robustes.
Ce projet propose d’intensifier l’exploitation de contenus audiovisuels numérisés par l’accélération de leur mise à disposition et la diversification de leur utilisation. Tout en continuant à prendre prioritairement en compte les besoins du secteur Audiovisuel, le projet Archibald entrevoit le fonds d’archives de Sonuma SA comme un lieu d’incubation de projets répondant aux attentes de secteurs d’activités tels que les technologies vocales, la Recherche et l’Enseignement.
Ces objectifs seront atteints en combinant les progrès technologiques majeurs basés sur l’expertise dans les sciences du langage disponibles en Wallonie (Acapela et Cental), l’expérience professionnelle et les besoins des utilisateurs ciblés (médias, Acapela, Sonuma SA, Universités et Hautes écoles…) et les contenus audio/textuels et métadonnées exploitables à partir des 140.000 heures d’archives audiovisuelles déjà numérisées par Sonuma SA.
La concrétisation de ces objectifs se traduira par la livraison de modules technologiques et la réalisation de deux expériences pilotes. Le contexte scientifique couvre plusieurs domaines d’application : l’audio, le traitement automatique du langage et l’indexation/classification de documents numériques. L’avènement ces dernières années des technologies de réseaux de neurones profonds permet d’envisager l’utilisation de ces technologies dans chacun des domaines précités.
Les buts de ce projet sont donc les suivants :
Ces modules technologiques sont importants pour les développements industriels de Sonuma SA et d’Acapela et le positionnement international de la Wallonie comme acteur majeur du numérique.
– Sonuma
– CENTAL
– Acapela Group
Pour plus de détails sur tous les projets sur lesquels Acapela travaille ou a travaillé, consultez la page en anglais
Vous souhaitez + d'informations sur nos solutions? Parlons-en 😊
Nous sommes à votre disposition pour vous guider vers la solution adaptée à votre projet vocal.