Repousser les limites de la voix

L’implication dans les projets R&D et la collaboration avec des partenaires, organisations, universités ou laboratoires experts dans leurs domaines sont essentiels à notre développement. En tant qu’expert de la voix et acteur reconnu, nous avons en permanence pour ambition d’ouvrir de nouvelles voix d’innovation.

Acapela Group travaille activement sur les DNN (Deep Neural Networks) et nous sommes très enthousiastes et fiers de présenter les premières réalisations dans ce domaine et de dessiner de nouvelles opportunités pour les interfaces vocales.

Projets impliquant Acapela Group

Compagnons humanoïdes intelligents, les conversations multilingues, la synthèse chantée, la lecture expressive et avec émotions, l’Internet des objets, la biométrique, l’interaction multimodale homme-machine sont quelques-uns des domaines dans lesquels nous nous impliquons depuis plus de dix ans, en travaillant avec des experts dans le monde entier.

2021– FABLANG

2018– VIADUCT

2018– VOICI

2017– EMPATHIC

2017– ARCHIBALD

2014 – ChaNTeR

2013 – PATH

2013– I-Treasures

2012 – DBOX

2012 – Mardi

2012 – Content4All

2011 – DIYSE

2010– EMOSPEECH

2010– BIOSPEAK

2010 – ROMEO

2009 – GVLEX

2009 – FRANEL

2008 – HMMTTS

2007 – INDIGO

2005 – BOON Companion

2004 – DIVINES

2003 – E! 2990- MAJORCALL Majordome CRM Call Centers

2003 – STOP

2003 – NORMALANGUE

2003 – ULYCES

FABLANG

La fabrique de langues et de dialectes : une plateforme pour développer des dialectes et des accents avec les technologies de la parole.

Description du projet

Les récentes innovations technologiques et le déploiement massif des technologies vocales ont considérablement modifié les attentes des utilisateurs en termes de nouveaux usages, de performance et de personnalisation. Hors, en dehors des grandes langues internationales, l’offre linguistique est actuellement limitée.

Le projet FabLang a pour mission de créer une plateforme web qui permettra à Acapela Group et à ses clients de développer de nouvelles langues, dialectes et voix avec accents – souvent peu financés- qui ne sont pas encore disponibles.

L’utilisation des DNN (réseaux de neurones profonds) nécessite la disponibilité d’un corpus suffisamment important pour pouvoir entraîner les algorithmes DNN.
L’objectif du projet est de répondre à ces besoins avec une plateforme collaborative innovante basée sur des approches d’apprentissage multi-langues, qui bénéficient du savoir-faire sur d’autres langues pour faciliter l’entrainement sur la langue cible.

L’utilisateur pourra bénéficier d’autres ressources présentes sur la plateforme.
Ce projet est financé par le Service Public de Wallonie – Département de la Recherche et du Développement Technologique.

VIADUCT

VIADUCT (Voice Interface for Autonomous Driving based on User experienCe Techniques) est un projet du Pôle de compétitivité MecaTech, 23ème appel à projets accordé par la Région wallonne.

Description du projet

Ce projet vise à concevoir, développer et valider une interface homme-machine multimodale, adaptative et centrée sur la parole pour conduire des voitures semi-autonomes, en prenant tout particulièrement en compte les besoins des personnes âgées. Le projet VIADUCT est le résultat d’un plan d’action développé par AW Technical CEnter et Acapela Group pour relever les défis des interfaces vocales dans les véhicules.

Le produit issu du projet VIADUCT consiste en une interface homme-machine multimodale, adaptative et basée sur les technologies vocales pour la conduite de voitures semi-autonomes (MultiModal Voice-centric HMI).

Ce produit intègre deux briques technologiques innovantes :

– Un agent conversationnel multimodal basé sur les nouvelles technologies vocales optimisées pour les véhicules avec la reconnaissance automatique de la parole (ASR) et la synthèse vocale (TTS). Cet agent organise la communication efficace entre le conducteur (ou un passager) et le véhicule, et est capable de s’adapter au profil du conducteur, et notamment aux personnes âgées, en tenant compte de leurs capacités visuelles et auditives.

– Un système de surveillance du conducteur (DMS) basé sur la technologie disponible et vendue par AW, augmenté de fonctions logicielles pour détecter l’état physique, psychologique, physiologique, cognitif du conducteur ou des passagers afin d’adapter dynamiquement le comportement de l’agent conversationnel.

L’adaptabilité dynamique du VIADUCT HMI sera appliquée à la situation des conducteurs âgés, mais est également applicable dans toute autre situation où la capacité du conducteur serait altérée (malaise, handicap …).

Ce projet contribuera à financer nos efforts de R&D sur des sujets connexes ASR & TTS et renforcera la position d’Acapela dans le secteur automobile. De plus, une nouvelle collaboration avec AW Europe pour l’exploitation du projet est déjà prévue.

Ce projet de 3 ans mobilisera pour Acapela 6 personnes (2 recrutements supplémentaires prévus) pour développer en français :

– Reconnaissance vocale naturelle et robuste dans la voiture

– Construction et évaluation d’un agent conversationnel contextuel et multimodal basé sur la parole

– Feedback vocal adapté au conducteur

– Analyse des performances des nouvelles technologies vocales développées

Partenaires

Forts de leurs expertises dans l’industrie automotive, les systèmes d’information véhicule, l’intelligence artificielle et les technologies vocales, AWTCE et Acapela ont mobilisé leurs savoir-faire implantés en Wallonie pour la réalisation de ce projet :

  • Université Catholique de Louvain (Groupe RECOM et ISP), expert en intégration UX et méthodes UX (User Experience) et agile.
  • Centre de recherche Multitel, pour son expertise dans les technologies vocales, la surveillance des pilotes et la construction de modèles « data driven ».
  • Centre de recherche du CETIC, pour son expertise en architecture informatique distribuée et l’optimisation de la consommation électrique des systèmes embarqués.
  • Université de Namur (CRIDS), pour l’analyse des aspects juridiques liés aux voitures semi-autonomes.

VOICI

Le projet VOICI (VOIce Crew Interaction) fait partie de l’ambitieux programme H2020. Il a pour objectif de développer pour l’équipage un système d’interaction vocale intelligent.

Description du projet

«VOICI» fait partie de «Clean Sky 2» (CS2) qui cible la recherche et l’innovation aéronautiques européennes . Le projet a pour objectif de préparer les solutions futures pour une mobilité aérienne sûre, transparente et durable qui réponde aux besoins des citoyens.

Le premier appel de CS2 comprend 29 thèmes et dispose d’un budget de financement total de 205 millions d’euros d’Horizon 2020.

Dans le cadre du 6e appel de Clean Sky 2, le projet VOICI vise à développer la technologie permettant de mettre en place un système d’interaction vocale intelligent naturel dans un environnement de cockpit allant jusqu’à TRL 3.

L’objectif principal est de démontrer la faisabilité (Proof of concept) de cet assistant, capable d’écouter toutes les communications se produisant dans le cockpit, que ce soit entre les membres d’équipage, entre l’équipage et l’ATC, en reconnaissant et en interprétant le contenu, pour interagir avec l’équipage et répondre à ses demandes, afin de simplifier ses tâches et de réduire la charge de travail.

Le leader du sujet a prédéfini : l’enregistrement sonore, la reconnaissance vocale et l’intelligence artificielle comme les trois principaux composants technologiques constituant le système, qui devraient répondre à des exigences spécifiques telles que la robustesse contre un environnement bruyant, un taux de reconnaissance élevé et l’interprétation des demandes. Un environnement d’évaluation audio sera développé qui permettra l’évaluation des systèmes d’enregistrement sonore / reconnaissance vocale et de l’assistant Equipage selon les scénarios d’évaluation fournis par le responsable du sujet.

Acapela travaillera sur le développement d’une voix spécifique pour l’environnement du cockpit afin de fournir des informations vocales claires et compréhensibles à l’équipage en utilisant différentes technologies: CTS, TTS, DNN.

Partenaires

  • STIFTELSEN SINTEF, Norvège
  • MULTITEL, Belgique
  • AoD Labs AS, Norvège
  • ACAPELA GROUP, Belgique

EMPATHIC

Le projet Empathic met l’accent sur les assistants virtuels personnalisés pour accompagner les personnes âgées dans leur quotidien, à la maison et dans leur environnement.

Description du projet

Acapela Group travaille sur la partie voix digitale, pour offrir aux utilisateurs une interface ‘Voice-First’ basée sur l’apprentissage profond (Deep Learning).

Le projet fait partie du programme Horizon 2020 qui est le plus important programme européen de recherche et d’innovation jamais mené, avec près de 80 milliards d’euros d’investissements sur 7 ans (2014 à 2020).

Empathic a pour objectif d’étudier, explorer, innover et valider de nouveaux paradigmes et plateformes, en posant les fondations essentielles aux futures générations d’assistants personnels virtuels. Le consortium rassemble 10 partenaires impliqués dans l’assistance médicale, le développement des technologies et les intégrateurs ou représentant les instituts de recherche et les associations d’utilisateurs.

Les outils d’analyses multimodales du visage, les systèmes de dialogue s’adaptant à l’utilisateur et l’interface de langage naturel sont des sujets clés de recherche et d’innovation du projet qui a pour objectif de faciliter les routines quotidiennes des personnes âgées.
Acapela fournira une technologie de synthèse de la parole (Text To Speech) basée sur les réseaux de neurones profonds (DNN) ainsi que des voix spécifiques propres à augmenter les capacités expressives du système de dialogue et à l’adapter aux émotions et réactions de l’utilisateur pour apporter plus de cohérence, de naturel et de flexibilité à l’interaction. Quatre langues sont concernées : anglais, espagnol, français et norvégien.
Le projet utilisera des technologies non intrusives pour extraire les marqueurs physiologiques d’états émotionnels en temps réel et adapter les réponses de l’assistant virtuel. Il comportera également une modélisation holistique avancée des aspects comportementaux, informatiques, physiques et sociaux d’un coach virtuel expressif personnalisé.

Le projet comprendra une phase de démonstration et de validation avec des cas d’utilisation réalistes clairement définis. Il se concentrera sur des recherches validées par l’utilisateur ainsi que sur l’intégration de méthodes intelligentes de détection du contexte et ceci via l’analyse de la voix, des yeux et du visage, l’intelligence heuristique (interaction complexe, détection de l’intention de l’utilisateur, estimation de la distraction, décision du système), le système de dialogue oral et visuel et les capacités de réaction du système.

La validation se fera dans trois pays différents (Espagne, Norvège et France), en mesurant les résultats auprès de l’utilisateur final, avec 3 langues et cultures distinctes (ainsi que l’anglais pour la R&D), pour obtenir des méthodes et solutions utiles, fiables, flexible et robustes.

Partenaires

  • Universidad del País Vasco, Espagne
  • OSATEK, Espagne
  • Oslo University Hospital, Norvège
  • e-Seniors Association ESE END, France
  • Tunstall Healthcare (UK) Ltd., UK
  • Technion – Israel Institute of Technology
  • Intelligent Voice Ltd., UK
  • Institut Mines-Télécom, France
  • Seconda Università degli Studi di Napoli, Italie
  • Acapela Group S.A., Belgique

ARCHIBALD

ARCHIBALD (ARCHIves Breeding by Automated Language Description)

Description du projet

Ce projet propose d’intensifier l’exploitation de contenus audiovisuels numérisés par l’accélération de leur mise à disposition et la diversification de leur utilisation. Tout en continuant à prendre prioritairement en compte les besoins du secteur Audiovisuel, le projet Archibald entrevoit le fonds d’archives de Sonuma SA comme un lieu d’incubation de projets répondant aux attentes de secteurs d’activités tels que les technologies vocales, la Recherche et l’Enseignement.

Ces objectifs seront atteints en combinant les progrès technologiques majeurs basés sur l’expertise dans les sciences du langage disponibles en Wallonie (Acapela et Cental), l’expérience professionnelle et les besoins des utilisateurs ciblés (médias, Acapela, Sonuma SA, Universités et Hautes écoles…) et les contenus audio/textuels et métadonnées exploitables à partir des 140.000 heures d’archives audiovisuelles déjà numérisées par Sonuma SA.

La concrétisation de ces objectifs se traduira par la livraison de modules technologiques et la réalisation de deux expériences pilotes. Le contexte scientifique couvre plusieurs domaines d’application : l’audio, le traitement automatique du langage et l’indexation/classification de documents numériques. L’avènement ces dernières années des technologies de réseaux de neurones profonds permet d’envisager l’utilisation de ces technologies dans chacun des domaines précités.

Les buts de ce projet sont donc les suivants :

  1. Développer des modules logiciels valorisables en Région Wallonne
  2. Ouvrir des nouveaux marchés aux compétences de la société Acapela
  3. Intensifier la valorisation des archives audiovisuelles numérisées de Sonuma SA
  4. Ouvrir des nouveaux marchés aux compétences de la société Sonuma SA
  5. Préserver et donner accès au patrimoine audiovisuel

Ces modules technologiques sont importants pour les développements industriels de Sonuma SA et d’Acapela et le positionnement international de la Wallonie comme acteur majeur du numérique.

Partenaires

– Sonuma

– CENTAL

– Acapela Group

Pour plus de détails sur tous les projets sur lesquels Acapela travaille ou a travaillé, consultez la page en anglais

Vous avez besoin de plus d'informations pour votre projet ?
Book a demo