L’intelligence artificielle est sur toutes les lèvres. Et pour cause : elle ouvre aujourd’hui de nombreuses perspectives, notamment dans nos objets du quotidien, qui deviennent plus intelligents, plus réactifs et surtout plus autonomes.
L’intelligence artificielle est sur toutes les lèvres. Et pour cause : elle ouvre aujourd’hui de nombreuses perspectives, notamment dans nos objets du quotidien, qui deviennent plus intelligents, plus réactifs et surtout plus autonomes.
Des caméras de sécurité aux véhicules, en passant par les bâtiments intelligents ou les dispositifs médicaux, l’IA intégrée directement dans le hardware permet désormais des applications jusqu’ici réservées à des infrastructures lourdes et dépendantes du cloud.
Chez Rtone, nous croyons depuis quelques années au potentiel du machine learning embarqué.
Après une première démonstration en 2024, réalisée en partenariat avec ST Microelectronics lors de l’Embedded World, nous avons renouvelé l’expérience en 2025 avec une nouvelle application concrète : la détection de somnolence au volant.
Dans cet article, nous verrons comment la combinaison d’une caméra et d’un traitement IA en temps réel sur microcontrôleur permet de répondre à des besoins très concrets dans des secteurs variés : automobile, industrie, bâtiment, santé, logistique…
Nous vous présenterons ensuite notre dernière démonstration, développée par nos équipes, ainsi que les choix techniques qui l’accompagnent.
Associer une caméra à une intelligence artificielle embarquée rend possible une diversité de cas d’usage concret.
Grâce au traitement local en temps réel, il devient possible d’analyser des comportements, de détecter des anomalies ou encore d’améliorer la sécurité — le tout sans connexion au cloud ni latence réseau.
Faisons, un petit tour d’horizon 👇
Industrie automobileLa sécurité au volant est un enjeu majeur, surtout face aux risques de fatigue ou d’inattention.
Grâce à l’IA embarquée, il devient possible de détecter en temps réel les signes de somnolence (clignements d’yeux, bâillements, regard hors route), mais aussi des comportements à risque comme l’usage du téléphone au volant ou l’oubli de la ceinture. Et tout cela fonctionne directement dans le véhicule, sans connexion au cloud.

Sur les chantiers ou en usine, un manque de vigilance peut avoir de lourdes conséquences.
Grâce à la vision embarquée, on peut détecter une chute, un malaise ou l’absence de port d’EPI, et générer une alerte immédiate — sans infrastructure réseau, même en zones isolées.
Smart BuildingUn bâtiment intelligent, c’est aussi un bâtiment capable de vite réagir.
Intrusion, comportement anormal, occupation d’un espace (salle de réunion/open space) : l’IA embarquée permet de détecter tout ça localement, en temps réel. Même en cas de coupure réseau, le système continue de tourner.
RetailComprendre comment circulent les clients et quels sont leurs points d’intérêt permet de repenser les parcours d’achat.
L’IA embarquée offre cette vision directement sur site : déplacements, zones d’attente, flux… autant d’informations utiles pour améliorer l’expérience client et optimiser l’agencement.
Santé / EHPADDans les établissements de santé ou pour les personnes âgées, la réactivité est cruciale.
Une IA embarquée peut repérer chutes, malaises ou absence de mouvement prolongée, tout en garantissant la confidentialité : rien n’est envoyé dans le cloud, aucune image n’est stockée.

Qu’il s’agisse de robots industriels, de service ou domestiques, la vision embarquée améliore leur autonomie et leur capacité d’interaction.
Détection d’objets, suivi de personnes, reconnaissance de gestes ou arrêt automatique en cas de présence humaine : l’IA rend les robots plus sûrs et plus intuitifs, même sans connexion permanente.
Ces cas d’usages ne sont qu’un aperçu.
Au-delà de leur diversité, tous ces cas partagent les mêmes exigences : analyser en local, réagir rapidement et respecter les contraintes du terrain.
C’est tout là l’avantage de la combinaison caméra + IA embarqué, cela permet de répondre à des besoins concrets dans des environnements très différents.
La somnolence au volant reste l’une des principales causes d’accidents graves sur la route, souvent silencieuse, difficile à anticiper et pourtant évitable.
Les signes de fatigue comme le bâillement ou les yeux qui se ferment sont des évènements de courte durée, et qui arrivent de partout, y compris dans des zones sans connexion réseau.
Partant de ce constant, nous avons développé une démonstration d’IA embarquée capable de détecter en temps réel les premiers signes de fatigue.
Présentée lors de l’Embedded World 2025, cette solution repose sur le tout nouveau microcontrôleur STM32N6 de notre partenaire ST Microelectronics, combiné à une caméra capable d’analyser le visage du conducteur.
Clignements d’yeux, bâillements, paupières lourdes… autant de signaux que notre IA peut reconnaître pour déclencher une alerte et éviter une situation dangereuse.
Dès qu’un comportement à risque est détecté, une alerte est générée pour prévenir immédiatement le danger.
Alors comment ça marche concrètement ? Quels choix techniques ont guidé notre équipe ? Et surtout : pourquoi cette approche change la donne pour la sécurité embarquée ?
Pour cette démonstration, nous avons pris le parti d’utiliser un modèle d’IA déjà reconnu, l’adapter à notre cas d’usage, puis l’optimiser pour qu’il tourne directement sur microcontrôleur.
Notre solution repose sur les éléments suivants :
Nous avons choisi YOLOv8, une référence dans la détection d’objets, puis l’avons réentraîné pour qu’il repère spécifiquement les signes de fatigue comme les yeux fermés, mi-clos ou les bâillements.
En configuration typique, le temps d’inférence se situe entre 20 et 30 ms, ce qui permet un traitement en temps réel sur microcontrôleur.
Nous avons utilisé un dataset public disponible sur Roboflow, sans collecte de données propriétaires. Ce jeu de données contient des images de conducteurs présentant différents signes de fatigue, ce qui a permis de couvrir une grande variété de situations.
Le modèle YOLOv8n a été réentraîné à partir de ce jeu de données pour se spécialiser dans la détection de la somnolence.
Les principaux paramètres d’entraînement retenus sont :
Afin de garantir une détection fiable dans des conditions variées, nous avons appliqué différentes techniques d’augmentation de données :
Cette approche permet d’augmenter la diversité du jeu de données et donc la robustesse du modèle, afin qu’il fonctionne efficacement dans des situations réelles, parfois imprévisibles (variations de luminosité, angles de vue, mouvements du conducteur).
Pour qu’un modèle d’IA comme celui-ci fonctionne en conditions réelles, le choix du support matériel est déterminant.
Quand on pense à faire tourner un modèle d’IA, on imagine souvent un processeur puissant avec un Linux embarqué.
Pourtant, dans de nombreux cas, un microcontrôleur moderne comme le STM32N6 représente un compromis intéressant :
Dans le cas spécifique de la détection de somnolence, qui ne nécessite pas un OS complet ou une UI complexe, le STM32N6 avec NPU intégré permet d’atteindre :
En bref, le choix du STM32N6 permet de concilier efficacité, sobriété et fiabilité.
Après cet exemple concret, intéressons-nous au potentiel plus large de cette approche.
Notre démonstration n’est qu’un exemple parmi d’autres. Elle met surtout en lumière tout ce que l’IA embarquée peut apporter dans des situations réelles.
Le modèle YOLOv8 que nous avons utilisé pour la somnolence au volant peut être rapidement adapté à d’autres cas d’usage proches.
En changeant simplement le jeu de données et quelques paramètres d’entraînement, la même approche permet par exemple de :
En résumé, un même socle technologique peut couvrir une grande variété de besoins, sans repartir de zéro à chaque fois
Un enjeu clé aujourd’hui : la protection des données personnelles.
Avec l’IA embarquée, toutes les analyses sont réalisées localement, en temps réel, sur microcontrôleur.
Cela garantit non seulement la conformité RGPD, mais aussi une confidentialité maximale donc un avantage déterminant pour les utilisateurs et les industriels.
L’inférence IA tourne directement sur le microcontrôleur STM32N6, pensé pour délivrer de bonnes performances tout en restant très économe en énergie.
Résultat : la solution peut facilement être intégrée dans des systèmes sur batterie, sans sacrifier l’autonomie.
C’est un vrai atout pour toutes les applications mobiles ou embarquées, mais aussi pour celles déployées dans des environnements isolés où l’alimentation secteur n’est pas toujours disponible.
Concrètement, cela ouvre la porte à des caméras intelligentes capables de fonctionner longtemps, de façon fiable et avec une faible contrainte énergétique, même sur le terrain.
La force de notre démonstration réside dans la combinaison d’un microcontrôleur dernière génération et d’un modèle d’IA éprouvé.
Le STM32N6 de STMicroelectronics intègre un NPU (Neural Processing Unit) dédié, capable d’exécuter des modèles IA complexes avec une efficacité énergétique remarquable. Résultat : des performances en temps réel, avec une consommation minimale.
De son côté, YOLOv8 est l’un des modèles de détection d’objets les plus performants et flexibles du moment. Sa précision et sa capacité d’adaptation en font un choix idéal pour des applications embarquées exigeantes.
Ensemble, ces deux briques technologiques apportent plusieurs bénéfices concrets :
L’IA embarquée n’est plus une promesse : c’est une réalité qui s’impose dans des domaines aussi variés que la sécurité routière, la santé ou la robotique.
La différence aujourd’hui, c’est la vitesse à laquelle tout avance. Les modèles s’optimisent, les microcontrôleurs gagnent en puissance, et les applications se déploient de plus en plus rapidement. On voit émerger dans l’embarqué, la mise en cascade de plusieurs modèles IA, l’intégration de modèles vision-language, ou encore des systèmes multi-capteurs capables de prendre seuls des décisions complexes.
Chez Rtone, nous accompagnons nos clients pour transformer ces avancées en solutions concrètes : maintenance prédictive, détection d’anomalies, classification de signaux ou prise de décision locale, rapide et économe en énergie.
Et si vous voulez aller plus loin, découvrez aussi notre démonstration de détection d’anomalie par machine learning embarqué.
👉 Vous avez un projet en tête ou une idée à explorer ? Parlons-en !
Un peu de lecture
Des articles, des podcasts, des webinars… et surtout des conseils pratiques ! En bref, une collection de ressources pour mener à bien votre projet.