Innovation

Comment fonctionnent les capteurs ToF, ces caméras qui voient en 3D grâce à la vitesse de la lumière


Aussi défini soit-il, le super capteur 64 mégapixels du nouveau Galaxy S20+ a une limite : il voit le monde en 2D. Ce capteur d’image CMOS n’a aucune idée de la distance des objets puisqu’il ne sait évaluer que la quantité de lumière et sa couleur. S’il arrive à simuler de jolis arrière-plans flous, c’est grâce au soutien d’un module compagnon qui prend place entre les différents modules caméra « normaux ».

Lui aussi équipé d’une optique, ce module intègre bien un capteur construit par le procédé CMOS, mais dont le fonctionnement et les missions sont très différentes. Ce composant s’appelle « capteur de temps de vol » ou ToF sensor en anglais (pour Time of Flight). Un capteur qui se fiche qu’un objet soit bleu ou rouge ou même de la luminosité ambiante. Il ne s’intéresse qu’à une chose : la mesure de la distance.

Le capteur ToF, un composant « actif »

« Un capteur d’image classique se comporte comme la rétine d’un œil, il est passif », explique Radu Horeau, directeur de recherche à l’INRIA à Grenoble. « A contrario, un capteur ToF est un composant actif puisqu’il mesure non pas la lumière ambiante, mais un genre “d’écho” de celle qu’il émet. »

En effet, le dispositif complet est composé de deux éléments : le capteur de temps de vol en lui-même et un système d’illumination de la scène. Deux composants qui travaillent de concert.

« C’est la mesure du temps que met la lumière à revenir au capteur qui permet de déterminer sa distance aux objets », continue le chercheur.

Selon les usages, les formats et les contraintes, différents types de sources lumineuses peuvent être employés — infrarouge (IR), laser ou lumière visible — mais le principe reste le même pour tous les capteurs ToF.
Selon leurs dimensions, ces capteurs ont une distance de fonctionnement plus ou moins large, mais de manière générale ceux qui sont employés dans les smartphones fonctionnent de quelques centimètres à 3 ou 4m du terminal.

À la nanoseconde près

Il faut parler de la vitesse à laquelle ces capteurs fonctionnent. Une vitesse fabuleuse puisqu’ils mesurent le trajet de l’objet (onde et/ou corpuscule, choisissez votre camp !) le plus rapide de l’univers : la lumière.

« Comme on connaît très bien la vitesse de la lumière (ndr : 299 792 458 mètres par seconde) il suffit de diviser le temps par deux la mesure de temps pour obtenir la distance parcourue », explique Radu Horeau.

Enfin, il suffit, c’est vite dit. Dans la pratique, les capteurs employés dans les smartphones fonctionnent avec une lumière modulée et ont recours à un peu plus de calcul que la simple division du temps par deux. Mais vous avez saisi le principe !

Pour un objet placé à 5 m du capteur, la lumière ne met que 0,000 000 033 seconde pour faire l’aller-retour. Oui, seulement 33 nanosecondes séparent l’émission de la lumière et sa réception par le capteur ToF.

Comparé aux capteurs d’image traditionnels, le capteur ToF est, d’une part, dépourvu de matrice colorée, ce qui le rend bien plus sensible à la lumière. D’autre part, sa définition est bien moindre que celle des capteurs classiques de smartphones.
Quand ceux qui sont dédiés à la photo affichent de 8 Mpix à 108 Mpix (Xiaomi Mi Note 10), les capteurs ToF des Huawei P30 Pro et autres Samsung Galaxy S20+ oscillent entre 240 x 180 pixels et 320 x 240 pixels.
Soit des définitions comprises entre 0,04 Mpix et 0,08 Mpix ! Pas de quoi tirer un bon portrait — ce qui peut avoir un intérêt en matière de vie privée — mais suffisant pour modéliser rapidement les objets en face de vous.

Outre les modules ToF des smartphones qui utilisent une lumière LED modulée (qui calculent une différence de phase de la lumière), on retrouve aussi les capteurs ToF dans certains LiDAR comme celui de l’iPad Pro 2020. Un LiDAR qui utilise, lui, une grille de lasers pour mesurer, outre le temps de trajet de la lumière, la déformation de sa grille de points pour modéliser les objets.

Moins de définition = plus de lumière par pixel

La raison principale de cette moindre définition est que chaque pixel (ou groupe de pixels, comme on va le voir) est 100 % indépendant des autres. La lecture des informations ne se fait pas de manière globale (CCD) ou ligne par ligne (CMOS), mais bien pixel par pixel. Chacune des photodiodes doit donc être lue de manière indépendante, ce qui impose bien plus de circuiterie, plus de complexité. Et donc moins de place pour les pixels dans un espace limité.

Il faut ajouter à cela que les photodiodes de chaque pixel doivent avoir une taille minimale pour collecter efficacement la lumière.

« Puisqu’il doit être très rapide, le capteur ToF doit avoir de gros pixels pour capter au mieux la lumière. Il faut comparer ça à une bouteille et une carafe de contenances comparables : la plus grande ouverture de la carafe fait qu’elle se remplit bien plus rapidement que la bouteille », décrit Radu Horeau.

Du point de vue de la fabrication même, le directeur de recherche à l’INRIA note que « les capteurs ToF sont souvent basés sur des capteurs (d’image, ndr) CMOS qui existent déjà. Mais puisque les rayonnements infrarouges (émis par l’illuminateur, ndr) sont moins puissants que la lumière naturelle, les constructeurs regroupent les pixels en groupes de plusieurs dizaines pour augmenter la sensibilité » du super groupe de pixels.

De nouveaux capteurs ToF mieux définis arrivent sur le marché et il ne fait pas de doute que les définitions vont continuer à s’améliorer. Une amélioration qui a commencé à s’accélérer de manière significative grâce à un ancien accessoire de jeux vidéo que l’on doit à Microsoft : le Kinect 2.

Le ToF popularisé par la Kinect 2

La première version du Kinect lancée au temps de la Xbox 360 s’appuyait sur un système de lumière structurée. En revanche, le Kinect 2 embarque lui un capteur ToF.
Si les joueurs ont fini par se détourner de l’appareil — la production a été stoppée en 2017 — l’accessoire a fait l’effet d’une bombe dans le milieu de la recherche. De très nombreux papiers scientifiques ont analysé les différences entre les deux modèles, décortiqué les méthodes utilisées par les ingénieurs de Microsoft pour relever certains défis techniques, etc.

Comme la Wii de Nintendo qui a, en son temps, fait baisser le prix des gyroscopes et accéléromètres, le Kinect 2 a mis dans la main des scientifiques un capteur ToF d’une définition tout à fait honorable — 512 x 424 pixels, soit une définition de 0,22 Mpix — alors que les capteurs scientifiques étaient hors de prix. Et le prix est une des raisons majeures du succès de cette technologie.

Instantanéité, taille, prix et sécurité(s)

Parmi les 35 millions de Kinect vendus par Microsoft, aux alentours d’une dizaine de millions d’unités sont des Kinect One/PC. Cette industrialisation sans précédent dans l’histoire de cette technologie permet d’intégrer aujourd’hui ce qui était jusqu’ici des composants scientifiques de pointe dans les smartphones (certes haut de gamme pour l’heure).

Ce prix est l’atout phare de l’intégration des composants, mais il faut ajouter à cela d’autres arguments d’importance. Il y a la petite taille des composants dans un second temps, une miniaturisation qui a elle été rendue possible par l’explosion de la demande et de la R&D dans le domaine des capteurs d’images — dont les ToF découlent du point de vue de la production.

Il y a aussi la rapidité et la précision de ces capteurs ensuite, qui permettent d’envisager de nombreux usages notamment en matière de réalité augmentée (AR) ou de sécurité.

Une sécurité qui est le dernier argument de ces capteurs. Contrairement à certaines technologies comme le laser dont le déploiement dans les appareils grand public est très limité de par la puissance des rayonnements, les ToF indirects employés par les smartphones se contentent d’un rayonnement IR créé par de simples LED et donc inoffensif.  

Des smartphones aux voitures

Le futur des ToF ne va pas s’arrêter aux smartphones. Il est déjà présent dans de nombreux appareils tels que les drones et il va se développer dans tous les segments de l’industrie Tech, des casques VR aux écrans, des robots aux bâtiments et jusqu’aux automobiles. D’une part pour ses fonctions premières de mesure de la distance — et incidemment de la vitesse — et de soutien aux modules caméra.

Mais aussi, d’autre part, en qualité de collecteurs de données spatiales.

« Les capteurs ToF sont peu onéreux et leur développement va permettre de récolter énormément de données “pas chères” pour nourrir l’apprentissage machine dans de nombreux secteurs », note Radu Horeau.

Cette explosion des usages et donc de la demande, les géants de l’électronique comme Sony l’ont bien compris. L’an dernier, le géant nippon annonçait ses ambitions de devenir le numéro un mondial du secteur. Vous n’avez donc pas fini d’entendre parler de ces capteurs qui fonctionnent à la vitesse de la lumière.





Source link

Articles similaires

Bouton retour en haut de la page
Fermer
Fermer