Récemment, nous avons souvent rencontré l'expression capteur LiDAR dans des articles sur les caméras des nouveaux appareils Apple. Cette phrase est tellement répandue que nous oublions que les téléphones à réalité augmentée peuvent fonctionner de n'importe quelle manière, en particulier avec les outils ToF qui font passer les téléphones Samsung au niveau supérieur.
Alors, où est la différence entre LiDAR et ToF ? Découvrons-le avec Quantrimang.
Qu’est-ce que ToF ?
ToF signifie Temps de Vol. En fait, ToF implique la vitesse de la lumière (ou même du son) pour déterminer la distance. Il mesure le temps nécessaire à la lumière pour quitter l'appareil, atteindre l'objet et revenir, le tout divisé en deux périodes qui indiquent la distance entre l'appareil et l'objet ou la surface.
Les appareils Android utilisent des capteurs ToF
Ainsi, tous les LiDAR sont un type de temps de vol, mais tous les ToF ne sont pas des LiDAR. En termes simples, ToF signifie mesure de distance optique, qui n'est pas liée au LiDAR.
Qu’est-ce que le LiDAR ?
LiDAR signifie Light Detection and Ranging. Cette technologie utilise un laser, ou un faisceau laser, ainsi qu'une source lumineuse similaire à celle ci-dessus.
Capteur LiDAR sur iPhone
Un seul capteur LiDAR peut être utilisé pour mesurer la largeur d’une pièce, mais plusieurs capteurs LiDAR peuvent être utilisés pour créer un « nuage de points ». Ces points sont utilisés pour créer un modèle 3D d'un objet ou une carte topographique d'une zone entière.
Même si le LiDAR est peut-être nouveau sur les appareils mobiles, la technologie existe en réalité depuis un certain temps. Lorsqu'il n'est pas installé sur un téléphone, le LiDAR est utilisé pour tout faire, de la cartographie des environnements sous-marins aux sites archéologiques.
Différence entre LiDAR et ToF
La différence fonctionnelle entre le LiDAR et les autres formes de ToF réside dans le fait que le LiDAR utilise un laser pulsé pour créer un « nuage de points », qui est ensuite utilisé pour créer une carte ou une image 3D. Les applications ToF créent des « cartes de profondeur » basées sur la détection de la lumière, souvent via une caméra RVB standard.
L’avantage du ToF par rapport au LiDAR est que le ToF nécessite un équipement moins spécialisé et peut donc être utilisé avec des appareils petits et moins coûteux. L’avantage du LiDAR vient du fait que les ordinateurs peuvent facilement lire les nuages de points par rapport aux cartes de profondeur.
L'API Depth créée par Google pour Android fonctionne mieux sur les appareils prenant en charge ToF, en créant une carte de profondeur et en reconnaissant les « points caractéristiques ». Ces points caractéristiques constituent souvent des barrières entre différentes intensités lumineuses, qui sont ensuite utilisées pour définir différents plans dans l'environnement. Cela crée essentiellement un nuage de points de résolution inférieure.
Comment ToF et LiDAR fonctionnent avec la RA mobile
Les cartes de profondeur et les nuages de points sont excellents, et pour certains utilisateurs, cela suffit. Cependant, pour la plupart des applications AR, ces données doivent être contextualisées. ToF et LiDAR y parviennent en travaillant en conjonction avec d’autres capteurs sur les appareils mobiles. Plus précisément, ces plates-formes doivent comprendre l'orientation et les mouvements de votre téléphone.
Le LiDAR est-il meilleur que le ToF ?
Pour être précis, LiDAR est plus rapide et plus précis que ToF. Cependant, cela devient plus important avec les nouvelles applications technologiques.
Par exemple, les API ToF et Depth de Google ont du mal à comprendre les grands plans à faible texture comme les murs blancs. Cela peut rendre difficile pour les applications utilisant cette méthode de placer avec précision des objets numériques sur certaines surfaces du monde physique. Les applications utilisant LiDAR sont moins susceptibles de rencontrer ce problème.
Toutefois, les applications impliquant des environnements structurellement divers ou plus vastes ne rencontreront probablement pas ce problème. De plus, la plupart des applications AR grand public basées sur mobile utilisent des filtres AR sur le visage ou le corps de l'utilisateur – une application qui est peu susceptible de rencontrer des problèmes en raison des grandes surfaces texturées.
Pourquoi Apple et Google utilisent-ils des capteurs de profondeur différents ?
En lançant des appareils compatibles LiDAR, Apple affirme avoir combiné les capteurs avec du matériel pour « ouvrir des flux de travail plus professionnels, prenant en charge les applications photo et vidéo professionnelles ». L'iPad Pro compatible LiDAR est « le meilleur appareil au monde pour la réalité augmentée » et le produit de lancement comprend les applications de mesure d'Apple.
Google explique en détail pourquoi son API Depth et la nouvelle gamme d'appareils pris en charge n'utilisent pas LiDAR. Travailler avec LiDAR rend les appareils Android plus légers et plus abordables, et présente également un gros avantage en termes d'accessibilité.
Étant donné que les téléphones Android sont fabriqués par de nombreuses entreprises, l’adoption du LiDAR favorisera les modèles compatibles LiDAR par rapport aux autres. De plus, comme elle ne nécessite qu’une caméra standard, l’API Depth est rétrocompatible avec davantage d’appareils.