Red de conocimientos sobre prescripción popular - Conocimientos de oftalmología - El iPad empieza a estar equipado con lidar, ¿le darán una bofetada a Musk? divulgación científica

El iPad empieza a estar equipado con lidar, ¿le darán una bofetada a Musk? divulgación científica

¿Escribir un artículo? |?Xiong Yuxiang? ¿editar? |?Zhou Changxian

Apple, que siempre ha estado agotada por el ridículo y la innovación, finalmente volvió a despertar la curiosidad de la gente.

El 18 de marzo, una noticia oficial de Apple conmocionó a la industria de la conducción autónoma. La noticia no es que Apple haya anunciado un gran avance en su proyecto de conducción autónoma, sino en su nuevo iPad. El Pro está equipado con lidar.

En los últimos años, lidar se ha convertido casi en sinónimo de conducción autónoma. Como sensor clave, garantiza la capacidad de los automóviles sin conductor para percibir el entorno circundante, pero cómo hacerlo miniaturizado, de alto rendimiento y producido en masa siempre ha sido un problema en la industria.

¿En iPad? ¿Cómo puede un producto de electrónica de consumo que ocupa tanto espacio como el Pro acomodar un lidar grande? ¿Puede el avance de Apple en este campo inspirar o incluso promover el lidar automotriz? ¿Es esto una bofetada a la "teoría lidar es inútil" de Musk?

Lidar: del espacio a los teléfonos móviles

Lidar suena como un dispositivo alto, pero su principio básico de funcionamiento es familiar para todos: distancia = velocidad x tiempo. Si simplificamos extremadamente el lidar, es una regla que usa luz para medir: la luz es emitida por una fuente láser, se refleja después de "golpear" el objeto, es recibida por el sensor y luego procesada por el circuito digital para obtener la tiempo de ida y vuelta. La velocidad de la luz x tiempo/2 (nota: no dividir por 2 en aplicaciones de alta precisión) es la longitud que mide.

Esta regla se utilizó por primera vez en astronomía. Por ejemplo, la NASA lo utilizará para medir errores cuando el transbordador acople a la estación espacial y también lo utilizará para monitorear la atmósfera.

De hecho, a menudo se puede ver en el campo de la topografía y la cartografía. Los telémetros láser en las obras de construcción son, en cierta medida, una forma básica de lidar. Los errores de construcción se pueden evitar eficazmente mediante una medición precisa de la distancia, que es una parte indispensable de la construcción de ingeniería humana.

Pero hoy en día el lidar es más conocido por los coches sin conductor.

Cómo el lidar pasó del cielo a la tierra y cómo pasó del sitio de construcción al automóvil, la historia se remontará por un tiempo.

En 2007, Darpa (¿Defensa? ¿Avanzada? ¿Investigación? ¿Proyecto? Agencia) (Agencia de Proyectos de Investigación Avanzada de Defensa) está llevando a cabo un desafío de conducción no tripulada. Los equipos participantes necesitan modificar un vehículo para poder operar en. Conducir decenas de kilómetros en un entorno desértico para llegar a la meta. Una tecnología clave que se probará en esta competición se llama evitación de obstáculos.

Los ingenieros inteligentes pronto encontrarán la conexión entre el láser y este incidente. Un telémetro láser puede marcar un punto con una distancia precisa. Luego, si se instalan más telémetros en un dispositivo, de acuerdo con el principio de "tres puntos forman un lado", se puede dibujar el contorno aproximado del objeto, evitando así la conducción. ¿A través de obstáculos? - Esto es lo que piensa el equipo de conducción autónoma de la Universidad de Stanford. El vehículo en el que participaron en el Desafío de conducción autónoma de Darpa tiene un "telémetro" en la cabeza.

Desafortunadamente, esta idea lo hizo. no ayudaron a su vehículo a completar el viaje, y el rendimiento del telémetro de una sola línea aún no era lo suficientemente bueno.

La empresa de acústica estadounidense Veledon, que estaba profundamente interesada en esta competencia, resumió estas experiencias y se lanzó. A su manera, se desarrolló un lidar de 64 líneas, que es como una gran maceta. Equivale a instalar 64 instrumentos topográficos que giran sincrónicamente en la parte delantera del automóvil. Después del procesamiento, su señal de salida puede restaurar los tres. -Características dimensionales del objeto en gran medida.

Velidon es un lidar que obtiene suficiente información de profundidad para ayudar a la conducción autónoma a lograr una visión 3D.

Ha demostrado ser eficaz. En el segundo desafío de conducción no tripulada, después de instalar el lidar de 64 líneas de Velodyne, el auto no tripulado de Stanford completó la carrera. Desafortunadamente, la Universidad de Stanford quedó en segundo lugar después de la Universidad Carnegie Mellon porque también se instaló el mismo auto de esta última. Más tarde, el lidar se convirtió gradualmente en el estándar para los coches sin conductor debido a su percepción medioambiental más precisa. Sólo hay una excepción: el director general de Tesla, Musk, cree que utilizar el lidar es una estupidez.

Sin embargo, aunque Musk cantó la melodía opuesta, eso no detuvo el progreso del lidar montado en vehículos que se está desarrollando hacia una mayor precisión, un tamaño más pequeño, una mayor confiabilidad y un menor costo. Estas características se pueden resumir en dos palabras: miniaturización e integración, que son las palabras clave que se discutirán en este artículo y también representan la tendencia de desarrollo de lidar.

Hace muchos años, los concursantes de Darpa quizá no hubieran pensado que los resultados del desarrollo tecnológico serían tan interesantes y que algún día el lidar se utilizaría en tabletas o teléfonos móviles.

¿En el nuevo iPad de Apple? La copia de Pro indica claramente las funciones que quiere admitir: AR (realidad aumentada, realidad aumentada)

Antes de esto, la mayoría de las ideas de AR se basaban en el procesador del teléfono móvil para impulsar el algoritmo de IA. "Excava" objetos de las imágenes capturadas por la cámara y luego los superpone en los lugares correspondientes (como imágenes dinámicas comunes en varios videos cortos). La ventaja de esto es el bajo costo y la fácil implementación, pero el sensor de la cámara en sí no genera información de "distancia", por lo que la información de profundidad suele ser una estimación y no es precisa. Para algunas aplicaciones de AR que requieren "información de profundidad de alta precisión" y "modelado tridimensional altamente restaurado", como la adaptación de AR, la decoración del hogar de AR e incluso una mejor experiencia en los juegos de AR, las deficiencias inherentes de las cámaras en el hardware se han convertido en un obstáculo para su desarrollo.

Apple es sin duda el pionero en promover la RA como la tecnología central de próxima generación. Para eliminar obstáculos al desarrollo de AR, Apple lanzó lidar. ¿En cuanto a cómo poner el lidar originalmente enorme en el pequeño iPad? En Pro, según la información pública y el análisis realizado por expertos de la industria lidar, Apple debería usar una fuente de luz VCSEL (láser de emisión de superficie de cavidad vertical) en el extremo del transmisor y SPAD (diodo de avalancha de fotón único) en el extremo del receptor de señal. La similitud entre los dos es que algunas de las funciones del lidar de maceta grande se pueden implementar en un semiconductor pequeño.

Con la introducción de lidar en el iPad, también podemos esperar que la tendencia de desarrollo de miniaturización e integración de lidar haga posible que aparezca en futuros iPhone e incluso en las legendarias gafas AR de Apple.

Curiosamente, ¿Apple está oficialmente interesada en el iPad? La descripción del "escáner lidar" en el Pro también provocó debate entre la gente de la industria lidar. Por lo general, una condición necesaria para lidar es que la fuente de luz láser pueda girar o que el rayo láser pueda cambiar su ángulo de emisión.

¿Qué pasa con el iPad? Según la forma y función del Pro, no hay espacio para dispositivos móviles y no hay necesidad de emitir láseres fuera del campo de visión de la cámara, por lo que los expertos de la industria especulan que el iPad. El "lidar" del Pro no escanea la realidad, pero tomar prestado el concepto más común de "escáner" es fácil de generalizar.

Detrás de la reinvención de la historia por parte de Apple

¿Está Apple realmente en el iPad? Aunque el uso de lidar en el Pro es algo inesperado, no es infundado. Debido al papel destacado del lidar en la reconstrucción 3D, Apple debería haber estado expuesto al lidar hace mucho tiempo, incluso antes de comenzar la investigación y el desarrollo de la conducción autónoma. Hace más de diez años, cuando Apple Maps comenzó a desarrollar mapas 3D, utilizó lidar para restaurar paisajes urbanos.

Si echamos una mirada retrospectiva al campo de la electrónica de consumo, cuando la visión 3D vuelva a ser una tecnología popular debido a la prosperidad del reconocimiento facial, la realidad aumentada y la realidad virtual, es posible que se haya allanado de antemano un camino de evolución tecnológica que conduzca al lidar. .

En 2017, ¿cuándo Apple lanzó caras famosas? ID, esta función ya es compatible con la tecnología de luz estructurada de visión 3D. ¿En aquella época la tecnología de la luz estructurada no era sólo para los rostros? ID brinda soporte y, de hecho, también deriva animoji, que permite a los usuarios de Apple crear expresiones personalizadas a través de selfies. Aunque los animoji son tibios, la intención de Apple de sentar las bases de la tecnología AR por adelantado ha comenzado a mostrarse.

En 2018, empresas de telefonía móvil como Huawei, Samsung, LG y Vivo también aprovecharon la oportunidad de la RA y comenzaron a aplicar la tecnología ToF (Time of Flight). Su principio es básicamente el mismo. alcance láser, confiando en el láser infrarrojo como medio de detección.

Por lo tanto, en comparación con los teléfonos móviles que solo tienen cámaras, los teléfonos móviles habilitados para ToF tienen capacidades de visión tridimensional más sólidas y también pueden brindar un mejor soporte para aplicaciones AR.

Sin embargo, la tecnología ToF que se empezó a aplicar en esta época pertenece a iToF (indirect? time? of Flight (método de tiempo indirecto de vuelo)), que no utiliza directamente el tiempo de vuelo de la luz para calcula la distancia, pero calcula la frecuencia de modulación. La diferencia de fase generada por la onda de luz continua se utiliza para calcular indirectamente la distancia. Un beneficio de usar iToF es que está bien conectado con la tecnología de sensor de imagen tradicional CMOS/CCD, que puede reducir la distancia. El costo de las soluciones técnicas y los módulos funcionales se pueden miniaturizar e insertar fácilmente en productos electrónicos de consumo.

Pero el esquema iToF también tiene sus desventajas: el método de cálculo de diferencia de fase indirecta utilizado en este esquema es esencialmente para compensar. por la falta de tiempo de respuesta del sensor de imagen (ns, nivel de nanosegundos, 1 nanosegundo equivale a una milmillonésima de segundo, la distancia recorrida por la luz en 1 nanosegundo es de aproximadamente 0,3 metros. Debido a las limitaciones de las condiciones, la tecnología iToF no). solo tiene una precisión de detección limitada (nivel de centímetros), pero también la precisión de detección disminuye a medida que se extiende la distancia.

Y la tecnología DToF (tiempo de vuelo directo) de Apple en el iPad es obviamente una actualización de iToF. Como sugiere el nombre, en comparación con iToF, dToF mide directamente el tiempo de vuelo para calcular la distancia, el tiempo de respuesta de su sensor puede alcanzar ps (picosegundo, 1 picosegundo es igual a una millonésima parte de 65438 1 segundo). nivel milimétrico o incluso submilimétrico, pero la clave de esta diferencia técnica radica en el uso de dos sensores diferentes: la tecnología DTOF

SPAD (? ¿Único? ¿Fotón? ¿Avalancha? Diodo) es un diseño especial. Fotodiodo. A diferencia de los sensores fotoeléctricos tradicionales, como CMOS y CCD, tiene una ganancia de millones de veces, una sensibilidad extremadamente alta y la capacidad de detectar fotones individuales. Sin embargo, su rendimiento mejora teóricamente el límite superior del rango de detección lidar y la precisión de la detección. Tenía un límite anterior que no se puede ignorar: Dificultad en la miniaturización.

Sabemos que la clave de los sistemas de imágenes electrónicos típicos, como las cámaras, es el sensor de imagen integrado CMOS/CCD. integra una gran cantidad de unidades de imágenes en un pequeño chip dispuestas en una densa matriz de sensores, varias cámaras tienen decenas de millones de píxeles (resolución).

Del mismo modo, la visión 3D requiere una resolución lo suficientemente alta para restaurarse. El mundo es lo más realista posible. SPAD tiene capacidades de generación de imágenes y también debe formarse en una matriz. Una matriz de múltiples SPAD se denomina SiPM (fotomultiplicador de silicio) en la industria

esquema de matriz CMOS

Aunque SPAD/SiPM nació en la década de 1990, debido a la madurez industrial, la tecnología y otras razones, el tamaño de SPAD no se ha reducido, por lo que SiPM no puede apilar suficiente SPAD en un volumen pequeño y la resolución no puede ser mejorado

En los últimos dos años, con el crecimiento de la demanda de la industria y el avance tecnológico, el nivel de integración de SPAD ha mejorado enormemente y la producción se ha incluido en la categoría de fabricación de semiconductores tradicionales. Panasonic exhibió una matriz SPAD a gran escala de 1200X900 (1,08 millones de píxeles) este año, sus píxeles por pulgada se acercan a los de los sensores iToF más maduros.

Además de Panasonic, la japonesa Sony, la europea STMicroelectronics y la estadounidense ON Semiconductor están desarrollando y promocionando conjuntos de sensores SPAD en los campos de la electrónica de consumo o la automoción. ¿Los medios extranjeros tienen noticias de que Apple iPad? La resolución de la matriz SPAD utilizada por Pro puede ser 320X240 o 640X480, lo que significa que puede superar los 300.000 píxeles como máximo.

Volviendo al campo de la automoción que nos preocupa, el uso de matrices SPAD en lidar no es nada nuevo. En 2018, Ouster, una startup estadounidense de lidar, declaró públicamente que su nuevo lidar utiliza una fuente de luz VCSEL y una matriz de sensores SPAD para lograr un bajo costo y una alta precisión de detección.

Entonces, ¿Apple en el iPad? LiDAR de Pro ha provocado olas con un solo tiro. En realidad, está respaldado por el progreso de toda la industria y ni siquiera excluye el aprendizaje mutuo de metodologías en diferentes industrias y diferentes escenarios de aplicación.

Sin embargo, la gente de la industria lidar también dijo que, aunque se han logrado avances significativos en la miniaturización e integración de componentes lidar en la industria, todavía es necesario empaquetar sus fuentes de luz, conjuntos de sensores y procesamiento digital. Los circuitos integrados en productos de consumo todavía no son una tarea fácil. En este proceso, Apple llevará a cabo una profunda personalización e integración con los proveedores, ¿y no descartará el uso del 3D? La tecnología IC apila cada unidad de lidar para ahorrar espacio.

¿Le darán una bofetada a Musk?

Para los practicantes de lidar, la aplicación de esta tecnología por parte de Apple en el iPad es sin duda emocionante. Debido a que Apple, que tiene fuertes capacidades de innovación en ingeniería, usa lidar en el iPad, es sin duda una afirmación de las capacidades de detección de esta tecnología.

En 2018, el CEO de Tesla, Musk, quien también es conocido por sus sólidas capacidades de innovación en ingeniería, abrió públicamente lidar, creyendo que es una "muleta" para la conducción autónoma. El uso de LiDAR en la industria es una manifestación de tecnología insuficiente. Comparó los patrones de conducción humanos y consideró que la combinación de inteligencia visual pura de las cámaras de IA es suficiente para tareas no tripuladas.

Sin embargo, el proyecto de conducción autónoma de Apple es partidario de la ruta de la tecnología lidar. ¿Hoy el lidar está en el iPad? ¿Se puede extender la aplicación de Pro al campo de la conducción autónoma para demostrar la superioridad de su tecnología? ¿Puede pasar el iPad? La producción en masa de Pro ha hecho madurar aún más la cadena industrial. ¿Habrá más oportunidades de aplicación para LIDAR en el campo de la automoción?

Aunque esta es una excelente oportunidad para que las empresas lidar se "promocionen", los expertos de la industria aún se muestran moderados al analizar el mecanismo de enrutamiento: cada dos líneas son como una montaña, ¿el lidar está en el iPad? La aplicación a gran escala de Pro en la electrónica de consumo no beneficiará directamente al lidar automotriz por el momento, ni puede demostrar completamente que la ruta de visión pura de Tesla no funcionará. La razón es que es difícil hacer una analogía simple entre la electrónica de consumo y la sincronización automática del automóvil debido a diferentes escenarios y requisitos.

¿Usando un iPad? Por ejemplo, Pro usa lidar, no solo por la precisión de medición de lidar, sino también porque quiere "estar de puntillas" a medida que crece la cadena industrial. Mediante esta solución se consigue un equilibrio en términos de rendimiento, volumen, coste, dificultad de fabricación, fiabilidad, etc., y se obtiene una "solución óptima local" para una detección precisa en un radio de 5 metros.

En el campo del lidar montado en vehículos, existen requisitos más estrictos para el rango de detección, el rendimiento en tiempo real (capacidad de detección dinámica), la resolución, la antiinterferencia y la confiabilidad (trayectoria del vehículo). Al menos hasta ahora, la industria lidar no ha encontrado una solución confiable y de bajo costo que pueda ser aceptada por las empresas de conducción autónoma.

Sin embargo, la industria lidar está tratando de "consolidarse". Zheng Kai, cofundador de Beixing Photon, dijo que a partir de 2019, los practicantes de lidar ya no se limitarán a una determinada ruta técnica, sino que saltarán de la separación técnica de luz de superficie de flash mecánica/de estado sólido/luz coherente OPA. / Microespejos MEMS Salga y mezcle las tecnologías subyacentes que originalmente pertenecían a cada campo para resolver los problemas específicos que deben abordarse en la producción en masa de lidar.

Una de las razones por las que la ruta de Musk de confiar en la inteligencia visual pura para lograr la conducción autónoma en sus primeros años no fue favorecida por la industria fue que la tecnología consumía demasiada potencia informática y el algoritmo de IA era imperfecto. En los últimos años, con la mejora de las capacidades y algoritmos de computación en chip, esta ruta está atrayendo la atención de cada vez más empresas.

Entonces, en comparación, la visión pura LIDAR y AI tienen sus propias curvas de crecimiento. ¿iPad de Apple? Al usar lidar en el Pro, no hay ningún lidar montado en un vehículo para animar por el momento, ni puede "abofetear" a Musk en la cara.

Sin embargo, refiriéndose a las tendencias de diseño de ingeniería lideradas por los conceptos de diseño “Zen” y “minimalista” de Apple a lo largo de los años, ¿el ingeniero del lidar automotriz está desmantelando un iPad? Después de Pro, es posible que el lidar sea más hermoso.

Este artículo es de Autohome, el autor de Autohome, y no representa la posición de Autohome.