• Cursos
    • Online
    • Semi Presencial
    • Presencial
    • Tutorías
  • Blog
  • Tienda
  • Contacto
  • Alumnos
  • Acceder
    • Mi cuenta
    • Iniciar sesión
Wimba Robótica
  • Cursos
    • Online
    • Semi Presencial
    • Presencial
    • Tutorías
  • Blog
  • Tienda
  • Contacto
  • Alumnos
  • Acceder
    • Mi cuenta
    • Iniciar sesión

Ciencia

  • Inicio
  • Blog
  • Ciencia
  • Ouster crea el sensor integrado más avanzado para la conducción autónoma, y funciona con software “open source”

Ouster crea el sensor integrado más avanzado para la conducción autónoma, y funciona con software “open source”

  • publicado por Carmen Bartolomé
  • Categorías Ciencia, Reflexiones, Robótica
  • Fecha 17 septiembre 2018

El CEO de Ouster, Angus Pacala, en su artículo “The camera IS the lidar”, ha dado detalles y referencias del OS-1, un sensor que integra tres fuentes de información del entorno y las sincroniza entre sí.

En el camino hacia la conducción autónoma, ha habido importantes avances en el campo de la visión artificial, el reconocimiento de imagen tomada por cámaras ópticas y resuelto por algoritmos de Deep Learning. Y, en general, parece que la investigación ha tenido más peso en este tipo de solución que en la de mejorar o avanzar en el campo de los sensores LIDAR.

La mejora que trae el OS-1 es que presenta un mayor rendimiento gracias a que, en vez de analizar por separado la información de dos entradas diferentes (la cámara óptica y el sensor lidar) y después sincronizarlo, cubre un espectro de radiación mucho más amplio, reproduciendo prácticamente una imagen óptica o similar a la 2D, combinada con la nube de información 3D propia del lidar, con lo que se genera un vector con más parámetros o información útil por pixel que llevarse después al algoritmo de Deep Learning.

La gracia está en que, si, habitualmente, el lidar suele tener problemas con las zonas en las que la geometría es demasiado uniforme y la cámara suele dar información incompleta en zonas mal iluminadas o sin textura, el software actualizado del OS-1 (que además es Open Source), balancea el peso de la computación a la información que va a ser más relevante o que va a aportar mejor predicción.

¿Estamos ante un paso evolutivo importante que nos acerque a la normalización de los vehículos autónomos?

 

Etiqueta:conduccion autónoma, open source

  • Compartir:
author avatar
Carmen Bartolomé

Publicación anterior

¿Qué debe buscar un padre/madre en la extraescolar de robótica?
17 septiembre 2018

Siguiente publicación

¿Y si la próxima vez que vas a trabajar lo haces sobre un mini café sobre ruedas diseñado por IKEA?
19 septiembre 2018

También te puede interesar

cambiando la forma de ver el mundo
Cambiando la forma de ver el mundo
27 abril, 2020
Balance-Abril-2020
Clases online de Wimba durante el mes de abril
22 abril, 2020
curiosity
¿Nos damos una vuelta por Marte?
22 abril, 2020

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Search

Categorías

  • #YoMeQuedoEnCasa
  • Actividades
  • Blog
  • Business
  • Ciencia
  • Design / Branding
  • Drones
  • Educación
  • Electrónica
  • Experimentos
  • Explorando robótica educativa
  • IA
  • Impresión 3D
  • NASA
  • Programar
  • Reflexiones
  • Robótica
  • Uncategorized
  • videos programación
  • Videos Robótica

Últimos cursos

Nivel 1 – Programación y Robótica

Nivel 1 – Programación y Robótica

12,00 €
Iniciación al Diseño 3d con Tinkercad

Iniciación al Diseño 3d con Tinkercad

6,00 €
+34 694 481 606
Costanilla de San Lázaro 8
45003 - TOLEDO
cursos@wimbarobotica.com
L-V de 17:00 a 20:00
Cerrado S-D y festivos escolares

Encuéntranos en:

Términos y Condiciones

Wimba Robótica S.L. - © 2020

Inicie sesión con su cuenta de sitio

¿Perdiste tu contraseña?