
Washington, 10 de octubre de 2025 — El innovador, pero polémico, sistema de asistencia a la conducción de Tesla, conocido como “Autopilot”, vuelve a ser objeto de escrutinio por parte del Departamento de Transporte y la Administración Nacional de Seguridad del Tráfico en las Carreteras (NHTSA) de Estados Unidos. La nueva investigación se centra en la versión más avanzada del software, llamada “Full Self-Driving” (FSD), que promete una experiencia de conducción casi autónoma, pero que —según los reguladores— podría no cumplir los estándares de seguridad exigidos para vehículos en circulación.
Una tecnología revolucionaria… y controvertida El sistema FSD, disponible como una actualización de pago para los modelos más recientes de Tesla, permite que el vehículo mantenga el carril, ajuste la velocidad, realice giros automáticos y responda al tráfico en entornos urbanos sin intervención directa del conductor. Sin embargo, múltiples accidentes reportados en los últimos meses han despertado serias dudas sobre su fiabilidad.
De acuerdo con la NHTSA, algunos de estos incidentes ocurrieron cuando el sistema estaba activo, lo que plantea interrogantes sobre su capacidad de reacción ante situaciones imprevistas. “Tesla continúa refiriéndose a esta función como conducción autónoma total, pero nuestros hallazgos sugieren que el sistema aún requiere una supervisión constante del conductor”, señaló un portavoz del organismo. Antecedentes de un largo conflicto No es la primera vez que el fabricante liderado por Elon Musk se enfrenta a cuestionamientos oficiales.
Desde 2021, Tesla ha sido objeto de más de una docena de investigaciones federales relacionadas con el uso de Autopilot en colisiones, muchas de ellas con vehículos de emergencia involucrados. La empresa sostiene que su tecnología es más segura que la conducción humana promedio, y cita estadísticas internas que muestran una menor tasa de accidentes por milla recorrida con Autopilot activado. Aun así, los reguladores insisten en que el lenguaje de marketing empleado por Tesla puede inducir a error, dando a los conductores una falsa sensación de autonomía total. Entre la innovación y la responsabilidad.
Los expertos coinciden en que Tesla se encuentra en una delgada línea entre la innovación tecnológica y la responsabilidad legal. Mientras el sistema FSD avanza hacia la automatización total, la falta de una regulación clara en torno a los vehículos autónomos ha creado un vacío normativo que complica la evaluación de riesgos. “Estamos ante una tecnología que evoluciona más rápido que las leyes”, explica la analista en movilidad inteligente Karen Mendez.
“La pregunta ya no es si los coches pueden manejarse solos, sino si estamos preparados para dejar que lo hagan.” El desafío de la conducción del futuro Mientras la investigación continúa, Tesla ha reiterado su cooperación con las autoridades y ha anunciado una actualización de software que, según la compañía, mejorará el reconocimiento de señales y la detección de peatones en entornos urbanos.
Aun así, la polémica persiste. Para los defensores de la tecnología, el FSD representa el futuro inevitable de la movilidad; para los críticos, un experimento peligroso que se está probando en las calles reales. El caso Tesla vuelve a recordarle al mundo que, en la carrera hacia la conducción autónoma, la velocidad de la innovación aún choca con los límites de la seguridad.