En agosto de 2025, un jurado de Miami dictaminó que Tesla debía pagar 243 millones de dólares por un accidente en el que su sistema Autopilot estaba activado. No fue el primer siniestro de un coche “inteligente”, pero sí el primero que acabó con un veredicto: la tecnología no era inocente. Es el primer juicio que Tesla ha perdido.
La noticia viajó rápido: un coche eléctrico, software de conducción autónoma, una colisión mortal y una sentencia. La narrativa perfecta para una película distópica —solo que esto no era Black Mirror, sino el tráfico real de Florida.
El jurado declaró a Tesla responsable en un 33 %. El resto, al conductor, que había bajado la vista para buscar su teléfono mientras el vehículo hacía lo que mejor sabía hacer: creer que podía con todo.
De Prometeo a Autopilot
La historia de la tecnología está plagada de momentos en los que el ser humano, seducido por su propia creación, confía demasiado.
Cuando en 1908 Henry Ford lanzó el Modelo T, no solo fabricó un coche: inventó la ilusión de control. Cualquier persona podía sentarse detrás del volante y mover una máquina de una tonelada a más de 60 km/h. Aquello era casi magia. Pero en la década siguiente, los accidentes mortales en EEUU se dispararon. La velocidad había llegado antes que la prudencia.
Más de un siglo después, Tesla repite el guion con líneas de código en lugar de pistones. La promesa es la misma: relájate, la máquina sabe lo que hace.
El problema es que no siempre lo sabe. Y nosotros, embelesados con las palabras “inteligencia artificial”, olvidamos que sigue siendo solo eso: una inteligencia artificial, diseñada por humanos y, por tanto, sujeta a nuestras mismas limitaciones —solo que a veces más rápidas y menos visibles.
![]() |
AnalyticsInsight |
El mito del piloto automático
El nombre “Autopilot” nunca fue inocente. Suena a los sistemas de navegación aérea que mantienen un avión nivelado mientras el piloto consulta el radar. Pero el Autopilot de un Tesla no es eso. Es un copiloto que intenta hacerlo todo, pero necesita que alguien supervise su entusiasmo digital.
El accidente de 2019 (juzgado en 2025) ocurrió cuando el sistema cruzó una intersección sin reconocer una señal de alto. Los sensores, los algoritmos y las promesas de marketing no bastaron para evitar lo inevitable.
Y sin embargo, el debate que abrió el veredicto no fue sobre coches, sino sobre culpa y autonomía.
¿Quién es responsable cuando una máquina toma una mala decisión?
¿El conductor, el programador, la empresa, el algoritmo?
El derecho moderno aún no tiene respuesta definitiva. Y mientras tanto, seguimos entregando más y más decisiones al software —desde el tráfico hasta los diagnósticos médicos o las sentencias judiciales predictivas—, convencidos de que la automatización es sinónimo de objetividad.
El sueño de Turing
En 1950, Alan Turing escribió que algún día las máquinas pensarían. Lo dijo como un reto intelectual, no como un manual de usuario. Hoy, la discusión ha cambiado: las máquinas no solo piensan, actúan. Pero lo hacen en un entorno humano, lleno de variables que ni siquiera los humanos comprendemos del todo.
Un coche autónomo no es solo un conjunto de sensores: es una interpretación del mundo. Decide qué objeto es un peatón, qué movimiento es una amenaza, cuándo un brillo es un charco o una sombra. Cada error de interpretación puede costar una vida.
La paradoja es que cuanto más confiamos en la IA, más nos alejamos de entenderla. Como escribió Norbert Wiener, el padre de la cibernética, en 1949:
“Podemos delegar tareas, pero no la responsabilidad.”
Lo que el veredicto nos deja
El caso Tesla de 2025 es un punto de inflexión simbólico. Por primera vez, una corte reconoció que la inteligencia artificial no es solo una herramienta neutral, sino un actor con impacto moral y legal. No significa que los robots tengan culpa, pero sí que las empresas que los diseñan deben asumir las consecuencias de su poder.
Tesla apelará, claro. Pero el precedente ya está ahí. Y con él, una lección para toda la industria de la automatización: la promesa de que los algoritmos eliminarían el error humano empieza a mostrar grietas.
En algún momento, los coches conducirán mejor que nosotros. No es una cuestión de fe, sino de tiempo y datos. Pero el camino hacia ese futuro será irregular, lleno de dilemas éticos y legales.
Mientras tanto, los humanos seguiremos haciendo lo que mejor sabemos hacer: confiar un poco más de la cuenta.
Tal vez el verdadero futuro no dependa de crear un piloto que nunca duerma, sino de aceptar que ningún piloto —humano o artificial— está exento de error.
Y que, por ahora, lo más inteligente que podemos hacer es seguir prestando atención al camino.
Ya veremos.