Bild: The Intercept
Bei vielen Unfällen mit Tesla-Beteiligung wird zunächst behauptet oder vermutet, dass dabei das Autopilot-System eine Rolle gespielt hat – zwar entlässt es die Person am Steuer nicht aus der Verantwortung, wird aber manchmal überschätzt und deshalb nicht ausreichend kontrolliert. Auch nachdem sein Tesla Model S zu Thankgiving in den USA an der Spitze eines Auffahrunfalls mit sieben weiteren Fahrzeugen stand, gab dessen Fahrer an, der Autopilot habe einen Fehler gemacht. Jetzt wurden Videos dazu veröffentlicht – die aber noch keine Klarheit in dieser Frage brachten.
Material zu Serien-Unfall mit Tesla
Dennoch sorgte der Vorfall für großes Interesse – wohl auch, weil ein Tesla beteiligt war, und vor allem, weil der Fahrer laut Protokoll der Polizei sagte, er sei mit der Beta-Software FSD für das Autopilot-System unterwegs gewesen. Zudem hatte Tesla-CEO Elon Musk erst in der Nacht auf Thanksgiving verkündet, dass jeder in Nordamerika, der für die gleichnamige Autopilot-Option bezahlt hat, jetzt auch die Beta-Version der FSD-Software nutzen könne. Der Test hatte gut zwei Jahre zuvor mit wenigen Teilnehmer begonnen und wurde dann zunehmend ausgeweitet. Ende 2022 bezifferte Tesla die Zahl der in Frage kommenden Fahrzeuge auf 285.000.
I obtained surveillance footage of the self-driving Tesla that abruptly stopped on the Bay Bridge, resulting in an eight-vehicle crash that injured 9 people including a 2 yr old child just hours after Musk announced the self-driving feature.
Full story: https://t.co/LaEvX9TzxW pic.twitter.com/i75jSh2UpN
— Ken Klippenstein (@kenklippenstein) January 10, 2023
Nachdem sich die Diskussionen um den Unfall schon fast erledigt hatten, lieferte die Publikation The Intercept in dieser Woche neues Material dafür: Aufnahmen von Verkehrskameras, die das Geschehen aus zwei Perspektiven erfasst haben. Von vorne gefilmt sieht man, wie der weiße Tesla ungefähr zu Beginn des Tunnels blinkend von der vierten von fünf Spuren auf die ganz linke wechselt. Dafür ist vor einem herannahenden SUV genügend Platz, doch dann wird der Tesla deutlich langsamer und kommt ganz zum Stillstand. Das Fahrzeug dahinter kann nicht rechtzeitig bremsen und fährt auf, und dann Gleiche passiert weiteren Autos dahinter.
Nope, that's not it.. the car doesn't brake until it's here.. well past the light. https://t.co/6RK73Hh0fM pic.twitter.com/VYnTshUfCT
— techAU (@techAU) January 11, 2023
Autopilot-Fehler nur eine Ausrede?
Der Fahrer könnte also schlicht seine Ausfahrt verpasst und dann unüberlegt versucht haben, stehenzubleiben und ein Stück zu ihr zurückzusetzen. Dass die FSD-Software den Unfall verursacht haben soll, wäre dann nur eine bequeme Ausrede. Mit der Veröffentlichung von Daten wie nach anderen angeblichen Autopilot-Crashs könnte Tesla Klarheit schaffen, überließ die intensive Diskussion über den Fall zu Thanksgiving aber zunächst sich selbst. Allerdings hat die Behörde NHTSA eine Untersuchung dazu begonnen, sodass eine Antwort von ihrer Seite zu erwarten ist.