Milliardär rügt Tesla-Autopilot

Nachricht

HeimHeim / Nachricht / Milliardär rügt Tesla-Autopilot

Jul 11, 2023

Milliardär rügt Tesla-Autopilot

Gestern diskutierte Dan O'Dowd – ein Software-Milliardär und vehementer Kritiker der angeblich selbstfahrenden Technologien von Tesla Motors – in einer Livestream-Veranstaltung über Ross Gerber, einen Investmentbanker, der das unterstützt

Gestern diskutierte Dan O'Dowd – ein Software-Milliardär und vehementer Kritiker der angeblich selbstfahrenden Technologien von Tesla Motors – in einer Livestream-Veranstaltung über Ross Gerber, einen Investmentbanker, der das Unternehmen unterstützt. Die eigentliche Herausforderung kam nach ihrem Gespräch, als die beiden Männer in ein Tesla Model S stiegen und dessen Full Self-Driving (FSD)-Software testeten – eine angeblich autonome oder nahezu autonome Fahrtechnologie, die die Spitzenklasse ihrer Fahrerpalette darstellt. Die Assistenzfunktionen nennt das Unternehmen Autopilot und Advanced Autopilot. Die FSD-Untersuchung, die O'Dowd gegen den Hersteller von Elektrofahrzeugen durchführt, ist nur die jüngste in einer Reihe jüngster Vorstöße – darunter eine Klage der Tesla-Aktionäre wegen übertriebener FSD-Versprechen, Insidervorwürfe über Fälschungen bei FSD-Werbeveranstaltungen und ein kürzliches Datenleck des Unternehmens Dazu gehören Tausende von FSD-Kundenbeschwerden.

Bei der gestrigen Livestream-Veranstaltung sagte O'Dowd, dass FSD nicht das tut, was der Name andeutet, und dass das, was es tut, schlimm genug ist, um Leben zu gefährden. Gerber war anderer Meinung. Stattdessen verglich er es mit einem Fahrschüler und den Menschen hinter dem Lenkrad mit einem Fahrlehrer.

Ross Gerber am Steuer und Dan O'Dowd mit der Schrotflinte beobachten, wie ein Tesla Model S mit der Software „Full Self Driving“ an einem Stoppschild vorbeirast. Das Dawn Project

Bei den Tests übernahm Gerber das Steuer, O'Dowd fuhr mit der Schrotflinte, und sie fuhren durch Santa Barbara, Kalifornien – oder wurden, wenn Sie so wollen, mit Gerbers Hilfe gefahren. In einem Video, das das Team online veröffentlichte, deckten sie Straßen, mehrspurige Autobahnen und eine Kreuzungszone mit Fußgängern ab. Irgendwann kamen sie an einem Feuerwehrauto vorbei, das die Software des Wagens fälschlicherweise für einen bloßen Lastwagen hielt: ein Käfer, obwohl niemand gefährdet war. Oft stoppte das Auto hart, stärker als es ein menschlicher Fahrer getan hätte. Und einmal überfuhr es ein Stoppschild.

Mit anderen Worten: Sie möchten nicht einschlafen, während FSD fährt. Und wenn Sie O'Dowd hören, möchten Sie FSD überhaupt nicht in Ihrem Auto haben.

O'Dowd sagt, er mag Tesla-Autos, nur nicht ihre Software. Er gibt an, dass er sich 2010 einen Tesla Roadster gekauft hat, als es noch das einzige Elektrofahrzeug auf dem Markt war, und dass er bis heute kein anderes Auto gefahren ist. Er kaufte seiner Frau 2012 einen Tesla Model S, und sie fährt immer noch nichts anderes.

„Wir haben Dutzende Fehler gemeldet, die entweder nicht behoben werden können oder wollen. Wenn es „nicht“ heißt, ist das kriminell; Wenn es „kann nicht“ heißt, ist das auch nicht viel besser.“ —Dan O'Dowd, das Dawn-Projekt

Er hatte in den Anfangsjahren von dem selbstfahrenden System des Unternehmens gehört, das ursprünglich als AutoPilot bekannt war, aber er nutzte es nie. Sein Roadster konnte die Software nicht ausführen. Er wurde erst aufmerksam, als er erfuhr, dass die Software in Unfälle verwickelt war. Im Jahr 2021 rief er das Dawn Project, eine gemeinnützige Organisation, zur Untersuchung ins Leben und fand dabei viele Fehler in der Software. Dowd veröffentlichte die Ergebnisse und schaltete während des Super Bowl eine Anzeige in der New York Times und einen Werbespot. Er spielte sogar mit einer Ein-Themen-Kampagne für den US-Senat.

Zum Teil ist er beleidigt über die seiner Ansicht nach unzuverlässige Software in geschäftskritischen Anwendungen. Beachten Sie jedoch, dass sein eigenes Unternehmen auf Softwarezuverlässigkeit spezialisiert ist und dass er daher Interesse daran hat, das Thema bekannt zu machen.

Wir haben O'Dowd Mitte Juni getroffen, als er sich auf den Livestream vorbereitete.

IEEE Spectrum: Was hat Sie dazu gebracht?

Dan O'Dowds Dawn Project hat eine Reihe von Fehlern in der Full Self-Driving-Software von Tesla aufgedeckt.

Dan O'Dowd: Ende 2020 erstellten sie [Tesla Motors] eine Beta-Site, nahmen 100 Tesla-Fans mit und sagten: Probieren Sie es aus. Und das haben sie getan, und es hat eine Menge wirklich schlimmer Dinge bewirkt; Es fuhren rote Ampeln. Doch anstatt die Probleme zu beheben, weitete Tesla den Test auf 1.000 Personen aus. Und jetzt hatten es viele Leute, sie installierten Kameras in Autos und stellten es online. Das Ergebnis war einfach schrecklich: Es wurde versucht, in Mauern, in Gräben zu fahren. Irgendwann im Jahr 2021, etwa Mitte des Jahres, dachte ich, dass es nicht auf den Markt kommen sollte.

Damals haben Sie das Dawn Project gegründet. Können Sie ein Beispiel dafür nennen, was die Forschung herausgefunden hat?

O'Dowd: Ich saß als Beifahrer in einem [Tesla]-Auto und testete auf einer Landstraße, als mir ein BMW entgegenkam. Als es auf uns zuraste, beschloss unser Auto, nach links abzubiegen. Es gab keine Nebenstraßen, keine Linksabbiegespuren. Es war eine zweispurige Straße; Wir haben Video. Der Tesla drehte das Lenkrad, um die gelbe Linie zu überqueren, der Fahrer stieß einen Schrei aus. Er schnappte sich das Lenkrad, um uns am Überqueren der gelben Linie zu hindern und um unser Leben zu retten. Dafür hatte er 0,4 Sekunden Zeit.

Wir haben in den letzten Jahren Tests durchgeführt. „Bei einem Schulbus mit aussteigenden Kindern haben wir gezeigt, dass der Tesla direkt vorbeifahren würde, das Schild „Schulzone“ völlig ignorieren und mit 40 Meilen pro Stunde weiterfahren würde.

Haben Ihre Tests Ereignisse in der realen Welt widergespiegelt?

O'Dowd: Im März fuhr in North Carolina ein selbstfahrender Tesla mit blinkenden roten Lichtern an einem Schulbus vorbei und überfuhr ein Kind auf der Straße, genau wie wir es in unserem Super-Bowl-Werbespot gezeigt hatten. Das Kind hat sich nicht vollständig erholt und wird es möglicherweise auch nie tun. Und Tesla behauptet immer noch, dass FSD nicht an einem Schulbus mit blinkenden Lichtern und ausgefahrenem Stoppschild vorbeirasen und kein Kind anfahren wird, das die Straße überquert. Das Versäumnis von Tesla, diese grotesken Sicherheitsmängel zu beheben oder auch nur anzuerkennen, zeigt eine verdorbene Gleichgültigkeit gegenüber menschlichem Leben.

Du steigst einfach in das Auto und fährst damit herum, und in 20 Minuten wird es etwas Dummes tun. Wir haben Dutzende Fehler gemeldet, die entweder nicht behoben werden können oder wollen. Wenn es „nicht“ heißt, ist das kriminell; Wenn es „kann nicht“ heißt, ist das auch nicht viel besser.

Haben Sie ein Problem mit dem Auto selbst, also mit seiner mechanischen Seite?

O'Dowd:Nehmen Sie die Software heraus und Sie haben immer noch ein vollkommen gutes Auto – eines, das Sie fahren müssen.

Ist die Unfallrate im Verhältnis zur Anzahl der Teslas auf der Straße wirklich so hoch? Es sind Hunderttausende Teslas unterwegs. Andere selbstfahrende Autoprojekte sind weitaus kleiner.

O'Dowd: Da muss man unterscheiden. Es gibt wirklich fahrerlose Autos, bei denen niemand auf dem Fahrersitz sitzt. Für einen Tesla braucht man einen Fahrer, man kann nicht schlafen; Wenn Sie das tun, wird das Auto sehr bald einen Unfall haben. Mercedes hat gerade in Kalifornien eine Lizenz zum Fahren eines Autos erhalten, bei dem man keine Hände am Steuer haben muss. Es ist innerhalb bestimmter Grenzen erlaubt, zum Beispiel nur auf Autobahnen.

„Es gibt derzeit keine Tests von Software in Autos. Nicht wie in Flugzeugen – meine Güte, sie studieren den Quellcode.“ —Dan O'Dowd, das Dawn-Projekt

Tesla spricht über die Erkennung des toten Winkels, die Vorwärts-Notbremsung und eine ganze Reihe von Funktionen – sogenannte Fahrerassistenz. Aber im Grunde hat jedes Auto, das jetzt auf den Markt kommt, diese Dinge; Für Tesla gibt es schlechtere Ergebnisse. Aber es nennt sein Paket Full Self-Driving: Videos zeigen Menschen, die ihre Hände nicht am Lenkrad haben. Du musst beweisen, dass du wach bist, indem du das Lenkrad berührst, aber du kannst bei Amazon ein Gewicht kaufen, das du am Lenkrad aufhängst, um das zu umgehen.

Wie kann ein selbstfahrendes Projekt sicher entwickelt und umgesetzt werden? Befürworten Sie eine frühzeitige Nutzung in sehr begrenzten Bereichen?

O'Dowd: Ich denke, dass Waymo das tut. Cruise macht das. Waymo fuhr vor fünf Jahren in Chandler, Arizona, wo es kaum regnet, die Straßen neu und breit sind und die Ampeln normalisiert und standardisiert sind. Sie haben es dort jahrelang verwendet. Einige Leute verspotteten sie, weil sie an einem Ort in Briefmarkengröße getestet hatten. Ich glaube nicht, dass es ein Fehler war – ich denke, es war Vorsicht. Waymo versuchte es zunächst mit einem einfachen Fall. Dann expandierte es nach Phoenix, ebenfalls relativ einfach. Es ist eine Stadt, die nach der Einführung des Automobils gewachsen ist. Aber jetzt sind sie in San Francisco, einer sehr schwierigen Stadt mit allerlei verrückten Kreuzungen. Es geht ihnen gut. Sie haben niemanden getötet, das ist gut so: Es gab einige Unfälle. Aber es ist eine sehr schwierige Stadt.

Cruise hat gerade angekündigt, dass sie Dallas und Houston eröffnen würden. Sie expandieren – sie waren auf einer Briefmarke, dann zogen sie in einfache Städte und dann in schwierigere. Ja, sie [Waymo und Cruise] reden darüber, aber sie behaupten nicht, sie würden die Probleme der Welt lösen.

Was geschah, als Sie Ihre Testergebnisse der National Highway Transportation Safety Administration übermittelten?

O'Dowd: Sie sagen, dass sie es studieren. Es ist mehr als ein Jahr her, seit wir Daten übermittelt haben, und Jahre seit den ersten Unfällen. Aber es gab keine Berichte, keine Zwischenkommentare. „Zu einer laufenden Untersuchung können wir uns nicht äußern“, heißt es.

Es gibt derzeit keine Tests von Software in Autos. Nicht wie in Flugzeugen – meine Güte, sie studieren den Quellcode. Mehrere Organisationen betrachten es mehrmals.

Angenommen, Sie gewinnen Ihren Streit mit Tesla. Was kommt als nächstes?

O'Dowd: Wir haben alles an das Internet angeschlossen und Computer mit der Steuerung großer Systeme beauftragt. Die Leute bauen ein sicherheitskritisches System und fügen dann ein billiges kommerzielles Softwareprodukt dazwischen. Es ist genau das Gleiche, als würde man einen minderwertigen Bolzen in ein Verkehrsflugzeug einbauen.

Krankenhäuser sind ein wirklich großes Problem. Ihre Software muss wirklich gehärtet werden. Sie werden ständig mit Ransomware bedroht: Hacker dringen ein, stehlen Ihre Daten, nicht um sie an andere zu verkaufen, sondern um sie an Sie zurückzuverkaufen. Diese Software muss durch Software ersetzt werden, die im Hinblick auf das Leben der Menschen entwickelt wurde.

Das Stromnetz ist wichtig, vielleicht das wichtigste, aber es ist schwierig, den Menschen zu beweisen, dass es verwundbar ist. Wenn ich es hacke, werden sie mich verhaften. Mir sind keine Beispiele dafür bekannt, dass jemand ein Netz mit Schadsoftware abgeschaltet hat.

IEEE Spectrum: Was hat Sie dazu gebracht?Dan O'Dowd: Damals haben Sie das Dawn Project gegründet. Können Sie ein Beispiel dafür nennen, was die Forschung herausgefunden hat?O'Dowd:Haben Ihre Tests Ereignisse in der realen Welt widergespiegelt?O'Dowd:Haben Sie ein Problem mit dem Auto selbst, also mit seiner mechanischen Seite?O'Dowd: Ist die Unfallrate im Verhältnis zur Anzahl der Teslas auf der Straße wirklich so hoch? Es sind Hunderttausende Teslas unterwegs. Andere selbstfahrende Autoprojekte sind weitaus kleiner.O'Dowd: Wie kann ein selbstfahrendes Projekt sicher entwickelt und umgesetzt werden? Befürworten Sie eine frühzeitige Nutzung in sehr begrenzten Bereichen?O'Dowd:Was geschah, als Sie Ihre Testergebnisse der National Highway Transportation Safety Administration übermittelten?O'Dowd: Angenommen, Sie gewinnen Ihren Streit mit Tesla. Was kommt als nächstes?O'Dowd: