• trollercoaster
    link
    fedilink
    arrow-up
    2
    arrow-down
    2
    ·
    13 天前

    In 1 fahrerloses Straßenfahrzeug würde ich nicht einsteigen.

    • gajustempus@feddit.org
      link
      fedilink
      arrow-up
      2
      arrow-down
      3
      ·
      13 天前

      aber in ein Taxi schon oder wie?

      Weshalb vertraust du einem Menschen mehr, als einem autonom fahrenden Fahrzeug? Was, wenn der Fahrer getrunken hat? Drogen genommen hat? Wie Rambo durch die Gegend donnert?

      • trollercoaster
        link
        fedilink
        arrow-up
        3
        arrow-down
        2
        ·
        13 天前
        • Weil es im Straßenverkehr, insbesondere bei den gefahrenen Geschwindigkeiten und den daraus resultierenden Bremswegen keinen definierten sicheren Zustand gibt, der bei Ausfall der Steuerung einfach herzustellen ist. Und nein, einfach nur Bremse zu ist kein sicherer Zustand (Geschwindigkeit, Bremsweg). Das Fahrzeug muss bis zum Stillstand gelenkt werden. Bei Totalausfall der Steuerung geht gerade das nicht.
        • Der Mensch ist immer noch in der Lage selbständig zu denken und damit auf völlig unerwartete und neue Sitauationen zu reagieren. Der Mensch hat in der Regel auch einen Selbsterhaltungstrieb, einer Maschine ist es egal, ob sie zerstört wird oder nicht, weil eine Maschine keinerlei Verständnis für Existenz besitzt. Auch und gerade eine sogenannte Künstliche “Intelligenz” nicht, egal was irgendwelche Techbros in die Fähogkeiten ihrer Bullshitgeneratoren hineinphantasieren.
        • Bei der Qualität der aktuell existierenden Automatierung im Straßenverkehr wird das auch scheiße, wenn die Automatisierung nicht ausfällt. So ein paar Beispiele:
          • Spurassistenten sind überfordert mit Straßen ohne Mittellinie oder in Baustellen und lenken dann in den Gegenverkehr.
          • Automatisches Abblendlicht ist nicht in der Lage, vorausfahrenden oder Gegenverkehr sauber zu erkennen und blendet einfach halt nicht ab, sondern die übrigen Verkehrsteilnehmer.
          • Bremsassistenten sind nicht zuverlässig in der Lage, zwischen einem stationären Hindernis und einem in kurzem Abstand überholenden Fahrzeug zu unterscheiden und machen dann halt mal ne Vollbremsung. Besonders geil, wenn man sowas in einen Bus mit Fahrgästen einbaut.
          • Nicht mal so was Einfaches wie eine verdammte Einparkhilfe (Abstandssensoren) funktioniert zuverlässig überall. Eine enge Einfahrt mit gerade genug Platz für die Außenspiegel auf beiden Seiten, und die Dinger piepsen permanent. Geil, gerade da, wo man das evtl. bräuchte.
          • Der ganze Müll, der drüben in den Staaten mit autonomen Robotertaxis abgeht. (Überfahren bei Fahrt kurz über Schrittgeschwindigkkeit Fußgänger und schleifen die meterweit mit, bleiben mitten auf der Straße einfach stehen, Hupen sich auf dem Parkplatz die ganze Nacht lang gegenseitig an, stehen Einsatzfahrzeugen im Weg rum usw…)
        • gajustempus@feddit.org
          link
          fedilink
          arrow-up
          3
          arrow-down
          2
          ·
          13 天前

          Der Mensch ist immer noch in der Lage selbständig zu denken und damit auf völlig unerwartete und neue Sitauationen zu reagieren. Der Mensch hat in der Regel auch einen Selbsterhaltungstrieb,

          einige tausend Stunden Dashcamvideomaterial, die u.a. auch kostenlos auf YouTube einzusehen sind, wecken EXTREM hohe Zweifel an dieser Aussage.

      • federal reverse@feddit.org
        link
        fedilink
        arrow-up
        3
        arrow-down
        2
        ·
        edit-2
        13 天前

        Dem Fahry kann man ins Gesicht schauen und feststellen, ob er eine rote Nase (Weihnachtsmann oder Alkoholeinfluss) oder irre Augen hat.

        Im Gegensatz dazu hat das autonome System einen Aussetzer, weil auf beide Kameras gerade Hundekacke gespritzt ist oder die KI noch nie erlebt hat, dass der Bordstein knallpink gestrichen ist.

        • gajustempus@feddit.org
          link
          fedilink
          arrow-up
          4
          arrow-down
          3
          ·
          13 天前

          du kannst einem Taxi- oder Busfahrer auf Anhieb ansehen, ob er ein Psychopath oder sonstwie unberechenbar ist?

          Falls ja, solltest du dich unbedingt an einer entsprechenden Stelle bewerben. DAS können nämlich selbst die besten Experten nicht auf Anhieb.

          Und ein autonomes System - sorry, aber DAS ist der typische Claim, der leider immer wieder von Unwissenden durch die Medien getreten wird und zu dämlichen Diskussionen geführt hat. Effekt ist es nämlich bei wirklich vollautonomen Systemen so: Geraten sie in eine Situation, in der sie sich nicht 100%ig sicher sind, bleiben sie STEHEN und WARTEN. Und wenn die Wartezeit ZU LANG wird, ruft das Fahrzeug daheim um Hilfe, schaltet sich aus der Ferne wieder ein Mensch auf und schaut, was denn los ist.

          So läuft es bspw. in den USA bereits bei Cruise und bei Waymo alltäglich. In den Medien sieht man dann lediglich Autos, die komisch rumstehen. Einfach, weil der Mensch nicht versteht, dass manche Risiken nicht eingenommen werden sollten bzw. eingenommen werden.

          • federal reverse@feddit.org
            link
            fedilink
            arrow-up
            3
            arrow-down
            1
            ·
            13 天前

            du kannst einem Taxi- oder Busfahrer auf Anhieb ansehen, ob er ein Psychopath oder sonstwie unberechenbar ist?

            Habe ich nicht gesagt.

            Geraten sie in eine Situation, in der sie sich nicht 100%ig sicher sind, bleiben sie STEHEN und WARTEN.

            Sollten sie. Und tun sie, je nach System, sicher in den meisten Fällen auch. Aber was genau ist dann bei Cruise in SF gelaufen? Und was genau läuft in Elmo seiner wilden Ideenbude?

            Aktuell sind wir jedenfalls nicht an einem Punkt, wo Normalbürgys irgendwie beurteilen können, ob sie gerade in ein einigermaßen sicheres System wie von Waymo oder in ein Katastrophensystem wie von Tesla steigen. Kein Zweifel, dass das besser wird und die schlechten Systeme irgendwann wegreguliert werden.

            Das wesentliche Problem bei KI-gestützten Anwendungen ist aber, dass nicht mal die Entwicklys richtig gut reinschauen können, was das System macht, geschweige denn Regulierungsbehörden. (Und Regulierungsbehörden sind ja schon überfordert von dEn AlGoRiThMeN.)

            • gajustempus@feddit.org
              link
              fedilink
              arrow-up
              1
              arrow-down
              2
              ·
              13 天前

              keine Ahnung, was genau bei Cruise passiert sein soll. Bei Waymo gab es eine Situation, dass ein Wagen einen Passanten, der von einem von einem Menschen gesteuerten Pickup umgefahren und vor den Wagen geschleudert wurde, fast selbst überrollt hätte, weil besagter Mensch zwischen die Achsen geschleudert wurde.

              Und was Tesla angeht - verlinke mir bitte einen Hinweis darauf, dass die Firma bereits Level 4 oder gar 5-Fahrzeuge im Einsatz hat. Kenn ich nämlich keine

              Ergo: 100% Meinung, genau 0 Ahnung. Wieder mal

              • federal reverse@feddit.org
                link
                fedilink
                arrow-up
                2
                ·
                edit-2
                13 天前

                Link zu der Geschichte mit Cruise. Ein Teil der Analyse war auch, dass das Unternehmen gelogen hat, was die autonomen Fähigkeiten seiner Fahrzeuge betraf und sehr viel mehr durch Menschen aus der Zentrale kontrolliert wird als gedacht.

                Bei Tesla suggeriert die Werbung seit zehn Jahren, dass die Dinger selbst fahren könnten *(demnächst, gegen geringen Aufpreis). Und seit es das System tatsachlich irgendwie gibt, sind Tesla-Autopilot-Videos quasi ein eigenes Genre geworden.

                Uber war noch so ein Investment-Vehikel.

                Mein Punkt ist, dass autonomes Fahren prinzipiell möglich ist, aber dem Ganzen fehlt es, sowohl aufgrund unzureichender Regulierung als auch aufgrund der Investorys an Reife.