• SrTobi@feddit.de
    link
    fedilink
    Deutsch
    arrow-up
    0
    arrow-down
    1
    ·
    10 months ago

    Also ich würde sagen die meisten trainierten Algorithmen sind blackboxen auch für IT-experten… Ich weiß wie ein transformer funktioniert, auch vor chatgpt und ich hätte trotzdem nicht gedacht dass es so gut funktioniert. Bzw ich kann aus dem Wissen fast keinen Vorteil ziehen bei der Interaktion mit chatgpt.

    Das heißt natürlich nicht, dass es nicht wichtig wäre für die Bevölkerung ein gewisses Verständnis für IT zu haben. Denn die ist sicherlich größtenteils nicht gegeben

    • AggressivelyPassive@feddit.de
      link
      fedilink
      Deutsch
      arrow-up
      0
      ·
      10 months ago

      Sie sind in soweit Blackboxen, dass selbst die Hersteller nicht sagen können, warum sie so funktionieren.

      Sie können weder sagen, warum eine bestimmte Entscheidung getroffen wurde, noch können sie sagen, warum ein bestimmtes Design funktioniert. Es ist gerade sehr viel mehr Kunst als Wissenschaft.

      • Aiyub@feddit.de
        link
        fedilink
        Deutsch
        arrow-up
        0
        ·
        10 months ago

        Als jemand der mit KI arbeitet: warum eine Entscheidung getroffen wurde ist meist schon nachvollziehbar. Wir können beispielsweise die pixel hervorheben die besonders stark zur Entscheidung beigetragen haben.

        Das ist dann nur ein Teil des Problems, aber man ist nicht ganz blind wie du es suggerierst

        • AggressivelyPassive@feddit.de
          link
          fedilink
          Deutsch
          arrow-up
          1
          ·
          10 months ago

          Du kannst mathematisch nachvollziehen, was passiert. Aber das “Warum” dahinter eben nicht. Im Sinne von “warum werden gerade diese Pixel als Tiger erkannt?” Das sind verschiedene Arten von Warums.