- cross-posted to:
- [email protected]
- cross-posted to:
- [email protected]
Crossgeposted von: https://discuss.tchncs.de/post/453970
Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.
In einer Studie zeigen Schweizer Forscherinnen und Forscher, dass …
die fast 700 Probandinnen und Probanden nicht in der Lage waren, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.
Außerdem zeigte sich, dass …
die vom Sprachmodell GPT-3 generierten Texte oft leichter verständlich waren als die Texte von realen Twitter-Nutzerinnen und -Nutzern – auch wenn der Inhalt nicht der Wahrheit entsprach. Die „Fake News“ der KI wirkten laut den Probandinnen und Probanden oft überzeugender als falsche Informationen, die von Menschen geschrieben wurden.
Schwieriges Thema und vorallem schwierig hier eine sinnvolle Reglementierung zu finden, ohne zuweit einzugreifen. Vorallem ist es technisch schwer, da solche Systeme in der Entscheidungsfindung grundsätzlich eine BlackBox darstellen, aber dadurch auch interessant wie man solche Gefahren in Zukunft mitigieren will.
Stimme ich zu. Deshalb ist es auch interessant wie das, rein technisch, funktionieren soll. Ich spreche aber von der Anpassung der KI Modelle um solche Dinge zu mitigieren in Zukunft, weniger davon zu versuchen den Zugriff auf die Technologie einzuschränken, das ist nicht realistisch.
Es gibt bsplw. sehr erfolgreiche Forschung in die Richtung KI generierte Bilder zu erkennen. Von Texten ist mir bisher aber nichts bekannt, schließe aber nicht aus, dass auch das möglich ist.