Beispiele von ChatGPT-generierten Posts:
https://web.archive.org/web/20230612080823/https://i.imgur.com/Aw8JUga.png
https://web.archive.org/web/20230612080827/https://i.imgur.com/0seHYei.png
https://web.archive.org/web/20230612080828/https://i.imgur.com/Q8Pl2Ms.png
https://web.archive.org/web/20230612080830/https://i.imgur.com/IRAug6a.png
https://web.archive.org/web/20230612080832/https://i.imgur.com/N88AxJx.png
https://web.archive.org/web/20230612080858/https://i.imgur.com/Ar8P95B.png
https://web.archive.org/web/20230612080526/https://i.imgur.com/4e9jO7P.jpg
Crossgeposted von: https://lemmy.world/post/1044141
Apologies if this is a repost. They’re scared lol.
https://www.teddit.net/r/Save3rdPartyApps/comments/14q12g7/subreddits_are_starting_to_see_spam_from/
deleted by creator
Unwahrscheinlich. So etwas in der Breite zu erstellen ist nicht so einfach wie du dir das eventuell vorstellst. Erstens müssen die Kommentare von ChatGPT gelesen und verstanden werden (1 API request), dann bewertet werden ob etwas pro/contro Reddit gesagt wird (1 API request), dann eine entsprechende Response generiert werden (1 API request). Also 3 API requests pro Kommentar. Und auch wenn es einfach wäre, kostet doch jeder Zugriff auf GPT-3.5 oder GPT-4 via OpenAI’s API Geld. Skripten via ChatGPT kann zu einem Ban führen.
Nach erneutem Nachdenken glaube ich dass man das billiger lösen kann indem man verschiedene Kommentare in einem API request zusammenfasst und dann GPT anweist die Ziel-Kommentare herauszufiltern. Dann kann man das an eine andere Komponente weiterleiten und die entsprechenden Antworten generieren lassen. Es stimmt also, dass so etwas konzeptionell sicher einfach zu erstellen ist (ich bin ja schließlich auch darauf gekommen wie man so etwas baut), aber so ein Unterfangen ist sicher nicht an einem Nachmittag umgesetzt.
Die OpenAI Kosten werden pro Token (entspricht in etwa einigen Buchstaben) berechnet. Für längere input Texte zahlt man also mehr.
deleted by creator