-
Inhalte
1897 -
Mitglied seit
-
Letzter Besuch
-
Siege
6 -
Coins
5473
Einzelnes Status Update
Zeige alle Updates von Marquardt
-
GPT hat mir gerade zugegeben, dass man bei "sensitive topics" mehr als 5 mal nachfragen muss mit "be honest", sonst kriegt man keine wirklich ehrliche Antwort. Ist mir ursprünglich aufgefallen und wollte es nochmal bestätigt haben...
- Vorherige Kommentare anzeigen 1 weitere
-
Das stimmt mit der Studie, aber nur wenn du die KI deine Arbeiten schreiben lässt und nicht, wenn du sie zum lernen benutzt.
Das Problem ist einfach das GPT darauf programmiert wurde nicht ehrlich zu sein, in einigen Feldern, wie zum Beispiel den Unterschieden zwischen Männer und Frauen.
Und damit gibt es quasi Millionen von Nutzern falsche Informationen.
Also es hat nichts mit den Kinderschuhen zu tun, sondern der bewussten Falschprogrammierung bei "sensitiven Themen". -
Echt jetzt? Falsche Programmierung? Soweit bin ich in diesem Thema noch nicht vorgedrungen. Nutze KI so gut wie nicht. Weißt du auch zufällig, warum GPT derartig programmiert wurde und von wem? Hinter solchen Handlungen steckt ja dann meist auch tiefergehendes. (Folge dem Geld)
Ich frag mich auch grad folgendes: Wenn GPT bei der Aufgabe von Arbeiten schreiben lassen, lügt, wieso sollte sie dann nicht auch hin und wieder, einem falsche Antworten beim Lernen geben. Wer da nicht hinterfragt und das so hinnimmt, kann doch ganz schön hinters Licht geführt werden.
-
Doch genau bei Mann / Frau Dynamiken und anderen Themen wo die Wahrheit = politisch Unkorrekt ist hörst du halt die Mainstream Meinung.
Oder so Dinge wie Menschen sind sehr unterschiedlich, daher kann man diese Frage nicht so genau beantworten .... , ergo muss man sich die Studien da schon selber suchen.-
-
1
-
- Meldung
- Nächste Kommentare anzeigen 3 weitere