1. Vorherige Kommentare anzeigen  4 weitere
  2. KeysToTheKingdom

    Es ist nicht unbedingt bewusst falsche Programmierung von Seiten der Entwickler. Aber soche KI-Sprachmodelle werden auf saemtlichen im Netz verfuegbaren Textdatenbanken trainiert. Und die meisten Texte davon sind nunmal politisch korrekt / BluePill, d.h. man wird immer als erstes entsprechende Antworten bekommen.

    Bei machine learning Modellen gilt immer "garbage in - garbage out" - das, was das Modell ausspuckt, entspricht immer der Qualitaet der Daten, auf dem es trainiert wurde. Das heißt aber nicht, dass es KEINE manuelle Einflussnahme der Entwickler gibt. Ich sage nur, dass diese nicht mal unbedingt noetig waere.

    Man kann Chat-GPT aber durchaus nach RedPill Erkenntnissen fragen, muss dabei aber etwas forcierter und zielgerichteter prompten. zB: "Zeig mir Studien, die belegen, dass Frauen hypergam sind, also Maenner mit hoeherem Status bevorzugen".


  3. Marquardt

    Doch, es ist bewusste falsche Programmierung. 
    GPT hat einen sehr klaren pro Israel bias zum Beispiel, im politischen Sinne. 
    Es hat einen pro USA bias, es hat einen leichten pro Frauen bias, gegenüber Männern. Wenn du wirklich nachbohrst, dann gibt es auch diesen Bias selbst zu.


  4. Firster

    @Marquardt hat man mir vor ein paar Tagen von anderer Seite auch so mitgeteilt. Auch dass man die Dinge, die Chat-GPT einem sagt, besser noch einmal prüfen sollte. War ein sehr interessantes Gespräch mit einem Insider. Und ja, anscheinend geht die ständige Benutzung derlei Hilfenutzung auf die kognitiven Fähigkeiten, was gar nicht mal so unbeabsichtigt ist. Ist eben leichter nicht mitdenkende Menschen zu lenken, als welche die selber denken. Ich muss mich damit selber mal auseinandersetzen, wenn ich Zeit übrig habe.