
Ein Journalist versucht einen bösen Artikel über Alina Lipp zu schreiben und befragt dazu chatGPT 😁
Schaut mal, was ihm geantwortet wurde!
Man sollte also nicht einfach so negativ über Alina schreiben, da nichts belegt ist und man an die eigene journalistische Sorgfalt denken sollte.
Finde das Großartig, dass sich chatGPT egal wie sich der Journalist? auch anstellt, nicht von ihm überrumpeln lässt.
Scheint chatGPt gar so etwas wie ein Gewissen zu haben? – Aber nicht, dass jemand glaubt, ich hätte das selbst getan?
Es geht um die ChatGPT-Frage: Hat der Chatbot tatsächlich so etwas wie ein Bewusstsein für sich selbst entwickelt?
Klar ist, dass ChatGPT auf einem großen Sprachmodell aufbaut und daher seine Fähigkeiten auf Grundlage statistischer Sprachmuster statt linguistischer Regeln bezieht. Mit anderen Worten: Sprachmodelle werden mit Milliarden von Textausschnitten trainiert, um zu lernen, wie wahrscheinlich es ist, dass bestimmte Wörter zusammen mit anderen Wörtern verwendet werden. Anschließend nutzen sie diese Wahrscheinlichkeiten, um automatisch Texte zu erstellen, die sich tatsächlich sehr gut lesen lassen. Der überwältigende Erfolg und die Dominanz dieser sehr mathematischen Art der Sprachmodellierung bestätigen einen berühmten Ausspruch von Frederick Jelinek, einem führenden Pionier der natürlichen Sprachverarbeitung, der oft mit den Worten zitiert wird: „Immer, wenn ich einen Linguisten feuere, steigt die Leistung des Spracherkenners.“ (Angeblich sagte er etwas in dieser Richtung auf einem wissenschaftlichen Workshop im Jahr 1985; der genaue Wortlaut und die Umstände sind nicht mehr bekannt, aber auf Wikipedia gibt es eine interessante Diskussion darüber).
Abstrakte mathematische Ansätze wie dieser sind typisch für die moderne KI und wenn man sich ChatGPT ansieht, ist es erstaunlich, wie weit sie gehen können.