avatar
Christian Weber @cweb.bsky.social

Also wenn es gezielte Zensur ist, dann lässt es sich übertölpeln, siehe Bild. Wenn man jedoch ein Modell basierend auf fake news trainiert und relativ Verlässliches wie Wikipedia aussortiert, dann "glaubt" es den Blödsinn. Jedoch hast du dann einen unglaublich dummen Chatbot.

image
jul 13, 2025, 5:44 pm • 1 0

Replies

avatar
Christian Weber @cweb.bsky.social

Ergänzend: Die grosse Datenmenge im Training ist nicht nur WIE es funktioniert, sondern WESHALB es funktioniert. Wenn du gewisse Daten einfach weglässt, halluziniert das Ding ohne Ende. Vereinfacht: Du könntest in den Trainingsdaten das Wort Antisemitismus löschen, 👇

jul 13, 2025, 5:48 pm • 1 0 • view
avatar
Christian Weber @cweb.bsky.social

👉 das Modell würde dann dieses Wort nicht kennen, aber alles Andere verweist auf die Existenz dieses Begriffs. Ein LLM erfindet dann einfach ein Wort dafür. Elon hat scheinbar das Gefühl, dass er einfach selektiv Geschichte umschreiben kann. Aber so funktioniert das nicht.

jul 13, 2025, 5:51 pm • 0 0 • view