Ich bin kein Coder oder so, wir gestalten komplexe Prozesse, in denen auch AI eingebunden wird. Und es wäre in mehrfacher Hinsicht katastrophal, wenn diese Prozesse dann Leuten schaden würden.
Ich bin kein Coder oder so, wir gestalten komplexe Prozesse, in denen auch AI eingebunden wird. Und es wäre in mehrfacher Hinsicht katastrophal, wenn diese Prozesse dann Leuten schaden würden.
„…in denen auch AI eingebunden wird.“ - was denn für AI? LLMs? AI ist nicht gleich AI.
Auf Bluesky muss man die Balance zwischen Laiensprache und Fachsprache suchen, sonst wirkt man elitär.
Oh come on, was ist das denn für eine seltsame Aussage um nicht „Ausrede“ zu sagen? Beantwortet außerdem null die Frage.
Spätestens mit ChatGPT-5o und agentic systems dürfte es schwer fallen, die Frage zu beantworten, ob eine AI Endanwendung ein LLM ist, oder nicht.
Das beantwortet immer noch nicht meine Frage. Hier ist es btw super erklärt, was das bedeutet, dass es mehr ist, als ein LLM und warum es trotzdem nicht einfach selbstständig drauflos denkt und Menschen random in den Suizid schickt. somerandomnerd.net/blog/just-an...
Hab' ich nie behauptet. Die Liebesmüh, mich von etwas zu überzeugen, das nicht Teil meines Arguments war, ist verschwendet. Mit geht's nicht um die Intention oder wie etwas funktioniert, sondern schlicht um Produktsicherheit und Qualität.
Wie etwas funktioniert hat aber nun mal Einfluss darauf, wie sich Produktsicherheit umsetzen lässt und was die Ursachen für solche schrecklichen Ereignisse wie der Suizid dieses Jungen sind. Das ist nicht trennbar, man kann das eine nur vorantreiben, wenn man das andere versteht.
Ja, deshalb habe ich ja eingangs als Hypothese geäußert, dass OpenAI das Training vergurkt hat. Man hätte zB systematisch bestimmte Themen aus dem Trainingsset ausschliessen können. Oder mehr Kontrollen einbauen, dass bei bestimmten Themen vorprogrammierter Output kommt, zB Empfehlung ärztl. Hilfe.
Ja, hätte hätte, hat man aber nicht, vermutlich unter anderem weil man Vieles nicht bedacht hat, für so eine Diskussion ist es zu spät. Wichtig ist, dass man jetzt nachbessert und das hat OpenAI schon einmal getan und wird es auch wieder tun.
Wer weiss, wie viele Themen da noch hochkommen. Nicht zuletzt wird ChatGPT gern bei der Anbahnung von Straftaten genutzt. Daher das Ausgangsposting.
Wenn interne Kontrollen unzuverlässig sind, werden halt externe Kontrollen benötigt, um Schaden zu vermeiden.
Meines Wissens nach ist es immer LLM, nur werden - wohl aus Kostengründen - per Default unterschiedliche Modelle "geroutet". Auch sehr kleine, wenn man Pech hat. Man kann das derzeit noch, auch im kostenlosen Modell, umgehen - mehr Details hier: www.youtube.com/watch?v=9Y9d...
Und das ist nach aktuellem - und m.E. auch zukünftigem - Stand der Technik - hier nicht möglich. Es sei denn ein absolut neutral/loyal/ethisch perfekter Mensch prüft jede Antwort vor der Rückgabe an den Fragesteller.
Es gibt aber einen großen Raum zwischen "wir prüfen gar nichts" und "wir prüfen alles".
"Nicht alles prüfen" heisst, dass es derartige Eskalationen, im schlimmsten Fall mit Todesfolge unweigerlich geben wird. Wer möchte für so etwas haften?
Willkommen in meiner Welt. Aber Achtung: Ein Unternehmen haftet immer für seine Mitarbeiter:innen! Es sei denn, man kann denen Betrug oder Vorsatz nachweisen, aber selbst dann haftet das Unternehmen noch mit.
Ist mir alles klar. Es ändert nun mal nichts an der Tatsache, dass KI in so ein Legalkorsett niemals reinpasst. Das wissen die Betreiber auch und nutzen die "Freiheit" in den USA aus um ihr Produkt einfach weltweit anzubieten. Selbes Vorgehen wie seit der Gründung von Google oder sogar schon länger.
Hier wird einfach "gemacht" und ausgenutzt, dass Gesetze und Regelungen Jahre bis Jahrzehnte hinterherhinken oder überhaupt niemals aufschließen können. Eine blinde, alte Katze jagt Millionen von Mäusen, die sich exponentiell vermehren.
🎯
Also ist es im regulierten Bereich bislang Pflicht, einen Menschen einzubinden, der dafür sorgt, dass die Kundensicherheit nicht beeinträchtigt wird. So eine Sicherung hat ChatGPT nicht, sondern setzt auf automatische Kontrollen... dafür haften sie strafrechtlich und zivilrechtlich.
Diese Haftpflicht wollen die Altmans dieser Welt natürlich gern loswerden.