avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Ich bin kein Coder oder so, wir gestalten komplexe Prozesse, in denen auch AI eingebunden wird. Und es wäre in mehrfacher Hinsicht katastrophal, wenn diese Prozesse dann Leuten schaden würden.

aug 29, 2025, 8:17 am • 2 0

Replies

avatar
Die Federführerin @sabrinateifel.bsky.social

„…in denen auch AI eingebunden wird.“ - was denn für AI? LLMs? AI ist nicht gleich AI.

aug 29, 2025, 8:26 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Auf Bluesky muss man die Balance zwischen Laiensprache und Fachsprache suchen, sonst wirkt man elitär.

aug 29, 2025, 10:04 am • 0 0 • view
avatar
Die Federführerin @sabrinateifel.bsky.social

Oh come on, was ist das denn für eine seltsame Aussage um nicht „Ausrede“ zu sagen? Beantwortet außerdem null die Frage.

aug 29, 2025, 10:06 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Spätestens mit ChatGPT-5o und agentic systems dürfte es schwer fallen, die Frage zu beantworten, ob eine AI Endanwendung ein LLM ist, oder nicht.

aug 29, 2025, 10:15 am • 1 0 • view
avatar
Die Federführerin @sabrinateifel.bsky.social

Das beantwortet immer noch nicht meine Frage. Hier ist es btw super erklärt, was das bedeutet, dass es mehr ist, als ein LLM und warum es trotzdem nicht einfach selbstständig drauflos denkt und Menschen random in den Suizid schickt. somerandomnerd.net/blog/just-an...

aug 29, 2025, 10:25 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Hab' ich nie behauptet. Die Liebesmüh, mich von etwas zu überzeugen, das nicht Teil meines Arguments war, ist verschwendet. Mit geht's nicht um die Intention oder wie etwas funktioniert, sondern schlicht um Produktsicherheit und Qualität.

aug 29, 2025, 10:27 am • 0 0 • view
avatar
Die Federführerin @sabrinateifel.bsky.social

Wie etwas funktioniert hat aber nun mal Einfluss darauf, wie sich Produktsicherheit umsetzen lässt und was die Ursachen für solche schrecklichen Ereignisse wie der Suizid dieses Jungen sind. Das ist nicht trennbar, man kann das eine nur vorantreiben, wenn man das andere versteht.

aug 29, 2025, 10:33 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Ja, deshalb habe ich ja eingangs als Hypothese geäußert, dass OpenAI das Training vergurkt hat. Man hätte zB systematisch bestimmte Themen aus dem Trainingsset ausschliessen können. Oder mehr Kontrollen einbauen, dass bei bestimmten Themen vorprogrammierter Output kommt, zB Empfehlung ärztl. Hilfe.

aug 29, 2025, 10:39 am • 0 0 • view
avatar
Die Federführerin @sabrinateifel.bsky.social

Ja, hätte hätte, hat man aber nicht, vermutlich unter anderem weil man Vieles nicht bedacht hat, für so eine Diskussion ist es zu spät. Wichtig ist, dass man jetzt nachbessert und das hat OpenAI schon einmal getan und wird es auch wieder tun.

aug 29, 2025, 10:46 am • 0 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Wer weiss, wie viele Themen da noch hochkommen. Nicht zuletzt wird ChatGPT gern bei der Anbahnung von Straftaten genutzt. Daher das Ausgangsposting.

aug 29, 2025, 10:41 am • 0 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Wenn interne Kontrollen unzuverlässig sind, werden halt externe Kontrollen benötigt, um Schaden zu vermeiden.

aug 29, 2025, 10:42 am • 0 0 • view
avatar
Silent Bob (mostly not) @11110110101.bsky.social

Meines Wissens nach ist es immer LLM, nur werden - wohl aus Kostengründen - per Default unterschiedliche Modelle "geroutet". Auch sehr kleine, wenn man Pech hat. Man kann das derzeit noch, auch im kostenlosen Modell, umgehen - mehr Details hier: www.youtube.com/watch?v=9Y9d...

aug 29, 2025, 10:47 am • 2 0 • view
avatar
Silent Bob (mostly not) @11110110101.bsky.social

Und das ist nach aktuellem - und m.E. auch zukünftigem - Stand der Technik - hier nicht möglich. Es sei denn ein absolut neutral/loyal/ethisch perfekter Mensch prüft jede Antwort vor der Rückgabe an den Fragesteller.

aug 29, 2025, 8:31 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Es gibt aber einen großen Raum zwischen "wir prüfen gar nichts" und "wir prüfen alles".

aug 29, 2025, 10:01 am • 1 0 • view
avatar
Silent Bob (mostly not) @11110110101.bsky.social

"Nicht alles prüfen" heisst, dass es derartige Eskalationen, im schlimmsten Fall mit Todesfolge unweigerlich geben wird. Wer möchte für so etwas haften?

aug 29, 2025, 10:03 am • 0 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Willkommen in meiner Welt. Aber Achtung: Ein Unternehmen haftet immer für seine Mitarbeiter:innen! Es sei denn, man kann denen Betrug oder Vorsatz nachweisen, aber selbst dann haftet das Unternehmen noch mit.

aug 29, 2025, 10:06 am • 2 0 • view
avatar
Silent Bob (mostly not) @11110110101.bsky.social

Ist mir alles klar. Es ändert nun mal nichts an der Tatsache, dass KI in so ein Legalkorsett niemals reinpasst. Das wissen die Betreiber auch und nutzen die "Freiheit" in den USA aus um ihr Produkt einfach weltweit anzubieten. Selbes Vorgehen wie seit der Gründung von Google oder sogar schon länger.

aug 29, 2025, 10:12 am • 0 0 • view
avatar
Silent Bob (mostly not) @11110110101.bsky.social

Hier wird einfach "gemacht" und ausgenutzt, dass Gesetze und Regelungen Jahre bis Jahrzehnte hinterherhinken oder überhaupt niemals aufschließen können. Eine blinde, alte Katze jagt Millionen von Mäusen, die sich exponentiell vermehren.

aug 29, 2025, 10:12 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

🎯

aug 29, 2025, 10:19 am • 1 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Also ist es im regulierten Bereich bislang Pflicht, einen Menschen einzubinden, der dafür sorgt, dass die Kundensicherheit nicht beeinträchtigt wird. So eine Sicherung hat ChatGPT nicht, sondern setzt auf automatische Kontrollen... dafür haften sie strafrechtlich und zivilrechtlich.

aug 29, 2025, 8:21 am • 0 0 • view
avatar
Juhu! (Everbody counts) @jayhay.bsky.social

Diese Haftpflicht wollen die Altmans dieser Welt natürlich gern loswerden.

aug 29, 2025, 8:22 am • 0 0 • view