Es gibt ganz wenige Ausnahmen wo sie hilfreich sind, aber das sind dann auch hochspezialisierte LLM oder Gebiete wo Präzision grade nicht sinnvoll ist. Und natürlich auch in Bereichen wo glaubwürdiges Faken ein Muss ist.
Es gibt ganz wenige Ausnahmen wo sie hilfreich sind, aber das sind dann auch hochspezialisierte LLM oder Gebiete wo Präzision grade nicht sinnvoll ist. Und natürlich auch in Bereichen wo glaubwürdiges Faken ein Muss ist.
"Es gibt ganz wenige Ausnahmen wo sie hilfreich sind, aber das sind dann auch hochspezialisierte LLM oder Gebiete wo Präzision grade nicht sinnvoll" Du musst an Deinen eigenen Skills arbeiten. Und va verstehen wie LLMs funktionieren und damit auch wie man sie validiert
Ich kann die Fehler von LLM in Sekunden erkennen. Nur bin ich in der gestellten Aufgabe in der Regel schneller als die LLM, denen schlicht das echte Verstehen und Kontexteinordnen fehlt.
Dann verwendest du es falsch bzw. unproduktiv, oder du hast keinen echten usecase
Ich verwende Algos recht häufig, aber als zielgerichtete Tools um dröge, repetetive Arbeit zu umgehen, z.B. im Bereich Audio oder Video. Lustigerweise sind die LLM ja auch in dem Bereich den spezialisierten Algos unterlegen, obwohl es uns genau andersrum verkauft wird.
"sind die LLM ja auch in dem Bereich den spezialisierten Algos unterlegen" für diese Erkenntnis gibt's keinen Nobelpreis. Wobei ich mittlerweile mit einem LLM zu tun habe das so ein Tool bedient. Das ist schon recht spannend
Sauber den zweiten entscheidenden Teil des Satzes weggelassen…
Ich weiß nicht wer ihnen was "verkauft" hat mir hat niemand etwas verkauft.
Geh mal vor die Tür und erlebe die Realität…
Übersetzung wäre der perfekte Usecase, aber grade da versagen die Teile gnadenlos, weil sie weder Zeit, Kontext, Metaebene, etc. verstehen und daher sofort massiv schlechter werden wo sie menschliche Vorlagen nicht kopieren können.
Es ist ein prinzipielles Skillset im wissenschaftlichen Arbeiten auch dem vorwissenschaftlichen, Information zu recherchieren und einzuordnen wo man eben *kein* Experte ist, bzw sich Expertise aneignet. Das muss man auch bei ganz normaler offline Literaturrecherche lernen
Nur ist ja genau das, was die LLM den Leuten grade abtrainieren. Du bist Zuviel in der Theorie unterwegs und nicht in der Praxis.
LLMs trainieren Leuten genau gar nichts ab. LLMs sind Maschinen. Man kann eine Mischmaschine falsch oder gefährlich einsetzen, kein Mensch würde auf die Idee kommen sie würden irgendwas "trainieren" (OK, evtl im 19. Jahrhundert)
Man kann Dinge auch zu wörtlich nehmen. Fakt: Die Leute nutzen zunehmend Grok und Co für jeden Mist und verlernen Recherche.