Darkfield (08.06.2025)
-
02.06.2025, 21:02 #1
- Registriert seit
- 15.11.2011
- Beiträge
- 8.002
- Blog Entries
- 5
Thanked 9.385 Times in 3.223 PostsDie schlimmste Gefahr von "KI": 73% kennen sie nicht
Wir fürchten uns vor KI, die Menschen ebenbürtig wird oder sie sogar dominiert. Mit ChatGPT & co. scheint diese Angst realistischer denn je zu sein. Große Sprachmodelle (Large Language Model, LLM) chatten mit uns und sind Menschen ähnlich. Doch der Schein trügt: Während solche Horror-Szenarien bereits seit Jahrzehnten die Fantasie von Hollywood beflügeln, sind wir in der Realität auch 2025 noch weit davon entfernt. Stattdessen birgt KI erhebliche Risiken, die kaum jemand auf dem Schirm hat. In diesem Video schauen wir uns die größte Gefahr an, die 73% von euch ignorieren und die uns tatsächlich ernsthaft bedrohen kann.
Zum kompletten Beitrag im U-Labs Portal
-
02.06.2025, 21:03 #2
- Registriert seit
- 30.09.2021
- Beiträge
- 5.446
Thanked 73 Times in 71 PostsAntwort von @mo7aZa
Antwort von @mo7aZa:
viele wissen nicht wie "programmierung" funktioniert. ich habe selbst jemanden im haus die angst vor KI hat. für mich unverständlich.... aber ich hab andere ängste... also lass ich mich drauf ein und versuch es zu erklären.
-
02.06.2025, 21:03 #3
- Registriert seit
- 30.09.2021
- Beiträge
- 5.446
Thanked 73 Times in 71 PostsAntwort von @robinsourtoe9416
Antwort von @robinsourtoe9416:
Viel schönes bei.
-
02.06.2025, 21:06 #4
- Registriert seit
- 30.09.2021
- Beiträge
- 5.446
Thanked 73 Times in 71 PostsAntwort von @Volker-Dirr
Antwort von @Volker-Dirr:
Sind wir mal ehrlich: Bei Menschen ist das jetzt nicht so viel anders. Da sind auch viele zu dumm selbst einfache Sachen zu verstehen und sie erzählne irgendeinen Blödsinn. Insofern jetzt nichts neues für mich: Beim Menschen habe ich schon immer überlegt, ob das denn so alles stimmt, was er mir daa erzählt und bei KI mache ich das logischerweise genau so. Und das, was da als Meme gezeigt wird, könnte ich dir jeden Tag in der Schule mit Schülern zeigen, die genau so total falsche Dinge erkennen/machen/sagen. Ich habe auch jede Menge Schüler, gerade in Physik, die nur auswendig lernen. Richtig "verstehen" tun es nur ein kleiner Teil. Da haben sind auch mehrere Schüler nur scheinbar intelligent.
Und nein: Menschen erkennen nicht immer so leicht, wenn informationen nicht notwenig sind. Den Spaß gönne ich mir öfters in Mathe. Wenn ich da in Textaufgaben mal einfach unnötige Zahlen angebe, dann ist das nicht gerade selten, dass ein Großteil der Klasse irgendwie versucht mit der Zahl irgendetwas zu rechnen.
Das mit den Bildern hast du falsch verstanden. Natürlich kann man das korregieren. Dazu gibt es mehrere Techniken. Eini wichtige ist z.B. gute Trainingsdaten zu haben.
Und das mit dem Vertrauen war schon immer so: Menschen glauben ganz schnell etwas, wenn das "bei google" steht. Das war aber schon vor 20 Jahren so. Und Menschen glauben auch mal ganz schnell etwas, nur weil es ein bestimmter anderer Mensch sagt. Das sind alles keine neuen Probleme. Die gab es schon immer.
Das mit den Quellen bei Chat-gpt ist falsch. Selbst als nicht zahlender Kunde werden oft Quellen angezeigt. Kommt aber vermutlich darauf an, was und wie man so fragt. (Ich habe da z.B. nach Börsenunternehmen gefragt und nach deren Risikoeinschätzung. Da wurden mir dann immer die Quellen genannt. Wenn ich nach 5+5 frage, dann sagt er mir logischerweise keine Quelle. Wen soll man da auch angeben?)
Und das mit der Manipulation ist ebenfalls nicht neu. Das gab es immer wieder bei "modernen" Medien: Zeitung, Radio, Fernsehen, Internet, ... Du hattest da schon immer die Gefahr der Manipulation.
In Summe würde ich mal sagen: Klar muss man auf soetwas achten, aber du übertreibst mal wieder maßlos.
-
02.06.2025, 21:25 #5
- Registriert seit
- 15.11.2011
- Beiträge
- 8.002
- Blog Entries
- 5
Thanked 9.385 Times in 3.223 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Das Schulsystem ist Teil des Problems. Es war und ist nie darauf ausgelegt gewesen, Bildung zu vermitteln. Oder gar Menschen zu eigenständig denkenden Wesen zu formen. Das Gegenteil ist der Fall. Es entstand im Deutschen Kaiserreich und sollte die kindliche Neugier ersticken, um sie zu blindem Gehorsam gegenüber Autoritäten erziehen. So stehen später als Erwachsene Soldaten zur Verfügung, die ohne zu hinterfragen oder gar Widerspruch zu leisten in den Krieg ziehen. Schulen selbst sind daher von Kasernen und generell sehr militärisch geprägt. Heute ist das nicht mehr ganz so extrem wie damals, über die Jahrzehnte gab es ein paar Reformen. Der Kern ist aber immer noch 100 Jahre alt. Seit Jahrzehnten wissen wir das. Eine grundlegende Reform will keiner angehen, weil es ein riesiges Projekt wäre und kaum in einer Amtszeit zu bewältigen.Ansonsten gäbe es die von dir geschilderten Probleme nicht bzw. weitaus weniger Extrem.
Der Punkt bei den Bildern ist nicht, ob man das vielleicht irgendwie korrigieren kann. Sondern zwei ganz andere Sachen: Erst mal, dass du als Außenstehender so was überhaupt nicht beurteilen kannst, weil die Trainingsdaten proprietär sind. Das wäre die Voraussetzung zum korrigieren. Hier ist es zufällig aufgefallen, aber wie viele derartige Verzerrungen gibt es noch? Das weiß keiner. Darüber hinaus zeigt dieses Beispiel: Die "KI" hat die Aufgabe nicht verstanden und lügt. Laut Antwort hat es Uhren mit der gewünschten Zeit generiert, die sie aber nicht zeigen. Das ist ein großes Grundsatzproblem. Würde OpenAI das korrigieren (was sie übrigens seit Monaten nicht tun), wäre das wie ein Loch im Nudelsieb zu versiegeln.
Wenn du all das für maßlos übertrieben hältst, solltest du dich tiefer mit dem Thema beschäftigen. Und zumindest anfangen, meine Quellen richtig zu wiedergeben. Ich habe nie behauptet, dass ChatGPT aktuell keine Quellen anzeigt. Sondern explizit gesagt, dass das lange Zeit der Fall war. Danach wurde es für zahlende Kunden eingeführt. Auch mit den klassischen Fehlinformationen von händisch erstellten Seiten ist es kaum vergleichbar, aus zwei Gründen: Zum einen wegen der Flut. Dazu, weil laut derzeitigen Studien die Menschen einem Chatbot mehr Vertrauen schenken, wohl weil die Antworten sprachlich super klingen. Daher haben wir bereits jetzt die desaströsen 73% der Nutzer, die "KI" blind vertrauen. Noch mal: Nicht ein bisschen zu viel vertrauen, was jedem passieren kann. Sondern vollständig blind. Passend dazu verbreitet Elon Musks "KI" gerade Verschwörungsmythen.
Im übrigen finde ich noch wichtig, dass die Technik nicht seit Jahrzehnten einer breiten Masse recht frei zugänglich ist. Das haben wir erst seit wenigen Jahren. Wir stehen da also erst am Anfang. Wenn man sich anschaut, wie das Internet in den frühen 1990er Jahren aussieht und wie jetzt, kann man sich im Ansatz ausmalen, was da für gravierende Herausforderungen noch auf uns zukommen. Und das hier ist nur ein Aspekt von dem ganzen. Zig weitere Probleme habe ich in diesem Beitrag gar nicht thematisiert. Was wir jetzt tun, stellt die Weichen dafür. Wenn wir jetzt herunterspielen und merkeln, tun das andere.
-
03.06.2025, 19:33 #6
- Registriert seit
- 30.09.2021
- Beiträge
- 5.446
Thanked 73 Times in 71 PostsAntwort von @PeterB144
Antwort von @PeterB144:
Wer die LLMs nutzt muss vor allem darauf achten, dass man, will man eine gute Antwort haben, an der Eingabe/Prompt zu seiner Frage am besten alle Informationen mitgibt, die dafür relevant sind. Also Prompt Engineering tut not. Und richtig, je unschärfer und unvollständiger die Informationen sind, die ich bei einer Anfrage eingebe, desto mangelhafter und unsicherer werden die Antworten sein. Also ganz richtig, Mist rein gibt Mist raus. In jedem Fall immer genau prüfen, was ein LLM zurückgibt und darauf achten, dass man zu seiner Frage am besten alle Informationen mitgibt, die das LLM wissen sollte, sonst füllt es die "blinden" Flecken mit Vermutungen, die eben völlig falsch sein können. So eine LLM ist in ihrem Können und Wissen auf ihre Datenbasis/Traningsdaten angewiesen und kann daher gar nicht alles wissen oder zu allem Informationen haben. Das sollt man sich auch immer wieder vor Augen halten. Deshalb steht auch unten in den Chatfenstern immer, das das Modell Fehler machen kann, weil es eben im Falle fehlender Daten versucht diese durch Annahmen zu ersetzen und das kann und wird eben zu Fehlern und Falschaussagen führen.
-
03.06.2025, 19:34 #7
- Registriert seit
- 15.11.2011
- Beiträge
- 8.002
- Blog Entries
- 5
Thanked 9.385 Times in 3.223 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Diese Hinweise scheinen leider in der Praxis nicht zu funktionieren, nachdem über 70% denen blind vertrauen. Bei den restlichen ~27% will man lieber nicht wissen, was die angegeben haben. Dort werden sicher einige dabei sein, die etwas wie "ich vertraue der meistens schon" angegeben haben. Also statt blind weitgehend...
-
07.06.2025, 23:24 #8
- Registriert seit
- 30.09.2021
- Beiträge
- 5.446
Thanked 73 Times in 71 PostsAntwort von @mhm2377
Antwort von @mhm2377:
Dein Bericht klingt, als wäre er, bzw. die Quellen schon drei Jahre alt...
-
07.06.2025, 23:29 #9
- Registriert seit
- 15.11.2011
- Beiträge
- 8.002
- Blog Entries
- 5
Thanked 9.385 Times in 3.223 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Dein Kommentar klingt, als hättest du im Video nicht aufgepasst. Und dir schon gar nicht die Mühe gemacht, auf den verlinkten Artikel zu gehen, in dem wiederum alle Quellen verlinkt sind. Oder sich gar selbst mit der Technik beschäftigt. Schon mit einem davon wäre klar, dass dieser Vorwurf totaler Blödsinn ist. Hier geht es um ein Grundsatzproblem, das bis heute ungelöst ist. Ohne realistische absehbare Lösung in Zukunft.
-
The Following User Says Thank You to DMW007 For This Useful Post:
-
08.06.2025, 13:45 #10
- Registriert seit
- 30.09.2021
- Beiträge
- 5.446
Thanked 73 Times in 71 PostsAntwort von @Schraubfreak
Antwort von @Schraubfreak:
Diese Informationen sollten unsere Politiker und Rüstungsclowns bekommen. Nach denen wird bald der "Rote Knopf" damit verbunden. Arme Welt. Warten wir ab wie dumm die Menschheit sich noch weiter selbst macht
Ähnliche Themen
-
[Java] PopupParser - "Definitionen"/"Daten" verstanden, parser aber nicht (Beispiele)
Von Bubble Gum im Forum Reverse EngineeringAntworten: 5Letzter Beitrag: 25.04.2018, 19:13 -
Muss "Gefahr im Verzug" bewiesen werden?
Von Dose im Forum Recht- und VerbraucherschutzAntworten: 4Letzter Beitrag: 16.01.2016, 11:59 -
Informationsfreiheitsgesetz wird wegen "Gefahr für die innere Sicherheit" umgangen?
Von Gameboy9 im Forum Politik & UmweltAntworten: 1Letzter Beitrag: 28.08.2015, 09:32 -
Kinder in "Gefahr"
Von Jokuu im Forum RealLife NewsAntworten: 5Letzter Beitrag: 19.08.2014, 21:42 -
"Wer ist online" & "Forum-Mitarbeiter" stimmen nicht überein
Von Devon im Forum SupportAntworten: 2Letzter Beitrag: 29.09.2012, 15:24
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.