-
Gestern, 19:30 #61
- Registriert seit
- 15.11.2011
- Beiträge
- 8.298
- Blog Entries
- 5
Thanked 9.465 Times in 3.292 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Der Promt ist prinzipiell wichtig. Oft treffen Menschen gedankliche Annahmen, die sie dort nicht aufschreiben. Dadurch weist das generierte Ergebnis unbewusst ab.
Eine Quote von 94% korrekter Antworten halte ich in realistischen, breiten Messungen für völlig utopisch. "KI" hat kein Empfinden, was wahr ist. Dementsprechend sind die Quoten in Studien weitaus schlechter. Den Chatbot zu fragen, ob das stimmt, ist daher absurd. Das weiß der nicht und kann es gar nicht wissen. Diesen Job musst du selbst machen. Vermutlich kommt daher die viel zu hohe Quote an korrekten Antworten.
Chatbots sind nie darauf ausgelegt, Wahrheiten zu liefern. Sondern, möglichst immer eine plausibel aussehende Antwort auszugeben. Im Zweifel wird daher irgendwas herbei Halluziniert. Klingt auf den ersten Blick super. Beim genaueren Prüfen entpuppt es sich als Bullshit. Nicht umsonst wird ChatGPT auch als "Bullshit generator" bezeichnet.
Ähnliche Themen
-
[Java] PopupParser - "Definitionen"/"Daten" verstanden, parser aber nicht (Beispiele)
Von Bubble Gum im Forum Reverse EngineeringAntworten: 5Letzter Beitrag: 25.04.2018, 19:13 -
Muss "Gefahr im Verzug" bewiesen werden?
Von Dose im Forum Recht- und VerbraucherschutzAntworten: 4Letzter Beitrag: 16.01.2016, 11:59 -
Informationsfreiheitsgesetz wird wegen "Gefahr für die innere Sicherheit" umgangen?
Von Gameboy9 im Forum Politik & UmweltAntworten: 1Letzter Beitrag: 28.08.2015, 09:32 -
Kinder in "Gefahr"
Von Jokuu im Forum RealLife NewsAntworten: 5Letzter Beitrag: 19.08.2014, 21:42 -
"Wer ist online" & "Forum-Mitarbeiter" stimmen nicht überein
Von Devon im Forum SupportAntworten: 2Letzter Beitrag: 29.09.2012, 15:24
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.