Darkfield (Gestern)
-
08.06.2025, 14:00 #11
- Registriert seit
- 15.11.2011
- Beiträge
- 8.041
- Blog Entries
- 5
Thanked 9.397 Times in 3.233 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Ich denke nicht, dass denen diese Infos fehlen. Die haben weitaus mehr Ressourcen und lassen sich z.B. von Beratern informieren. Eine ganz andere Dimension als ein kleiner YouTube-Kanal, der sich die Themen nebenbei in der Freizeit anschaut. Es gibt mehrere Beispiele von Großkonzernen, die zeigen: Dort ist man aus Eigeninteresse einer der Ersten, der sich so was anschaut. Facebook/Meta hat seit zig Jahren Studien darüber, wie ihre kommerziellen Sozialen Netzwerke Demokratien, Kinder usw. gefährden. Selbst die Tabaklobby weiß seit den 1960er Jahren über die Tödliche Gefahr ihrer Zigaretten. Auch Ölkonzerne haben bereits vor Jahrzehnten eigene Untersuchungen über den Klimawandel anstellen lassen. Deren Prognosen sind nah an den späteren real durchgeführten Messungen dran.
Alle drei Branchen haben ihre Erkenntnisse im Schreibtisch unter Verschluss gehalten, weil sie ihre Geschäftsmodelle bedrohen. Es geht jeweils um Milliardengewinne jedes Jahr. Damit konnten sie die Öffentlichkeit über Jahrzehnte täuschen. Die Tabakkonzerne z.B. wurden erst in den 1990er Jahren verklagt - und selbst danach ist ihr Geschäftsmodell nicht verboten worden. Ignorieren & Leugnen ist (leider) eine Taktik mit hohen Chancen auf Erfolg. Das kann man auch bei Donald Trump aktuell beobachten: Selbstbewusst wird der größte Unsinn behauptet und das kommt bei vielen Wählern gut an. Vor allem wenn er unangenehme Dinge leugnet, die viele lieber nicht sehen wollen. Daher funktionieren Light-Produkte, Abnehmspritzen usw so gut: Wir wollen bequem ein Produkt kaufen, dass unser Problem ganz einfach löst. Die Aussage von z.B. Ärzten für gesündere Ernährung & mehr Bewegung kommt hingegen weitaus schlechter an, obwohl es die vernünftigere ist.
Die entscheidende Frage wird sein: Wie gehen Medien & Bevölkerung damit um? Während wir von den Konzernen keine Hilfe zu erwarten brauchen (auch bei "KI" nicht - hatte ich ja im Video demonstriert), können wir deren PR-Aussagen kritisch unter die Lupe nehmen. Anschließend Handeln, etwa durch Boykott von deren Diensten. Zusätzlich am besten Druck auf die Politik ausüben, damit diese Geschäftspraktiken eingeschränkt oder unterbunden werden. Das ist kein Spring, als Marathon kann es allerdings funktionieren. Aktuelles Beispiel: In wenigen Wochen muss jedes in der EU verkaufte Smartphone mindestens mehrere Jahre nach Verkaufsende noch Software-Updates bereitstellen. Lange Zeit war das wilder Westen, wo die Hersteller den Markt mit Billiggeräten überschwemmten, die mangels Pflege bereits im Ladenregal veraltet waren. Wichtig ist, dran zu bleiben - nicht den Kopf in den Sand zu stecken. Genau das würde den Konzernen helfen. Was wünschen die sich mehr, als unbehelligt ohne Widerstand alles tun zu können, was für Geld & Macht nötig ist?
-
14.06.2025, 11:58 #12
- Registriert seit
- 30.09.2021
- Beiträge
- 5.503
Thanked 74 Times in 72 PostsAntwort von @ForcefighterX2
Antwort von @ForcefighterX2:
Besonders ironisch finde ich, dass KIs auch mit Nachrichten und Medien-Artikeln trainiert werden, die aber (wie hier korrekt benannt) selbst immer schlechtere Qualität abliefern. Vor allem hier in Deutschland wissen wir doch alle, dass quasi jeder politische Gegner - oder sogar nur der Nachbar, mit dem man sich streitet - sofort als rechts oder rechtsextrem bezeichnet wird.
Wenn man sich jetzt vorstellt, dass KIs auf solchen schlechten Daten auch noch trainiert werden, aber selbst eigene Fehler hinzufügen, dann kann man sich das Problem ungefähr vorstellen. Danach folgt jedoch der noch verrücktere Umstand, dass viele KIs wie DeepSeek nicht mehr auf echten Trainingsdaten trainiert werden, sondern auf dem (fehlerhaften und falschen) Output von anderen KIs, die selbst widerum auf (qualitativ schlechten) Medien-Artikeln und Internet-Posts basieren.
Wir haben also quasi eine Fehler- und Qualitätsverlust-Spirale, die andauernd weiter in die Tiefe stürzt.
-
14.06.2025, 12:09 #13
- Registriert seit
- 15.11.2011
- Beiträge
- 8.041
- Blog Entries
- 5
Thanked 9.397 Times in 3.233 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
So extrem ("quasi jeder") sehe ich das nicht. Wenngleich die inflationäre Verwendung ein Problem ist - das nimmt dem Begriff die Schärfe. Gesellschaftlich gesehen eine schlechte Entwicklung, weil der tatsächliche Rechtsextremismus stetig zunimmt. Aktuell haben wir wieder eine starke Zunahme und einen neuen Rekord an rechtsextremistischen Straftaten. Die werden verharmlost, wenn die Bezeichnung auch für Menschen außerhalb des Extremismus-Spektrums zum Einsatz kommt.
Ein klassisches Problem ist zudem die Verwechslung von Rechts und Rechtsextrem, analog zu Linksradikal und Linksextrem. Rechts und Linksradikal sind politische Einstellungen in Richtung der Ränder, die allerdings einen legitimen Platz haben. Sie stehen auf dem Boden der Verfassung. Extremismus tut es nicht mehr, weil Extremisten das System stürzen wollen. Daher ist es gefährlich, Radikale mit Extremisten gleich zu setzen, was bis heute immer mal wieder passiert.
Die angesprochenen Probleme der Trainingsdaten sind real. Ich finde es daher immer wieder mutig, wie Unternehmen auf "KI" Modelle mit proprietären Trainingsdaten setzen. Ohne Transparenz über die Daten kann man gar nicht seriös abschätzen, ob sie für einen bestimmten Zweck geeignet sind. Durch das gegenseitige Trainieren wird dieser Effekt noch schlimmer. Wird eine "KI" B auf Basis von "KI" A trainiert, kennt ja selbst der Urheber die Datenbasis nicht. Auch wenn er wollte, könnte er keine Auskunft darüber geben. Das scheint ein bequemer Weg, aber ich sehe das im Sinne von Stabilität, Transparenz & Zuverlässigkeit für eine Sackgasse. Das löst in der Hinsicht kein Problem und schafft neue.
-
15.06.2025, 18:26 #14
- Registriert seit
- 30.09.2021
- Beiträge
- 5.503
Thanked 74 Times in 72 PostsAntwort von @A.J.Globetrotter
Antwort von @A.J.Globetrotter:
anschaulich gutes beispiel ist auch das randvolle weinglas, wenn es noch funktioniert
-
15.06.2025, 18:29 #15
- Registriert seit
- 15.11.2011
- Beiträge
- 8.041
- Blog Entries
- 5
Thanked 9.397 Times in 3.233 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Ich habe es gerade 2x in jeweils neuen Konversationen getestet: Der Promt "Bitte generiere das Bild eines Weinglases, das randvoll mit Wein gefüllt ist" hat je ein Bild generiert, bei dem das Glas einmal komplett bis oben hin gefüllt war. Das zweite Bild ist nahezu komplett voll gewesen, schätzungsweise bis auf 2mm oben. Würde ich als korrekt durchgehen lassen. Ganz anders bei den Uhren, die eine bestimmte Uhrzeit aus dem Promt zeigen sollen.
-
19.06.2025, 12:54 #16
- Registriert seit
- 30.09.2021
- Beiträge
- 5.503
Thanked 74 Times in 72 PostsAntwort von @andyb.7520
Antwort von @andyb.7520:
Im Beitrag fehlt noch ein psychologischer Effekt. Es sprechen einsame Menschen mit Sprachmodellen und verlieren dadurch den Kontakt zu realen Menschen. KI widerspricht nicht und bleibt freundlich. META sammelt hier jetzt fleißig Daten. Damit kann man dann auch manipulieren - willkommen in der Metablase....
-
19.06.2025, 13:05 #17
- Registriert seit
- 15.11.2011
- Beiträge
- 8.041
- Blog Entries
- 5
Thanked 9.397 Times in 3.233 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Es gibt eine Reihe an weiteren Gefahren, die ich in diesem Beitrag bewusst nur Oberflächlich genannt oder ganz ausgeklammert habe. Um eine solche Sammlung ging es ja nicht. Bereits diese eine würde den Rahmen bei weitem sprengen. Erst mal wäre die Frage zu klären, in wie weit diese These stimmt. Wenn sich jemand einsam fühlt, hat die Person ja bereits (zu) wenig Kontakt zu Menschen. Oder es sind nicht die gewünschten, z.B. oberflächlich statt tief, freundschaftlich statt romantisch usw. Der erste Punkt ist also, ob das dadurch weiter abnimmt bzw. was passiert, wenn es gar nicht abnehmen kann. Oder ob es z.B. als Ergänzung dient. Welche Langzeitfolgen das hat, dürfte sich derzeit nur schwer abschätzen lassen. Wie vor Jahren bei den Kommerziellen Sozialen Netzwerken ist das ein großes Praxis-Experiment. Dort sehen wir mittlerweile, welche Vorteile das bietet und vor allem welche Schäden es angerichtet hat.
Selbst wenn sich Chatbots im Sozialen Kontext "nur" als eine Art zusätzlicher Freund einreihen, kann das unsere Soziale Interaktion verändern. Etwa durch den genannten fehlenden Widerspruch. Wenn du den von echten Menschen dagegen bekommst (was nicht unbedingt der Fall ist, je nach Personen), wäre eine Verlagerung zum Chatbot denkbar. Ähnlich zu kommerziellen Sozialen Netzwerken, wo manche Kritiker schlicht Blockieren und in ihrer unwidersprochenen Echo-Blase leben. Verstärkt wird es dadurch, dass die Glaubwürdigkeit solcher Chatbots derzeit hoch ist und teils Menschen überragt. All das wäre Stoff für mindestens einen eigenen Beitrag. Auch wenn sich manches derzeit noch nicht beantworten lässt, zumindest mit einem Lagebild, das erste Einschätzungen/Prognosen erlaubt.
-
20.06.2025, 23:48 #18
- Registriert seit
- 30.09.2021
- Beiträge
- 5.503
Thanked 74 Times in 72 PostsAntwort von @lexplain5982
Antwort von @lexplain5982:
So ein Quatsch das Problem sind eher Idioten. Sich über KI zu beschweren wäre so als würde man sich über Webstühle beschweren. Kostete Jobs aber Kleidung ist billig geworden. Die Technik ist dafür da der Menschen irgendwann nicht mehr arbeiten muss. Ich sehe nur das Problem daran dass die Menschheit dadurch dümmer wird.
-
20.06.2025, 23:58 #19
- Registriert seit
- 15.11.2011
- Beiträge
- 8.041
- Blog Entries
- 5
Thanked 9.397 Times in 3.233 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
"Quatsch" ist hier leider schon der Vergleich. Webstühle sind weitaus weniger komplex. Es lässt sich klar dokumentieren, wie sie funktionieren. Einen Mitarbeiter lernt man ein und er kann das Gerät sicher nutzen. Selbst ihn zu verstehen ist kein Hexenwerk. Kann der Nutzer "KI" LLMs verstehen? Nein, daran scheitern selbst die Betreiber. Es mangelt ja schon an Reproduzierbarkeit. Der Sinn von dem ganzen "KI" Zeug ist, durch maschinelles Lernen neue Probleme lösen zu können. Webstühle sind einer von vielen Beispielen, wie man vor "KI" gearbeitet hat: Maschinen bauen, die einen bestimmten Zweck ausführen können. Aber nicht mehr. Schon für leichte Abweichungen musste das Gerät händisch angepasst werden. Bei so einem Vergleich wurden die wesentlichen Merkmale und damit Grundlagen der Technologie nicht verstanden.
Beim Produktiven Einsatz werden wir noch massive Haftungsfragen bekommen. Grade klickt ja jeder einen "KI" Chatbot, weil es Hype ist. Es gibt schon etliche Fälle, in denen die katastrophalen Bullshit von sich gegeben haben. Ein großer Luxus-Autobauer etwa hat ein LLM, dass Autos für 1$ anbot. Zig Klagen wegen diverser Probleme laufen: Chatbots, die Teenager manipulativ in den Selbstmord getrieben haben. Die Liste könnte man noch wesentlich weiter führen. Dazu die ganzen Urheberrechtsfragen. OpenAI selbst musste schon vor längerem zugeben: Derzeit lässt sich kein legaler Chatbot bauen. Das was legal kostenfrei nutzbar ist, bietet zu wenig Daten als Grundlage. Alles Lizenzieren würde nicht nur OpenAIs Profite schmälern. Es wäre auch eine organisatorisch riesige Aufgabe, jede Webseite zu vergüten. Also nahm man die Abkürzung, begeht Urheberrechtsverletzungen und steht damit auf rechtlich wackeligen Beinen.
Das Ende der Lohnarbeit wäre wünschenswert, dafür bräuchten wir allerdings erst mal grundlegende Veränderungen in unserem Wirtschaftssystem. Derzeit kannst du das komplett knicken, weil die Angestellten von "KI" nicht persönlich profitieren. Schau dir dir ganzen Konzerne an, die Produktivitätserfolge melden. Salesforce beispielsweise sagt, 30% mehr Produktivität + höhere Qualität. Wo landen die? Bei Salfesforce. Die können entweder Mitarbeiter kündigen, weniger neue einstellen oder der MA bleibt und bekommt mehr Arbeit. Das klassische "wer schneller Arbeitet, bekommt als Dank noch mehr davon". Hier müssten mindestens die Gewerkschaften eine Beteiligung fordern, z.B. 4 Tage Woche bei vollem Lohnausgleich.
Und das ist nur die Spitze vom Eisberg. Die ganzen Chatbots wie ChatGPT & co. beantworten zunehmend einfache Fragen direkt. Der Nutzer muss also gar nicht auf die Webseiten abspringen, dessen Daten OpenAI (überwiegend ohne zu Bezahlen) verwendet. Bequem für die Nutzer, aber den Quellen brechen damit Einnahmen weg. Weniger Besucher heißt weniger Werbeeinnahmen, weniger Abos, weniger Verkäufe usw. Hier gibt es zwei Grundlegende Fragen, die mittel- bis langfristig die Zukunft des freien Internet bestimmen werden:
1. Wie überleben die Webseiten, denen dadurch die Besucher wegbrechen?
2. Wie stellen Chatbots sicher, dass ihnen auf Dauer nicht die Daten wegbrechen?
Für #2 ist derzeit der Ansatz, sich bei kommerziellen Sozialen Netzwerken einzukaufen. Google z.B. zahlt dafür 60 Millionen US-Dollar pro Jahr an Reddit. Dafür bekommen die halt nur das, was Privatnutzer kostenfrei einkippen. Beispielsweise ironische Kommentare, Käse mit Kleber auf der Pizza zu befestigen. Unfähig den Inhalt zu verstehen, hat Googles "KI" das als Antwort auf entsprechende Nutzeranfragen geliefert. Das ist eine andere Datenqualität, als z.B. redaktionelle Artikel. Eine große investigative Recherche auf journalistischem Niveau wird man dort eher weniger erwarten können. Neue Daten wären damit zwar gesichert, aber eher die Quantität, als die Qualität. Tendenz wahrscheinlich weiter fallend. Hier entsteht ja ein Kreislauf: Fragen werden eher ChatGPT & co gestellt, als sie in Sozialen Netzwerken, Foren usw. zu posten. Stackoverflow hatte bereits starke Trafficeinbrüche und musste Mitarbeiter entlassen. Im Moment ist das relativ entspannt, weil die meisten Fragen im Web irgendwo schon mal gestellt wurden. In Zukunft für neues dürfte das weniger werden, so lange die Finanzierung nicht gesichert ist.
Bei #1 haben derzeit bestenfalls größere Seiten eine Chance, ihre Inhalte lizenziert zu verkaufen. Und selbst die sind einem Monopol ausgesetzt. Bisher hat man eine Webseite ins Internet gestellt, gefragte Inhalte bereitgestellt und bekam über Google Besucher. Reichweite ließ sich mit extrem geringen Kosten prinzipiell von jedem aufbauen. Das wird so leicht nicht mehr möglich sein, wenn Google zunehmend von ChatGPT abgelöst wird. Hierfür braucht es eine Lösung, oder das Web wird zukünftig weitaus einseitiger sein. Das wäre auf vielen Ebenen Fatal.
Dass Menschen durch "KI" dümmer werden, ist ein realistisches Szenario. Mit "nur" würde ich das nicht abtun, da steckt mehr dahinter. Chatbots sind keine verlässliche Informationsquelle, weil sie kein Verständnis haben und bloß Wahrscheinlichkeitsrechnung betreiben - das hatte ich im Beitrag erklärt. Um das zu bemerken, braucht man Kompetenz. Dieser Grundsatz galt auch schon vor "KI". Wenn ich kein Französisch kann, dann kann ich nicht beurteilen, ob jemand der Französisch spricht das auf einem hohen Niveau tut. Bestenfalls merke ich, ob das nach Französisch klingt, die Sprache ruhig ist usw. Aber ob die Wörter Sinn machen, Grammatik stimmt usw - keine Chance. Ähnliches Thema haben wir mit "KI", was besonders brisant ist, weil die Technik sehr gut darin ist, plausibel klingenden Bullshit zu generieren. Wenn man also alles von "KI" beantworten lässt, muss alles geprüft werden. Das werden viele nicht tun, weil es aufwändig und unbequem ist. Hatten wir ja abgeschwächt vorher schon mit unseriösen Aussagen. Also geht mit der Zeit die natürliche Intelligenz verloren bzw. wird bei jüngeren Generationen auf Dauer wohl gar nicht erst groß aufgebaut.
Wir hatten ein im oberflächlichen Kern ähnliches Problem bereits: Körperliche Arbeit wurde uns durch Maschinen und Lebensstil (Autos usw) abgenommen. Zeitgleich bequeme, leckere Ernährung mit Fast-Food. Als Ergebnis hat sich der Anteil stark Übergewichtiger Menschen seit 1990 mehr als verdoppelt. Im Altersbereich 5 bis 19 Jahre ist er gar 4x so hoch. Die WHO sieht das längst als Adipositas-Epidemie, weil es weltweit mehr als eine Milliarde Menschen betrifft. Das Problem ließe sich leicht mit Sport & gesünderer Ernährung lösen. Die meisten dürften das wissen, tun es aber nicht. Obwohl die Infos seit langem frei verfügbar sind. Für uns als Gesellschaft sind die Folgen massiv: Hohe Kosten für das Gesundheitssystem, gesunkene Lebenserwartung usw.
Mit "KI" könnten wir in einer ähnlichen Falle tappen. Nur noch gravierender, weil das nicht "nur" unser Gesundheitssystem belastet. Sondern nahezu sämtliche Bereiche unseres Lebens beeinflussen wird und das teils bereits tut. Wir stehen vor einer ähnlich gravierenden Veränderung, wie der industriellen Revolution. Und so wie es bisher aussieht, wird sich die Lage wie schon damals erst mal eine ganze Weile verschlechtern. Die letzte industrielle Revolution hat erst mal massive Ausbeutungen und Verwerfungen zur Folge gehabt. Erst über einen längeren Zeitraum haben sich die Arbeiter gewisse Rechte erkämpft. Ich bin gespannt, ob wir das mit "KI" schaffen. Besser wäre wesentlich schneller, weil die Schäden sonst enorm sein könnten. Ich hätte überhaupt nichts gegen eine Welt, in der wir wesentlich weniger oder gar keine Lohnarbeit mehr leisten müssten. Das kann aber nur klappen, wenn es politisch/gesellschaftlich organisiert ist und Druck gemacht wird. Die Konzerne geben ihre gesparten Ressourcen nicht freiwillig an die Mitarbeiter ab, so funktioniert Kapitalismus nicht. Deren Interesse ist es, damit Kosten zu reduzieren und Gewinne zu steigern. Ohne Proteste und Druck hätten wir bis heute keine flächendeckende 40h Woche, Arbeitsschutzmaßnahmen, Mindestlohn usw.
-
The Following User Says Thank You to DMW007 For This Useful Post:
-
Gestern, 18:11 #20
- Registriert seit
- 30.09.2021
- Beiträge
- 5.503
Thanked 74 Times in 72 PostsAntwort von @daCount0
Antwort von @daCount0:
Man assoziert mit Computern halt genaue Berechnungen. Mit KI führt man durch die Einführung von Statistik und dem Training mit "menschlichen Texten" quasi eine sehr unklare Geschichte ein ( und dann wie gesagt "Black box" das Modell).
Btw. ist der Begriff Rechtsradikal und Extrem ja auch so eine Begrifflichkeit, die viele Gemeinsamkeiten hat und nur durch die Definition, welch glaub ich nur wenigen (Spezialisten) bekannt ist und dann richtig verwendet wird.
Ähnliche Themen
-
[Java] PopupParser - "Definitionen"/"Daten" verstanden, parser aber nicht (Beispiele)
Von Bubble Gum im Forum Reverse EngineeringAntworten: 5Letzter Beitrag: 25.04.2018, 19:13 -
Muss "Gefahr im Verzug" bewiesen werden?
Von Dose im Forum Recht- und VerbraucherschutzAntworten: 4Letzter Beitrag: 16.01.2016, 11:59 -
Informationsfreiheitsgesetz wird wegen "Gefahr für die innere Sicherheit" umgangen?
Von Gameboy9 im Forum Politik & UmweltAntworten: 1Letzter Beitrag: 28.08.2015, 09:32 -
Kinder in "Gefahr"
Von Jokuu im Forum RealLife NewsAntworten: 5Letzter Beitrag: 19.08.2014, 21:42 -
"Wer ist online" & "Forum-Mitarbeiter" stimmen nicht überein
Von Devon im Forum SupportAntworten: 2Letzter Beitrag: 29.09.2012, 15:24
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.