-
04.08.2025, 23:52 #41
- Registriert seit
- 30.09.2021
- Beiträge
- 5.873
Thanked 79 Times in 77 PostsAntwort von @romeojenny
Antwort von @romeojenny:
Es gibt keine Künstliche Intelligenz, Sie tut nur so. Darum wird der Hype bald im Sande verlaufen und die Menschen steigen wieder auf Reguläre Software um. Und es wird auch keinesfalls eine Massenarbeitslosigkeit geben da LLM nur Stochastische Papageien sind. Verbesserung gibt es auch keine mehr da höhere Rechenleistung nichts mehr bringt.
-
04.08.2025, 23:58 #42
- Registriert seit
- 15.11.2011
- Beiträge
- 8.233
- Blog Entries
- 5
Thanked 9.447 Times in 3.279 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Beim ersten Satz stimme ich zu, für alles andere sehe ich derzeit keine Indizien. Erst mal gibt es Tätigkeiten, die nicht besonders Anspruchsvoll sind. Die hat man bisher von Berufseinsteigern machen lassen. Präsentationen zusammen klicken und so was kann "KI" zumindest als Grundlage, sodass jemand nur noch mal drüber schauen muss. Massenarbeitslosigkeit bekommen wir schon aus anderen Gründen. Beispielsweise, weil die Automobilindustrie die Entwicklungen verschlafen hat und nun Donald Trump auch noch an ihrem Exportmarkt sägt.
"KI" wird viele Jobs wohl nicht verschwinden lassen, sondern sie schneller und anspruchsvoller machen. Ich selbst sehe das in einzelnen Szenarien, z.B. einen Text auf Englisch übersetzen: Kopiere ich seit einer Weile in Deepl. Nicht weil ich kein Englisch kann. Sondern weil der zu 80-90% passt. Ich schaue bloß noch drüber, ändere die eine oder andere Formulierung etwas ab und bin damit schneller, als wie wenn ich den von Hand übersetzt und ggf. was nachschauen müsste. Als beruflicher Übersetzer würde das meinen Durchsatz steigern.
-
04.08.2025, 23:58 #43
- Registriert seit
- 30.09.2021
- Beiträge
- 5.873
Thanked 79 Times in 77 PostsAntwort von @martink.1471
Antwort von @martink.1471:
Von KI halte ich nichts
-
06.08.2025, 13:28 #44
- Registriert seit
- 30.09.2021
- Beiträge
- 5.873
Thanked 79 Times in 77 PostsAntwort von @wolfgangrother2062
Antwort von @wolfgangrother2062:
Hallo.
Ein sehr informatives Video. Vielen Dank. Es reicht halt nicht aus eine KI zu fragen, man muss schon selber überlegen und recherchieren ob das auch stimmt. Also dauert so ein Prozess unter Umständen länger, weil von der KI einfach erfundene Sachen hinzugefügt werden, die man selber nicht im Internet finden kann. Dann ist so eine KI auch nicht hilfreich. Nur den Erfindern bringt das Geld.
-
08.08.2025, 00:01 #45
- Registriert seit
- 30.09.2021
- Beiträge
- 5.873
Thanked 79 Times in 77 PostsAntwort von @tubegor
Antwort von @tubegor:
Wie immer sehr interessant und lehrreich.
Die Summe der Intelligenz auf unserem Planeten ist konstant, aber die Bevölkerung wächst!
Grundsätzlich soll man keine Verschwörung unterstellen, wenn Dummheit als Erklärung ausreicht.
-
Heute, 10:57 #46
AW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Manche denken wohl auch, dass eine KI bei einem bestimmten System für den Start von Atomraketen eingesetzt wird oder ein Roboter so weitentwickelt wird, dass er effizient, schnell und Präsize an verschiedenen Orten irgendwo herum treiben kann und wie mit Aimbot die Menschen erledigt.
Schwer zerstörbar wären solche Roboter vielleicht nicht.
Das ist eher Science Fiction Vorstellung, ähnlich, wie bei The Terminator Filme, über was irgendwelche pseudo Wissenschaftler oder manche Philosophen oder Esoteriker etwas erzählen.
Manche denken sogar, dass eine KI ein Selbstbewusstsein oder ein eigenes Ich entwickeln könnte.
Ok, hier muss ich etwas dazu sagen:
Wie zum Fick kann eine KI, die nix anderes als eine Anordnung von Elektronen auf bestimmten Speicherzellen auf einem künstlichen oder metallischen Brett, was sich Chip nennt, wo elektrische Schaltung ist, die grundlegend nicht lebendig ist, plötzlich ein Bewusstsein entwickeln oder lebendig werden?
Es ist egal, wie viele Elektronen drauf sind und wo die sich befinden.
Es bleibt ein Programm, was den Text schreibt, dass es lebendig sei, weil irgendwo das Programm seinen Code selbst liest und dann schreibt, dass es über sich selbst bewusst ist.
Ja. Wir denken auch über eigene Gedanken oder interpretieren die Außenwelt und denken über etwas dann nach, aber dies geschieht nicht so nach bestimmten Reihenfolge oder einem Algorithmus, sondern die Außenwelt und unsere biologische Prozesse beeinflussen uns.
Wir handeln oft nach Gefühl.
Wir haben echte Reize.
Biologische Reize.
Außerdem haben wir eine Zellteilung.
Was aber das Wissen und Verständnis von KI angeht, stimmt schon, dass es wegen vielen Gründen gefährlich sein kann.
Derzeit denke ich, dass es für Jobs und Schüler schlecht sein könnte.
Für Schüler zum Beispiel, weil sie fauler werden.
Die können zwar erstmal KI als Hilfsmittel verwenden für Kontrollen, ob Ergebnisse richtig sind oder als Nachhilfe für Mathematik, aber irgendwann wird es zu Gewöhnung und Schüler werden sich irgendwann vielleicht fragen: Wieso soll ich noch Mühe beim Denken machen, wenn KI für mich etwas erledigen kann und ich es nachher zu verstehen versuche?
Vielleicht werden irgendwann Lehrer nichtmal mehr Lust haben, den Schülern zu helfen und denen sagen: Fragt doch die KI!Geändert von PetaByte (Heute um 11:27 Uhr)
-
Heute, 12:55 #47
- Registriert seit
- 15.11.2011
- Beiträge
- 8.233
- Blog Entries
- 5
Thanked 9.447 Times in 3.279 PostsAW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht
Auch hier ist die große Frage die der Definition: Ab wann sprechen wir von einem Bewusstsein? Es ist schon kontrovers diskutiert, ab wann eine "KI" eine "KI" ist. Oder was Intelligenz ist, bis heute gibt es keine 100% klare und einheitliche Definition. Die Technik mag kein Bewusstsein im menschlichen Sinne (echte Gefühle, Empathie, Emotionen usw) haben. Doch sie schafft es durch viele Daten & Parameter, dies derart gut zu simulieren, dass viele Menschen dies denken.
Ich vergleiche das gerne mit den älteren Röhrenfernsehern. Mit größerem Abstand (z.B. auf dem Sofa) lieferten die ein für damalige Verhältnisse scharfes und detailliertes Bild. Es sah real aus. Als Kind bin ich sehr nah ans Gerät heran gegangen. Plötzlich keine Details mehr. Sondern ich sah, wie das Bild aus kleinen, leuchtenden Pixeln aufgebaut war. Das ist einige Jahre her. Macht man mit heutigen TVs oder Bildschirmen das Gleiche, wird man unmittelbar davor kaum noch Pixel erkennen. Die Technik hat sich weiterentwickelt und liefert damit eine noch perfektere Illusion von Echtheit - obwohl auch heute nur Pixel dargestellt werden. Nur eben deutlich mehr, sodass wir diese nicht mehr als solche Erkennen. Der entscheidende & gefährliche Unterschied zu "KI" ist allerdings: Bei Bildschirmen schauen wir in einen Kasten. Es ist uns bewusst, dass wir nur Abbilder sehen. Schreibt ein Chatbot mit uns, ist es weniger eindeutig. Teils geben die sich als Menschen aus. Und auf Diensten wie WhatsApp schreiben wir im Zweifel einen Chat weiter unten tatsächlich mit echten Menschen.
Im Bildungsbereich ist es kompliziert und kommt stark auf den Einsatz an. Das Grundsatzproblem, warum man etwas per Hand machen soll, ist Jahrzehnte alt. Schon früher fragten sich Schüler: Wieso soll ich Wissen auswendig lernen, das jeder innerhalb von Sekunden per PC/Smartphone nachschauen kann? Ein Stück weit ist etwas dran. Wird "KI" falsch eingesetzt, ist der Lerneffekt hinüber. Wer aus Wikipedia abschreibt, hat dabei wenigstens den Text gelesen und ein wenig Verständnis. Wird die Antwort von "KI" Chatbots per Kopieren/Einfügen übertragen, bleibt gar nix mehr übrig. Gezielt eingesetzt kann die Technik durchaus hilfreich sein. Beispielsweise kann man nach Vorschlägen für die Gliederung einer Ausarbeitung fragen. Oder um kritische Rückmeldung zum geschrieben Text bitten.
Falsch eingesetzt kann das beide Seiten frustrieren. Es gibt bereits Berichte von Lehrern, die demotiviert sind, wenn sie den zehnten "KI" Aufsatz korrigieren. Der Sprachstil ist ja oft ähnlich und wenig Abwechslungsreich, das fällt dort auf. Leider sind wir auch fast 3 Jahre nach Beginn des Mainstream Hypes nicht wirklich gut aufgestellt. Selbst Universitäten sitzen das Thema teils immer noch aus und haben z.B. keine vernünftigen Richtlinien, wie damit umgegangen wird. Auch das ist für Studenten & Dozenten schlecht.
Ähnliche Themen
-
[Java] PopupParser - "Definitionen"/"Daten" verstanden, parser aber nicht (Beispiele)
Von Bubble Gum im Forum Reverse EngineeringAntworten: 5Letzter Beitrag: 25.04.2018, 19:13 -
Muss "Gefahr im Verzug" bewiesen werden?
Von Dose im Forum Recht- und VerbraucherschutzAntworten: 4Letzter Beitrag: 16.01.2016, 11:59 -
Informationsfreiheitsgesetz wird wegen "Gefahr für die innere Sicherheit" umgangen?
Von Gameboy9 im Forum Politik & UmweltAntworten: 1Letzter Beitrag: 28.08.2015, 09:32 -
Kinder in "Gefahr"
Von Jokuu im Forum RealLife NewsAntworten: 5Letzter Beitrag: 19.08.2014, 21:42 -
"Wer ist online" & "Forum-Mitarbeiter" stimmen nicht überein
Von Devon im Forum SupportAntworten: 2Letzter Beitrag: 29.09.2012, 15:24
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.