Seite 3 von 3 Erste 123
  1. #21
    Avatar von DMW007
    Registriert seit
    15.11.2011
    Beiträge
    8.058
    Thanked 9.399 Times in 3.235 Posts
    Blog Entries
    5

    Standard AW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht

    In die Richtung geht es. Sicher gibt es bei klassischer Software auch mal Fehler, die nicht nachvollziehbar erscheinen. In aller Regel liegt das daran, weil das Problem noch nicht verstanden wurde - etwa in einem komplexen Stack. Jeder Entwickler kennt das: Anfangs versteht man nicht, wieso etwas nicht funktioniert. Bei der genaueren Analyse fragt man sich, wie das jemals funktioniert hat, weil schwere Probleme entdeckt wurden. Der wesentliche Unterschied ist allerdings: Programmcode lässt sich verstehen. Es mag bei komplexeren Dingen länger dauern, aber es ist möglich. Bei "KI" sind wir in Dimensionen, die keiner mehr versteht. Und die sich auch nur schwer bis gar nicht analysieren lassen, weil sie eben nicht reproduzierbar sind. Verhält sich mein Programm falsch, debugge ich das und finde das Problem. LLMs wird 3x die gleiche Frage mit jeweils unterschiedlichen Antworten gestellt. Als Bonus merkt sich ChatGPT nun den Verlauf, d.H. noch mehr Möglichkeiten.

    Bei Radikal & Extrem liegt das Problem genau darin. Daher kann ich nicht nachvollziehen, wieso das nicht im Politikunterricht zum Pflichtteil an Schulen gehört. Es macht einen essenziellen Unterschied, ob wir von radikalen sprechen, die tiefer gehende Veränderungen wollen - aber sich auf dem legalen Boden unserer rechtsstaatlich geschützten Verfassung bewegen. Oder von Extremisten, die den Staat stürzen wollen. In Zeiten zunehmender Verschiebung nach rechts ist der Unterschied um so wichtiger. Da werden teils Positionen als links bis linksradikal angesehen, die früher in der politischen Mitte lagen.


  2. #22
    Avatar von U-Labs YouTube
    Registriert seit
    30.09.2021
    Beiträge
    5.534
    Thanked 74 Times in 72 Posts

    Standard Antwort von @H-MF

    Antwort von @H-MF:
    "Interessant" wird es, wenn es einen Krieg, oder "Krieg" gibt zwischen KI und Mensch. Und zwar in der Form, wenn sich KI versteckt, oder eben sich KI "versteckt" und der Mensch ständig hinterher sein muss um das Versteckte wieder ans Licht zu holen. Denn ich denke, daß die KI diesen Krieg gewinnen wird, bzw. würde.

  3. #23
    Avatar von DMW007
    Registriert seit
    15.11.2011
    Beiträge
    8.058
    Thanked 9.399 Times in 3.235 Posts
    Blog Entries
    5

    Standard AW: Die schlimmste Gefahr von "KI": 73% kennen sie nicht

    Das ist sehr abstrakt. Wie das ausgeht, kommt sehr stark darauf an, unter welchen Umständen das stattfindet. Für Szenen wie in Filmen, wo eine "KI" das Raumschiff oder gar ganze Land abschaltet, bräuchte es weitaus mehr. Da fehlen ja noch komplett die ganzen Schnittstellen, um das auch nur theoretisch derart automatisiert bedienen zu können. Bislang wird die Technik als Unterstützung genutzt, d.H. Menschen haben weiterhin die Kontrolle. Selbst wenn es da zu einem ungewollten Ergebnis kommt, haben Menschen die Hand darüber. Ein simples Beispiel wäre: Die "KI" soll Klimawandel & Umweltzerstörung lösen. Vergisst man in dem Promt, dass der Mensch auch überleben sollte, könnte sie eine Abkürzung finden und den Mensch eliminieren - schließlich macht der den Planet kaputt. Hier fehlt aber eben die Infrastruktur, damit derartige Versehen tatsächlich Menschen bedrohen könnten.

    Um so was sorge ich mich weniger, als um die Auswirkungen auf die menschliche Intelligenz. Wesentlich realistischer sehe ich z.B. Deepfakes oder generell manipulative Beeinflussung. Gut klingende Phishing-Mails kann die Technik bereits ziemlich gut erstellen. Dazu relativ billig in einer hohen Masse. Wenn man sich anschaut, wie Facebook/Meta bereits Bürgerkriege und andere Konflikte entscheidend befeuert hat, ist mit "KI" weitaus mehr Schadpotenzial drin. Vor allem für Akteure, die bewusst z.B. einen Krieg provozieren will. Facebook wollte das nicht. Denen war Öl ins Feuer gießen schlicht als Kollateralschaden egal, wenn Nutzer dabei Facebook konsumieren und damit die Profite steigern. Beachtliche Schäden durch "KI" Missbrauch halte ich für weitaus wahrscheinlicher, bevor wir in irgendwelche Szenarien kommen, bei denen Menschen gegen eine mächtige "KI" kämpfen und sich die eigene Existenz sichern müssen.


Seite 3 von 3 Erste 123

Ähnliche Themen

  1. Antworten: 5
    Letzter Beitrag: 25.04.2018, 19:13
  2. Muss "Gefahr im Verzug" bewiesen werden?
    Von Dose im Forum Recht- und Verbraucherschutz
    Antworten: 4
    Letzter Beitrag: 16.01.2016, 11:59
  3. Antworten: 1
    Letzter Beitrag: 28.08.2015, 09:32
  4. Kinder in "Gefahr"
    Von Jokuu im Forum RealLife News
    Antworten: 5
    Letzter Beitrag: 19.08.2014, 21:42
  5. Antworten: 2
    Letzter Beitrag: 29.09.2012, 15:24
Diese Seite nutzt Cookies, um das Nutzererlebnis zu verbessern. Klicken Sie hier, um das Cookie-Tracking zu deaktivieren.