In die Richtung geht es. Sicher gibt es bei klassischer Software auch mal Fehler, die nicht nachvollziehbar erscheinen. In aller Regel liegt das daran, weil das Problem noch nicht verstanden wurde - etwa in einem komplexen Stack. Jeder Entwickler kennt das: Anfangs versteht man nicht, wieso etwas nicht funktioniert. Bei der genaueren Analyse fragt man sich, wie das jemals funktioniert hat, weil schwere Probleme entdeckt wurden. Der wesentliche Unterschied ist allerdings: Programmcode lässt sich verstehen. Es mag bei komplexeren Dingen länger dauern, aber es ist möglich. Bei "KI" sind wir in Dimensionen, die keiner mehr versteht. Und die sich auch nur schwer bis gar nicht analysieren lassen, weil sie eben nicht reproduzierbar sind. Verhält sich mein Programm falsch, debugge ich das und finde das Problem. LLMs wird 3x die gleiche Frage mit jeweils unterschiedlichen Antworten gestellt. Als Bonus merkt sich ChatGPT nun den Verlauf, d.H. noch mehr Möglichkeiten.

Bei Radikal & Extrem liegt das Problem genau darin. Daher kann ich nicht nachvollziehen, wieso das nicht im Politikunterricht zum Pflichtteil an Schulen gehört. Es macht einen essenziellen Unterschied, ob wir von radikalen sprechen, die tiefer gehende Veränderungen wollen - aber sich auf dem legalen Boden unserer rechtsstaatlich geschützten Verfassung bewegen. Oder von Extremisten, die den Staat stürzen wollen. In Zeiten zunehmender Verschiebung nach rechts ist der Unterschied um so wichtiger. Da werden teils Positionen als links bis linksradikal angesehen, die früher in der politischen Mitte lagen.