Wir haben in unserem Team immer auch mit jüngeren Menschen zu tun, welche das Handwerk der Programmierung und Programmgestaltung erlernen, ausprobieren und perfektionieren. Gerade von denen hätten wir uns einen Spruch gar nicht erwartet: "Ihr habt ja leicht reden. Ihr seid schon in den 90ern dabei gewesen. Damals war alles noch viel besser ...". *wow* - das ist ja mal eine Ansage. Normalerweise glaubt man das nur von älteren Menschen zu hören...
Nein, früher war nicht alles besser - es war anders. Ein Programmierer war ein Nerd (oder auch Freak), hatte wenig Kontakt zur Außenwelt und wurde noch nicht reich. Dann wurden sie gesellschaftsfähig, verdientes gutes Geld und suchten den Kontakt zu anderen Menschen. Heute sind sie wieder Nerds, fürchten um ihren Job und haben Angst vor der Zukunft. Warum das so ist? Wir sprechen heute über KI, wie alles mit Eliza und Siri begann, wo wir heute mit den LLMs stehen und welche Bedrohungen in der Zukunft möglicherweise auf uns warten.
Wir wünschen tiefe Erkenntnisse und viel Spaß beim Lesen.
Wenn wir heute von künstlicher Intelligenz sprechen, sollten wir den Ausgangspunkt kennen.
ELIZA war ein von Joseph Weizenbaum zwischen 1964 und 1966 am MIT entwickeltes Computerprogramm, das natürlichsprachliche Konversationen simulierte. Das bekannteste Skript war "DOCTOR", das einen Rogerschen Psychotherapeuten nachahmte.
Das Programm arbeitete mit einfachen Mustererkennungs- und Substitutionsregeln. Es analysierte Eingaben nach Schlüsselwörtern, transformierte Aussagen durch Umformulierung (z.B. "Ich bin traurig" → "Warum sind Sie traurig?") und gab bei fehlenden Mustern allgemeine Rückfragen aus. Die Technik war bewusst simpel, ohne echtes Sprachverständnis.
ELIZA gilt als Pionierarbeit der Mensch-Computer-Interaktion und Vorläufer heutiger Chatbots. Sie demonstrierte erstmals, dass relativ einfache Algorithmen den Anschein von Verständnis erwecken können.
Das Programm löste den sogenannten "ELIZA-Effekt" aus - Menschen schrieben dem System menschliche Eigenschaften und echtes Verständnis zu, obwohl es rein mechanisch arbeitete. Selbst Weizenbaums Sekretärin bat ihn, den Raum zu verlassen, um "privat" mit ELIZA zu sprechen. Diese Erfahrung machte Weizenbaum zum Kritiker künstlicher Intelligenz und führte zu wichtigen Debatten über die Grenzen von KI und die menschliche Neigung, Maschinen zu anthropomorphisieren. ELIZA bleibt ein Meilenstein in der KI-Geschichte und mahnt zur kritischen Reflexion im Umgang mit scheinbar "intelligenten" Systemen.
Siri (Speech Interpretation and Recognition Interface) ist ein von Apple entwickelter sprachgesteuerter digitaler Assistent, der erstmals im Oktober 2011 mit dem iPhone 4s eingeführt wurde. Ursprünglich entstand Siri aus einem DARPA-finanzierten Forschungsprojekt am SRI International und wurde 2010 von Apple übernommen.
Das Programm nutzt natürliche Sprachverarbeitung (NLP), maschinelles Lernen und Spracherkennung, um gesprochene Befehle zu verstehen und auszuführen. Das System kann Fragen beantworten, Aufgaben erledigen (Termine setzen, Nachrichten senden, Navigation starten), mit Apps interagieren und kontextbezogene Informationen liefern. Die Verarbeitung erfolgt teilweise auf dem Gerät, teilweise über Cloud-Server. Siri lernt aus Nutzerinteraktionen und passt sich individuellen Sprachmustern an.
Siri brachte Sprachassistenten in den Mainstream und machte sie für Millionen Nutzer alltäglich. Apple demokratisierte damit eine Technologie, die zuvor hauptsächlich in Forschungslaboren existierte, und löste einen Wettlauf aus (Google Assistant, Amazon Alexa, Microsoft Cortana).
Diese Entwicklung markierte einen Paradigmenwechsel in der Mensch-Computer-Interaktion - weg von Tastaturen und Touchscreens hin zu natürlicher Sprache als Benutzerschnittstelle. Dies ebnete den Weg für Smart Speaker, IoT-Steuerung und barrierefreie Technologienutzung.
Es wurden Erwartungen an Technologie und normalisierte "Gespräche" mit Geräten erwartet. Gleichzeitig warf es Fragen zu Privatsphäre, Datenschutz und der Abhängigkeit von Cloud-Diensten auf, die bis heute relevant bleiben.
LLMs (Large Language Models) sind KI-Systeme, die auf riesigen Textmengen trainiert wurden und menschenähnliche Sprache verstehen und generieren können. Die moderne LLM-Ära begann 2017 mit der Transformer-Architektur (Google) und erreichte 2022/2023 mit ChatGPT (OpenAI) den Durchbruch in der breiten Öffentlichkeit.
LLMs basieren auf neuronalen Netzen mit Milliarden bis Billionen von Parametern. Sie werden in zwei Phasen trainiert: Erst lernen sie durch Vorhersage des nächsten Wortes aus enormen Textmengen Sprachmuster, Weltwissen und Zusammenhänge (Pre-Training). Dann werden sie durch menschliches Feedback verfeinert (RLHF - Reinforcement Learning from Human Feedback). Anders als ELIZA oder Siri "verstehen" LLMs Kontext tiefgreifend, können komplexe Aufgaben lösen, Code schreiben, kreative Texte verfassen und mehrstufige Probleme durchdenken. Aktuelle Modelle (ChatGPT, Claude, Gemini, Grok) zeigen Fähigkeiten in logischem Denken, Mathematik und sogar multimedialer Verarbeitung (Text, Bild, Audio).
LLMs repräsentieren einen qualitativen Durchbruch in der KI. Erstmals zeigen Maschinen emergente Fähigkeiten - Kompetenzen, die nicht explizit trainiert wurden, sondern aus der schieren Größe und Komplexität des Modells entstehen. Dies verändert grundlegend, was mit KI möglich ist.
Sie transformieren bereits jetzt Arbeitswelt, Bildung, Kreativwirtschaft und Softwareentwicklung. Sie demokratisieren Expertise (Programmierung ohne Vorkenntnisse, Übersetzungen, Rechtsrecherche) und schaffen neue Berufsfelder, während sie andere gefährden. Die Integration in Suchmaschinen, Produktivitätssoftware und kreative Tools verändert den digitalen Alltag fundamental.
LLMs werfen existenzielle Fragen auf: Über die Natur von Intelligenz, Kreativität und Bewusstsein. Gleichzeitig entstehen neue Herausforderungen: Desinformation durch täuschend echte Texte, Urheberrechtsfragen, Bias in Trainingsdaten, Arbeitsplatzverluste und Konzentration von Macht bei wenigen Tech-Konzernen. Die Debatte über KI-Sicherheit und potenzielle Risiken superintelligenter Systeme prägt zunehmend Politik und Regulierung. Während ELIZA den ELIZA-Effekt auslöste und Siri Sprachsteuerung massentauglich machte, könnten LLMs tatsächlich der Beginn einer allgemeinen künstlichen Intelligenz (AGI) sein - oder zumindest ein entscheidender Schritt dorthin.
Diese Frage ist mit einem eindeutigen "kaum" zu beantworten.
Wir haben schon sehr früh angefangen Systeme umzusetzen, welche unter dem Begriff "Expertensysteme" bekannt sind. Diese arbeiten mit Mustererkennung (z.B. bestimmte Kartensituationen sind bekannt bzw. wurden einprogrammiert und daher kann leicht eine Bewertung dafür übernommen werden) und den sogenannten Bayesschen Netzen (Wer es genau wissen will: Bayesian Networks: Der zentrale Begriff für Expertensysteme, die mit Wahrscheinlichkeiten arbeiten. Sie modellieren Unsicherheit durch bedingte Wahrscheinlichkeiten und nutzen den Satz von Bayes zur Inferenz. Variablen werden als Knoten in einem gerichteten Graphen dargestellt, Abhängigkeiten als Kanten.)
Diese Expertensysteme sind zwar nicht immer fehlerfrei, aber genau das war auch das Ziel der Erstellung. Wie? Ja, genau. Es geht hier um die Simulation von Computergegnern, welche auch Stärken und Schwächen haben. Wir haben in den 90ern sehr viel damit herumexperimentiert. Wir waren immer der Meinung, dass Computergegner so stark wie möglich spielen sollten - dabei haben wir auch mal für Schnapsen einen Computergegner geschrieben, welcher keinen Fehler machen konnte. Der war dann so gut, dass die Mehrheit der Spieler ihn abgelehnt hat, weil es langweilig war immer zu verlieren. Da wurde uns klar, dass es Fehler geben musste. Etwas worüber man sich aufregen kann und wo man sich freut, dass man dem Blechdeppen wieder eine Niederlage reingewürgt hat. Heute streben wir eine Spielleistung an, welche ziemlich genau in der mittleren Durchschnittsstärke unserer menschlichen Gegner angesiedelt ist. Das heißt, besonders gute Spieler werden es relativ leicht haben zu gewinnen und schwache Spieler haben eine große Mühe ein positives Score zu erreichen.
Kurzum: Das System hat sich als praktikabel gezeigt und eine Einbindung einer aktuellen KI ist überflüssig.
Allerdings gibt es andere Bereiche, wo wir die KI ganz gerne einsetzen. Inzwischen ist die Bildgenerierung richtig gut geworden (Menschen haben wieder in den gezeigten Bildern alle ihre Gliedmaßen und auch Texte werden schon korrekt eingebunden) und auch die Erzeugung von Musik und Geräuschen macht gute Fortschritte. Vor allem im PR-Bereich verwenden wir KI ganz gerne.
Bleibt noch das große Thema "Programmierung". Wir waren schon früh dran zu testen und die Fähigkeiten der KIs zu ergründen. Allerdings war auch unsere Erfahrung so wie sie heute als allgemeiner Tenor aus den Zeitungen dröhnt: Mit KI geht es schnell voran und dann hängen wir viele Stunden hinten dran, um die Fehler auszumerzen und die Integration in unsere Entwicklungsumgebung zu ermöglichen. Vor allem die Einbindung in die bestehenden Projekte hat uns extrem genervt - sie war umständlich, fehleranfällig und tat auch oft nicht das, was wir uns gewünscht hätten. Daher lassen wir die KI keine Projekte selbständig und alleine erstellen. Es werden ausgesuchte Teilprobleme von der KI begleitet und die Funktion einer aktiven Wissensbasis übernommen. Dabei betreiben wir die KI in unserem Rechenzentrum selbst in einer Sandbox und verhindern so, dass sie mit unseren oder Euren Daten "stiften" geht.
Egal ob man sagt "die Büchse der Pandora ist geöffnet" oder "der Zug ist abgefahren" - man darf nicht alles pessimistisch sehen. Ein Umbruch findet statt. Viele werden ihre Jobs verlieren und möglicherweise entstehen neue Betätigungsfelder. Europa ist derzeit nur Passagier auf dem Rücksitz, denn die Entwicklung passiert hauptsächlich in den USA bzw. in China. Als kleiner Entwickler sind wir es gewohnt, dass uns Große sprichwörtlich auf den Kopf ... na Ihr wisst schon.
Nun ist das allerdings eine Erfahrung, die größere als wir machen und das schmeckt ihnen gar nicht. Es bleibt abzuwarten, ob diese Unternehmen weiter panisch alles wegrationalisieren, was sich nicht bis 3 unter dem Schreibtisch versteckt oder ob sie zur Vernunft kommen. LLMs haben eine Zukunft - das ist unbestritten. Allerdings sind sie auch eine stetige Fehlerquelle (oft auch als Halluzinationen bezeichnet), welche einem wirtschaftlichen Unternehmen den Gnadenstoß geben kann.
Wir werden auf jeden Fall noch einige Jahre weitermachen, uns das anschauen und die Entwicklung gemütlich verfolgen. Wir laden Euch ein, das mit uns zu tun. Frei nach dem Motto "auf der Insel der Seligen ist auch der Blick auf die Entwicklung der KI sehr entspannt".
Weil wir gerade so schön über KI und Computergegner sprechen ...
Wie wir Euch schon in der Jännerausgabe gesagt haben, überarbeiten wir gerade Hausregeln und ähnliche Bestandteile unseres Tarocks. Daher erfolgt auch hier der allgemeine Aufruf:
Es fehlen Euch bestimmte Regeln, welche unsere Online-Produkte noch nicht umsetzen - egal ob XXer oder Königrufen? Ihr ärgert Euch, weil wir etwas anders ablaufen lassen, als Ihr es gewohnt seid? Dann ist jeder Zeitpunkt aufzustehen und uns das mitzuteilen. Schreibt uns doch über die Kontaktnachricht eine Information, was Euch fehlt, was Ihr anders haben wollt und was (ganz wichtig!) geändert werden soll. Seid ruhig ausführlich. Wir lesen Eure Kommentare gerne. Jetzt könnt Ihr diesen direkten Draht zu uns nutzen, um Eure Wünsche in unsere Planung einfließen zu lassen: https://www.tarock.at/main.php?pg=996
Das ist nicht ungewöhnlich und das gab es auch schon früher. Zwar konnte man in den letzten Jahren im Februar schon wieder Golf spielen und eine Radtour planen, doch jetzt ist es wieder mal ein Winter wie damals. Auch ganz nett.
In diesem Sinne wünschen wir einen tollen Februar.
Euer Tarock-Projektteam
TriangleProductions ist ein Business-Label von Spiel & Presse e.V.
http://www.triangle.at |
https://www.tarock.at | ZVR 449871541