Seit ChatGPT scheint generative Künstliche Intelligenz (K.I.) in aller Munde, dabei gibt es zahlreiche Large Language Models (LLMs), die allesamt auf dem Prinzip der natürlichen Sprachverarbeitung (im englischen Original: Natural Language Processing) und der sogenannten Transformer-Architektur basieren, die 2017 erstmals von Google Brain und Google Research vorgestellt wurde.
Diese Transformer-Architektur hat den Prozess der natürlichen Sprachverarbeitung nicht nur maßgeblich verbessert, sondern ermöglicht es dem Computer Sprachen besser als bisher zu übersetzen, bereits vorhandene Texte detaillierter zu verstehen und sogar neue Texte zu generieren.
In diesem Vortrag begeben wir uns daher auf eine Art Spurensuche, beginnen bei dem generierten Text eines LLMs und verfolgen über einen Einblick in die Transformer-Architektur den Weg zurück in die tiefen neuronalen Netze der generativen KI, um Falschinforationen und sogar Halluzinationen von LLMs bezüglich Menschen und Gesellschaften aufzudecken.
Freut Euch auf einen Vortrag von Prof. Dr. Dennis Klinkhammer an der FOM Hochschule mit Fragerunde und K.I. zum Anfassen und Ausprobieren. Sie können ein neuronales Netz als Grundlage der K.I. vor Ort in die Hand nehmen und selbst trainieren.
Die Veranstaltung ist Teil der Reihe "Wissenschaft in Kölner Häusern".
Anmeldung unter: https://koelner-wissenschaftsrunde.de/kwr_termine/wie-generative-ki-lernt/