Sie sind hier:
KI, ChatGPT, Nvidia: Die unsichtbare Infrastruktur hinter künstlicher Intelligenz
Online-Kurs
Moderne KI-Modelle wie ChatGPT wirken auf den ersten Blick rein softwarebasiert – doch im Hintergrund ist eine enorme Menge spezialisierter Hardware im Einsatz. Dieser Kurs beleuchtet die technischen Grundlagen der Recheninfrastruktur, die große Sprachmodelle antreibt, und erklärt, warum leistungsstarke Chips – insbesondere GPUs – dabei eine zentrale Rolle spielen.
Behandelt werden unter anderem folgende Aspekte:
– Wie lässt sich Rechenleistung messen – und warum sind FLOPS dabei so entscheidend?
– Warum stehen Matrixoperationen im Zentrum des KI-Trainings?
– Wie ermöglichen spezialisierte Chips, etwa von Nvidia, das Training großer Modelle in vertretbarer Zeit?
– Was passiert beim Training eines Sprachmodells mit Milliarden Parametern im Hintergrund?
Am Beispiel von ChatGPT wird verständlich gemacht, wie Rechenzentren, GPUs und Cloud-Infrastruktur zusammenwirken, um generative KI in der Praxis nutzbar zu machen. Aktuelle Entwicklungen – etwa rund um den „DeepSeek-Moment“ – sowie Herausforderungen wie Ressourcenverbrauch, Energiebedarf und Chip-Knappheit werden ebenfalls diskutiert.
Die Veranstaltung wird gefördert durch das Bayerische Staatsministerium für Unterricht und Kultus.
Zusätzliche Informationen:
Dieser Online-Kurs findet mit Webex Meeting statt. Den Link mit den Zugangsdaten zum Kurs senden wir Ihnen einen Tag vor Kursbeginn per E-Mail zu. Bitte prüfen Sie auch Ihren Spam-Ordner, falls Sie keine E-Mail mit den Zugangsdaten erhalten.
Sie sind hier:
KI, ChatGPT, Nvidia: Die unsichtbare Infrastruktur hinter künstlicher Intelligenz
Online-Kurs
Moderne KI-Modelle wie ChatGPT wirken auf den ersten Blick rein softwarebasiert – doch im Hintergrund ist eine enorme Menge spezialisierter Hardware im Einsatz. Dieser Kurs beleuchtet die technischen Grundlagen der Recheninfrastruktur, die große Sprachmodelle antreibt, und erklärt, warum leistungsstarke Chips – insbesondere GPUs – dabei eine zentrale Rolle spielen.
Behandelt werden unter anderem folgende Aspekte:
– Wie lässt sich Rechenleistung messen – und warum sind FLOPS dabei so entscheidend?
– Warum stehen Matrixoperationen im Zentrum des KI-Trainings?
– Wie ermöglichen spezialisierte Chips, etwa von Nvidia, das Training großer Modelle in vertretbarer Zeit?
– Was passiert beim Training eines Sprachmodells mit Milliarden Parametern im Hintergrund?
Am Beispiel von ChatGPT wird verständlich gemacht, wie Rechenzentren, GPUs und Cloud-Infrastruktur zusammenwirken, um generative KI in der Praxis nutzbar zu machen. Aktuelle Entwicklungen – etwa rund um den „DeepSeek-Moment“ – sowie Herausforderungen wie Ressourcenverbrauch, Energiebedarf und Chip-Knappheit werden ebenfalls diskutiert.
Die Veranstaltung wird gefördert durch das Bayerische Staatsministerium für Unterricht und Kultus.
Zusätzliche Informationen:
Dieser Online-Kurs findet mit Webex Meeting statt. Den Link mit den Zugangsdaten zum Kurs senden wir Ihnen einen Tag vor Kursbeginn per E-Mail zu. Bitte prüfen Sie auch Ihren Spam-Ordner, falls Sie keine E-Mail mit den Zugangsdaten erhalten.
-
Gebühr9,00 €
-
StartMo. 12.01.2026
18:30 UhrEndeMo. 12.01.2026
20:00 Uhr -
Veranstalter:
Münchner Volkshochschule
