Skip to main content

KI, ChatGPT, Nvidia: Die unsichtbare Infrastruktur hinter künstlicher Intelligenz
Online-Kurs

Moderne KI-Modelle wie ChatGPT wirken auf den ersten Blick rein softwarebasiert – doch im Hintergrund ist eine enorme Menge spezialisierter Hardware im Einsatz. Dieser Kurs beleuchtet die technischen Grundlagen der Recheninfrastruktur, die große Sprachmodelle antreibt, und erklärt, warum leistungsstarke Chips – insbesondere GPUs – dabei eine zentrale Rolle spielen.

 

Behandelt werden unter anderem folgende Aspekte:  

– Wie lässt sich Rechenleistung messen – und warum sind FLOPS dabei so entscheidend?  

– Warum stehen Matrixoperationen im Zentrum des KI-Trainings?  

– Wie ermöglichen spezialisierte Chips, etwa von Nvidia, das Training großer Modelle in vertretbarer Zeit?  

– Was passiert beim Training eines Sprachmodells mit Milliarden Parametern im Hintergrund?

 

Am Beispiel von ChatGPT wird verständlich gemacht, wie Rechenzentren, GPUs und Cloud-Infrastruktur zusammenwirken, um generative KI in der Praxis nutzbar zu machen. Aktuelle Entwicklungen – etwa rund um den „DeepSeek-Moment“ – sowie Herausforderungen wie Ressourcenverbrauch, Energiebedarf und Chip-Knappheit werden ebenfalls diskutiert.

 

Die Veranstaltung wird gefördert durch das Bayerische Staatsministerium für Unterricht und Kultus.

 

Zusätzliche Informationen:

Dieser Online-Kurs findet mit Webex Meeting statt. Den Link mit den Zugangsdaten zum Kurs senden wir Ihnen einen Tag vor Kursbeginn per E-Mail zu. Bitte prüfen Sie auch Ihren Spam-Ordner, falls Sie keine E-Mail mit den Zugangsdaten erhalten.

KI, ChatGPT, Nvidia: Die unsichtbare Infrastruktur hinter künstlicher Intelligenz
Online-Kurs

Moderne KI-Modelle wie ChatGPT wirken auf den ersten Blick rein softwarebasiert – doch im Hintergrund ist eine enorme Menge spezialisierter Hardware im Einsatz. Dieser Kurs beleuchtet die technischen Grundlagen der Recheninfrastruktur, die große Sprachmodelle antreibt, und erklärt, warum leistungsstarke Chips – insbesondere GPUs – dabei eine zentrale Rolle spielen.

 

Behandelt werden unter anderem folgende Aspekte:  

– Wie lässt sich Rechenleistung messen – und warum sind FLOPS dabei so entscheidend?  

– Warum stehen Matrixoperationen im Zentrum des KI-Trainings?  

– Wie ermöglichen spezialisierte Chips, etwa von Nvidia, das Training großer Modelle in vertretbarer Zeit?  

– Was passiert beim Training eines Sprachmodells mit Milliarden Parametern im Hintergrund?

 

Am Beispiel von ChatGPT wird verständlich gemacht, wie Rechenzentren, GPUs und Cloud-Infrastruktur zusammenwirken, um generative KI in der Praxis nutzbar zu machen. Aktuelle Entwicklungen – etwa rund um den „DeepSeek-Moment“ – sowie Herausforderungen wie Ressourcenverbrauch, Energiebedarf und Chip-Knappheit werden ebenfalls diskutiert.

 

Die Veranstaltung wird gefördert durch das Bayerische Staatsministerium für Unterricht und Kultus.

 

Zusätzliche Informationen:

Dieser Online-Kurs findet mit Webex Meeting statt. Den Link mit den Zugangsdaten zum Kurs senden wir Ihnen einen Tag vor Kursbeginn per E-Mail zu. Bitte prüfen Sie auch Ihren Spam-Ordner, falls Sie keine E-Mail mit den Zugangsdaten erhalten.

  • Gebühr
    9,00 €
  • Kursnummer: V486808
  • Start
    Mo. 12.01.2026
    18:30 Uhr
    Ende
    Mo. 12.01.2026
    20:00 Uhr
  • 1 Termin / 1 Ustd.
    Dozent*in:
    ©
    Christian Bernhard
  • Veranstalter:
    Münchner Volkshochschule
15.12.25 01:05:29