Jürgen Schmidhuber

Jürgen Schmidhuber

Miterfinder der Long Short-Term Memory (LSTM); Scientific Director des Swiss AI Lab IDSIA; Professor (CEMSE) & Co-Chair GenAI Center an der KAUST.

Jürgen Schmidhuber (AI for Good, Genf 2017)
Foto: ITU/R. Farrell,
CC BY 2.0,
via Wikimedia Commons.

Kurzvita

Jürgen Schmidhuber ist ein deutscher Informatiker und Pionier des modernen Deep Learning.
Er ist wissenschaftlicher Direktor des Swiss AI Lab IDSIA in Lugano und Professor im
Computer Science Program der CEMSE-Division an der KAUST (Co-Chair des Center of Excellence for Generative AI).
International bekannt wurde er durch grundlegende Beiträge zu rekurrenten Netzen, insbesondere als Miterfinder der
Long Short-Term Memory (LSTM).

Warum bekannt – Beiträge & Erfindungen

  • LSTM (1997): Mit Sepp Hochreiter eingeführte Architektur, die das Vanishing/Exploding Gradient-Problem bei langen Abhängigkeiten entschärft und Sequenzaufgaben in Sprache, Übersetzung und Zeitreihen revolutionierte.
    Neural Computation 1997 ·
    PDF.
  • Frühe Arbeiten zu hierarchischen RNNs & Representation Learning: Schichtenweises Vortrainieren rekurrenter Netze und energie-/modellbasierte Ansätze als Vorläufer moderner Tieflernverfahren.
    Publikationsübersicht.
  • Aufbau von Forschungsumfeldern: Langjährige Leitung von IDSIA (USI-SUPSI) und Teamführung, die Deep-Learning-Ergebnisse in Wettbewerben und Anwendungen prägten.
    IDSIA.

Wirkung: LSTM wurde in den 2010er-Jahren zur dominanten Methode für viele NLP– und Sequenzaufgaben und bereitete den Weg für heutige großskalige Modelle,
indem lange Kontextabhängigkeiten effektiv lernbar wurden. Schmidhubers Arbeiten zu RNN-Hierarchien und Repräsentationslernen trugen dazu bei, Deep Learning methodisch zu festigen.

Historischer Kontext (Meilensteine)

  • 1991–1997: Grundlagenarbeiten zu rekurrenten Netzen; Einführung von Long Short-Term Memory (mit S. Hochreiter).
  • ab 1995: Wissenschaftlicher Direktor des Swiss AI Lab IDSIA (USI-SUPSI), Lugano.
  • 2009–2021: Professor für Künstliche Intelligenz an der USI Lugano.
  • heute: Professor (CEMSE) & Co-Chair des GenAI Centers an der KAUST (Saudi-Arabien).

Wichtige Beiträge (Kurzfassung)

  • LSTM als Standardarchitektur für lange Sequenzen.
  • Hierarchische RNN-Modelle & Repräsentationslernen.
  • Institutioneller Aufbau (IDSIA) und Wettbewerbserfolge tieflernfähiger Systeme.

Literatur (Auswahl)

  • Long Short-Term Memory. Neural Computation, 1997 (S. Hochreiter, J. Schmidhuber).
    Verlag ·
    PDF
  • Publikationsübersicht – ausw. Arbeiten zu RNNs/Deep Learning.
    Übersicht

Weiterführende Links

Bildlizenz

Dieses Porträt nutzt ein Bild unter CC BY 2.0. Bitte die Namensnennung „ITU/R. Farrell“ und den Lizenzhinweis beibehalten und bei Bearbeitungen die Lizenzanforderungen beachten.

Bild herunterladen:
Direkter Download (JPG, 2103×2975) ·
Dateiseite auf Wikimedia Commons