Geoffrey E. Hinton

via Wikimedia Commons.
Kurzvita
Geoffrey Everest Hinton ist ein britisch-kanadischer Informatiker und Kognitionspsychologe und gilt als Schlüsselfigur der
Deep-Learning-Forschung. Er prägte grundlegende Lernverfahren für künstliche neuronale Netze, lehrte über viele Jahre an
der University of Toronto (heute University Professor Emeritus) und ist seit 2017 Chief Scientific Advisor des Vector Institute in Toronto.
2018 erhielt er gemeinsam mit Yoshua Bengio und Yann LeCun den ACM A.M. Turing Award; 2024 wurde er zusammen mit John J. Hopfield
mit dem Nobelpreis für Physik ausgezeichnet.
Hintons Bedeutung liegt darin, dass er die mathematischen und physikalischen Grundlagen für lernende neuronale Netze entscheidend
vorantrieb: von frühen Boltzmann-Maschinen (energie-basierte Modelle) über die Popularisierung der Backpropagation bis zu
effizienten Trainingsverfahren wie Contrastive Divergence und dem greedy layer-wise Pretraining für Deep Belief Nets.
Diese Bausteine machten tiefe Netze praktisch trainierbar und ebneten so den Weg für Durchbrüche wie AlexNet (2012) in der Bildverarbeitung.
Ihre Wirkung reicht heute von Computer Vision und Sprachverarbeitung bis zu generativen Modellen und industriellen Anwendungen. Nach seinem
Abschied von Google (2023) adressiert Hinton öffentlich Chancen und Risiken leistungsfähiger KI.
Warum bekannt – Beiträge & Erfindungen
- Boltzmann-Maschine (1985): Frühes generatives Netzwerk auf Basis statistischer Physik; Lernen über Energie-Minimierung.
Ackley, Hinton & Sejnowski 1985 (PDF). - Backpropagation (1986): Mit Rumelhart & Williams verbreitet; effiziente Gewichtsaktualisierung → trainierbare tiefe Netze.
Nature 1986 (PDF). - Contrastive Divergence (2002): Schnelles Näherungsverfahren zum Training energie-basierter Modelle (RBMs/PoE).
Neural Computation 2002 (Journal-Seite). - Deep Belief Nets (2006): Greedy layer-wise pretraining für tiefe generative Modelle.
Neural Computation 2006 (PDF). - AlexNet (2012): Durchbruch der Bildklassifikation; Beginn der modernen Deep-Learning-Welle.
NeurIPS 2012 (PDF).
Historischer Kontext (Meilensteine)
- 1970: B.A. (Experimental Psychology), University of Cambridge.
- 1978: Ph.D. (Artificial Intelligence), University of Edinburgh.
- 1983–1985: Entwicklung der Boltzmann-Maschine.
- 1986: Backpropagation-Publikation (Rumelhart, Hinton, Williams).
- 2012: AlexNet-Durchbruch (mit Krizhevsky & Sutskever).
- 2017: Chief Scientific Advisor, Vector Institute.
- 2018: Turing Award (mit Bengio & LeCun).
- 2024: Nobelpreis Physik (mit John J. Hopfield).
Literatur (Auswahl)
- Connectionist Symbol Processing (Hrsg. G. E. Hinton). MIT Press, 1991. Verlag
- Unsupervised Learning: Foundations of Neural Computation (Hrsg. G. E. Hinton & T. J. Sejnowski). MIT Press, 1999. Verlag
- Parallel Models of Associative Memory (Updated Edition; Hrsg. G. E. Hinton & J. A. Anderson). Routledge/Psychology Press. Verlag
- Neural Network Architectures for Artificial Intelligence (AAAI-Tutorial, 1988). Bibliotheksnachweis
Weiterführende Links
Bildlizenz
Dieses Porträt nutzt ein Bild unter CC BY-SA 4.0. Bei Wiederverwendung bitte die Namensnennung „Arthur Petron“ und den Lizenzhinweis beibehalten und bei Bearbeitungen die gleiche Lizenz verwenden.
Bild herunterladen:
Direkter Download (JPG, 1070×1074) ·
Dateiseite auf Wikimedia Commons
