Dario Amodei

CC BY 2.0,
via Wikimedia Commons.
Hinweis: Laut Dateiseite nur redaktionelle Nutzung (kein Werbe-/kommerzieller Einsatz).
Kurzvita
Dario Amodei ist Mitgründer und CEO von Anthropic, einem KI-Unternehmen und Public Benefit Corporation, das
auf zuverlässige, interpretierbare und steuerbare KI-Systeme (u. a. Claude) fokussiert.
Zuvor war er Vice President of Research bei OpenAI und arbeitete davor bei Google Brain.
Akademisch promovierte er in Neurobiologie (Princeton) und forschte zur kollektiven Dynamik neuronaler Schaltkreise.
Warum bekannt – Beiträge & Erfindungen
- Anthropic & Claude-Modelle (2023–2025): Aufbau eines Labs, das Sicherheit und Skalierung zusammen denkt (Responsible Scaling Policy)
und die Claude-Modellfamilie (z. B. Claude 4/4.5 Sonnet) für Forschung & Unternehmen bereitstellt.
Anthropic ·
RSP-Updates ·
Claude Sonnet 4.5. - Konkrete Sicherheitsprobleme (2016): Mitautor von Concrete Problems in AI Safety – ein einflussreiches Rahmenwerk
praktischer Sicherheitsfragen (z. B. Belohnungshacking, skalierbare Aufsicht).
arXiv. - Öffentliche Debatte & Strategie: Positionen zu verantwortlicher Skalierung, Interpretierbarkeit und geopolitischer Kooperation
demokratischer Staaten; Interviews und Auftritte (z. B. Financial Times, TechCrunch Disrupt).
Financial Times ·
TechCrunch Disrupt.
Wirkung: Amodei steht für die Verbindung aus Frontier-Modellentwicklung und
institutionalisierter Sicherheit (Responsible Scaling). Damit prägt er Architektur- und Governance-Diskurse rund um
große Sprachmodelle und deren verantwortliche Einführung in regulierten Branchen.
Historischer Kontext (Meilensteine)
- bis 2016: Forschung/Industry-Rollen u. a. bei Google Brain; Ph.D. Princeton.
- 2016: Concrete Problems in AI Safety (Koautor).
- 2016–2020: VP of Research bei OpenAI (Arbeit an LLM-Skalierung, GPT-2/-3-Ära).
- 2021–heute: Mitgründer & CEO von Anthropic (Claude-Modellfamilie; Responsible Scaling Policy).
- 2025: Einführung Claude 4.5 Sonnet mit erweiterten Fähigkeiten für Agenten & Coding.
Wichtige Beiträge (Kurzfassung)
- Mitgestaltung des AI-Safety-Diskurses (praktische Sicherheitsprobleme, Skalierungs-Governance).
- Aufbau Anthropic & Veröffentlichung der Claude-Modelle für Forschung & Industrie.
- Öffentliche Strategie-Debatten zu Risiken, Nutzen und geopolitischer Kooperation in der KI.
Literatur (Auswahl)
Weiterführende Links
Bildlizenz
Dieses Porträt nutzt ein Commons-Bild unter CC BY 2.0 (Autor: Kimberly White/Getty Images for TechCrunch).
Laut Dateiseite besteht eine Einschränkung auf redaktionelle Nutzung (kein Werbe-/kommerzieller Einsatz, keine Bearbeitungen über übliche Zuschnitte hinaus).
Bild herunterladen:
Direkter Download (JPG, 4000×2667) ·
Dateiseite auf Wikimedia Commons
