OpenAI Gründet Unabhängiges Gremium: “Safety Board”
OpenAI hat ein neues unabhängiges Gremium, das "Board Oversight Committee", ins Leben gerufen, um die Sicherheitspraktiken des Unternehmens zu überwachen. Dieses Gremium hat die Befugnis, die Veröffentlichung von KI-Modellen für bis zu 90 Tage zu stoppen, wenn Sicherheitsbedenken bestehen. Die Gründung erfolgt vor dem Hintergrund wachsender Bedenken hinsichtlich der Sicherheit von Künstlicher Intelligenz und interner Konflikte innerhalb des Unternehmens.
Wichtige Erkenntnisse
- OpenAI wandelt sein bestehendes Komitee für Sicherheit in ein unabhängiges Gremium um.
- Das "Board Oversight Committee" hat die Befugnis, Veröffentlichungen von KI-Modellen zu stoppen.
- Zu den Mitgliedern gehören bekannte KI-Experten wie Adam D’Angelo und Nicole Seligman.
- Die Unabhängigkeit des Gremiums wird in Frage gestellt, da die Mitglieder auch im Aufsichtsrat von OpenAI sitzen.
- Die Gründung erfolgt vor dem Hintergrund interner Konflikte und wachsender Sicherheitsbedenken.
Hintergrund Der Gründung
Die Gründung des "Board Oversight Committee" ist eine Reaktion auf die zunehmenden Bedenken hinsichtlich der Sicherheit von KI-Technologien. OpenAI hat in der Vergangenheit mit internen Konflikten zu kämpfen gehabt, die sogar zur kurzfristigen Entlassung von CEO Sam Altman führten. Mehrere leitende Wissenschaftler verließen das Unternehmen, was die Notwendigkeit eines unabhängigen Gremiums zur Überwachung der Sicherheitspraktiken unterstreicht.
Zusammensetzung Des Gremiums
Das neue Gremium besteht aus renommierten Experten auf dem Gebiet der Künstlichen Intelligenz:
- Adam D’Angelo – Ehemaliger CTO von Facebook und seit 2018 im Aufsichtsrat von OpenAI.
- Nicole Seligman – Anwältin mit Erfahrung bei Sony.
- Paul Nakasone – Ehemaliger US Army General und Cybersecurity-Experte.
- Zico Kolter – Professor an der Carnegie Mellon University und Leiter des Gremiums.
Unabhängigkeit Und Herausforderungen
Obwohl das Gremium als unabhängig konzipiert ist, bleibt die Frage, wie unabhängig es tatsächlich agieren kann, da die Mitglieder auch im Aufsichtsrat von OpenAI sitzen. Das Gremium wird regelmäßig über die Entwicklungen bei OpenAI informiert und hat eine Frist von 90 Tagen, um bei Sicherheitsbedenken einzugreifen. Zudem müssen neue Modelle den US-Behörden zur Kontrolle vorgelegt werden, bevor sie veröffentlicht werden.
Vergleich Mit Anderen Unternehmen
Ähnliche Schritte wurden auch von anderen Tech-Giganten unternommen. Meta hat beispielsweise ein Oversight Board gegründet, das unabhängig Entscheidungen zu umstrittenen Inhalten auf Facebook und Instagram trifft. Im Gegensatz zu OpenAI sind die Mitglieder dieses Gremiums nicht in andere Funktionen bei Meta eingebunden, was die Unabhängigkeit stärkt.
Fazit
Die Gründung des "Board Oversight Committee" durch OpenAI ist ein wichtiger Schritt in Richtung größerer Transparenz und Verantwortung im Umgang mit Künstlicher Intelligenz. Es bleibt abzuwarten, wie effektiv das Gremium in der Praxis agieren wird und ob es tatsächlich in der Lage ist, die Sicherheit der entwickelten KI-Modelle zu gewährleisten.
Quellen
- OpenAI gründet unabhängiges Gremium: "Safety Board", heise online.
- KI-Update kompakt: OpenAI Safety Board, DataGemma, Slack, Apple Intelligence, heise online.
- Investments are donations: OpenAI wants to become profit-oriented, heise online.
- Investitionen seien Spenden: OpenAI will Profit-orientiert werden, heise online.
- OpenAI initiiert unabhängiges Überwachungsgremium für Sicherheitsstandards, mind-verse.de.