OpenAI-Mitgründer will ungefährliche Superintelligenz entwickeln
«Das Besondere an dem Unternehmen ist, dass sein erstes Produkt die sichere Superintelligenz sein wird - und es davor nichts anderes herausbringen wird», sagte Sutskever dem Finanzdienst Bloomberg. So werde man sich kommerziellem Druck und einem Wettlauf mit anderen KI-Laboren entziehen, argumentierte der Forscher.
Sutskever gilt als einer der führenden Köpfe bei der Entwicklung Künstlicher Intelligenz. Bei Safe Superintelligence hat er zwei Mitgründer: Daniel Gross arbeitete einst an Künstlicher Intelligenz bei Apple, Daniel Levy war einst mit Sutskever bei OpenAI.
Die Frage, ob KI-Systeme gefährlich für die Menschheit werden könnten, wenn sie erst einmal leistungsstärker und eigenständiger sind, beschäftigt die Branche schon seit Jahren. Es gibt immer wieder Warnungen von Experten sowie Versuche von Regierungen, Risiken durch strikte Vorgaben und Meldungspflichten zu minimieren.
Rückkehr zu den Wurzeln
Sutskever war Forschungschef bei OpenAI. Im vergangenen Jahr war er an dem überraschenden Rauswurf des OpenAI-Chefs Sam Altman beteiligt, der nur wenige Tage später nach Druck von Mitarbeitenden und des Grossinvestors Microsoft wieder rückgängig gemacht wurde. Sutskever blieb danach im Hintergrund und verliess den ChatGPT-Entwickler im Mai.
Die Vision für die neue Firma ist so etwas wie eine Rückkehr zu den Wurzeln von OpenAI als ein nicht auf Profit ausgerichtetes Forschungslabor. OpenAI kam einige Jahre nach der Gründung jedoch zu dem Schluss, dass man sich ohne ein kommerzielles Produkt nicht über Wasser halten können werde. So kamen ein milliardenschwerer Pakt mit dem Software-Riesen Microsoft und die Veröffentlichung von ChatGPT zustande. Wie sich Sutskevers neues Superintelligenz-Labor finanzieren wird, blieb bisher unklar.