OpenAI stellte Programm zum Klonen von Stimmen vor
Fachleute fürchten einen Missbrauch von Anwendungen, die Künstliche Intelligenz (KI) nutzen speziell im Jahr der EU- und US-Präsidentschaftswahlen.
OpenAI erklärte, sich dieser Probleme bewusst zu sein. Man sei sich bewusst, dass die Erzeugung von Stimmen, die denen von Menschen ähneln, ernsthafte Risiken birgt, die in einem Wahljahr besonders zu beachten seien, erklärte das Unternehmen aus San Francisco. Man arbeite mit Partnern unter anderem aus den Bereichen Politik, Medien, Unterhaltung, Bildung und Zivilgesellschaft zusammen, ihr Feedback werde bei der Entwicklung berücksichtigt.
Restriktive Freigabe
Aufgrund des Potenzials für den Missbrauch synthetischer Stimmen habe sich das Unternehmen für einen «vorsichtigen» Ansatz für eine breitere Freigabe entschieden. Partner, die «Voice Engine» testeten, hätten Regeln zugestimmt. Diese sehen demnach unter anderem die ausdrückliche Zustimmung jedes Menschen vor, dessen Stimme mit dem Programm dupliziert wird. Ausserdem müsse den Hörerinnen und Hörern deutlich gemacht werden, dass die Stimmen, die sie hören, von KI generiert wurden.
OpenAI hatte im November 2022 zunächst mit der Einführung von ChatGPT für Furore gesorgt. Das Programm ist in der Lage, mit Hilfe von Künstlicher Intelligenz (KI) aus sehr kurzen Eingabeaufforderungen beispielsweise Essays, Gedichte oder Unterhaltungen zu generieren. ChatGPT machte die Möglichkeiten der KI damit schlagartig einem grossen Publikum bewusst. Zugleich wuchsen aber die Befürchtungen über mögliche Gefahren der Technologie.
Das Unternehmen, das auch den Bildgenerator Dall-e entwickelt hat, hatte im Februar auch eine KI-Anwendung zur Produktion realistischer Videos namens Sora vorgestellt.