Warum verlassen Microsoft und Apple den OpenAI-Vorstand? Ein Blick auf die Hintergründe und Auswirkungen
OpenAI hat eine neue Partnerschaft im Bereich der Biowissenschaften bekannt gegeben und gleichzeitig haben sowohl Microsoft als auch Apple ihre Sitze im Vorstand von OpenAI aufgegeben. Es wurde spekuliert, dass Apple dem Vorstand beitreten würde, aber jetzt scheint es, dass beide Unternehmen entweder den Vorstand verlassen oder nicht mehr daran teilnehmen wollen. Diese Entscheidung kommt sehr schnell und beide Unternehmen haben sich bisher nicht dazu geäußert. Ein möglicher Grund könnten Bedenken hinsichtlich des Kartellrechts sowohl in den USA als auch in der EU sein. Es gibt Befürchtungen, dass die Zusammenarbeit zwischen diesen großen Monopolunternehmen und OpenAI problematisch sein könnte. Microsoft erklärte, dass ihre Rolle im Vorstand von OpenAI dazu diente, Einblicke in die Aktivitäten des Vorstands zu geben, ohne dessen Unabhängigkeit zu gefährden. Sie waren sozusagen in einer Beobachterrolle. Da jedoch inzwischen erhebliche Fortschritte von dem neu gebildeten Vorstand gemacht wurden und Microsoft zuversichtlich in die Richtung des Unternehmens ist, sei diese Rolle nun nicht mehr notwendig. Sowohl die Europäische Kommission als auch die US-Handelskommission (FTC) prüfen derzeit die Möglichkeit einer kartellrechtlichen Untersuchung. Die FTC-Vorsitzende Lisa Khan hat mehrfach über die Probleme mit diesen großen Technologiemonopolen und die Rolle von Künstlicher Intelligenz (KI) gesprochen. Es scheint, dass diese Entscheidung, die Vorstandsposten nicht einzunehmen, es den Kartellbehörden erschweren wird, nachzuweisen, dass Microsoft unzulässigen Einfluss auf OpenAI hat.
Währenddessen haben OpenAI und das Los Alamos National Laboratory eine Forschungspartnerschaft im Bereich der Biowissenschaften angekündigt. Interessant ist, dass das Manhattan-Projekt, das zur Entdeckung der Atombombe führte, ebenfalls in Los Alamos stattfand. OpenAI führt zudem seine Text-to-Speech-API im Playground ein, was es Nutzern ermöglicht, Stimmen zu erstellen und zu testen. Es gibt sechs verschiedene Stimmen zur Auswahl, und die Funktion bietet auch die Möglichkeit, die erstellten Audiodateien herunterzuladen. Dies könnte OpenAI in direkte Konkurrenz zu Unternehmen wie 11 Labs bringen.
In weiteren Nachrichten sagte Mir Madi, dass Sora noch nicht bereit für den Einsatz ist. Schauspieler Ashton Kutcher erwähnte, dass man bald in der Lage sein könnte, seine eigenen Filme mithilfe von KI zu erstellen. Derzeit gibt es jedoch noch keinen Zeitplan für die öffentliche Freigabe von Sora. OpenAI arbeitet daran, Sora robust und sicher zu machen und testet es mit ausgewählten Nutzern.
Zurück zur Partnerschaft zwischen OpenAI und Los Alamos: Ziel ist es, zu verstehen, wie KI sicher in Laborumgebungen eingesetzt werden kann, um die biowissenschaftliche Forschung voranzutreiben. In den USA wurde ein Gesetz zur sicheren Entwicklung und Nutzung von KI verabschiedet, das das Verteidigungsministerium und die National Labs damit beauftragt, die Fähigkeiten fortschrittlicher KI-Modelle zu bewerten. Dazu gehört auch die Untersuchung der Möglichkeit, dass KI-Modelle gefährliche biologische Substanzen erzeugen könnten. Es wird getestet, wie GPT-4 bei der Durchführung von Aufgaben in einem physischen Laborumfeld durch multimodale Fähigkeiten wie Sehen und Hören unterstützen kann.
Die FTC-Vorsitzende Lisa Khan setzt sich dafür ein, dass KI-Technologien nicht in den Händen weniger großer Unternehmen monopolisiert werden. Sie betont die Bedeutung von Open Source und Dezentralisierung, um sicherzustellen, dass Innovationen und Unternehmer nicht ausgeschlossen werden. Khan ist besorgt, dass eine vertikale Integration und Interessenkonflikte zu Selbstbedienung und Diskriminierung führen könnten, was den Wettbewerb einschränken würde. Sie betont die Notwendigkeit, den gesamten Technologie-Stack von Chips über Cloud-Computing bis hin zu Modellen und Apps zu untersuchen, um sicherzustellen, dass kein Monopolmissbrauch stattfindet.
Dieser Beitrag wurde mit GPT geschrieben und kann Fehler enthalten.