Meta und IBM arbeiten zusammen

Wie der Guardian berichtete haben Meta und IBM eine neue Gruppe namens AI Alliance ins Leben gerufen, um eine „Open-Science“-Herangehensweise an die KI-Entwicklung zu fördern, was sie in Gegensatz zu Rivalen wie Google, Microsoft und dem ChatGPT-Hersteller OpenAI stellt.

Diese beiden unterschiedlichen Lager – das offene und das geschlossene – sind sich uneinig darüber, ob KI so entwickelt werden sollte, dass die zugrundeliegende Technologie weitgehend zugänglich ist. Im Kern der Debatte steht die Sicherheit, aber auch die Frage, wer von den Fortschritten der KI profitiert.

Befürworter des offenen Ansatzes bevorzugen eine Methode, die „nicht proprietär und geschlossen ist“, so Darío Gil, leitender Vizepräsident bei IBM. Die AI Alliance – angeführt von IBM und Meta und unter Beteiligung von Dell, Sony, den Chip-Herstellern AMD und Intel sowie mehreren Universitäten und KI-Startups – setzt sich dafür ein, dass die Zukunft der KI auf dem offenen wissenschaftlichen Austausch von Ideen und offenen Innovationen basiert, einschließlich Open-Source- und offener Technologien.

Meta’s Chef-KI-Wissenschaftler, Yann LeCun, kritisierte kürzlich auf Social Media Unternehmen wie OpenAI, Google und das Startup Anthropic für deren „massives Lobbying“ zur Gestaltung von Regeln, die ihren leistungsstarken KI-Modellen zugutekommen und ihre Macht über die Entwicklung der Technologie konzentrieren könnten. Diese Unternehmen, zusammen mit Microsoft, haben ihre eigene Branchengruppe namens Frontier Model Forum gegründet.

LeCun äußerte auf X, ehemals Twitter, seine Besorgnis darüber, dass die Angstmacherei einiger Wissenschaftler über KI-„Weltuntergangsszenarien“ jenen Munition liefert, die Open-Source-Forschung und -Entwicklung verbieten wollen.

„In einer Zukunft, in der KI-Systeme das gesamte menschliche Wissen und Kultur beinhalten, müssen die Plattformen Open-Source und frei verfügbar sein, damit jeder dazu beitragen kann“, schrieb LeCun. „Offenheit ist der einzige Weg, um KI-Plattformen das gesamte menschliche Wissen und Kultur widerspiegeln zu lassen.“

Für IBM, einen frühen Unterstützer des Open-Source-Betriebssystems Linux in den 1990er Jahren, speist sich der Streit in einen viel längeren Wettbewerb, der bereits vor dem KI-Boom begann.

Chris Padilla, Leiter des globalen Regierungsangelegenheitsteams bei IBM, sprach von einem „klassischen Ansatz zur regulatorischen Erfassung“, bei dem versucht wird, Ängste vor Open-Source-Innovationen zu schüren. Dies sei seit Jahrzehnten das Modell von Microsoft, das immer Open-Source-Programme abgelehnt habe, die mit Windows oder Office konkurrieren könnten.

Der Begriff „Open-Source“ stammt aus einer jahrzehntealten Praxis des Softwarebaus, bei der der Code frei oder weitgehend zugänglich ist, um ihn zu untersuchen, zu modifizieren und darauf aufzubauen.

Open-Source-KI beinhaltet mehr als nur Code, und Informatiker sind sich uneinig darüber, wie sie definiert werden sollte, je nachdem, welche Komponenten der Technologie öffentlich zugänglich sind und ob es Einschränkungen gibt, die ihre Nutzung begrenzen. Einige verwenden Open Science, um die breitere Philosophie zu beschreiben.

Ein Teil der Verwirrung um Open-Source-KI liegt darin, dass OpenAI – das Unternehmen hinter ChatGPT und dem Bildgenerator Dall-E – trotz seines Namens entschieden geschlossene KI-Systeme entwickelt.

Ilya Sutskever, OpenAIs Chef-Wissenschaftler und Mitbegründer, sagte in einem Video-Interview, dass es kurzfristige kommerzielle Anreize gegen Open-Source gibt, aber auch langfristige Bedenken hinsichtlich eines KI-Systems mit „unvorstellbar mächtigen“ Fähigkeiten, die zu gefährlich wären, um sie öffentlich zugänglich zu machen.

Sutskever illustrierte die Gefahren von Open-Source mit einem KI-System, das gelernt hat, sein eigenes biologisches Labor zu starten.

Selbst aktuelle KI-Modelle bergen Risiken und könnten beispielsweise eingesetzt werden, um Desinformationskampagnen zu verstärken und demokratische Wahlen zu stören, sagte David Evan Harris von der University of California, Berkeley.

„Open-Source ist in so vielen Bereichen der Technologie großartig“, aber KI ist anders, sagte Harris.

„Jeder, der den Film Oppenheimer gesehen hat, weiß, dass bei großen wissenschaftlichen Entdeckungen gut überlegt werden muss, wie man die Details all dieser Informationen breit teilt, um zu verhindern, dass sie in die falschen Hände geraten“, sagte er.

Das Center for Humane Technology, ein langjähriger Kritiker der Social-Media-Praktiken von Meta, gehört zu den Gruppen, die auf die Risiken von Open-Source oder durchgesickerten KI-Modellen aufmerksam machen.

„Solange es keine Schutzmaßnahmen gibt, ist es einfach völlig unverantwortlich, diese Modelle der Öffentlichkeit zugänglich zu machen“, sagte Camille Carlton von der Gruppe.

Eine zunehmend öffentliche Debatte entsteht über die Vor- und Nachteile eines Open-Source-Ansatzes bei der KI-Entwicklung.

In der Diskussion um Joe Bidens umfassenden Erlass zur KI wurde die „Open-Source“-Debatte leicht übersehen.

Der Erlass des US-Präsidenten beschrieb offene Modelle mit dem technischen Namen „Dual-Use-Grundmodelle mit weit verfügbaren Gewichten“ und sagte, dass sie weiter untersucht werden müssen. Gewichte sind numerische Parameter, die beeinflussen, wie ein KI-Modell funktioniert.

Wenn diese Gewichte im Internet veröffentlicht werden, „kann das erhebliche Vorteile für die Innovation bringen, aber auch erhebliche Sicherheitsrisiken, wie die Entfernung von Schutzmaßnahmen innerhalb des Modells“, sagte Bidens Erlass. Er gab der Handelsministerin Gina Raimondo bis Juli Zeit, um mit Experten zu sprechen und mit Empfehlungen zurückzukehren, wie die potenziellen Vorteile und Risiken zu bewältigen sind.

Die Europäische Union hat weniger Zeit, um dies herauszufinden. Bei Verhandlungen, die am Mittwoch ihren Höhepunkt erreichten, debattierten Beamte, die die Verabschiedung weltführender KI-Regulierungen finalisieren, immer noch über eine Reihe von Bestimmungen, einschließlich einer, die bestimmte „freie und Open-Source-KI-Komponenten“ von Regeln ausnehmen könnte, die kommerzielle Modelle betreffen.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert