SORRY, ELON, GROK IST KEINE QUELLOFFENE KI. DIE SCHöPFER DER DEFINITION ERKLäREN WARUM

Elon Musks Chatbot für künstliche Intelligenz (KI) Grok ist nicht so quelloffen, wie er behauptet, und die vielen Unternehmen, die das behaupten, sind es auch nicht, so der Verwalter der Definition.

Die 1998 gegründete Open Source Initiative (OSI) ist eine gemeinnützige Organisation, die den Open-Source-Begriff verteidigt. Sie arbeitet derzeit an einer Aktualisierung ihrer Definition, um Open-Source-KI einzubeziehen.

Open Source bedeutet im Allgemeinen, dass der Quellcode der Software für jeden öffentlich zugänglich ist, um ihn zu nutzen, zu verändern und zu verbreiten.

Die OSI-Definition besagt, dass die Software 10 Kriterien erfüllen muss, darunter die Möglichkeit, den Quellcode zu einem angemessenen Preis oder kostenlos zu erhalten, dass sie nicht diskriminierend ist und dass die Lizenz andere Software nicht einschränkt.

Bei KI-Systemen ist es jedoch schwieriger, die 10 Punkte der OSI zu erfüllen.

Es ist eine ganz neue Zeit in der Geschichte, in der wir ein neues Artefakt haben, das immer noch das Ergebnis von menschlichem Einfallsreichtum, Intelligenz und Kreativität ist.
Stefano Maffulli
Exekutivdirektor, OSI

"Die Definition von Open-Source-Software, die wir für Software verwendet haben, lässt sich nicht wirklich sauber auf KI-Systeme anwenden", sagte Stefano Maffulli, der Geschäftsführer des OSI, gegenüber Euronews Next.

KI-Unternehmen, die von sich behaupten, Open Source zu sein, wie Musks neuestes KI-Projekt, geben zwar die Gewichte frei - also die numerischen Parameter, die die Leistung eines KI-Modells beeinflussen -, nicht aber die Daten, auf denen es trainiert wird, oder den Trainingsprozess.

Maffulli sagt, dass dies bedeutet, dass es nicht quelloffen sein kann, weil es nicht transparent ist, welche Daten zum Trainieren der Gewichte verwendet wurden, was zu Urheberrechts- und ethischen Problemen führen kann, wenn die Daten verzerrt sind.

"Dies [die Gewichte] sind neu, und es ist eine sehr neue Zeit in der Geschichte, in der wir ein neues Artefakt haben, das immer noch das Ergebnis von menschlichem Einfallsreichtum, Intelligenz und Kreativität ist."

"Gleichzeitig ist es aber auch eine Weiterentwicklung der semi-zufälligen Berechnungen, die von großen Computern durchgeführt werden".

Wahrheitssuchend?

Musk hatte zuvor in einem Beitrag auf seiner Social-Media-Plattform X erklärt, dass seine Open-Source-KI "bei weitem die transparenteste und wahrheitssuchendste" sei, und OpenAI kritisiert, weil es seine ursprüngliche Mission, der Menschheit zu nützen, durch die Partnerschaft mit Microsoft aufgegeben habe. Musks Grok legt jedoch auch nicht offen, auf welchen Daten das Gewicht trainiert wurde.

Tatsächlich gibt es für Unternehmen wenig Anreiz, dies zu tun, denn in dem Moment, in dem man bekannt gibt, auf welchen Daten man aufbaut, macht man sich angreifbar für Urheberrechtsklagen.

Wir sind die Verwalter, die Hüter der Definition, aber wir haben nicht wirklich starke Befugnisse, sie durchzusetzen.
Stefano Maffulli
OSI

"Solange wir keine Klarheit über die Rechtslage haben, werden wir diese Art von Problemen wohl noch erleben", so Maffulli.

Ein weiterer Grund, warum so genannte Open-Source-KI-Unternehmen nicht völlig transparent sein wollen, ist die Wahrung von Geschäftsgeheimnissen.

Die OSI hat daher eine schwierige Aufgabe zu bewältigen, wenn es darum geht, Open-Source-KI zu definieren. Die Organisation begann ihre Suche vor zwei Jahren, nachdem ChatGPT von OpenAI im November 2022 auf den Plan getreten war.

Die größte Hürde bei der Definition von Open-Source-KI sei das Verständnis der Abhängigkeit zwischen den Daten in den Trainingssätzen und den Modellgewichten, so Maffulli.

Wie definiert man quelloffene KI?

Das OSI begann mit der Zusammenstellung einer Gruppe von Experten aus Organisationen wie der Mozilla Foundation und Wikipedia, aber auch aus zivilgesellschaftlichen Gruppen, Universitäten und Big-Tech-Unternehmen wie Microsft und Meta.

Die Arbeitsgruppen bewerteten dann drei generative KI-Modelle - Meta's Llama, Illusion AI und Bloom - sowie ein nicht-generatives KI-Modell, das maschinelles Lernen verwendet.

Die Arbeitsgruppen stimmten über die Mindestanforderungen ab, die ein KI-System erfüllen muss, um Open Source zu sein.

Maffulli sagte, dass die Arbeitsgruppen "alle gesagt haben, dass es zumindest eine Mindestanforderung an die Datentransparenz geben soll".

Das OSI verfeinert nun diesen Definitionsentwurf, den es voraussichtlich im Laufe des Sommers der Öffentlichkeit zugänglich machen wird.

Das bedeutet jedoch nicht, dass die OSI nach Fertigstellung der Definition gegen Musk oder andere selbsternannte Open-Source-KI-Unternehmen vorgehen wird.

"Wir sind die Verwalter der Definition, aber wir haben nicht wirklich starke Befugnisse, um sie durchzusetzen", sagte Maffulli.

Er fügte hinzu, dass Richter und Gerichte auf der ganzen Welt allmählich erkennen, dass die Open-Source-Definition wichtig ist, insbesondere wenn es um Fusionen, aber auch um Regulierung geht.

Länder auf der ganzen Welt legen derzeit fest, wie sie KI regulieren wollen, und Open-Source-Software war ein Streitpunkt.

"Die Open-Source-Definition dient als Barriere, um falsche Werbung zu erkennen", so Maffulli.

"Wenn ein Unternehmen sagt, es sei Open Source, muss es die Werte der Open-Source-Definition erfüllen. Ansonsten ist es einfach nur irreführend".

2024-03-28T11:22:14Z dg43tfdfdgfd