[English]Verstößt die von Microsoft auf GitHub eingeführte AI-Lösung Copilot zur Einbindung von Code (z.B. in Visual Studio Code) gegen Fair Use und die Rechte der Code-Entwickler? Die gemeinnützige Free Software Foundation hat gerade einige Fragen zur Fairness, Legitimität und Rechtmäßigkeit des KI-gesteuerten Codierassistenten CoPilot aufgeworfen.
Anzeige
Was ist GitHub CoPilot?
GitHub Copilot ist ein KI-Werkzeug, das von GitHub und OpenAI entwickelt wurde, um Benutzer von Visual Studio Code bei der automatischen Vervollständigung von Code zu unterstützen. Dieser Dienst nutzt maschinelles Lernen, um Entwicklern beim Schreiben von Software Code-Schnipsel vorzuschlagen.
GitHub CoPilot wurde von GitHub am 29. Juni 2021 angekündigt. Die künstliche Intelligenz verwendet eine modifizierte Version von GPT-3, einem Sprachmodell, welches ursprünglich entwickelt wurde, um menschenähnlichen Text zu produzieren. In Copilot wurde das Modell aber so programmiert, dass es gültigen Computercode erzeugt. GitHub Copilot wird auf öffentlichen GitHub-Repositories jeder Lizenz trainiert.
Das wirft Fragen auf
Bereits der oben verlinkte Wikipedia-Artikel gibt an, dass der Ansatz problematisch sei. Denn die in Visual Studio Code vorgeschlagenen Code-Schnipsel könnten das Copyright anderer Autoren verletzten. In der Wikipedia heißt es: Obwohl der meiste von Copilot ausgegebene Code als transformatives Werk eingestuft werden kann, räumt GitHub ein, dass ein kleiner Teil des vorgeschlagenen Codes wortwörtlich kopiert wird. Das führte zu Befürchtungen, dass der ausgegebene Code nicht ausreichend transformativ ist, um als Fair Use eingestuft zu werden, und das Urheberrecht des ursprünglichen Eigentümers beeinträchtigen könnte.
Damit befindet sich Copilot auf rechtlich ungeprüftem Boden, obwohl GitHub erklärt, dass "das Trainieren von maschinellen Lernmodellen auf öffentlich zugänglichen Daten in der Gemeinschaft des maschinellen Lernens als faire Nutzung angesehen wird". Die Free Software Foundation hat in diesem Artikel das Ganze aufgegriffen.
Anzeige
Die Free Software Foundation (FSF) rät Entwicklern freier Software dringend davon ab, ihren Code auf GitHub zu hosten. Aber viele Entwickler hosten trotzdem auf GitHub, und selbst Entwickler, die dies nicht tun, lassen ihre Arbeit von anderen auf GitHub spiegeln. Die FSF schreibt, dass man bereits wisse, dass Copilot in seiner jetzigen Form (aus eigener Sicht) inakzeptabel und ungerecht sei. Denn der Dienst benutze selbst closed-Software wie Visual Studio oder Teile von Visual Studio Code. Das widerspricht aber dem Ansatz zur Verwendung vieler freier Software-Pakete.
Die Free Software Foundation hat zahlreiche Anfragen zu deren Position in diesen Fragen erhalten. Daraus ließe sich erkennen, dass die Verwendung von frei lizenzierter Software durch Copilot viele Auswirkungen auf einen unglaublich großen Teil der Gemeinschaft der freien Software hat.
- Entwickler wollen wissen, ob das Training eines neuronalen Netzwerks auf ihrer Software wirklich als faire Nutzung angesehen werden kann.
- Andere, die an der Nutzung von Copilot interessiert sind, fragen sich, ob die von GitHub gehosteten Repositories kopierten Codeschnipsel und anderen Elemente zu einer Urheberrechtsverletzung führen könnten.
Selbst wenn alles rechtlich einwandfrei wäre, fragen sich Aktivisten, ob es nicht grundsätzlich unfair ist, wenn ein proprietäres Softwareunternehmen wie Microsoft einen Dienst Copilot auf der Grundlage freier Software auf GitHub aufbaut. Auf all diese Fragen, von denen viele rechtliche Implikationen haben, gibt es noch keine gerichtliche Überprüfung. Um die Antworten zu erhalten, die die Gemeinschaft freier Software-Entwickler braucht, und um die besten Möglichkeiten zum Schutz der Benutzerfreiheit in diesem Bereich zu ermitteln, hat die FSF einen Aufruf zur Einreichung von White Papers zu den Themen Copilot, Urheberrecht, maschinelles Lernen und freie Software gestartet. White Papers können zu folgenden Fragestellungen eingereicht werden:
- Is Copilot's training on public repositories infringing copyright? Is it fair use?
- How likely is the output of Copilot to generate actionable claims of violations on GPL-licensed works?
- How can developers ensure that any code to which they hold the copyright is protected against violations generated by Copilot?
- Is there a way for developers using Copilot to comply with free software licenses like the GPL?
- If Copilot learns from AGPL-covered code, is Copilot infringing the AGPL?
- If Copilot generates code which does give rise to a violation of a free software licensed work, how can this violation be discovered by the copyright holder on the underlying work?
- Is a trained artificial intelligence (AI) / machine learning (ML) model resulting from machine learning a compiled version of the training data, or is it something else, like source code that users can modify by doing further training?
- Is the Copilot trained AI/ML model copyrighted? If so, who holds that copyright?
- Should ethical advocacy organizations like the FSF argue for change in copyright law relevant to these questions?
Die FSF plant später die Beiträge, die zur Klärung des Problems beitragen, zu veröffentlichen und dafür eine Belohnung von 500 Dollar auszuschütten. Artikel zum Thema finden sich bei heise, bei MSPU und bei InfoWorld. Bei Google hieß es mal "don't be evil", bei Microsoft sieht es mir so aus, dass man einfach mal so probiert, womit man durchkommt – oder wie seht ihr das? Als Entwickler, der Visual Studio nutzt, bewegt man sich mit CoPilot jedenfalls auf rechtlich vermintem Gelände.
Anzeige
Zoitat: "Als Entwickler, der Visual Studio nutzt, bewegt man sich mit CoPilot jedenfalls auf rechtlich vermintem Gelände"
Nicht nur rechtlich, sondern auch technisch. Da wird sehr viele neue ranzige Software entstehen, die undurchdachten Code einer Ai implantiert. Ich fürchte das Schlimmste, wie wenn die Lage nicht schon schlimm genug wäre.
Oh mein Gott!
Also wirklich wer so einen Copilot braucht um zu programmieren soll bitte, BITTE seine Finger vom programmieren lassen, außer für sein lego mind storm.
Betreutes programmieren, das ist doch irgendwie die Vorstufe zum betreutem denken, …
Alexa soll ich heute zur Arbeit gehen oder lieber blau machen?
Alexa: da du für die konkurenz arbeitest bleib lieber zuhause und entspann dich. HAHAHAHAHA
Sorry, Dein Kommentar ist völlig daneben!
Du hättest auch Argumentieren können,
wer eine Fremdsprache nicht beherrscht, sollte keine KI
für die Übersetzung benutzen.
Diese KI (CoPilot) liefert doch nur Vorschläge von Codeschnipseln,
die Funktionieren. "Wort wörtlich" muss niemand diesen Code übernehmen.
Das hat mit Fremdsprache nichts zu tun, es geht darum das wen nicht in der Lage ist Code selber zu schreiben lieber gar nicht Code sollte außer für eigene Projekte die nie öffentlich gemacht werden.
Es gibt schon genug schlechtem code da draußen da muss man die Situation nicht noch verschlimmern.
und IMHO hilft das wirklich kein bischen, für eine einfache schleife oder ein if, brauche ich länger die Vorschläge auf Plausibilität und tauglichkeit zu prüfen als die paar zeichne selber in die Tastatur zu klopfen.
Würde ich meinen PC per Augen Steuerung oder BCI oder so benutzen ist das natürlich eine ganz andere Geschichte.
Ja, wie oft wird Code aus anderen Projekten übernommen ohne darüber nachzudenken, manchmal auch ohne den Code zu verstehen.
Hauptsache es funktioniert irgendwie und schnell, denn Zeit ist bekanntlich Geld. Das Ergebnis ist oft genug eine Software die besser nochmal überarbeitet gehört. Codevorschläge per KI werden die Situation dann wohl nicht besser machen. Aber gut, wir haben ja auch DotNet, warum sich Gedanken machen, ist doch eh schon alles zu spät.