Niektórzy ludzie w społeczności wolnego oprogramowania nie wierzą we własność intelektualną i prawa autorskie. Nie jestem jednym z nich. Wierzę, że twórcy mają prawo określić, co może się dziać z ich pomysłami i pracą, bez względu na to, czy wydają ją na otwartej licencji, czy też własnościowej.
Dlatego też nie „pluję” na ludzi, którzy zdecydowali się zamknąć swój kod i go sprzedawać, chociaż uważam, że najlepszym sposobem tworzenia kodu dla użytkownika końcowego jest model wolnego oprogramowania, który daje użytkownikowi możliwość utrzymania własnego systemu tak długo, jak jest to możliwe.
W ostatnim czasie coraz więcej i więcej ludzi pyta mnie o wpływ pracy sztucznej inteligencji (SI) na rynek pracy programistów. Pytają mnie, czy uważam, że SI przejmie ich pracę. Moja odpowiedź może nie jest zbyt popularna, ale jeśli rozwiniemy SI do końca jej możliwości, to odpowiedź musi być „tak”.
O „sztucznej inteligencji” słyszę od lat 50. XX w. Była obecna w książkach takich jak Robot i filmach oraz serialach, na przykład w Star Trek: Następne Pokolenie, gdzie występowały androidy, jak Data. Widziałem, jak komputery robią się szybsze, logicznie większe, fizycznie mniejsze i bardziej skomplikowane. Widziałem ludzi pracujących nad oprogramowaniem, które uważali wtedy za sztuczną inteligencję, i jestem pewien, że pewnego dnia odkryjemy algorytm, który pozwoli komputerowi zwanemu przez nas ludzkim mózgiem nauczyć się i zyskać wiedzę, którą przekaże do inteligencji nieorganicznej (tak wolę określać SI).
To jest nieuniknione.
Musimy jednak zacząć myśleć o tym, co będzie, jeśli taki sztuczny człowiek o sztucznej inteligencji (tak, prawdopodobnie najpierw będą psy SI i koty SI) stworzy coś nowego. Kto jest właścicielem takiej rzeczy? Sztuczny człowiek? „Właściciel” tego sztucznego człowieka? Czy jeśli sztuczny człowiek jest czyjąś własnością, to nie jest to niewolnictwo? Wiele podobnych pytań było zadawanych w Star Treku odnośnie do Daty i podawane były odpowiedzi. Podobnie w wielu innych historiach spod znaku science fiction z lat 50. XX w.
Jednak problem może dotknąć nas wcześniej, nawet bez sztucznych ludzi.
Należący do Microsoftu Copilot, rzekome oprogramowanie SI, trenowało na narzędziach FOSS, które są zarówno objęte prawej autorskim, jak i stosownymi licencjami. Autorzy tych narzędzi FOSS prawdopodobnie nie rozważali i nie wprowadzali do licencji wykorzystania ich oprogramowania przez SI ani też nie brali pod uwagę sytuacji, że jakieś SI skorzysta z ich pracy do generowania własnego kodu. Sytuacja ta wywołuje konsternację wśród niektórych deweloperów FOSS.
Samo tworzenie nowego i unikalnego kodu nie powinno stwarzać zbyt wielu problemów, ponieważ ludzki programista może spojrzeć na istniejący kod, nauczyć się, jak pisać nowy i utworzyć go zgodnie ze swoją wiedzą. Studenci robią tak od dziesięcioleci, ale uczymy też ich o plagiatach i tworzeniu piaskownic, aby nie kopiowali kodu w sposób dosłowny.
Osobną kwestią jest sytuacja, kiedy zarówno organiczna, jak i nieorganiczna inteligencja utworzy coś identycznego (lub bardzo, bardzo zbliżonego) do czegoś napisanego wcześniej, bez zachowania wskazań licencji. W wielu miejscach mówi się o takiej sytuacji jako o plagiacie i może to naruszać prawa autorskie, chyba że postępowano zgodnie z licencją.
Użytkownik oprogramowania Copilot Microsoftu, trenowanego z wykorzystaniem kodu źródłowego FOSS, może sobie nawet nie zdawać sprawy z tego, że kod wynikowy z Copilota to kopia programu FOSS, a program SI może nawet nie być „świadomy” tego, że tworzy dokładną kopię. Dlatego w sądzie, jeśli pierwotny właściciel praw wniesie sprawę przeciwko posiadającemu kopię kodu, jak użytkownik Copilota, udowodni, że to była niewinna kopia i co stanie się z tym skopiowanym kodem? Jeśli Copilot jest prawdziwą SI, to nawet uruchomienie go z tymi samymi poleceniami i danymi wejściowymi może nie zwrócić takiego samego wyjścia, przez co udowodnienie, że to Copilot wygenerował kod, może być trudne.
Czy system SI posiada dostęp do wszystkich wymaganych patentów? Co stanie się, kiedy system SI doda opatentowany algorytm, nie wiedząc o tym? Oczywiście, to samo może stać się z ludzkim programistą, ale jakiś rodzaj filtrowania powinien być wbudowany w takie rozwiązanie, jak Copilot lub dowolny inny „kreatywny” system SI.
Pewien człowiek, który nazywa się Matthew Butterick, zadaje właśnie takie pytania, a także wiele innych [1]. Może skłoni nas to do pomyślenia o firmach podłączających takie narzędzia do platform (na przykład do GitHuba), których deweloperzy FOSS ciągle używają. Korzystanie przez programistów z takich narzędzi niekoniecznie jest złe, ale powinna odbyć się dyskusja i powinniśmy dojść do porozumienia odnośnie do legalności takich działań i wpływu tych narzędzi na rynek.
Info
[1] Matthew Butterick o CoPilocie: https://githubcopilotinvestigation.com/?fbclid=IwAR3gI83OQZ8Wsu4WUhTfYo8StjgsIvHi_9gPvkhfOw5cZW1xfDxAsIlJzpY
Jon „maddog” Hall jest autorem, wykładowcą, informatykiem i jednym z pionierów Wolnego Oprogramowania. Od 1994 roku, kiedy po raz pierwszy spotkał Linusa Torvaldsa i ułatwił przeniesienie jądra na systemy 64-bitowe, pozostaje orędownikiem Linuksa. Obecnie jest prezesem Linux International®.