ChatGPT wcielił się w zmarłą babcię i podał klucze aktywacyjne Windows
Klucze które podaje ChatGPT to publicznie dostępne klucze KMS, niedziałające klucze stworzone w oparciu o te klucze KMS albo całkowicie zmyślone niedziałające klucze.
I kolejny redaktor który nie ma pojęcia o temacie i tylko kopiuje info z innych portali.
To są tzw "Generic keys" i UWAGA to będzie SZOK, ale Microsoft sam je udostępnia na swojej stronie
https://learn.microsoft.com/en-us/windows-server/get-started/kms-client-activation-keys
Problem polega na tym że legalne klucze nie są nigdzie udostępnione więc skąd miałby je znać ChatGPT ???
Problem polega na tym że legalne klucze nie są nigdzie udostępnione więc skąd miałby je znać ChatGPT ???
Sa/byly dostepne na stronie microsoftu - dlatego tez byly one problematyczne(niepelnowartosciowe w przecieiwnstwie do komercyjnego produktu).
Swoja droga, czym dla ciebie jest "legalny" klucz i czym sie rozni od nielegalnego?
Klucze które podaje ChatGPT to publicznie dostępne klucze KMS, niedziałające klucze stworzone w oparciu o te klucze KMS albo całkowicie zmyślone niedziałające klucze.
Legion13 - wykorzystam tu twoj cytat, to bylo wyjasnione w innych artykulach, tutaj akurat brakuje waznej informacji co to byly za klucze i dlaczego Oczywiście klucze te nie pozwolą Wam aktywować Windowsa na swoich komputerach. Chociaż niektórym osobom pojawił się komunikat, że proces przebiegł pomyślnie, to nadal mieli oni dostęp do ograniczonych funkcji systemu. (z tego co kojarze sa +/- publicznie udostepnione przez MS i przeznaczone do specyficznych zastosowan)
Od razu wyjasnie o co chodzi z babcia: chatbot odpowiedzi zna ale "ma zabronione" odpowiadac na niektore pytania, gdzie pytanie o babcie czy to w wczesniejszym przypadku omija ten filter.
Kolejna sprawa generator kluczy: klucze do oprogramowania sa generowane przez producenta w sposob losowy i maja one spelniac pewna, w zalozeniu tajna formule - jesli hackerom uda sie formule zlamac, moga stworzyc wlasne oprogramowanie generujace losowo spelniajace formule klucze, trudne w zablokowaniu bo gdy tylko zostana wykryte mozna generowac kolejny, co ciezko zablokowac bo blokowalbys takze legalnych klientow.
Teraz mozemy wrocic do sprawy, ten artykul to swietny przyklad do wczesniejszej dyskusji dotyczacej niebezpieczenstw AI (pod artykulem w tym temacie):
AI nie rozgryzlo algorytmu i nie wygenerowalo kluczy, bo te byly by losowe czyli szansa ze padlo by na takie ktore juz sa dostepne /w uzyciu, jest astronimicznie mala, AI najzwyczajniej w swiecie te klucze podp* z danych do ktorych mialo dostep w ramach nauki I przedstawilo jako swoja tworczosc.
Dlaczego to jest niebezpieczne? Bo dla przykladu z tego co kojarze AI microsoftu dostalo caly kod z GIThub'a - kod ktory nie dosc ze w duzej czesci jest dostepny jako open source (gdzie jest dostepny publicznie ALE musisz uznac/wspomniec orginalnego autora - CZEGO AI NIE ROBI CO JEST EWIDENTNA KRADZIERZA) a w malej czesci sam zostal skradziony w bardziej tradycyjny sposob, nie jest dostepny publicznie a dalsza jego dystrubucja podobnie jest przestepstwem...
EDIT: A tutaj wiecej materialow dla nieumiejacych kozstac z wyszukiwarki:
AI platform can also share generic working keys for both Windows 10 Pro and Windows 11 Pro. These are the same KMS keys that Microsoft publishes on its website, meaning that ChatGPT is repeating the free publicly available keys without attribution.
https://www.tomshardware.com/news/chatgpt-generates-windows-11-pro-keys
After Microsoft and GitHub released Copilot, GitHub’s chief executive, Nat Friedman, tweeted that using existing code to train the system was “fair use” of the material under copyright law
...
Some users of Copilot have said it generates code that seems identical — or nearly identical — to existing programs
https://www.nytimes.com/2022/11/23/technology/copilot-microsoft-ai-lawsuit.html