Forum Gry Hobby Sprzęt Rozmawiamy Archiwum Regulamin

Futurebeat AI rozpozna Cię na ulicy, jeśli zrobisz sobie selfie

13.09.2022 12:47
Sasori666
1
1
Sasori666
189
Korneliusz

AI tworzy obrazy, więc rozpoznanie kto jak się ustawia to nie problem.
Musimy wreszcie zdać sobie sprawę z tego, że jesteśmy w 2022, a nie 2002.
Sztuczna inteligencja pewnie rozpozna jak ktoś sra, jeśli taka osoba będzie w zasięgu kamer.

13.09.2022 13:57
2
1
odpowiedz
2 odpowiedzi
Jerry_D
60
Senator

Sasori666
Jeśli mamy być precyzyjni, to AI niczego nie tworzy, tylko wykorzystuje to, czego się nauczyła z dzieł innych. Tak samo nie rozpoznaje, że na tej ulicy ktoś stoi. Po prostu w procesie uczenia się sprowadza obraz do wartości matematycznych i jeśli na analizowanym obrazie znajdzie wartości podobne do zadanego parametru, to zwraca wynik, że znaleziony wzorzec jest w x% zgodny z zadanymi parametrami wyszukiwania.

Do inteligencji, która rzeczywiście będzie "patrzeć" na obraz i rozumieć, co się na nim znajduje, wciąż daleka droga.

13.09.2022 14:15
xsas
2.1
xsas
187
SG-1

Tak na dobrą sprawę to czym jest rozumienie, jak nie m.in. porównywanie z tym co się dowiedziało/zobaczyło? Jeśli ktoś pokaże Ci obrazek na którym widnieje młotek, to wiesz, że jest to młotek obojętnie jak by na tym obrazku nie był przedstawiony, bo już go wiele razy widziałeś. Problem będziesz miał, gdy młotek będzie na ogromnym zbliżeniu, że nie rozpoznasz kształtu - a taka AI już może być w stanie to wychwycić - imo jest lepsza w "rozumieniu".

Ludzie też działają na zasadzie porównywania i wzorowania się - na tym tok myślowy polega, że ktoś Ci coś pokazuje i nazywa, a Ty później gdy daną rzecz napotkasz, to wiesz co to jest.
Także pozwolę sobie nie zgodzić, że AI patrzy na obraz i nie rozumie co się na nim znajduje.

post wyedytowany przez xsas 2022-09-13 14:16:14
13.09.2022 14:54
2.2
Jerry_D
60
Senator

Tylko jak ktoś ci da zdjęcie tego młotka z dodatkowo narysowaną kreską, to ty będziesz wiedzieć, że to młotek, tylko jakiś kretyn porysował zdjęcie. Natomiast dla AI to już może by coś całkiem innego. Więcej, nawet zmiana kilku pikseli obrazu w sposób niezauważalny dla człowieka (przykładowo wartości RGB pikseli zmienione z 233,185,011 na 233,181,011, co dla człowieka jest całkowicie niezauważalne, bo nie ma zdolności rozróżniania tak subtelnych różnic koloru) dla AI może oznaczać zupełnie inny obraz.

Tu masz jak AI głupieje i nie jest w stanie "rozpoznać" znaku stopu, bo ktoś przykleił małą naklejkę, albo znak jest brudny: https://arstechnica.com/cars/2017/09/hacking-street-signs-with-stickers-could-confuse-self-driving-cars/

Albo masz sytuację odwrotną, gdy AI rozpoznaje dwa zupełnie obrazy, jako ten sam. Tu masz przykład, gdzie człowiek natychmiast będzie wiedział, że to nie jest to samo, natomiast dla AI to ten sam obrazek. Tu masz bardzo dobitny przykład kolizji: https://github.com/AsuharietYgvar/AppleNeuralHash2ONNX/issues/1

13.09.2022 14:06
3
odpowiedz
zanonimizowany1359977
9
Senator

Oczywiście przy przestępstwie czy pobiciu to już nie uda się sprawcy wychwycić, ale jak trzeba kogoś kto napisał prawdę o bogatym czy polity ścigać to go znajdą.

Proponuję te kamery spiąć z automatycznymi mini gunem na każdym skrzyżowaniu, kto ścigany czy podpadł tego stu ściąć naprowadzania serią i będzie problem z głowy.

Bądźmy 0:1 skuteczni albo nie.

13.09.2022 20:54
4
odpowiedz
2 odpowiedzi
Cordite
44
Generał

"w Europie, gdzie wiele instytucji stara się dbać o prywatność obywateli" ktos tu chyba musi zmienic leki. mozesz podac konkretne przyklady tych broniacych naszej prywatnosci instytucji ? :D

13.09.2022 21:57
😉
4.1
Diantos448
7
Legionista

Oczywiście, na przykład Irlandzka Komisja Ochrony Danych, która niedawno ukarała Metę grzywną w wysokości 405 mln za nieprzestrzeganie RODO.
https://www.gry-online.pl/hardware/405-mln-euro-kary-dla-instagrama-za-upublicznianie-danych/z022bee

post wyedytowany przez Diantos448 2022-09-13 21:59:07
14.09.2022 12:57
4.2
Jerry_D
60
Senator

I RODO, to jedyna rzecz w UE, która ma chronić dane. Warto zauważyć, że nie tak dawno próbowali babrać się w biometrii, ale jakoś to przyhamowało, a obecnie usiłują przepchnąć przepis o dostępie dla służb w szyfrowanych e2e komunikatorach, "bo pedofile". Warto zwrócić uwagę jak starannie to formułują, żeby ludzie nie zrobili rabanu, że się im odbiera prywatność. Oczywiście samo określenie "szyfrowanie end-to-end z dostępem dla służb" jest bzdurą, bo jeśli jest dostęp dla kogokolwiek, to już nie jest e2e, ale swoje robi.

Futurebeat AI rozpozna Cię na ulicy, jeśli zrobisz sobie selfie