Microsoft ujarzmi swoj� sztuczn� inteligencj�. Rozpoznawanie twarzy i generowanie g�osu tylko za zgod�

Microsoft przedstawi� drug� wersj� swoich regulacji dotycz�cych sztucznej inteligencji. Firma poinformowa�a r�wnie�, �e ogranicza zakres mo�liwego u�ycia narz�dzi wykorzystuj�cych tego typu rozwi�zanie. Gigant wprowadzi te� limity dotycz�ce algorytm�w rozpoznawania twarzy oraz generowania g�osu.

Regulacje dotyczące sztucznej inteligencji są wciąż nieliczne. W 2019 roku było ich mniej niż 100 i ponad połowę stanowiły dokumenty prywatnych firm. Unia Europejska nadal pracuje nad aktem o sztucznej inteligencji (SI). Pierwszą wersję pokazano rok temu, ale rozczarowała ona nazbyt zachowawczym podejściem do kwestii bezpieczeństwa danych.

Wiele firm jednak aktywnie rozwija technologie oparte na SI. To natomiast wymaga od nich tworzenia zasad postępowania podczas układania algorytmów. Drugą wersję wewnętrznego dokumentu regulującego te kwestie wydał właśnie Microsoft. 

Zobacz wideo Robot bezpiecznie wylądował ogromnym boeingiem. W przyszłości ma zająć miejsce drugiego pilota

Sztuczna inteligencja Microsoftu będzie używana rzadziej i tylko w uzasadnionych przypadkach

Microsoft poinformował, że tworząc nowe ramy odpowiedzialnego programowania SI, zasięgnął wiedzy u naukowców i specjalistów spoza firmy, którzy zajmują się tematem. W związku z tym zdecydowano się na dość poważne kroki - pisze "The Guardian". Firma podaje, że odpowiednie rozwiązania zastosuje, rozważając bilans zysków i strat, jakie może przynieść korzystanie z tak potężnej technologii. 

Więcej informacji ze świata na stronie głównej Gazeta.pl 

Microsoft przede wszystkim ograniczy możliwość korzystania z narzędzia Azure Face. Korzystał z niego m.in. Uber do weryfikacji użytkowników. Teraz dostęp do narzędzia będzie limitowany. Aby z niego skorzystać potrzebna będzie zgoda firmy, wydawana na podstawie wniosku, w którym należy udowodnić, że użycie będzie zgodne ze standardami etyki Microsoftu w zakresie korzystania z SI. 

Co więcej, amerykańska spółka ma porzucić też elementy algorytmu Azure Face, które odpowiadają za rozpoznawanie emocji oraz cech takich jak płeć czy wiek. Microsoft bowiem po kilku badaniach i konsultacjach doszedł do wniosku, że wpływają na to mocno czynniki kontekstowe i kulturowe, a naukowcy nie są nawet zgodni co do definicji emocji. Wciąż jednak technologia ta będzie używana np. w narzędziu Seeing AI, które ma służyć do słownego opisu świata dla osób, które mają problemy z widzeniem.

M.in. z tego też powodu ograniczony będzie dostęp do narzędzi rozpoznawania mowy. Badanie z 2020 roku wykazało bowiem, że w przypadku osób czarnoskórych i pochodzenia afrykańskiego, błędy pojawiały się dwukrotnie częściej niż w przypadku osób białych. To sprawiło, że Microsoft zrozumiał, iż musi zwiększyć wysiłki i zmienić sposób tworzenia baz danych, tak by uwzględniał wszystkie grupy społeczne. Firma chce również wypracować sposób pozyskiwania danych, który będzie szanował i zaangażuje przedstawicieli w ten proces przedstawicieli grup innych niż biali. 

Ponadto ograniczone zostanie użycie Custom Neural Voice, który służy do zamiany tekstu na mowę. Narzędzie umożliwia również generowania sztucznej mowy, która brzmi jak dowolnie wybrany głos. AT&T korzystało z tej technologii tworząc głos Królika Bugsa do interaktywnej gry. W tym przypadku Microsoft chce zapobiegać oszustwom, których można dokonać z użyciem tej technologii

Sztuczna inteligencja zyskała świadomość?

Algorytmy SI mają bardzo duże możliwości. Wciąż jednak daleko nam do Generalnej Sztucznej Inteligencji, czyli takiej, która uzyskała świadomość. Warto jednak też tutaj nadmienić, że niedawno jeden z inżynierów Google Blake Lemoine oświadczył w internecie, że stworzony w firmie systemem LaMDA ma świadomość.

Pracownik miał zapytać chatbota o jego uczucia, a ten oświadczył, że czasem bywa smutny lub szczęśliwy. Przypuszczenia, że to oznaka samoświadomości, dementują jednak inni pracownicy firmy. Google w związku z tą sytuacją zawiesił Lemoina. 

Wi�cej o: