Jak rozważne podejście do sztucznej inteligencji ogranicza stronnicze zbiory danych

Stronnicze zbiory danych i etyczna sztuczna inteligencja

Rozwiązania oparte na sztucznej inteligencji potrzebują zbiorów danych, aby były skuteczne. A tworzenie tych zestawów danych jest obarczone niejawnym problemem stronniczości na poziomie systematycznym. Wszyscy ludzie cierpią z powodu uprzedzeń (zarówno świadomych, jak i nieświadomych). Uprzedzenia mogą przybierać różne formy: geograficzne, językowe, społeczno-ekonomiczne, seksistowskie i rasistowskie. A te systematyczne uprzedzenia są wypiekane w danych, co może skutkować produktami AI, które utrwalają i wzmacniają nastawienie. Organizacje potrzebują świadomego podejścia do łagodzenia uprzedzeń wkradających się do zbiorów danych.

Przykłady ilustrujące problem stronniczości

Jednym z godnych uwagi przykładów tego błędu w zestawie danych, który w tamtym czasie zebrał wiele negatywnej prasy, było rozwiązanie do czytania życiorysów, które faworyzowało kandydatów płci męskiej niż kobiety. Dzieje się tak, ponieważ zbiory danych narzędzia rekrutacyjnego zostały opracowane na podstawie życiorysów z ostatniej dekady, kiedy większość kandydatów stanowili mężczyźni. Dane były stronnicze, a wyniki odzwierciedlały to stronniczość. 

Inny szeroko komentowany przykład: na dorocznej konferencji programistów Google I/O Google udostępnił zapowiedź narzędzia wspomagającego dermatologię opartego na sztucznej inteligencji, które pomaga ludziom zrozumieć, co się dzieje z problemami związanymi z ich skórą, włosami i paznokciami. Asystent dermatologa podkreśla, w jaki sposób sztuczna inteligencja ewoluuje, aby pomóc w opiece zdrowotnej, ale zwróciła również uwagę na możliwość wkradnięcia się uprzedzeń do sztucznej inteligencji w wyniku krytyki, że narzędzie nie jest odpowiednie dla osób kolorowych.

Kiedy Google ogłosiło narzędzie, firma zauważyła:

Aby mieć pewność, że budujemy dla wszystkich, nasz model uwzględnia takie czynniki, jak wiek, płeć, rasa i typ skóry – od bladej skóry, która się nie opala, po brązową, która rzadko się pali.

Google, korzystanie ze sztucznej inteligencji, aby znaleźć odpowiedzi na typowe schorzenia skóry

Ale artykuł w Vice powiedział, że Google nie wykorzystał zintegrowanego zestawu danych:

Aby wykonać zadanie, naukowcy wykorzystali zestaw danych treningowych składający się z 64,837 12,399 obrazów 3.5 90 pacjentów znajdujących się w dwóch stanach. Ale z tysięcy przedstawionych chorób skóry tylko XNUMX procent pochodziło od pacjentów z typem skóry Fitzpatricka V i VI – odpowiednio reprezentującymi brązową i ciemnobrązową lub czarną skórę. Według badania XNUMX procent bazy danych składało się z osób o jasnej karnacji, ciemniej białej lub jasnobrązowej skórze. W wyniku tendencyjnego pobierania próbek dermatolodzy twierdzą, że aplikacja może skończyć się zbytnią lub niedostateczną diagnozą osób, które nie są białe.

Vice, nowa aplikacja Google Dermatology nie została zaprojektowana dla osób o ciemniejszej karnacji

Google odpowiedział, mówiąc, że udoskonali narzędzie przed jego formalnym wydaniem:

Nasze narzędzie wspomagające dermatologię oparte na sztucznej inteligencji jest zwieńczeniem ponad trzech lat badań. Odkąd nasza praca pojawiła się w Nature Medicine, nieustannie rozwijamy i udoskonalamy naszą technologię, włączając dodatkowe zestawy danych, które zawierają dane przekazane przez tysiące ludzi oraz miliony bardziej wyselekcjonowanych obrazów dotyczących skóry.

Google, korzystanie ze sztucznej inteligencji, aby znaleźć odpowiedzi na typowe schorzenia skóry

Chociaż możemy mieć nadzieję, że sztuczna inteligencja i programy uczenia maszynowego mogą skorygować te uprzedzenia, rzeczywistość pozostaje: są one tylko tak mądry ponieważ ich zbiory danych są czyste. W aktualizacji starego powiedzenia programistycznego syf na wejściu, syf na wyjściu, rozwiązania AI są tak mocne, jak jakość ich zbiorów danych od samego początku. Bez korekty ze strony programistów te zestawy danych nie mają wystarczającego doświadczenia, aby same się naprawić – ponieważ po prostu nie mają innego układu odniesienia.

Odpowiedzialne budowanie zbiorów danych jest podstawą wszystkiego etyczna sztuczna inteligencja. A ludzie są w centrum rozwiązania. 

Uważna sztuczna inteligencja to etyczna sztuczna inteligencja

Bias nie powstaje w próżni. Nieetyczne lub stronnicze zbiory danych wynikają z przyjęcia niewłaściwego podejścia na etapie rozwoju. Sposobem na zwalczanie błędów uprzedzeń jest przyjęcie odpowiedzialnego, skoncentrowanego na człowieku podejścia, które wiele osób w branży nazywa uważną sztuczną inteligencją. Uważna sztuczna inteligencja składa się z trzech kluczowych elementów:

1. Uważna sztuczna inteligencja jest skoncentrowana na człowieku

Od początku projektu AI, na etapach planowania, potrzeby ludzi muszą być w centrum każdej decyzji. A to oznacza wszystkich ludzi – nie tylko podzbiór. Dlatego programiści muszą polegać na zróżnicowanym zespole ludzi z całego świata, aby szkolić aplikacje AI, aby były inkluzywne i wolne od uprzedzeń.

Crowdsourcing zbiorów danych od globalnego, zróżnicowanego zespołu zapewnia wczesne identyfikowanie i filtrowanie uprzedzeń. Osoby o różnym pochodzeniu etnicznym, grupach wiekowych, płci, poziomie wykształcenia, pochodzeniu społeczno-ekonomicznym i lokalizacji mogą łatwiej dostrzec zestawy danych, które faworyzują jeden zestaw wartości, a tym samym odsiewają niezamierzone uprzedzenia.

Spójrz na aplikacje głosowe. Stosując uważne podejście AI i wykorzystując potęgę globalnej puli talentów, programiści mogą uwzględnić elementy językowe, takie jak różne dialekty i akcenty w zestawach danych.

Ustanowienie od samego początku ram projektowych skoncentrowanych na człowieku ma kluczowe znaczenie. To długa droga do zapewnienia, że ​​generowane, nadzorowane i oznakowane dane spełniają oczekiwania użytkowników końcowych. Ale ważne jest również, aby ludzie byli na bieżąco przez cały cykl rozwoju produktu. 

Ludzie w pętli mogą również pomóc maszynom w tworzeniu lepszych doświadczeń AI dla każdej konkretnej grupy odbiorców. W Pactera EDGE nasze zespoły projektowe zajmujące się danymi AI, zlokalizowane na całym świecie, rozumieją, w jaki sposób różne kultury i konteksty mogą wpływać na zbieranie i opracowywanie wiarygodnych danych szkoleniowych AI. Mają niezbędne narzędzia, których potrzebują do oznaczania problemów, monitorowania ich i naprawiania, zanim rozwiązanie oparte na sztucznej inteligencji zostanie uruchomione.

Sztuczna inteligencja typu „human-in-the-loop” to projekt „sieci bezpieczeństwa”, który łączy mocne strony ludzi – i ich różnorodne pochodzenie z dużą mocą obliczeniową maszyn. Ta współpraca między ludźmi i sztuczną inteligencją musi być nawiązana od początku programów, aby stronnicze dane nie stanowiły podstawy w projekcie. 

2. Uważna sztuczna inteligencja jest odpowiedzialna

Odpowiedzialność polega na upewnieniu się, że systemy sztucznej inteligencji są wolne od uprzedzeń i są oparte na etyce. Chodzi o bycie świadomym tego, jak, dlaczego i gdzie dane są tworzone, jak są syntetyzowane przez systemy sztucznej inteligencji i jak są wykorzystywane do podejmowania decyzji, decyzji, które mogą mieć konsekwencje etyczne. Jednym ze sposobów, aby to zrobić, jest współpraca z niedostatecznie reprezentowanymi społecznościami, aby być bardziej inkluzywnym i mniej stronniczym. W dziedzinie adnotacji danych nowe badania podkreślają, w jaki sposób wielozadaniowy model z wieloma adnotatorami, który traktuje etykiety każdego adnotatora jako oddzielne podzadanie, może pomóc złagodzić potencjalne problemy nieodłącznie związane z typowymi metodami prawdy podstawowej, w których niezgodność adnotatorów może wynikać z niedostatecznej reprezentacji i mogą zostać zignorowane podczas agregacji adnotacji do jednej podstawowej prawdy. 

3. Godny zaufania

Wiarygodność wynika z tego, że biznes jest przejrzysty i można go wyjaśnić, w jaki sposób szkolony jest model AI, jak działa i dlaczego rekomenduje wyniki. Firma potrzebuje wiedzy z zakresu lokalizacji sztucznej inteligencji, aby umożliwić swoim klientom bardziej wszechstronne i spersonalizowane zastosowania sztucznej inteligencji, z poszanowaniem kluczowych niuansów w lokalnym języku i doświadczeniach użytkowników, które mogą zwiększać lub łamać wiarygodność rozwiązania sztucznej inteligencji w różnych krajach . Na przykład firma powinna projektować swoje aplikacje pod kątem spersonalizowanych i zlokalizowanych kontekstów, w tym języków, dialektów i akcentów w aplikacjach głosowych. W ten sposób aplikacja zapewnia ten sam poziom zaawansowania obsługi głosowej w każdym języku, od angielskiego po języki niedostatecznie reprezentowane.

Uczciwość i różnorodność

Ostatecznie uważna sztuczna inteligencja zapewnia, że ​​rozwiązania są budowane na uczciwych i zróżnicowanych zestawach danych, w których konsekwencje i wpływ poszczególnych wyników są monitorowane i oceniane, zanim rozwiązanie trafi na rynek. Będąc uważnym i włączając ludzi w każdy etap rozwoju rozwiązania, pomagamy zapewnić, że modele sztucznej inteligencji pozostaną czyste, minimalnie stronnicze i tak etyczne, jak to tylko możliwe.

Co o tym myślisz?

Ta strona używa Akismet do redukcji spamu. Dowiedz się, jak przetwarzane są dane komentarza.