Kalkulator śmierci AI – jak działa to kontrowersyjne narzędzie?

Govind Dheda

Sztuczna inteligencja znajduje coraz więcej zastosowań w naszym życiu. Jednym z jej najnowszych i najbardziej kontrowersyjnych wykorzystań jest tzw. kalkulator śmierci AI. Jest to narzędzie stworzone przez duńskich naukowców, które na podstawie danych osobowych jest w stanie przewidzieć, kiedy dana osoba umrze. W niniejszym artykule przyjrzymy się bliżej, na czym polega działanie tego intrygującego, ale i niepokojącego narzędzia.

Jak działa kalkulator śmierci AI?

Kalkulator śmierci AI, nazywany również Life2vec, został stworzony przez naukowców z Uniwersytetu Kopenhaskiego. Jest oparty na zaawansowanym modelu sztucznej inteligencji, który analizuje dane osobowe użytkownika i na tej podstawie przewiduje, kiedy najprawdopodobniej umrze.

Model AI wykorzystuje technologię stojącą za popularnym chatbotem ChatGPT. Każda osoba jest w nim reprezentowana jako sekwencja zdarzeń, które miały miejsce w jej życiu. Te informacje są następnie kodowane na cyfrowe tokeny i kategorie, na przykład:

  • złamanie ręki = token S52
  • praca w sklepie tytoniowym = token IND4726
  • dochód = jeden z 100 tokenów dochodu

Na tej podstawie algorytm AI przewiduje, kto z dotychczasowych uczestników zmarł do 2020 roku. Twórcy podają, że model osiąga dokładność prognozy na poziomie 78%.

Jakie dane są potrzebne do działania kalkulatora?

Aby kalkulator śmierci AI mógł przewidzieć długość życia, potrzebuje pewnych kluczowych informacji na temat użytkownika. Są to między innymi:

  • Płeć
  • Wiek
  • Rasa
  • Wykonywany zawód
  • Dochód roczny
  • Przyjmowane leki i suplementy
  • Informacje o paleniu papierosów
  • Dane medyczne – choroby, urazy, hospitalizacje

Im więcej szczegółowych danych poda użytkownik, tym dokładniejsza ma być prognoza. Dlatego w niektórych wersjach kalkulatora AI musimy odpowiedzieć nawet na kilkadziesiąt pytań zanim otrzymamy wynik.

Jakie są ograniczenia kalkulatora śmierci AI?

Pomimo imponującej dokładności na poziomie 78%, kalkulator śmierci oparty o AI ma pewne istotne ograniczenia:

Bazuje tylko na danychDuńczyków z lat 2008-2020. Nie wiadomo, czy działałby równie dobrze dla innych narodowości i okresów.

Nie uwzględnia wielu czynników, które mogą wpływać na długość życia, jak dieta, aktywność fizyczna czy wsparcie społeczne.

Nie może przewidzieć nagłych i nieprzewidywalnych zgonów, np. z powodu wypadków.

Daje jedynie prawdopodobieństwo, a nie konkretną datę śmierci. Rzeczywistość może się znacznie różnić od prognozy.

Budzi poważne kontrowersje etyczne związane z prywatnością danych i poczuciem ludzkiej godności.

Twórcy podkreślają, że kalkulator ma charakter badawczy i nie powinien być traktowany jako precyzyjne narzędzie prognostyczne. Jednak mimo tych zastrzeżeń wciąż budzi on spore obawy ekspertów i opinii publicznej.

Jakie dane są wykorzystywane do uczenia modelu AI?

Aby stworzyć kalkulator śmierci, duńscy naukowcy wykorzystali ogromną ilość danych medycznych i demograficznych. Sztuczną inteligencję nauczono na informacjach o:

6 milionach obywateli Danii

Danych medycznych z lat 2008-2020: wizyty lekarskie, pobyty w szpitalach, przyjmowane na stałe leki itp.

Wykonywanej pracy i dochodach Duńczyków

Informacjach o zgonach do 2020 roku

Dzięki temu algorytm AI mógł powiązać konkretne dane (np. chorobę, zawód, dochód) ze zwiększonym lub zmniejszonym ryzykiem śmierci w ciągu 12 lat. Im więcej danych, tym model był dokładniejszy.

Jednak wciąż nie jest jasne, czy taka ilość wrażliwych danych osobowych została wykorzystana w sposób etyczny i zgodny z europejskim RODO.

Jakie kontrowersje budzi kalkulator śmierci AI?

Choć kalkulator śmierci AI może wydawać się ciekawym eksperymentem badawczym, to budzi też poważne kontrowersje natury etycznej:

Naruszenie prywatności – wykorzystanie ogromnej ilości wrażliwych danych medycznych bez jasnej zgody ich właścicieli

Ułuda precyzji – statystyczna prognoza nie oznacza możliwości przewidzenia daty czyjejś śmierci, a wyniki mogą być mylące

Fatalizm – sugerowanie ludziom, kiedy umrą, może wpływać na ich psychikę i poczucie nadziei

Piętnowanie – ryzyko stygmatyzowania i wykluczania osób, dla których algorytm przewidział krótsze życie

Ubezwłasnowolnienie – odbieranie ludziom kontroli nad własnym losem i zdrowiem poprzez deterministyczne prognozy AI

Etyka badań – wątpliwości co do etyczności samego pomysłu “prognozowania” czyjejś śmierci dla celów badawczych

Te obawy pokazują, że choć rozwój AI otwiera nowe możliwości, to musi być prowadzony w sposób przemyślany i humanistyczny. Inaczej zamiast pomagać ludziom, może wręcz szkodzić.

Czy można ufać internetowym kalkulatorom śmierci AI?

W internecie pojawiło się ostatnio wiele stron, które rzekomo wykorzystują opisywany model AI do przewidywania długości życia każdego użytkownika. Wystarczy podać imię, płeć i datę urodzenia, aby otrzymać “precyzyjną” prognozę własnej śmierci.

Eksperci przestrzegają jednak, że tego typu internetowe kalkulatory prawdopodobnie nie mają nic wspólnego z duńskim modelem AI. Zostały stworzone tylko po to, aby generować sensacyjne nagłówki, zbierać dane osobowe lub nawet szerzyć dezinformację.

Nie należy ufie decyzjom ani radami takich narzędzi, ponieważ nie mają żadnego rzeczywistego podparcia w nauce czy rzetelnych badaniach. Są raczej cyfrową wróżbiarstwem i klikalnością niż prawdziwą sztuczną inteligencją.

Podsumowanie:

Kalkulator śmierci AI to kontrowersyjne narzędzie stworzone przez duńskich naukowców, które na podstawie danych osobowych przewiduje prawdopodobny moment śmierci danej osoby.

Działa ono na podstawie zaawansowanego modelu AI, który analizuje informacje o użytkowniku i przypisuje im cyfrowe tokeny.

Do poprawnego działania potrzebuje wielu szczegółowych danych medycznych, demograficznych i socjoekonomicznych.

Pomimo deklarowanej dokładności na poziomie 78%, narzędzie ma poważne ograniczenia i nie powinno być traktowane dosłownie.

Budzi ono kontrowersje natury etycznej, m.in. dotyczące wykorzystania poufnych danych i deterministycznego postrzegania ludzkiego życia.

Internetowe kalkulatory śmierci wykorzystujące AI są najprawdopodobniej oszustwem i nie należy im ufać.

Share This Article
Leave a comment