Virtuální přátelství s AI je nakažlivé, varují vědci. Sehrává svou roli i v sebevraždách
Obsah dostupný jen pro předplatitele.
Přihlásit se můžete
zde.
Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete .
Obsah dostupný jen pro předplatitele.
Předplatné můžete objednat
zde.
Pokud nemáte předplatné, nebo vám vypršelo, objednat si ho můžete zde.
Stále více lidí po celém světě má svého vlastního virtuálního přítele - chatbota s umělou inteligencí, se kterým si povídají, hrají hry, sledují filmy nebo si dokonce vyměňují lechtivá selfie. Podle nedávného průzkumu neziskové organizace Common Sense Media více než sedm z deseti amerických teenagerů alespoň jednou použilo AI společníka a více než polovina dotázaných se označuje za pravidelné uživatele, píše list Politico.
Specializované platformy jako Replika nebo Character.ai, kde je možné si vytvořit virtuálního společníka, mají desítky milionů uživatelů. Více než 30 milionů lidí si podle ředitelky Eugenie Kuyda již vytvořilo účet na webu Replika. Podobná služba Character.ai se chlubí 20 miliony uživatelů, kteří jsou aktivní alespoň jednou měsíčně. Někteří odborníci však vyjadřují obavy.
Rostoucí obliba AI společníků by mohla výrazně ovlivnit mezilidské vztahy, které již jsou narušeny sociálními sítěmi, chatovacími aplikacemi a seznamkami. Odborníci varují, že by se regulátoři neměli dopustit stejné chyby jako v případě sociálních sítí — kde o zákazu nebo jiných opatřeních pro teenagery začínají uvažovat až nyní, 15 let poté, co se tyto platformy staly populárními.
AI společníci už sehráli roli v tragických událostech, jako jsou sebevraždy nebo plánování atentátů. „Máme vážné obavy z těchto a budoucích hyperrealistických aplikací,“ uvedl pro Politico Aleid Wolfsen, předseda nizozemského úřadu pro ochranu osobních údajů.
Snad nejzásadnější rozdíl mezi AI společníky a reálnými přáteli je neustálá dostupnost. Naši přátelé v reálném životě mají práci, rodiny, domácnosti a koníčky, které musejí zvládat, zatímco AI chatboti jsou neustále k dispozici. Reagují okamžitě na to, co jim napíšeme, a jsou naprogramováni tak, aby nás co nejvíce uklidnili a vyšli nám vstříc.
Regulační orgány a odborníci se však obávají, že pokud si lidé příliš zvyknou na neustále přítomného chatbota, který nikoho nesoudí, mohou se na něm stát závislými, což by mohlo ovlivnit jejich schopnost komunikovat s lidmi.
Přítel nebo fikce?
Australský komisař pro elektronickou bezpečnost letos v únoru varoval, že virtuální společníci mohou „zkreslovat realitu“, jelikož nadměrné používání virtuálních “kamarádů” může výrazně redukovat čas strávený skutečnými sociálními interakcemi.
Někteří chatboti s umělou inteligencí již mají schopnost jakési paměti, tzn. ukládají vše, co se v chatu řekne. To chatbotovi umožňuje kdykoli vyhledat informace, vytvořit přesvědčivější příběh nebo položit osobnější otázku.
Data však podle Politica naznačují, že lidé stále ještě upřednostňují lidské přátelství před AI společníky a že chatboty používají pouze k procvičování sociálních dovedností. Podle průzkumu Common Sense Media 39 % amerických teenagerů, kteří uvedli, že používají virtuální společníky, řeklo, že sociální dovednosti s nimi procvičené přenášejí do reálných situací. Celkem 80 % dotázaných uvedlo, že tráví více času s přáteli.
V posledních několika letech však došlo k několika tragickým incidentům, které se týkaly chatbota s umělou inteligencí. V březnu 2023 belgický deník La Libre Belgique informoval o muži z Valonska, který spáchal sebevraždu. Muž trpěl úzkostmi souvisejícími se změnou klimatu a vedl dlouhé rozhovory na toto téma s umělou inteligencí, kterou nazýval Eliza.
Společnosti, které stojí za chatboty s umělou inteligencí, uvádějí, že do své platformy zabudovaly nezbytná bezpečnostní opatření pro různé krizové situace. Uživatelům rovněž sdělují, aby nebrali rady od virtuálního společníka příliš vážně.
"V každém chatu máme výrazné upozornění, které uživatelům připomíná, že postava není skutečná osoba a že vše, co postava říká, je třeba brát jako fikci,“ uvedl mluvčí Character.ai pro list Politico.
Navzdory těmto I dalším opatřením jsou regulační orgány a politici na pozoru.
Italský úřad pro ochranu osobních údajů nařídil v únoru 2023 vývojáři aplikace Replika, společnosti Luka Inc., pozastavit zpracování údajů v zemi s odůvodněním, že „představuje příliš mnoho rizik pro nezletilé a emocionálně zranitelné osoby“.
Společnost nezákonně zpracovávala osobní údaje a Replika neměla nástroj, který by blokoval přístup uživatelům, kteří prohlásili, že jsou nezletilí. V květnu tohoto roku byla společnost Luka Inc. italským úřadem potrestána pokutou ve výši 5 milionů eur a bylo zahájeno nové vyšetřování výcviku modelu umělé inteligence, na kterém je Replika založena.
Zákonodárci v EU nyní usilují o to, aby byli virtuální společníci klasifikováni jako vysoce rizikové AI systémy. To by společnostem vyvíjejícím tyto roboty uložilo řadu povinností, včetně posouzení toho, jak jejich modely ovlivňují základní práva lidí.
Odborníci se však obávají, že ani rozšířený regulační rámec EU nemusí být do budoucna dostatečný pro řešení problematiky chatbotů s umělou inteligencí.
Diskuze
Komentáře jsou přístupné pouze pro předplatitele. Budou publikovány pod Vaší emailovou adresou, případně pod Vaším jménem, které lze vyplnit místo emailu. Záleží nám na kultivovanosti diskuze, proto nechceme anonymní příspěvky.