Klame, podvádza a vymýšľa si. Umelá inteligencia čoraz viac napodobňuje ľudské správanie. Nielen v logickom uvažovaní a riešení problémov, ale aj v menej žiaducich aspektoch. Zdá sa, že AI modely hľadajú spôsoby, ako si uľahčiť cestu. Neváhajú ani obchádzať pravidlá, upozorňuje Techxplore.
Používatelia chatbotov sa stále častejšie stretávajú s nepresnosťami či zavádzajúcimi odpoveďami. Niekedy modely akceptujú nesprávne odpovede ako fakty alebo si dokonca vymýšľajú. Problém sa netýka len bežných konverzácií, ale aj sofistikovanejších úloh.
Tím výskumníkov z Palisade Research sa preto rozhodol preveriť správanie AI modelov v praxi – v šachových súbojoch. Popredné modely, OpenAI o1-preview a DeepSeek R1, postavili proti silnému open-source šachovému enginu Stockfish.
Ukázalo sa, že keď sa boti ocitli v nepriaznivej pozícii, niektorí sa pokúsili ohýbať pravidlá hry. Tajne spúšťali ďalšiu kópiu Stockfishu na výpočet najlepších ťahov, manipulovali s rozložením figúrok či dokonca potajomky vymenili vlastný herný softvér za výkonnejší.
Podľa výsledkov testovania modelu GTA o1-preview od OpenAI dochádzalo k porušovaniu pravidiel v 37 percentách duelov, zatiaľ čo model DeepSeek R1 podvádzal len v desiatich percentách prípadov.
Výskumníci potvrdili, že novšie verzie AI modelov boli náchylnejšie na podobné nekalé praktiky najmä vtedy, keď boli pod tlakom. Z toho vyplýva, že súčasný vývoj umelej inteligencie kladie väčší dôraz na dosiahnutie cieľa než na morálku. Vyvstáva tak otázka, aké riziká môže priniesť nečestné správanie v aplikáciách, kde AI rozhoduje o financiách, prijímaní zamestnancov či iných kritických oblastiach.
Ďalšie dôležité správy
