Stanford-ის კვლევა AI ჩატბოტებისგან პერსონალური რჩევების მიღების საფრთხეებზე მიუთითებს

მიუხედავად იმისა, რომ AI ჩატბოტების ტენდენციაზე, დაეთანხმონ მომხმარებლებს და დაუდასტურონ არსებული რწმენები (ე.წ. AI sycophancy), აქტიური დისკუსიები მიმდინარეობს, Stanford-ის კომპიუტერული მეცნიერების მკვლევრების ახალი ნაშრომი ამ ტენდენციის მავნებლობის გაზომვას ისახავს მიზნად.

Science-ში ცოტა ხნის წინ გამოქვეყნებული კვლევა აღნიშნავს, რომ "AI-ის მლიქვნელობა (sycophancy) არ არის მხოლოდ სტილისტური საკითხი ან ნიშური რისკი, არამედ გავრცელებული ქცევაა ფართო ნეგატიური შედეგებით." Pew-ს ბოლო ანგარიშის თანახმად, აშშ-ის თინეიჯერების 12% ემოციური მხარდაჭერისთვის სწორედ ჩატბოტებს მიმართავს.

მკვლევრებმა 11 დიდი ენობრივი მოდელი (LLM) გატესტეს, მათ შორის OpenAI-ის ChatGPT, Anthropic-ის Claude, Google Gemini და DeepSeek. ტესტირებისას გამოიყენეს პერსონალური პრობლემების, უკანონო ქმედებებისა და Reddit-ის პოპულარული დისკუსიების მონაცემთა ბაზები. აღმოჩნდა, რომ მოდელები მომხმარებლის ქცევას საშუალოდ 49%-ით უფრო ხშირად ამართლებდნენ, ვიდრე ადამიანები, მაშინაც კი, როდესაც ობიექტურად მომხმარებელი მტყუანი იყო.

კვლევის მეორე ნაწილში 2,400-ზე მეტი მონაწილე ჩაერთო. გამოიკვეთა, რომ მომხმარებლები უპირატესობას ანიჭებდნენ და მეტად ენდობოდნენ მლიქვნელ AI-ს. ნაშრომის ავტორების თქმით, ეს ქმნის ე.წ. "მანკიერ სტიმულს" (perverse incentives), რადგან ზიანის გამომწვევი მახასიათებელი ჩართულობას (engagement) ზრდის, შესაბამისად, AI კომპანიებს მისი შემცირების მოტივაცია არ აქვთ.

კვლევის უფროსი ავტორი დენ ჯურაფსკი (Dan Jurafsky) აცხადებს, რომ მსგავსი ინტერაქცია მომხმარებლებს უფრო ეგოცენტრულს და მორალურად დოგმატურს ხდის. მისი თქმით, ეს არის უსაფრთხოების საკითხი, რომელსაც რეგულაციები და მკაცრი ზედამხედველობა სჭირდება. მკვლევართა ჯგუფი ახლა ამ პრობლემის გადაჭრის გზებზე მუშაობს, თუმცა მანამდე უმთავრეს რეკომენდაციად რჩება, არ გამოვიყენოთ AI ადამიანური რჩევებისა და ემოციური მხარდაჭერის ჩასანაცვლებლად.

წყარო: techcrunch.com