Anthropic უარყოფს ომის დროს AI ინსტრუმენტების შესაძლო საბოტაჟს

Anthropic ვერ შეძლებს თავისი გენერაციული AI მოდელის, Claude-ის მანიპულირებას მას შემდეგ, რაც აშშ-ის სამხედრო ძალები მის გამოყენებას დაიწყებენ, — განაცხადა კომპანიის აღმასრულებელმა პირმა პარასკევს სასამართლოში წარდგენილ დოკუმენტში. ეს განცხადება ტრამპის ადმინისტრაციის ბრალდებების პასუხად გაკეთდა, რომელიც კომპანიას ომის დროს AI ინსტრუმენტებში შესაძლო ჩარევაში ადანაშაულებს.

„Anthropic-ს არასდროს ჰქონია შესაძლებლობა, გაეთიშა Claude, შეეცვალა მისი ფუნქციონირება, შეეზღუდა წვდომა ან სხვაგვარად საფრთხე შეექმნა სამხედრო ოპერაციებისთვის“, — წერს თიაგუ რამასამი, Anthropic-ის საჯარო სექტორის ხელმძღვანელი. „Anthropic-ს არ აქვს ის წვდომა, რომელიც საჭიროა ტექნოლოგიის გასათიშად ან მოდელის ქცევის შესაცვლელად მიმდინარე ოპერაციების დაწყებამდე ან მის განმავლობაში.“

პენტაგონი თვეების განმავლობაში დავობს წამყვან AI ლაბორატორიასთან იმის თაობაზე, თუ როგორ შეიძლება მისი ტექნოლოგიის გამოყენება ეროვნული უსაფრთხოებისთვის — და რა შეზღუდვები უნდა დაწესდეს. ამ თვეში თავდაცვის მდივანმა, პიტ ჰეგსეტმა Anthropic მიწოდების ჯაჭვის რისკად (supply-chain risk) გამოაცხადა, რაც თავდაცვის დეპარტამენტს მომდევნო თვეებში კომპანიის პროგრამული უზრუნველყოფის გამოყენებას აუკრძალავს. Claude-ზე უარს სხვა ფედერალური სააგენტოებიც ამბობენ.

Anthropic-მა აკრძალვის არაკონსტიტუციურობის გასაჩივრების მიზნით ორი სარჩელი შეიტანა და მის შესაჩერებლად გადაუდებელ ორდერს ითხოვს. თუმცა, მომხმარებლებმა ხელშეკრულებების გაუქმება უკვე დაიწყეს. ერთ-ერთ საქმეზე მოსმენა 24 მარტსაა ჩანიშნული.

მთავრობის იურისტების განცხადებით, თავდაცვის დეპარტამენტი „არ არის ვალდებული დაუშვას რისკი, რომ კრიტიკულ სამხედრო სისტემებს ეროვნული თავდაცვისა და აქტიური სამხედრო ოპერაციების გადამწყვეტ მომენტებში საფრთხე დაემუქრება“.

პენტაგონი Claude-ს მონაცემთა ანალიზისთვის, მემორანდუმების შესადგენად და საბრძოლო გეგმების გენერირებისთვის იყენებდა. მთავრობის არგუმენტია, რომ Anthropic-ს შეუძლია აქტიური სამხედრო ოპერაციების შეფერხება Claude-ზე წვდომის გათიშვით ან საზიანო განახლებების გავრცელებით, თუ კომპანია მის კონკრეტულ გამოყენებას არ დაეთანხმება.

რამასამიმ ეს შესაძლებლობა უარყო. „Anthropic არ ფლობს არანაირ ე.წ. back door-ს ან დისტანციურ 'kill switch-ს'“, — წერს იგი. მისივე თქმით, ტექნოლოგია უბრალოდ არ მუშაობს ისე, რომ პერსონალმა შეძლოს ოპერაციის დროს მოდელების შეცვლა ან გათიშვა. განახლებების მიწოდება მხოლოდ მთავრობისა და cloud პროვაიდერის (ამ შემთხვევაში Amazon Web Services) თანხმობითაა შესაძლებელი. Anthropic-ს არ აქვს წვდომა სამხედრო მომხმარებლების მიერ Claude-ში შეყვანილ მონაცემებზე.

Anthropic-ის ხელმძღვანელები აცხადებენ, რომ კომპანიას არ სურს სამხედრო ტაქტიკურ გადაწყვეტილებებზე ვეტოს უფლების ქონა. პოლიტიკის ხელმძღვანელის, სარა ჰეკის თქმით, კომპანია მზად იყო შეთანხმებულიყო პირობებზე, რომლებიც გამორიცხავდა Claude-ის გამოყენებას ადამიანის ზედამხედველობის გარეშე მომაკვდინებელი დარტყმებისთვის, თუმცა მოლაპარაკებები საბოლოოდ ჩაიშალა.

წყარო: wired.com