
დეველოპერებისთვის, რომლებიც AI-ს იყენებენ, პროცესი ხშირად ან ყოველი ქმედების კონტროლს, ან მოდელის უკონტროლო მუშაობის რისკს გულისხმობს. Anthropic-ის განცხადებით, Claude-ის უახლესი განახლება მიზნად ისახავს ამ არჩევანის აღმოფხვრას და AI-ს აძლევს საშუალებას, თავად გადაწყვიტოს, რომელი ქმედებებია უსაფრთხო — გარკვეული შეზღუდვების ფარგლებში.
ეს ნაბიჯი ასახავს ინდუსტრიის უფრო ფართო ტენდენციას, სადაც AI ხელსაწყოები სულ უფრო ხშირად იქმნება ადამიანის დასტურის გარეშე სამოქმედოდ. მთავარი გამოწვევა სისწრაფისა და კონტროლის ბალანსია: ზედმეტი შეზღუდვები ანელებს პროცესს, ხოლო მათი ნაკლებობა სისტემებს სარისკოს და არაპროგნოზირებადს ხდის. Anthropic-ის ახალი auto mode, რომელიც ჯერჯერობით კვლევითი პრევიუს (research preview) რეჟიმშია, ამ ბალანსის პოვნის უახლესი მცდელობაა.
Auto mode იყენებს AI უსაფრთხოების მექანიზმებს თითოეული ქმედების შესამოწმებლად მის გაშვებამდე. ის ამოწმებს სარისკო ქცევებს, რომლებიც მომხმარებელს არ მოუთხოვია და ეძებს prompt injection-ის ნიშნებს. უსაფრთხო ქმედებები ავტომატურად სრულდება, ხოლო სარისკო — იბლოკება.
ეს ფუნქცია არსებითად წარმოადგენს Claude Code-ის უკვე არსებული dangerously-skip-permissions ბრძანების გაფართოებას, თუმცა დამატებითი უსაფრთხოების შრით. ის მიჰყვება GitHub-ისა და OpenAI-ის ავტონომიური პროგრამირების ინსტრუმენტების ტალღას, მაგრამ გადაწყვეტილების მიღების პროცესს კიდევ უფრო მეტად გადასცემს AI-ს.
Anthropic-ს ჯერ არ დაუკონკრეტებია ის ზუსტი კრიტერიუმები, რომლებსაც მისი უსაფრთხოების ფენა იყენებს უსაფრთხო და სარისკო ქმედებების გასამიჯნად. Auto mode ეფუძნება ახლახან ჩაშვებულ Claude Code Review-სა და Dispatch for Cowork ინსტრუმენტებს.
ახალი ფუნქცია უახლოეს დღეებში ხელმისაწვდომი გახდება Enterprise და API მომხმარებლებისთვის. კომპანიის თქმით, ის ამჟამად მუშაობს მხოლოდ Claude Sonnet 4.6 და Opus 4.6 მოდელებთან და რეკომენდებულია მისი გამოყენება იზოლირებულ (sandboxed) გარემოში, რათა მინიმუმამდე შემცირდეს პოტენციური ზიანი.
წყარო: techcrunch.com







