
OpenAI მხარს უჭერს ილინოისის შტატის კანონპროექტს (SB 3444), რომელიც AI ლაბორატორიებს დაიცავს პასუხისმგებლობისგან იმ შემთხვევებში, როდესაც AI მოდელები გამოიწვევენ სერიოზულ ზიანს - მაგალითად, 100 ან მეტი ადამიანის სიკვდილს, მძიმე ტრავმას ან მინიმუმ 1 მილიარდი დოლარის ქონებრივ ზარალს.
ეს ნაბიჯი OpenAI-ის საკანონმდებლო სტრატეგიის ცვლილებაზე მიუთითებს. კანონპროექტი მოწინავე (frontier) AI დეველოპერებს ათავისუფლებს პასუხისმგებლობისგან კრიტიკული ზიანის შემთხვევაში, თუ ეს არ იყო განზრახული ან უპასუხისმგებლო ქმედების შედეგი და თუ კომპანიას გამოქვეყნებული აქვს უსაფრთხოების და გამჭვირვალობის ანგარიშები. დოკუმენტში frontier მოდელად განისაზღვრება ნებისმიერი AI სისტემა, რომლის ტრენინგი 100 მილიონ დოლარზე მეტი დაჯდა, რაც პირდაპირ ეხება ისეთ გიგანტებს, როგორიცაა OpenAI, Google, xAI, Anthropic და Meta.
"ჩვენ მხარს ვუჭერთ მსგავს მიდგომებს, რადგან ისინი ფოკუსირებულია ყველაზე მნიშვნელოვანზე: შემცირდეს სერიოზული რისკები მოწინავე AI სისტემებისგან და ამავდროულად, ტექნოლოგია ხელმისაწვდომი დარჩეს ბიზნესებისთვის. ეს ასევე გვეხმარება ავირიდოთ თითოეულ შტატში განსხვავებული წესების არსებობა და გადავიდეთ ეროვნულ სტანდარტებზე," - განაცხადა OpenAI-ის წარმომადგენელმა, ჯეიმი რადისმა.
კანონპროექტი კრიტიკულ ზიანად მიიჩნევს ისეთ შემთხვევებს, როგორიცაა AI-ის გამოყენება ქიმიური, ბიოლოგიური, რადიოლოგიური ან ბირთვული იარაღის შესაქმნელად. OpenAI-ის გლობალური ურთიერთობების გუნდის წევრი, კეიტლინ ნიდერმაიერი ხაზს უსვამს აშშ-ის ფედერალური რეგულაციების ჩარჩოს მნიშვნელობას, რათა არ შეფერხდეს ამერიკის პოზიციები გლობალურ AI რბოლაში.
თუმცა, Secure AI პროექტის პოლიტიკის დირექტორის, სკოტ უაისორის თქმით, კანონპროექტის მიღების შანსები მცირეა, რადგან ილინოისის მოსახლეობის 90% ეწინააღმდეგება AI კომპანიების პასუხისმგებლობისგან გათავისუფლებას. ფედერალური დონეზე ერთიანი კანონმდებლობის არარსებობის ფონზე, კვლავ ღიად რჩება სამართლებრივი კითხვა: ვინ აგებს პასუხს, თუ AI მოდელი კატასტროფულ მოვლენას გამოიწვევს.
წყარო: wired.com







