
У четвер компанія Anthropic представила Claude Gov — новий продукт, створений спеціально для американських оборонних та розвідувальних агентств. Ця модель штучного інтелекту має знижені обмеження для урядового використання та покращені можливості для аналізу конфіденційної інформації.
Фірма оголосила, що її нові моделі "вже застосовуються у відомствах, які займаються найвищими питаннями національної безпеки США". Доступ до цих моделей буде надано лише державним структурам, які працюють зі секретною інформацією. Компанія не уточнила, скільки часу ці моделі вже перебувають у використанні.
Моделі Claude Gov були створені з урахуванням особливих потреб урядів, зокрема для оцінки загроз і аналізу розвідувальної інформації, як зазначено в блозі Anthropic. Хоча компанія стверджує, що ці моделі пройшли ті ж жорсткі тести на безпеку, що й інші версії Claude, вони мають специфічні налаштування для роботи в сфері національної безпеки. Наприклад, ці моделі "менше схильні до відмов" при обробці конфіденційних даних, що є відмінністю від споживчої версії Claude, яка навчена уникати таких ситуацій.
За словами Anthropic, моделі Claude Gov також краще розуміють документи та контекст у сфері оборони та розвідки, а також краще володіють мовами та діалектами, що мають відношення до національної безпеки.
Використання штучного інтелекту державними органами вже давно стало об'єктом ґрунтовного аналізу через ймовірні негативні наслідки для меншин та вразливих груп населення. Існує багато випадків неправомірних арештів в різних штатах США, що стали наслідком використання поліцією технологій розпізнавання облич. Крім того, є задокументовані свідчення упередженості в предиктивних поліцейських системах та дискримінації в алгоритмах, які визначають надання соціальної допомоги. Протягом років тривають дискусії в індустрії щодо того, чи повинні великі технологічні компанії, такі як Microsoft, Google та Amazon, постачати свої AI-продукти військовим, зокрема в Ізраїлі. Це викликало хвилю кампаній та громадських протестів у рамках ініціативи "Ні технологіям для апартеїду".
Політика використання Anthropic конкретно диктує, що будь-який користувач повинен "не створювати і не сприяти обміну незаконною або суворо регульованою зброєю або товарами", включаючи використання продуктів або послуг Anthropic для "виробництва, модифікації, проектування, продажу або розповсюдження зброї, вибухових речовин, небезпечних матеріалів або інших систем, призначених для заподіяння шкоди або втрати людських життів".
Щонайменше одинадцять місяців тому компанія заявила, що створила низку договірних винятків зі своєї політики використання, які "ретельно вивірені, щоб уможливити корисне використання ретельно відібраними державними установами". Певні обмеження - такі як дезінформаційні кампанії, розробка або використання зброї, створення систем цензури та зловмисні кібероперації - залишатимуться забороненими. Але Anthropic може вирішити "адаптувати обмеження використання до місії та юридичних повноважень державної установи", хоча вона буде прагнути "збалансувати корисне використання наших продуктів і послуг з пом'якшенням потенційної шкоди".
Claude Gov є відповіддю компанії Anthropic на ChatGPT Gov — продукт OpenAI, призначений для урядових організацій США, що був представлений у січні. Це також відображає ширшу тенденцію, коли як великі компанії в сфері штучного інтелекту, так і стартапи намагаються укріпити свої зв'язки з державними структурами, особливо в умовах нестабільного регуляторного середовища.
Коли OpenAI анонсувала ChatGPT Gov, компанія заявила, що протягом минулого року понад 90 000 співробітників федеральних, регіональних і місцевих органів влади використовували її технологію для перекладу документів, створення резюме, підготовки політичних меморандумів, написання коду, створення додатків і багато чого іншого. Anthropic відмовилася поділитися цифрами або подібними кейсами використання, але компанія є частиною програми FedStart від Palantir, що пропонує SaaS для компаній, які хочуть розгорнути програмне забезпечення для федерального уряду.
Scale AI, один з найбільших гравців у сфері штучного інтелекту, який постачає навчальні дані провідним компаніям, таким як OpenAI, Google, Microsoft та Meta, у березні уклав угоду з Міністерством оборони США для розробки унікальної програми ШІ-агентів, призначеної для військового планування. З того часу компанія розширила свої горизонти, уклавши нещодавно п'ятирічну угоду з урядом Катару, щоб забезпечити автоматизаційними інструментами різні сфери, включаючи державну службу, охорону здоров'я та транспорт.
#Бізнес #Споживач #Штучний інтелект #Стартап-компанія #Поліція. #Блог #Мета-платформи #OpenAI #Дискримінація #Google #Автоматизація #Програмне забезпечення #Оцінка розвідданих #Ізраїль #Національна безпека #Microsoft #ChatGPT #Amazon (компанія) #Плагін (обчислення) #Катар #Розвідувальна інформація #Алгоритм #Palantir Technologies #Цензура #Специфікація (технічний стандарт) #Апартеїд #Програмне забезпечення як послуга