ШІ

OpenAI надасть уряду США ранній доступ до своєї наступної моделі штучного інтелекту

⠀Поширити:

OpenAI надасть Інституту безпеки штучного інтелекту США ранній доступ до своєї наступної моделі в рамках зусиль з безпеки, повідомляє Engadget з посиланням на Сема Альтмана. Судячи з усього, компанія співпрацює з консорціумом “з метою просування науки про оцінку ШІ”.

Останні новини: OpenAI запускає розширений голосовий режим, який робить спілкування з ChatGPT ще природнішим

Національний інститут стандартів і технологій (NIST) офіційно створив Інститут безпеки штучного інтелекту на початку цього року, хоча віцепрезидент Камала Гарріс оголосила про це ще у 2023 році на британському саміті з безпеки ШІ. Згідно з описом консорціуму, наданим NIST, його мета – “розробка науково обґрунтованих та емпірично підтверджених керівних принципів і стандартів для вимірювання та політики у сфері ШІ, що закладе основу для безпеки ШІ в усьому світі”.

Минулого року компанія разом з DeepMind також пообіцяла поділитися моделями ШІ з урядом Великої Британії. Як зазначає TechCrunch, зростала стурбованість тим, що OpenAI робить безпеку менш пріоритетним завданням, оскільки прагне розробити більш потужні моделі ШІ.

Також цікаво: OpenAI кинула виклик Google: зустрічайте SearchGPT

Були припущення, що рада директорів вирішила вигнати Сема Альтмана з компанії – його дуже швидко поновили – через проблеми з безпекою. Однак у внутрішній записці компанія повідомила співробітникам, що це сталося через “розрив у комунікації”.

У травні цього року OpenAI визнала, що розпустила команду Superalignment, яку вона створила, щоб гарантувати безпеку людства в міру того, як компанія просуває свою роботу над генеративним штучним інтелектом. Перед цим компанію покинув співзасновник і головний науковий співробітник OpenAI Ілля Суцкевер, який був одним з лідерів команди.

Також звільнився Ян Лейке, який також був одним з лідерів команди. У серії твітів він заявив, що вже давно не погоджується з керівництвом OpenAI щодо основних пріоритетів компанії, і що “культура і процеси безпеки відійшли на другий план перед блискучими продуктами”.

Підпишись на Channel Tech в Telegram

Наприкінці травня OpenAI створила нову групу з безпеки, але її очолили члени правління, серед яких був і Альтман, що викликає побоювання щодо самоконтролю.

Підпишись на Channel Tech в Google News
⠀Поширити:

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *