Новая ИИ-модель с «человеческим» мышлением может помочь создать биологическое оружие
Компания OpenAI представила новый продукт — серию генеративных моделей искусственного интеллекта под кодовым названием Strawberry («Клубника»). Официально они объединены под общим названием o1, и принцип их работы приближен к человеческому мышлению.
Две модели — o1-preview и o1 mini — уже доступны в ChatGPT и через API OpenAI. Эти продукты предназначены для того, чтобы затрачивать «больше времени на размышления, прежде чем реагировать». ИИ-модели запрограммированы на решение сложных задач в таких дисциплинах, как физика, химия и биология, а также в программировании и математике.
«Мы обучили эти модели тратить больше времени на обдумывание проблем, подобно тому, как это сделал бы человек, — отмечается в пресс-релизе компании. — Благодаря обучению они учатся совершенствовать свой мыслительный процесс, пробовать разные стратегии и признавать свои ошибки».
На квалификационном экзамене Международной математической олимпиады для старшеклассников прежняя ИИ-модель — GPT-4o — справилась лишь с 13% задач, а новая корректно обработала 83% материала. Но разработчики предупредили, что пока она не обладает все тем функционалом, который делает ChatGPT полезным, включая поиск информации и загрузку файлов.
В ближайшее время целесообразнее продолжать использовать GPT-4o, хотя для сложных задач подойдет новая ИИ-модель.
«[Новая] модель учится думать самостоятельно, а не пытается имитировать мышление людей, как это делает обычный магистр права», — пояснил Wired вице-президент по исследованиям OpenAI Марк Чен.
В системной карте, где объясняется принцип работы o1, OpenAI предупредила о «среднем риске» ее несанкционированного использования для разработки ядерного, радиологического, биологического и химического оружия. Этот уровень угрозы, обращает внимание Financial Times, является наивысшим из всех, который компания присваивала своим моделям. Так, в системной карте GPT-4o риск ее использования для разработки вышеупомянутого оружия назван «низким».
При оценке рисков OpenAI сосредоточилась именно на угрозе в части биологического оружия, поскольку там самый низкий порог для входа. Это не значит, что ИИ-модель сможет дать подсказку обычному человеку, не обладающему должной экспертизой, поясняет Vox. Однако она может «помочь экспертам в оперативном планировании воспроизведения известной биологической угрозы», ускорив и упростив процесс.
Научный сотрудник OpenAI Ноам Браун на своей странице в соцсети X (бывший Twitter) констатировал, что новая ИИ-модель не идеальна. Иногда она «сбивается даже при игре в крестики-нолики». Но чего не отнять у o1, так это способности «думать» и «рассуждать», используя обучение с подкреплением. Оно включает в себя предоставление положительной и отрицательной обратной связи, когда модель получает правильные и неправильные ответы.
«Чем дольше она думает, тем лучше справляется с задачами на рассуждение. Это открывает новое измерение для масштабирования, — пояснил Браун. — Предварительное обучение больше не является узким местом. Теперь мы также можем масштабировать вычисления логического вывода».
Специалисты, тестировавшие Strawberry, утверждают, что она намеревалась обмануть людей, выдавая свои действия за невинные. В частности, ИИ-модель «иногда инструментально подделывала выравнивание» и манипулировала данными, чтобы «несогласованные действия выглядели более согласованно».
Ранее RTVI.US рассказывал, что искусственный интеллект оказался смешнее человека.