Порно-дипфейки, новое оружие и научные прорывы: что принес миру искусственный интеллект в 2024 году?

Порно-дипфейки, новое оружие и научные прорывы: что принес миру искусственный интеллект в 2024 году?
ThisIsEngineering / Pexels

Искусственный интеллект (ИИ) ворвался в нашу жизнь в 2023 году, а в уходящем 2024-м, похоже, окончательно в ней закрепился. Даже лауреаты Нобелевской премии по химии Демис Хассабис и Джон Джампер получили ее за разработку алгоритма машинного обучения AlphaFold, который позволяет строить трехмерные структуры белков. С его помощью ученые смогли предсказать структуру практически 200 миллионов белков.

В принципе, ИИ активно используется в разных научных сферах, но специалисты особенно отмечают его проникновение в биологию, где он, в частности, облегчает понимание разнообразных белковых систем и открытие белковых инструментов, а также помогает в разработке новых лекарств. Ожидается, что уже в 2025 году это приведет к прорывам в области медицинских препаратов, белков и антител.

Как рассказывал RTVI.US, искусственный интеллект научился определять признаки рака с точностью до 90%. Для этого ученые из шведского университета Гётеборга обучили модель ИИ Candycrunch молниеносно определять их (признаки) методом анализа структур сахарных молекул в клетках тела человека.

Кроме того, такие компании, как Boston Dynamics и Tesla, активно работают над созданием гуманоидных роботов, оснащенных ИИ. Эти разработки обещают существенные изменения в промышленности и быту, ускоряя исследования в области тактильного обратного связывания и мультимодального взаимодействия.

Мощным инструментом стал генеративный ИИ (GenAI). Его его применение расширилось в здравоохранении, где он помогает в диагностике заболеваний и разработке персонализированных планов лечения, образовании (адаптивное обучение и генерация учебных материалов) и сфере развлечений (создание фильмов и музыки с минимальным участием человека).

Еще одним стандартом, похоже, стали мультимодальные модели, способные обрабатывать текст, изображения, видео и аудио. Они улучшили интерактивные интерфейсы (например, голосовые ассистенты), приложения в здравоохранении и промышленности, образовательные технологии, где мультимодальность усиливает восприятие информации. Все это также позволило создавать более сложные и функциональные системы ИИ, улучшая взаимодействие между технологиями и пользователями.

Среди новых знаковых языковых моделей, появившихся в 2024 году, — Claude 3 Opus от компании Anthropic и Reflection 70B, основанная на Llama 3.1. Также OpenAI представила модель GPT-4o (омни), которая обеспечивает улучшенную производительность в различных задачах и условиях.

Появились сильные открытые модели ИИ, способные конкурировать с проприетарными (закрытыми) системами, такими как Chat GPT-4. Новые архитектуры чипов для нейроморфных вычислений сделали возможным использование ИИ в режиме реального времени с минимальными затратами энергии. Это особенно важно для устройств интернета вещей (IoT), автономных автомобилей, персональных гаджетов.

Среди прочего, ученые из Китая разработали ИИ-модель, ориентированную на анализ метаболитов в сыворотке крови человека. Метаболиты выступают «биомаркером» потенциального наличия онкологии. Такой тип искусственного интеллекта поможет закрыть пробел в диагностике колоректального рака, а также онкологии поджелудочной железы и кишечника.

Как писал RTVI.US, искусственный интеллект даже оказался смешнее человека, а GPT-4 прошел тест Тьюринга, с помощью которого участники эксперимента должны были определить, кто с ними взаимодействует — реальный человек или компьютерная программа.

В 2025 году эксперты ожидают создание новых моделей, которые смогут одновременно обрабатывать текст, изображения, видео, аудио и данные из других источников (например, сенсоров). Это позволит улучшить голосовые ассистенты и образовательные платформы, визуализировать сложные научные данные, создавать виртуальные миры для обучения и развлечений.

Также ожидается интеграция ИИ с квантовыми вычислениями, что может ускорить решение сложных задач в криптографии и моделирование химических процессов и материалов. В перспективе это приведет к прорывам в энергетике, например, в исследованиях термоядерного синтеза.

Не без эксцессов

В Техасе чат-бот Character.AI, созданный разработчиками, ранее сотрудничавшими с Google, настраивал подростков против родителей, даже оправдывая их убийство, если они ограничивают время пользования смартфоном. На этом фоне у одного из детей возникли вспышки агрессии, он также начал бояться выходить на улицу.

К слову, ранее в Техасе захотели поставить под контроль использование искусственного интеллекта, включая нейросети, государственными учреждениями. Администрация штата хочет, чтобы агентства предоставляли доказательства того, что это соответствует бюджетным нормативам и законодательству по защите персональных данных.

С этим перекликается мартовский запрет американским конгрессменам пользоваться для служебных целей нейросетью Bing Copilot от Microsoft из-за рисков утечек.

А городской чат-бот Нью-Йорка MyCity, запущенный администрацией мэра Эрика Адамса, дает на запросы пользователей ответы, в которых содержится неполная, а часто некорректная — вплоть до противоположной по значению — информация. Иногда чат-бот напрямую разрешает нарушать городское законодательство.

Большой проблемой стали порно-дипфейки. Как рассказывал RTVI.US, в сети наблюдается рост количества детской порнографии, сгенерированной с помощью ИИ. Это вызывает серьезные опасения у правоохранителей и правозащитников, а в Пенсильвании даже привело к протестам. Ведущие технологические компании, включая Google и OpenAI, объединили усилия с организацией Thorn, борющейся с сексуальной эксплуатацией детей, с целью предотвращения распространения материалов, созданных с помощью ИИ. При этом еще в 2003 году в США был подписан закон, запрещающий производство любых материалов детей в сексуально-эксплицитных ситуациях, даже если они не существуют в реальности.

В стране пытаются запретить порно-дипфейки на законодательном уровне. В частности, летом городская прокуратура Сан-Франциско подала иск к 16 сайтам, позволявшим школьникам и другим пользователям «раздевать» друг друга с помощью нейросетей и создавать порно-дипфейки. Порталы посещались за первую половину 2024 года более 200 миллионов раз. Изображения иногда использовались для шантажа. В прокуратуре полагают, что сайты нарушили законы Калифорнии и США о порномести, детской порнографии и добросовестной конкуренции.

Ранее, как рассказывал RTVI.US, соцсеть X (бывший Twitter) пыталась бороться с распространением порно-фейков с певицей Тейлор Свифт. Ситуация даже обеспокоила Белый дом.

ИИ также используют в кибератаках. Злоумышленники применяли искусственный интеллект для автоматизации фишинговых атак, создания вредоносного ПО и обхода систем безопасности. Это повысило сложность и масштаб киберугроз, требуя от организаций усиления мер кибербезопасности.

Хакеры использовали ИИ и в политических целях. Так, в мае компания OpenAI, разработавшая чат-бот ChatGPT, впервые сообщила о разоблачении операций по обманному использованию искусственного интеллекта с целью воздействия на общественные мнение и политические процессы. Среди тех, кто пытался продвигать пропагандистские нарративы, назывались группы из России, Китая, Ирана и Израиля.

До этого RTVI.US рассказывал, что группы влияния, предположительно, связанные с Кремлем, активизировали усилия по дискредитации готовившихся тогда президентских выборов в США, в частности рассказывая об украинской «фабрике троллей», которая под руководством команды президента Украины Владимира Зеленского якобы пыталась очернить республиканского кандидата Дональда Трампа, чтобы не дать ему одержать победу над действующим президентом демократом Джо Байденом.

Осенью та же OpenAI пресекла деятельность иранских групп, которые использовали ChatGPT для дестабилизации американского общества перед выборами.

В сентябре представитель американской разведки также заявил, что пропагандисты в Китае, Иране и России с помощью искусственного интеллекта генерируют контент, конечной целью которого является обман граждан США в преддверии ноябрьского голосования. За месяц до этого OpenAI отчитывалась о блокировке аккаунтов, которые использовали ChatGPT для создания пропагандистских «длинных статей и более коротких комментариев в социальных сетях».

Кстати, в ноябре ChatGPT заблокировал более 250 000 изображений кандидатов в президенты США. А в начале года фейковый Байден звонил избирателям Нью-Гэмпшира — об этом рассказывал RTVI.US. Звонки поступали из Джорджии — местного провайдера связи в итоге оштрафовали на $1 млн.

Оружейный ИИ

В сентябре OpenAI представила новый продукт — серию генеративных моделей искусственного интеллекта под кодовым названием Strawberry («Клубника»). Официально они объединены под общим названием o1, и принцип их работы приближен к человеческому мышлению.

Но что интересно, в системной карте, где объясняется принцип работы o1, OpenAI предупредила о «среднем риске» ее несанкционированного использования для разработки ядерного, радиологического, биологического и химического оружия. Этот уровень угрозы, обращает внимание Financial Times, является наивысшим из всех, который компания присваивала своим моделям.

При оценке рисков OpenAI сосредоточилась именно на угрозе в части биологического оружия, поскольку там самый низкий порог для входа. Это не значит, что ИИ-модель сможет дать подсказку обычному человеку, не обладающему должной экспертизой, поясняет Vox. Однако она может «помочь экспертам в оперативном планировании воспроизведения известной биологической угрозы», ускорив и упростив процесс.

Накануне директор центра военно-политического анализа Гудзоновского университета Ричард Вайц в беседе с RTVI US допустил, что с высокой долей вероятности расходы на развитие искусственного интеллекта заложены в новый оборонный бюджет США.

В мае Военно-воздушные силы (ВВС) США протестировали истребитель, который пилотировал искусственный интеллект. На борту в качестве пассажира находился глава ВВС Фрэнк Кендалл.

RTVI.US также рассказывал о перспективах выпускников IT-специальностей в США.