Из документации ChatGPT исчез прямой запрет на использование в военных целях
Компания OpenAI обновила политику использования ChatGPT и других своих продуктов в сфере искусственного интеллекта, чтобы сделать тексты «читаемее», однако новая редакция вызвала вопросы по поводу возможности военного использования разработок, сообщает The Intercept.
Если ранее в документации был четко обозначен запрет на использование инструментов компании в «военных и боевых» целях, то теперь текст не содержит этой терминологии.
В компании при этом поспешили заявить, что пункт про запрет использования «с целью нанесения вреда» может подразумевать военное использование.
«Любое использование наших технологий, в том числе военными, с целью производства и использования оружия, нанесения вреда людям, уничтожения имущества или других действий, вредящих безопасности, не допускается», — заявил изданию пресс-секретарь OpenAI Нико Феликс.
Сделанное Феликсом уточнение про военных в самом тексте отсутствует.
Разработчик Хайди Клаф, исследовавшая возможность использования ИИ в военных целях, подчеркнула, что разница между редакциями политики использования есть. По ее мнению, в новом тексте речь идет только о запрете на незаконные действия, а военное использование может происходить и в рамках закона.
«Учитывая предвзятость и галлюцинации, которые бывают с большими языковыми моделями (такими, как ChatGPT — прим. RTVI.US), и в целом их неточность, то их использование в военных целях приведет только к неточным и предвзятым действиям, которые вызовут увеличение вреда и числа жертв», — сказала она изданию.
Как отмечает издание, разработками OpenAI уже интересовались в Пентагоне, а ближайшим партнером компании остается фирма Microsoft, у которой давно есть крупные оборонные контракты в США. Microsoft инвестировала в разработки OpenAI не менее $13 млрд.