Нейросети рискуют «отупеть» из-за ИИ-контента в интернете
Бесконтрольное распространение в Интернете контента, созданного при помощи искусственного интеллекта (ИИ), может угрожать дальнейшему развитию самой технологии, заявил научный сотрудник в области подотчетности ИИ Квинслендского технологического университета в Австралии Аарон Сносуэлл.
Нейросети работают за счет машинного обучения. Программисты создают для них математическую основу, а затем модели «учатся» за счет материала, который люди им предлагают «освоить». В прошлом году ученые попробовали начать обучать ИИ на продуктах их собственной деятельности, но результат оказался неутешительным. Каждая новая версия нейросети становилась «тупее и тупее», отметил специалист.
Ведущие компании пока продолжают выделять значительные средства на то, чтобы фильтровать «образовательный» контент для ИИ. Сносуэлл обратил внимание, что в документации компании OpenAI к версии их нейросети GPT-4 значилось «беспрецедентное» число ответственных за обучение ИИ сотрудников, а убирать иногда приходится до 90% изначально подобранных материалов из-за их низкого качества.
Если индустрия перейдет к более дешевому протестированному учеными формату, то нейросетям будет грозить нечто сродни инбридинга — близкородственного оплодотворения у животных, допустил Сносуэлл. Риск этого существует уже к 2026 году. К этому времени в сети может оказаться слишком мало новых качественных и созданных человеком материалов.
В этой связи OpenAI в последние годы заключила эксклюзивные сделки с банками данных, в том числе фотохранилищем ShutterStock, новостным агентством Associated Press и медиахолдингом NewsCorp. По мнению ученого, компания, вероятно, будет укреплять с ними сотрудничество, чтобы избежать «коллапса модели».
Он добавил, что положительно на будущем ИИ также может сказаться борьба с монополиями в этой сфере и попытки некоторых стран, в том числе его родной Австралии, начать требовать обязательную маркировку ИИ-контента в интернете. Для этого могут начать использовать аналог водяных знаков на фотографиях.
Ранее RTVI.US писал, что в Сан-Франциско объявили борьбу недобросовестному применению нейросетей — школьники при помощи них «раздевали» своих одноклассниц.