Широкое внедрение платформ генеративного искусственного интеллекта (ИИ), таких как ChatGPT и DALL-E, после пандемии COVID-19 изменило многие аспекты нашей цифровой жизни. Используя генерацию естественного языка (NLG) и большие языковые модели (LLM), генеративный ИИ стал эффективным инструментом повышения производительности для создания широкого спектра контента — от статей до визуальных материалов, отчетов, видео и озвучки — без явных инструкций. Подобно приправе блюда солью, ИИ повышает производительность, но требует тщательного контроля.
Появление генеративного ИИ, несомненно, увеличило производительность, эффективность и креативность. Оно также несет в себе значительные опасности, особенно в отношении целостности информации и прав человека, поскольку системы ИИ все чаще включаются в цифровые платформы.
Риски для целостности информации, создаваемые генеративным ИИ
Реалистичный контент, созданный или опосредованный ИИ, может быть очень правдоподобным, его трудно опознать и он быстро распространяется. Когда такой контент передает ложную или вводящую в заблуждение информацию, он может усугубить дефицит доверия.
Инструменты ИИ широко используются не только из-за более высокого качества их выходных данных, но и из-за более простых в использовании интерфейсов и повышенной доступности. Эти факторы могут давать как благоприятные, так и неблагоприятные результаты. С положительной стороны, разработки в области ИИ обеспечивают большую эффективность, удобство и определенную степень демократии. С другой стороны, важно понимать, что LLM не предназначены для сообщения правды. Они не гарантируя точности или фактической информации, а предоставляют вероятные утверждения, основанные на закономерностях в обучающих данных. Поскольку многие пользователи не знают об этом аспекте LLM, они имеют возможность смешивать точную и , воспринимая и ту и другую в равной мере, что ставит под угрозу целостность информации.
Общество часто следует тенденциям, не подвергая их сомнению, позволяя таким важнейшим ценностям, как права человека, быть отодвинутыми на второй план.
Более того, цифровые платформы и генеративный ИИ являются прекрасным сочетанием для распространения фейковой и вводящей в заблуждение информации, поскольку алгоритмы на большинстве цифровых платформ отдают приоритет контенту с повышенным взаимодействием с пользователем, а не точности контента. Более широкое использование сгенерированных ИИ материалов в качестве оружия для искажения фактов может привести к более быстрому распространению ложной информации. Хотя технологии проверки фактов продвинулись вперед, цифровым платформам и алгоритмам ИИ по-прежнему не хватает надежных механизмов для регулярного подтверждения легитимности материала. Кроме того, разные платформы и юрисдикции имеют , что означает, что даже при обнаружении неточного материала исправление может занять часы или дни.
Если процесс проверки фактов в цифровом материале продолжит функционировать таким образом, распространение ложной и дезинформации может увеличиться, что вызовет дополнительные опасения относительно подлинности, предвзятости, конфиденциальности информации и т. д. Распространение такой информации также ставит под угрозу демократические институты и основные права человека.
Чтобы понимать права человека, нужно быть человеком.
Статья 19 Всеобщей декларации прав человека гласит, что ?каждый человек имеет право на свободу мнения и его свободное выражение?. Но эта свобода не должна злоупотребляться или искажаться с целью причинения вреда другим людям или сообществам. К сожалению, контент, созданный ИИ, все чаще используется для распространения языка ненависти, ксенофобии и дискриминационной риторики, направленной на уязвимые группы населения, такие как и этнические меньшинства.
Исследование 2019 года, проведенное Deeptrace, компанией по кибербезопасности из Амстердама, показало, что . Кроме того, , особенно в отношении женщин и детей, чтобы заманить их в эксплуатацию.
Существуют также проблемы с правами человека с технологической стороны. Алгоритмы обучения ИИ в первую очередь опираются на огромные объемы данных, собранных с обширных цифровых и социальных медиа-платформ, которые загружаются людьми или генерируются посредством человеческого взаимодействия. Учитывая огромный объем накопленных данных, людям практически невозможно просмотреть или даже просмотреть каждую часть информации тщательно. Модели ИИ используют эти данные для выявления тенденций, генерации прогнозов и создания синтетического контента, но . Такое отсутствие сложности в моделях ИИ может привести к распространению вредных предубеждений и откровенно вводящей в заблуждение информации, которая может нарушать права человека.
Другим потенциальным источником нарушений прав человека является рабочая среда персонала, ответственного за обслуживание и обучение систем ИИ. Им часто недоплачивают, они подвергаются воздействию травмирующего контента и работают в условиях, которые могут привести к психологическому стрессу, что недавно стало привлекать внимание. более 150 работников, задействованных в системах ИИ Facebook, TikTok и ChatGPT, собрались в Найроби и пообещали создать первый африканский профсоюз модераторов контента.
Общество часто следует тенденциям, не подвергая их сомнению, позволяя таким важнейшим ценностям, как права человека, быть отодвинутыми на второй план. Мы можем быть особенно уязвимы в случае ИИ, поскольку он все глубже проникает в нашу повседневную жизнь. Это быстрое расширение платформ генеративного ИИ выдвигает на первый план этические проблемы, особенно касающиеся прав человека. Прямо сейчас слабая политика оставляет конфиденциальность и автономию людей уязвимыми, позволяя технологическим компаниям эксплуатировать цифровые пространства для получения прибыли.
Поскольку общество становится все более зависимым от цифровых платформ и сервисов, решение этих проблем, особенно связанных с правами человека, становится все более актуальным.
Мы же люди в конце концов.
Дорога впереди действительно длинная и трудная, и поскольку ИИ продолжает развиваться, ответственный подход имеет решающее значение — такой, который сочетает технологические инновации с сохранением истины, достоинства и прав человека. Многогранный подход является обязательным для смягчения рисков, создаваемых генеративным ИИ.
Владельцы цифровых платформ должны нести ответственность за контент, которым они делятся, особенно в контексте дезинформации, усиленной ИИ.
С технической точки зрения, чтобы сделать контент ИИ точным и надежным, разработчикам следует начать с тщательного тестирования, чтобы выявить предвзятость, ошибки и уязвимости на этапе разработки. Прозрачность данных, алгоритмов и принятия решений имеет важное значение для создания доверия и устранения влияния ИИ на целостность информации, поскольку использование разнообразных наборов данных помогает избежать вредных предвзятостей и приводит к более сбалансированному контенту. Как рекомендовано в Глобальных принципах целостности информации Организации Объединенных Наций, технологические компании должны предоставить пользователям возможность вносить вклад и давать обратную связь по всем аспектам доверия и безопасности, политики конфиденциальности и использования данных, признавая права пользователей на конфиденциальность. Необходимо улучшить выбор и контроль пользователей, а также совместимость с рядом услуг от различных поставщиков.
Что касается прав человека, то юридические органы и правозащитные группы должны активно поддерживать разработку и использование ИИ таким образом, чтобы уважать частную жизнь и достоинство личности. В рамках этой информационно-пропагандистской работы следует ввести более строгие правила защиты данных, чтобы оградить людей от навязчивого сбора данных и помешать системам искусственного интеллекта использовать персональные данные в своих целях без разрешения. Наблюдатели за соблюдением прав человека должны включить этику ИИ в существующие рамки защиты прав человека, гарантируя при этом, что приложения ИИ уважают права личности, такие как неприкосновенность частной жизни, свобода выражения мнений и право на недискриминацию. Особая защита имеет решающее значение для уязвимых групп, включая женщин, детей, пожилых людей, инвалидов, коренные народы, беженцев, представителей ЛГБТИК+ сообщества и этнические или религиозные меньшинства.
Владельцы цифровых платформ должны нести ответственность за контент, которым они делятся, особенно в контексте дезинформации, усиленной ИИ. Необходимо разработать более продвинутые системы мониторинга контента, которые могут быстро идентифицировать и удалять или маркировать дезинформацию, созданную ИИ. Цифровые платформы также могут гарантировать, что люди понимают, как выбирается и продвигается контент, став более прозрачными в отношении своих алгоритмов и методов сбора данных.
Вместе мы можем гарантировать, что генеративный искусственный интеллект будет использоваться надлежащим образом в будущем, и что его преимущества будут достигаться без угрозы целостности информации и правам человека. Призыв к ответственным практикам ИИ — это не просто возможность, а необходимость для обеспечения справедливого и равноправного цифрового будущего.
Данная статья была подготовлена с помощью машинного перевода; были предприняты усилия для обеспечения точности перевода. Организация Объединенных Наций не несет ответственности за возможные ошибки или неточности, возникшие в результате машинного перевода. В случае возникновения вопросов, связанных с точностью информации, представленной в данном переводе, рекомендуется обратиться к оригиналу статьи на английском языке.
?
?Хроника ООН??не является официальным документом. Для нас большая честь публиковать статьи высокопоставленных лиц Организации Объединённых Наций, а также видных государственных и общественных деятелей со всего мира. Выраженные в статьях взгляды и мнения принадлежат авторам и могут не совпадать с официальной позицией Организации Объединённых Наций. Подобным образом указанные в статьях, картах и приложениях границы, географические названия и обозначения могут отличаться от официально признанных Организацией.?