Google, гигант поисковой индустрии и часть корпорации Alphabet Inc., объявил о введении двух новых функций в свой поисковик изображений, которые будут обеспечивать больше информации о происхождении изображения и помогать в выявлении контента, созданного искусственным интеллектом (AI).
Первая функция, называемая «Об этом изображении», предоставляет дополнительную информацию о времени, когда изображение впервые было проиндексировано Google, и о месте его первого появления в Интернете. Эта функция поможет пользователям определить первоисточник изображения, что станет надежным инструментом противостояния дезинформации и помощью в подтверждении авторства.
Вторая функция связана с маркировкой изображений, созданных при помощи AI. Google объединяется с платформами и сервисами, такими как Midjourney и Shutterstock, чтобы обеспечить прозрачность и честность в результатах поиска изображений. Вся AI-генерированная графика будет соответствующим образом маркироваться, что позволит пользователям легко определить, является ли контент результатом работы AI.
Эти нововведения являются ответом Google на растущую проблему источников и авторства изображений в эпоху AI. Сегодня мы находимся в ситуации, когда технологии AI способны создавать фотореалистичные изображения, что может способствовать распространению дезинформации.
Google не единственная компания, активно работающая над решением этой проблемы. Например, Truepic Inc., поддерживаемая Microsoft, уже разрабатывает системы, которые могут гарантировать, что изображение не было изменено с момента его съемки и до момента отправки.
Изменения, внедряемые Google, показывают, что компания серьезно настроена на борьбу с дезинформацией и стремится обеспечить своим пользователям надежные и прозрачные инструменты для работы с цифровым контентом.
В чем проблема, Google?
Сгенерированный искусственным интеллектом контент может вызывать ряд проблем, связанных в основном с надежностью, авторством и прозрачностью.
1. Искусственный интеллект способен генерировать реалистичные изображения и тексты, что может быть использовано для распространения ложной информации. Примером служат так называемые «deepfakes» — видео, на которых лица людей заменяются на лица других людей с помощью AI, что может использоваться для создания обманчивого контента.
2. Искусственный интеллект способен генерировать тексты, музыку, изображения и другой контент, что вызывает вопросы об авторстве и оригинальности такого контента. Возникают споры о том, кому принадлежат права на AI-сгенерированный контент и является ли его использование плагиатом.
3. Иногда пользователи могут не осознавать, что контент был сгенерирован AI, что может влиять на их восприятие и интерпретацию этого контента. Это особенно важно в контексте новостей и информационного контента, где источник и авторство имеют большое значение.
4. Использование AI для генерации контента может также вызывать этические вопросы, связанные с автономией, приватностью и манипуляцией. Например, использование AI для создания реалистичных изображений людей, которые не существуют в реальности, может вызывать проблемы, связанные с правами на изображение и приватностью.
5. Несмотря на все усовершенствования, AI все еще может производить контент, который отличается от контента, созданного человеком, по качеству и точности. AI может совершать ошибки, которые человек не совершил бы, и не всегда может полностью понимать контекст или нюансы человеческого языка и культуры.
- Роскомнадзор включил WhatsApp в реестр организаторов распространения информации - 21/12/2024 18:44
- Что такое антидетект-браузер? - 21/12/2024 18:34
- Аналитики предсказывают возможное банкротство Ubisoft в 2025 году - 20/12/2024 21:18