Основатель компаний Tesla и SpaceX Илон Маск вместе с рядом видных представителей IT-сферы и экспертов в области искусственного интеллекта подписали петицию, призывающую временно приостановить развитие нейросети GPT.
Почти сто экспертов из разных стран объединились для создания открытого письма, в котором выразили свою обеспокоенность возможными негативными последствиями дальнейшего развития данной технологии. Они утверждают, что риски, связанные с более мощной версией GPT, могут стать угрозой для экономической и политической стабильности, а также повлечь за собой массовую замену некоторых профессий, включая творческие.
Цитата из письма: «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми».
Кроме того, эксперты предупреждают о возможности использования GPT для мошеннических целей, включая фишинг, дезинформацию и киберпреступность. Таким образом, ученые настаивают на том, чтобы рассмотреть эти вопросы и найти решение, которое поможет избежать возможных проблем в будущем.
К числу подписантов петиции присоединились такие известные деятели IT-индустрии, как Стив Возняк, сооснователь компании Apple, и Эмад Мостак, генеральный директор Stability AI. Позицию экспертов поддержал Европол – европейская полицейская организация.
Однако стоит отметить, что исполнительный директор OpenAI, компании-разработчика GPT, не подписал данное письмо. Возможно, это связано с тем, что OpenAI имеет свою стратегию и подход к оценке рисков и возможностей, связанных с развитием искусственного интеллекта и нейросетей.
Петиция вызвала общественное обсуждение о том, какова должна быть роль искусственного интеллекта в обществе и насколько контролируемыми должны быть его развитие и влияние. Важным аспектом этого дебата является баланс между инновациями и технологическим прогрессом, с одной стороны, и этическими и социальными последствиями таких разработок, с другой стороны.
Некоторые эксперты считают, что вместо полного прекращения развития технологии GPT, стоит сосредоточиться на создании механизмов контроля и правил использования искусственного интеллекта. Это может включать в себя разработку этических принципов, законодательных ограничений и стандартов безопасности, которые помогут обеспечить прозрачность и ответственность всех сторон, работающих с искусственным интеллектом.
Возможно, данный случай станет отправной точкой для более широкого диалога между учеными, промышленниками и регуляторами на тему безопасности и этической ответственности в развитии искусственного интеллекта. Очевидно, что решения, принятые сегодня, будут иметь долгосрочные последствия и определить будущее взаимодействия между человечеством и технологиями на глобальном уровне.
- Глобальный сбой в работе Telegram: пользователи по всему миру сообщают о проблемах - 03/10/2024 22:16
- Новая угроза для человечества: Марбургская лихорадка может оказаться страшнее COVID-19 - 02/10/2024 17:19
- Как попасть в футбольную академию: путь к профессиональному футболу - 02/10/2024 11:12