Маск и Возняк: обучение ИИ нужно отменить минимум на 6 месяцев

Илон Маск и Стив Возняк: обучение ИИ нужно отменить минимум на 6 месяцев

Новости Технологии

Будущее, которое мы еще совсем недавно видели только в фантастических фильмах оказалось ближе, чем нам казалось. Теперь, оно не только приблизилось. Судя по всему, мы уже по сути находимся в нем. Илон Маск, Стив Возняк, а также более 1000 других известных людей выступили против продолжения обучения ИИ. В открытом письме говорится об опасности дальнейшего обучения ИИ без выработки механизмов его контроля. Было предложено ввести длительный мораторий до прояснения данной ситуации. Итак, Маск и Возняк, доводы в пользу отмены ИИ хотя бы на время.

Маск и Возняк: нужно отменить обучение ИИ минимуи на 6 месяцев до выяснения

Авторы открытого письма видят опасность дальнейшего развития ИИ в неконтролируемости последствий. В частности, машинный разум вполне может начать соображать лучше человека даже в тех областях, где конкретный человек имеет так называемое экспертное мнение. То есть, ИИ фактически уже на этом этапе обыграет человека. А основная опасность заключается в том, что в скором будущем ИИ начнет самостоятельно принимать решения. При этом, остается только догадываться, какими они будут. Не навредят ли конкретному человеку, или человечеству в целом. Кроме того, авторы воззвания резонно предполагают, что в какой-то момент ИИ сможет заменить человека если не во всех, то очень во многих сферах. Причем, эти опасения уже сейчас звучат весьма убедительно. Вот, что пишут авторы:

Приостановите гигантские эксперименты с ИИ: открытое письмо

«Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе выполняющие? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?»

Читайте также: Почему интернет никогда не заменит живое общение?

Также утверждается, что в настоящее время нет никакого контроля над развитием ИИ. Фактически, его никто не контролирует. При этом, естественно присутствует гонка между разработчиками. Все они стремятся создать самый мощный и наиболее продвинутый ИИ.

Приостановите гигантские эксперименты с ИИ: открытое письмо

«Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами . К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифроых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать».

Почему пауза должна продлиться именно 6 месяцев?

Маск и Возняк видят необходимость сделать паузу не менее, чем на 6 месяцев, чтобы выработать общие правила использования ИИ. При этом, подчеркивается необходимость привлечения экспертного сообщества. Именно с его помощью предлагается обсудить, как контролировать подобные технологии в будущем.

Приостановите гигантские эксперименты с ИИ: открытое письмо

«Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ более мощных, чем GPT-4 . Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий … Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с возникающими возможностями».

Приглашаем в официальный Telegram-канал «Лайфбосс». Только самые лучшие статьи на наиболее интересные темы. Подписывайтесь! 🧐

Фото: D koi, Unsplesh

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *