• XSS.stack #1 – первый литературный журнал от юзеров форума

Более тысячи экспертов, включая Возняка и Маска, призвали приостановить обучение ИИ мощнее GPT-4

Николай Лихачёв

(L3) cache
Пользователь
Регистрация
19.01.2023
Сообщения
296
Реакции
200
Более тысячи человек, в число которых вошли профессора и ИИ-разработчики, подписали открытое письмо, обращенное ко всем лабораториям, занимающимся разработкой искусственного интеллекта. В послании, опубликованном некоммерческой организацией Future of Life, эксперты призывают немедленно приостановить разработку и обучение ИИ, более мощных, чем GPT-4, хотя бы на полгода.


Письмо подписали многие известные люди, которые занимаются разработкой и технологиями в сфере ИИ, в том числе: соучредитель OpenAI Илон Маск, математик, кибернетик и информатик, наиболее известный работами в области искусственного интеллекта, а также основатель Mila Иошуа Бенджио, соучредитель Apple Стив Возняк, глава Stability AI Эмад Мострак, пионер исследований в области ИИ Стюарт Рассел, а также основатель Geometric Intelligence Гэри Маркус.



В открытом письме упоминаются потенциальные риски для общества и человечества, возникающие в результате быстрого развития передовых ИИ-систем в отсутствии общих протоколов безопасности. Подписавшиеся считают, что потенциальные риски этой «революции» еще только предстоит всецело оценить и учесть с помощью комплексной системы управления, тогда как положительный эффект от этих технологий не гарантирован.


«Продвинутый ИИ может повлечь за собой значительные изменения в истории жизни на Земле, и его следует планировать и управлять им с соответствующий оторожностью и ресурсами, — гласит послание. — К сожалению, такого планирования и управления не происходит, невзирая на то, что в последние месяцы ИИ-лаборатории ввязались в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто (вклюая их создателей) не может понять, предсказать или надежно контролировать».

Также письмо предупреждает, что современные ИИ-системы уже напрямую конкурируют с людьми в выполнении общих задач, что поднимает ряд экзистенциальных и этических вопросов, которые человечеству все еще необходимо рассмотреть, обсудить и решить.


Некоторые из этих вопросов касаются потока информации, генерируемой ИИ, неконтролируемой автоматизации рабочих мест, развития систем, которые превосходят человека, и из-за которых люди могут «устареть», а также контроля над цивилизацией в целом.


Эксперты считают, что мы достигли того момента, когда следует обучать более продвинутые ИИ-системы только под строгим надзором и лишь имея уверенность в том, что риски, возникающие при их развертывании, управляемы.


«Поэтому мы призываем все ИИ-лаборатории немедленно приостановить обучение ИИ-систем, более мощных, чем GPT-4, как минимум на шесть месяцев, — говорится в письме. — Эта пауза должна быть публичной и подающейся проверке, и она должна затрагивать всех ключевых участников. Если такая пауза не может быть взята быстро, правительства должны вмешаться и ввести мораторий».

Во время этой паузы разработчикам ИИ предлагается собраться вместе и договориться о создании единых протоколов безопасности, которые затем смогут использоваться для аудитов, проводимых внешними независимыми экспертами.


Кроме того, подписанты полагают, что политикам следует принять защитные меры и заняться регулированием данной сферы. В частности, предлагается создать систему «водяных знаков», позволяющих эффективно отличать подлинный контент от фальшивого, проработать возможность возложения ответственности за вред, причиненный материалами, созданными ИИ, а также выделить государственное финансирование на исследование рисков, связанных с ИИ.


Письмо не содержит призывов полностью прекратить разработку ИИ. В нем напротив подчеркиваются потенциальные опасности, связанные с растущей конкуренцией между разработчиками ИИ, стремящимися занять свою нишу на быстро растущем рынке.


«С ИИ человечество может наслаждаться прекрасным будущим. Преуспев в создании мощных ИИ-систем, мы можем наслаждаться "расцветом ИИ" и пожинать плоды, разрабатывая эти системы для всеобщего блага и давая обществу шанс адаптироваться. Общество приостановило развитие других технологий, несущих потенциально катастрофические последствия. Мы можем поступить так же и здесь», — заключают эксперты.

 
перевожу с американского: "не открывайте публичный доступ к ИИ, более мощным, чем GPT-4, хотя бы на полгода"
 
На самом деле в чем-то они правы, но ребята уже не способны повлиять на мировое сообщество в этом вопросе. Если OpenAI вдруг перестанет разрабатывать новые продукты в сфере ИИ - Китай с радостью их перегонит за то время. Так что уже поздновато.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
На самом деле в чем-то они правы, но ребята уже не способны повлиять на мировое сообщество в этом вопросе. Если OpenAI вдруг перестанет разрабатывать новые продукты в сфере ИИ - Китай с радостью их перегонит за то время. Так что уже поздновато.
Тоже сразу о Китайцах подумал, они народ предприимчевый с радостью такой приостановкой воспользуется.
Меня пугает тот факт, что население земли растет, а количество рабочих мест с развитием искуственного интелекта только сокращается. Как люди себе будут заробатывать на жизнь непотятно. Богатые будут становится богаче, а что с осталными..
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Богатые будут становится богаче, а что с осталными..
Факелы, вилы, и все опять равны.
 
Человечество никогда не создавало ядерного оружия, способного создать ядерное оружие. В этом опасность ИИ. Как только появится что-то умнее нас - мы в опасности. Думаю, суть письма - адекватна и актуальная.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
Это преувеличенные страхи, возникающие от непонимания, что такое ИИ и как он работает. Вцелом, нейросеть-это всего лишь улучшенная и автоматизированная энциклопедия, набор неких, заранее заложенных алгоритмов, и только. Писать же собственные, новые качественные алгоритмы ИИ не сможет сообразно меняющимся вводным или условиям, а также точно и динамично реагировать на события, принимая сложные решения она не может и никогда не сможет полноценно и во всех аспектах, как человек. Полезна ИИ исключительно как некое подспорье, дополнительный инструмент, не более того. Но точно ИИ не предназначен и никогда не будет предназначен для принятия решений, особенно сложных или критических, и точно не должна быть последняя инстанция в принятии итоговых решений. Скорее всего, эти страхи намеренно разгоняются с целью всемирной рекламы теми, кто и пропихивает ИИ везде где ни попадя.
 
Пожалуйста, обратите внимание, что пользователь заблокирован
I don't agree with the shit he says, they just want to keep control over a technology they no longer have a monopoly on, they're just idiots anyone who talks about stopping the evolution of technology 'AI because it is dangerous, AI is only a tool created by man, it is neither good nor bad, it is the waste that uses it who will do with it what they want . They will not create AIs that will find new molecules for revolutionary drugs, new construction methods adapted to the environment, but AIs that will make weapons and tell us that AI is dangerous
 


Напишите ответ...
  • Вставить:
Прикрепить файлы
Верх