Должны ли мы прекратить обучение продвинутому ИИ?

2023-05-02

Какискусственный интеллект (ИИ)продолжает развиваться, некоторые ключевые фигуры в этой области теперь призывают к приостановке обучения ИИ из-за риска, который он представляет для человечества. Генеральный директор Твиттер Илон Маск, соучредитель Яблоко Стив Возняк и некоторые исследователи из Глубокий разум подписали открытое письмо Института будущего жизни, призывающее к временной приостановке разработки ИИ выше определенной мощности, предупреждая о потенциальных рисках, связанных с более продвинутыми системами. . В письме утверждается, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке за разработку более мощных цифровых умов, которые даже их создатели не могут понять, предсказать или контролировать.

Институт будущего жизни — это некоммерческая организация, цель которой — направить преобразующие технологии от экстремальных крупномасштабных рисков к улучшению жизни. В своем открытом письме организация заявляет, что системы искусственного интеллекта с человеческим конкурентным интеллектом представляют серьезную опасность для общества и человечества. В письме предупреждается, что такие системы могут наводнить информационные каналы дезинформацией и заменить рабочие места автоматизацией. Передовые ИИ нужно разрабатывать с осторожностью, но вместо этого в последние месяцы лаборатории стремятся развернуть все более мощные системы.

Инвестиционный банк Голдман Сакс недавно опубликовал отчет, в котором говорится, что, хотя ИИ, вероятно, повысит производительность, миллионы рабочих мест могут быть автоматизированы. Однако другие эксперты утверждают, что влияние ИИ на рынок труда предсказать сложно. В письме Институт будущего жизни спрашивает: «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать [так в оригинале] и заменить нас?» Профессор Стюарт Рассел из Калифорнийского университета в Беркли, подписавший письмо, сказал BBC Новости , что системы искусственного интеллекта представляют значительный риск для демократии из-за дезинформации с применением оружия, для занятости из-за вытеснения человеческих навыков и образования из-за плагиата и демотивации.

Письмо также предупреждает о потенциальной будущей угрозе человеческому контролю над нашей цивилизацией со стороны передовых ИИ, но профессор компьютерных наук из Принстона Арвинд Нараянан раскритиковал письмо за игнорирование версии проблемы, которая уже наносит вред людям. Он обвинил письмо в сосредоточении внимания на «спекулятивном, футуристическом риске». OpenAI , компания, стоящая за ЧатGPT , недавно выпустила GPT -4 — современную технологию, которая впечатлила наблюдателей своей способностью выполнять такие задачи, как ответы на вопросы об объектах на изображениях.OpenAI публично не прокомментировал письмо.

Учитывая потенциальные риски, связанные с быстрым развитием ИИ, эксперты призывают к большей осторожности при разработке ИИ. В частности, они призывают лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта, более мощных, чем GPT -4. Хотя ИИ может изменить общество, эксперты утверждают, что такая трансформация не должна происходить за счет безопасности и контроля человека.

В долгосрочной перспективе принятие разумных мер предосторожности — это небольшая цена за снижение рисков, связанных с передовыми ИИ. Однако эксперты также утверждают, что риски трудно предсказать и что мы должны действовать с осторожностью, чтобы избежать непредвиденных последствий. Институт будущего жизни призывает разработчиков ИИ учитывать потенциальные последствия своей работы в будущем и тщательно следить за тем, чтобы передовые ИИ разрабатывались с осторожностью.

В целом, призыв приостановить обучение ИИ выше определенного уровня отражает растущую озабоченность по поводу рисков, связанных с передовыми ИИ. Хотя мы еще многого не знаем о долгосрочных последствиях ИИ, эксперты призывают к осторожности, чтобы избежать потенциального вреда для общества и человечества. Быстрые темпы развития ИИ в последние годы заставили многих экспертов задуматься о том, что технология может выйти из-под контроля и что мы рискуем создать системы, которые мы не сможем понять или контролировать. Таким образом, призыв приостановить разработку ИИ является необходимым шагом, чтобы мы могли безопасно и ответственно использовать потенциал ИИ.


Получить последнюю цену? Мы ответим как можно скорее (в течение 12 часов)