29 марта он пригласил около 1800 ученых, историков, философов и даже некоторых миллиардеров и прочих — наших технических господ — на Открой письморазмещены на сайте будущее жизнипризывает все лаборатории искусственного интеллекта «обучать системы искусственного интеллекта, более мощные, чем GPT-4». […] немедленно, по крайней мере, на шесть месяцев».
В ответ на это письмо философ техники Элиэзер Юдковский написал, что этого недостаточно. он настаивал что правительства «закроют все основные кластеры графических процессоров» и будут готовы «уничтожить преступные центры обработки данных с помощью авиаударов».
Призыв к таким крайним мерам против искусственного или искусственного интеллекта (ИИ) основан на страхе превратиться в ИИ. экзистенциальный риск означает. После публикации так называемого большие языковые модели (LLM) Среди прочего, из-за OpenAI (GPT-4) растет обеспокоенность тем, что дальнейшие обновления, например, в GPT-5, приведут нас к «исключительность— Это когда ИИ становится таким же умным, как люди, и может самосовершенствоваться. Результатом может стать взрыв разведки. Есть много способов, которыми это может означать конец человечества — Современная статья Списки 25.
Техническое благородство
Открытые письма об ИИ, такие как письмо от 29 марта, не являются чем-то новым в технологическом секторе. 28 октября 2015 г. мы увидели такую же крупную публичную подпись того же технического джентльмена, которая также была опубликована. Открой письмо на сайте будущее жизни Однако они не призывали к паузе в исследованиях ИИ, а вместо этого подчеркивали преимущества ИИ и рекомендовали «обширные исследования».
Таким образом, за восемь коротких лет технологическая индустрия, казалось, перешла от шумихи к истерии: больше не было призывов к дополнительным исследованиям, но даже авиаудары для мошенничество Уничтожить дата-центры.
Что случилось?
Во-первых, истерия вокруг ИИ выросла в геометрической прогрессии. Этого и следовало ожидать — страх перед тем, что искусственный интеллект может представлять экзистенциальную угрозу, глубоко укоренился. Сэмюэл Батлер, например, написал в 1863 г. статья с адресом Дарвин среди машингде он предсказал «время, когда машины будут править миром».
Растущая истерия вокруг ИИ также является результатом растущего недоверия общественности к ИИ. Ни одно из преимуществ, описанных в открытом письме 2015 г., не материализовалось. Вместо этого мы видели искусственный интеллект по всему миру. Ковид кризис Это было бесполезно, мы видели, что несколько избранных богатых компаний больше Монопольная власть Я стал богаче, собирая личные данные людей, и мы видели, как они росли. охранное состояние. Даже ИИ был частичным ответственный по вопросу замены.
Экзистенциальная опасность искусственного интеллекта в настоящее время является лишь философской и литературной.
происходит одновременно производительностьИ Эффективность поискаИ технологическое усовершенствование И наук в более развитых странах упавший. Люди склонны верить в самое худшее об ИИ. Создается молниеносно с 2015 года институты Те, кто зарабатывают на жизнь рекламой экзистенциальных рисков, только увеличивают количество газетных статей, подпитывающих истерию.
Вторая причина, по которой технологическая индустрия перешла от шумихи к истерии в период с 2015 по 2023 год, заключается в том, что могут появиться новые Зимний ИИ У двери. Техническая знать сходит с ума по этому поводу. Они не только сталкиваются с растущим общественным недоверием, но и Усиление государственного контроля — но в последние месяцы технологическая отрасль серьезно пострадала.
К ним относятся более 100 000 рабочих мест были потеряны в промышленности США Кончина банковского дела Силиконовой долины — Второй по величине банковский крах в истории Соединенных Штатов — Падение цен на акции и растущие опасения, что Технический пузырь вот-вот лопнет.
Читайте также:Управление банком знает только проигравших
В основе этих проблем лежит растущее осознание того, что многие новые технологии не справляются с поставленной задачей. ожидания выполнено.
Эти проблемы предполагают, что затраты на ИИ могут перевешивать преимущества. Искусственный интеллект стоит дорого — разработка и развертывание LLM, такого как GPT-4, требует значительных инвестиций. Обучение одной модели ИИ может выделять некоторое количество углерода Пять автомобилей в их жизни. Инфраструктура и обучение стоят миллиарды долларов. Есть ГПТ-4 1000 миллиардов Необходимые для этого параметры и общая тренировочная мощность, По оценкам Около 18 миллиардов петафлопс. Для сравнения: известная программа АльфаГо, который обыграл лучшего игрока в го среди людей, имел вычислительную мощность менее 1 миллиона петафлопс. Это огромный вклад для инструмента».Высокотехнологичный плагиат«И»потерпеть неудачуХомский и Маркус также назвали GPT-4.
стены
Дело в том, что этот современный LLM упирается в стену того, что технически и экономически целесообразно. машинное обучение и вычислительная мощность. Это также означает, что передовые системы искусственного интеллекта недоступны большинству компаний и даже большинству правительств. Поэтому неудивительно, что внедрение систем ИИ компаниями в США, пожалуй, самой передовой стране в области искусственного интеллекта, очень низкое: от расследование Из 800 000 человек, обнаруженных Бюро переписи населения США, только 2,9 процента имеют работу. машинное обучение.
Экзистенциальная опасность искусственного интеллекта в настоящее время носит лишь философский и литературный характер. Это не значит, что наш ИИ не может нанести серьезный ущерб — их много. Примеры к Ужасный ИИ — Мы должны сохранять бдительность в этом отношении. Это также не означает, что экзистенциальная опасность не станет реальной в какой-то момент в будущем, но мы все еще далеки от понимания того, как с ней что-то делать.
Призыв в открытом письме приостановить исследования ИИ на шесть месяцев сигнализирует об отчаянии в отрасли, вышедшей из-под контроля. Истерия по поводу ИИ как экзистенциальной угрозы отвлекает и заглушает неэффективность технологической отрасли.
«Сертифицированный телезритель. Вызывающе скромный зомби-ниндзя. Защитник кофе. Веб-эксперт. Решатель проблем».
More Stories
Запустить ракету НАСА? Это возможно с этим новым набором Lego.
Этот крошечный космический камень — часть нашей Луны
Спутник Юпитера Ио, вероятно, был вулканически активен миллиарды лет назад.