Индекс
Генеральный директор Twitter, Elon Musk и историк, известный книгой Краткая история человечества, Ювал Ноа Харари, в числе других специалистов, исследователей и ученых, решили подписать письмо, в котором просят сделать паузу в обновлении и развитии ИИ.
Упомянутое письмо было подготовлено Институт будущего жизни (Институт будущего жизни, в вольном переводе) и рекомендует сделать перерыв в развитии искусственный интеллект (AI) не менее шести месяцев, что является прозрачным. Узнайте больше о содержании документа, посмотрите перевод полного текста и будьте в курсе дискуссий по следующей теме.
Что говорится в письме против ИИ об искусственном интеллекте?
Самозанятость и рост дезинформации — две основные проблемы, связанные с технологиями ИИ, отмеченные в письме. Содержание текста также требует, чтобы момент приостановки разработки такими инструментами, как GPT-4, Середина пути и аналогичные решения ИИ должны быть «общедоступными и поддающимися проверке».
Что касается инвестиций, в письме также обсуждается, как OpenAI, Microsoft e Google участвуют в технологической гонке, не обращая внимания на то, как правительства и государственные учреждения пытаются не отставать от каждого нового шага. То есть, согласно документу, сектор ИИ выходит на скорость, за которой становится все труднее следить, и даже субъекты, связанные с технологией, признают это.
«Если эта пауза не может быть урегулирована быстро, правительства должны вмешаться и ввести приостановку».
письмо от Институт будущего жизни

O текст он также упоминает лаборатории искусственного интеллекта, которые производят технологии, но не могут проводить точные оценки и даже не способны контролировать эти цифровые умы. Подписавшиеся стороны — от соучредителя Apple Стива Возняка до первопроходцев-исследователей, таких как Йошуа Бенжио и Стюарт Рассел, и бывшего философа продуктов Google Тристана Харриса — интригуют вопросы, связанные с масштабами распространения информации, ложью, заменой человеческого разума и самим «контролем». нашей цивилизации». В этом смысле документ также обращает внимание на лучший инвестиционный момент:
«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми».
письмо от Институт будущего жизни
Институт будущего жизни и ответственных технологий
Компания основана в 2015 году на средства Илона Маска. Институт будущего жизни стремится дистанцировать новые технологические достижения от возможных рисков для жизни, как для человечества, так и для других живых существ. Организация уделяет внимание не только ИИ, но и следит за производством в таких областях, как биотехнологии и атомная энергетика. Усилия этого института по поддержке технологической ответственности направлены на создание мира, в котором болезни искоренены, а демократии укреплены во всем мире.

Действия Future of Life были признаны Организация Объединенных Наций (ООН) в 2020 году: ООН назначила институт представителем гражданского общества по вопросам, связанным с ИИ. Однако ранее в этом году президенту этой организации по надзору за технологиями Максу Тегмарку пришлось извиниться за необдуманные инвестиции в крайне правую медиа-платформу, шведскую Nya Dagbladet.
Какова позиция других компаний по развитию ИИ?
Объединенные компании, такие как Google e Microsoft уклонился от комментариев по поводу письма Институт будущего жизни. Обе компании все чаще предлагают решения для искусственного интеллекта в свете продукции OpenAI, компания, создавшая ChatGPT. Кстати, «мать» одного из самых известных ИИ на данный момент получила от Microsoft 10 миллиардов долларов инвестиций. В то же время компания, созданная Биллом Гейтсом, использует технологию OpenAI в своей поисковой системе. Bing.

В этом месяце, по совпадению, Билл Гейтс даже опубликовал письмо, в котором он рассматривает возможные эффекты, которые решения ИИ могут принести в будущее.. Google поддерживает свои инвестиции в искусственный интеллект через Bard, который еще не полностью доступен для общественности.
Опасения экспертов по поводу ИИ и GPT-4
Несмотря на то, что он был улучшен, инструмент GPT-4 он по-прежнему дает результаты с некоторыми галлюцинациями и может обслуживать пользователей, используя ненормативную лексику. Но есть и те, кто считает, что пауза, на самом деле, должна быть для того, чтобы лучше понять преимущества, а не только вред технологий ИИ. Это мнение Питера Стоуна, исследователя Техасского университета в Остине (США).

«Я думаю, что стоит иметь небольшой опыт того, как [ИИ] можно использовать должным образом или нет, прежде чем переходить к разработке следующей [технологии]. Это не должно быть гонкой по созданию новой модели искусственного интеллекта и выпуску ее раньше других».
Питер Стоун
В отличие от этой позиции, один из подписавших, Эмад Мостак, основатель компании Стабильность ИИ (посвященная инструментам с искусственным интеллектом) рассказал Wired, что решения на основе ИИ представляют собой возможную угрозу самому существованию общества. Он также подчеркнул важность того, как следует рассматривать инвестиции, принимая во внимание то, что может быть в будущем этой гонки технологий.
«Пришло время отложить в сторону коммерческие приоритеты и сделать перерыв на благо всех, больше для исследований, а не для участия в гонке с неопределенным будущим».
Эмад Мостак
Письмо против ИИ: полный перевод

Приостановка гигантских экспериментов с ИИ: открытое письмо
Мы советуем всем лабораториям искусственного интеллекта (ИИ) немедленно приостановить обучение системам ИИ, более мощным, чем GPT-4, не менее чем на шесть месяцев.
Системы ИИ с интеллектом, способным конкурировать с людьми, могут представлять серьезную опасность для общества и человечества, о чем свидетельствуют обширные исследования Корнельского университета, книги Проблема совмещения (Брайан Кристиан, 2020 г.), Быть человеком в эпоху искусственного интеллекта (Макс Тегмарк, 2017 г.) и другими исследованиями — достижениями в этой области, этикой, влиянием на рынок труда, экзистенциальными рисками — в дополнение к признанию известными лабораториями искусственного интеллекта. Как указано в Принципах искусственного интеллекта Asilomar, «продвинутый искусственный интеллект может представлять собой глубокое изменение в истории жизни на Земле, и его необходимо планировать и управлять им с осторожностью и с использованием соответствующих ресурсов». К сожалению, такого уровня планирования и управления не существует, хотя в последние месяцы лаборатории искусственного интеллекта начали неконтролируемую гонку по разработке и использованию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.
Теперь современные системы искусственного интеллекта становятся способными конкурировать с людьми в выполнении задач в целом, и нам нужно задать себе вопрос: Мы должны позволить машинам наводнять наши информационные каналы прозелитизмом и неправдой? Мы должны автоматизировать все работы, в том числе удовлетворительные? Мы должны развивать нечеловеческие умы, чтобы они могли в конечном итоге превзойти нас численностью и разумом, сделать нас устаревшими и заменить нас? Мы должны рискуете потерять контроль над нашей цивилизацией? Такие решения не следует делегировать неподдерживаемым технологическим лидерам. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми.. Эта уверенность должна быть хорошо обоснована и усилена в зависимости от масштабов потенциальных последствий систем. Недавняя позиция OpenAI в отношении генеративного искусственного интеллекта гласит, что «в какой-то момент может оказаться важным провести независимую проверку, прежде чем начинать обучение систем в будущем, для более продвинутых усилий, поскольку предел скорости роста вычислений, используемых для создания новые модели [ИИ]». Мы согласны. Время настало.
Таким образом, Мы посоветовали всем лабораториям искусственного интеллекта (ИИ) немедленно приостановить обучение системам ИИ, более мощным, чем GPT-4, как минимум на шесть месяцев. Этот перерыв должен быть публичным и поддающимся проверке, и в нем должны участвовать все ключевые участники. Если такая пауза не может быть урегулирована быстро, правители должны вмешаться и установить приостановление.
Лаборатории искусственного интеллекта и независимые эксперты должны использовать этот перерыв для совместной разработки и внедрения серии общих протоколов безопасности для проектирования и разработки передовых искусственных интеллектов, которые тщательно проверяются и проверяются сторонними оценщиками. Эти протоколы должны гарантировать, что системы, регулируемые этими стандартами, вне всяких разумных сомнений безопасны — одним из примеров являются широко принятые Принципы ИИ ОЭСР, которые требуют, чтобы системы ИИ «работали должным образом и не демонстрировали ненадежные риски безопасности». Что не это означает перерыв в развитии ИИ в целом, но просто выход из опасной гонки за непредсказуемыми моделями «черных ящиков», все больше и больше и с новыми возможностями.
Исследования и разработки в области ИИ должны переориентироваться на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, надежными и лояльными.
Параллельно с этим разработчики ИИ должны решительно работать с политиками, чтобы ускорить создание надежных систем управления ИИ. Они должны включать, как минимум:
- новые и дееспособные регулирующие органы, занимающиеся искусственным интеллектом;
- проверка и мониторинг очень мощных систем ИИ с большим вкладом в вычислительную мощность;
- системы провенанса и брендинга, помогающие отличить настоящие модели цифрового разума от синтетических, а также отслеживать утечки этих технологий;
- процветающая экосистема сертификации и аудита;
- фиксация ущерба от систем ИИ;
- достаточно сильное государственное финансирование технических исследований в области безопасности ИИ; Это
- хорошо финансируемые институты для борьбы с серьезными экономическими и политическими последствиями, которые вызывают ИИ (особенно в отношении демократии).
Человечество может наслаждаться плодотворным будущим с ИИ. Успешно создав мощные системы искусственного интеллекта, мы теперь можем отпраздновать «лето искусственного интеллекта», в ходе которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество «нажало на кнопку паузы» в отношении других технологий с потенциально катастрофическими последствиями для всех, таких как клонирование, евгеника и генная инженерия. Мы можем сделать то же самое здесь. Насладимся долгим ИИ-летом, не торопясь в осень.
См. также:
Как использовать Midjourney для создания изображений с помощью ИИ
источник: Проводная | Tech Crunch | Будущее жизни | Новости вице-мира
Рассмотрено Главкон Витал от 29.
Узнайте больше о Showmetech
Подпишитесь, чтобы получать наши последние новости по электронной почте.