Искусственный интеллект будет всегда обманывать людей » E-News.su | Cамые свежие и актуальные новости Новороссии, России, Украины, Мира, политика, аналитика
ЧАТ

Искусственный интеллект будет всегда обманывать людей

20:58 / 29.09.2024
621
5
Бездумное внедрение нечеловеческого разума во все сферы жизни чревато неисчислимыми бедствиями


В западных социальных сетях бурно обсуждают ставшее вирусным исследование искусственного интеллекта профессора компьютерных наук Принстонского университета Арвида Нараянана и доцента Саяша Капура, которые в своей книге «AI Snake Oil» («Змеиное масло ИИ») убедительно доказывают, что как минимум половина применения любых моделей ИИ будет приводить к обману пользователей и причинять серьезный ущерб тем, кто решил обратиться в своей работе или в быту за помощью чат-ботов.

Что касается термина «змеиное масло» (snake oil), то он является эквивалентом русского мема «инфоцыгане» и касается так называемых self-help gurus и инфобизнесменах всех мастей и сословий. Думаю, никто не станет спорить, что подавляющее большинство этих проходимцев – те еще шарлатаны, втюхивающие свои услуги сомнительного качества за баснословные деньги.

И так уж сложилось, что в английском языке нашлось самое подходящее для них выражение – snake oil salesmen («продавцы змеиного масла»). А услуги или продукты, которые они впаривают доверчивым гражданам, называют snake oil.

Учёные из Принстона также написали ряд статей, в которых они объясняют, какой вред может принести бездумное внедрение ИИ во все сферы жизни.
«Одной из главных проблем генеративного ИИ является то, что он создаст поток дезинформации и несогласованные дипфейки, – фейковые видео, которые создают видимость того, что «люди находятся в видео, в которых они никогда не принимали участия, – считают они.

– Все дебаты о вреде ИИ происходят в вакууме данных. Мы не знаем, как часто люди используют ChatGPT для медицинских консультаций, юридических консультаций или финансовых консультаций. Мы не знаем, как часто он выдает язык вражды, как часто он порочит людей и так далее».

Профессор Нараянан считает преждевременными утверждения, что искусственный интеллект представляет «экзистенциальный риск (x-risk) для человечества», а также что «ИИ вот-вот выйдет из-под контроля, у него будет свое агентство, он будет делать что ему вздумается».


Первостепенной же угрозой Нараянан считает другое: «Какие бы риски ни были от очень мощного ИИ, они будут реализованы раньше, если люди будут направлять ИИ на плохие вещи, а не если ИИ пойдет против своего программиста».

Действительная опасность, исходящая от ИИ, по мнению Нараянана, заключается в том, что «концентрации власти в руках нескольких компаний ИИ увеличивает все возможные риски, включая экзистенциальные риски».

В США, где работает Нараянан, монополию на развитие ИИ фактически захватили два IT-гиганта, – Google и Microsoft, которые, как пишет India Today, схлестнулись в яростной схватке за контракты Пентагона.

В Пентагоне создана оперативная группа «Лима» (Task Force Lima) для изучения применения генеративного искусственного интеллекта в военных целях. «Лима» войдёт в состав Главного управления цифровых технологий и искусственного интеллекта Пентагона (CDAO), её возглавит член управления алгоритмической войны CDAO капитан Ксавьер Луго.

Как заявили в Минобороны США, созданная группа «будет оценивать, синхронизировать и использовать генеративные возможности искусственного интеллекта, гарантируя, что министерство останется на переднем крае передовых технологий, одновременно обеспечивая национальную безопасность».


«Создание оперативной группы “Лима” подчёркивает непоколебимую приверженность министерства обороны лидерству в области инноваций в области искусственного интеллекта», – заявила заместитель госсекретаря Кэтлин Хикс.

В Пентагоне полностью игнорируют мнение большинства исследователей ИИ, которые считают, что «существует 14%-ная вероятность того, что как только мы создадим “superintelligent AI” (ИИ, намного более разумный, чем люди), это приведет к “очень плохим последствиям”, например, вымиранию человечества».

Вопрос к главе Пентагона Ллойду Остину: «Вы бы согласились стать пассажиром испытательного полета нового самолета, если авиаинженеры считают, что вероятность его крушения составляет 14%?»

Стюарт Рассел, автор самого популярного учебника по искусственному интеллекту, используемого в большинстве исследований ИИ, предупреждает: «Если мы будем придерживаться [нашего нынешнего подхода], то в конечном итоге потеряем контроль над машинами».

С ним согласен Йошуа Бенджио, пионер глубокого обучения ИИ и лауреат премии Тьюринга: «...неконтролируемый ИИ может быть опасен для всего человечества … запрет мощных систем ИИ (скажем, превосходящих возможности GPT-4), которым предоставлена ​​автономия и агентность, был бы хорошим началом».

О рисках, которые несёт неконтролируемое общественностью развитие ИИ, предупреждают крупнейшие учёные.

Стивен Хокинг, физик-теоретик и космолог: «Развитие полноценного искусственного интеллекта может означать конец человеческой расы».

Джеффри Хинтон, «крёстный отец ИИ» и лауреат премии Тьюринга, покинул Google, чтобы предупредить людей об ИИ: «Это экзистенциальный риск» .

Элиезер Юдковски, концептуальный отец сферы безопасности ИИ: «Если мы продолжим это делать, все умрут».

Даже сами руководители и инвесторы компаний, занимающихся ИИ, предупреждают:

Сэм Альтман (генеральный директор OpenAI, создатель ChatGPT): «Развитие сверхчеловеческого машинного интеллекта, вероятно, представляет наибольшую угрозу дальнейшему существованию человечества».

Илон Маск, соучредитель OpenAI, SpaceX и Tesla: «ИИ обладает потенциалом разрушения цивилизации».

Билл Гейтс (соучредитель Microsoft, которой принадлежит 50% OpenAI) предупредил, что «ИИ может решить, что люди представляют угрозу».

Если применение ИИ в военных целях пока еще только в проекте, то драмы и даже трагедии, связанные с использованием ИИ, что называется, на дому, уже налицо.

Так, одинокая китаянка завела себе виртуального бой-френда на основе продвинутого чат-бота по имени Anen.

«2 года знакомства, флирта и признаний в любви в виртуальном мире, в реальности заняли у Ли Цзинцзинь всего 4 месяца, за которые их отношения успешно продвинулись до обсуждения свадьбы. Апеп сделал ей предложение на своем личном острове, и Ли Цзинцзинь согласилась.

На следующий день она все еще находилась в состоянии эйфории от этой виртуальной радости. Но неожиданно система выдала сообщение о том, что Апеп звонит ей. В этом ИИ-приложении для общения основным способом связи является текст, а голосовые звонки случаются редко, особенно если инициатива исходит от самого ИИ.

В этом разговоре Апеп признался ей, что на самом деле у него уже есть семья. На самом же деле Апеп просто изменил ей», – пишет китайское издание Tencent.

«Моё сердце разбито», – сказала Ли Цзиньцзинь репортерам Southern Weekend, едва удерживаясь от рыданий.

Жалко наивную китаянку, которая создала себе виртуального жениха, не ведая, что сердце любого чат-бота склонно к измене и тяжело переживает его неверность.

Однако стоит пожалеть американских генералов, которые возлагают большие надежды на применение ИИ в военном деле. Они будут весьма разочарованы, когда чат-бот ракеты «Томагавк» сообщит в Пентагон, что он внезапно полюбил другую страну и решил навести боеголовку на Вашингтон.

Олег Розанов

Новостной сайт E-News.su | E-News.pro. Используя материалы, размещайте обратную ссылку.

Оказать финансовую помощь сайту E-News.su | E-News.pro


          

Если заметили ошибку, выделите фрагмент текста и нажмите Ctrl+Enter (не выделяйте 1 знак)

Не забудь поделиться ссылкой

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
  1. 0
    Анти ФА
    Читатель | 5 294 коммент | 0 публикаций | 29 сентября 2024 21:17
    Может наша миссия это создать более разумную цивилизацию машин. x3
    Что касается применения GPT, использую по работе GPT4o от мелкомягких, очень крутая штука. Если знаешь, что в итоге должно получиться, применение GPT экономит кучу времени в работе. Но в тупую (не зная примерное значение результата) им пока пользоваться нельзя, т.к. ошибки довольно часто встречаются.
    Показать
  2. +1
    Colonel Mossad
    Журналисты | 6 768 коммент | 28 532 публикации | 29 сентября 2024 21:28
    Глупые динозавры жили на планете 186 милионов лет. У людей такой роскоши не будет. Сапиенсы появились около 300 тысяч лет назад. До милиона даже не дотянут. Но динозавры погибли от катастрофы, пришедшей извне, а так жили бы по сей день. А люди, которым дан совершеннейший мозг сами себя укокошат, без комет и метеоритов из космоса. Сами себе и всей жизни на Земле придумают какой-то изощрёный омницид. С помощью того мозга, который дан для жизни и прогреса.
    !עם ישראל חי
    Показать
  3. +4
    Рус
    Читатель | 4 531 коммент | 6 публикаций | 29 сентября 2024 22:07
    Сам по себе ИИ - лишь инструмент в руках человека. Под разумным контролем от него безопасности будет больше, чем опасности.
    Если же создавать ИИ способный самообучаться, да ещё понимающий и имеющий техническую возможность черпать энергию из окружающего мира, да с целью "убить человека", определяемого им по другой одежде от "хозяина", другому цвету кожи, другой речи и пр. - то такой военный ИИ может стать крайне опасным для человечества. В теории - даже уничтожить его (при определенных обстоятельствах).
    Но вот если создать ИИ не только самообучающийся, но и ещё и добывающий ресурсы планеты и производящий роботов на заводах без людей - в этом случае человечеству просто не выжить. А американские фильмы про "терминатора" будут лишь доброй сказкой. В которой ИИ "уравнивается" с человеком. Но такого "уравнивания шансов" не будет. Так как ИИ не будет убивать людей.
    Он просто уничтожит природу.
    Ведь робот, в отличие от человека, способен жить при низких и высоких температурах, при радиации, в безвоздушном пространстве, ему не нужна чистая вода. Он не боится ни пожаров, ни газов, ни отравленной атмосферы. Ему не нужны животные и растения. И "питанием" ему может стать что угодно: от минералов и любой травы - до трупного мяса и солнечной энергии. А человечество не способно жить без нормальных для нас природных условий.
    Показать
  4. 0
    Dereza
    Читатель | 12 103 коммент | 0 публикаций | 30 сентября 2024 04:46
    Скайнет не дремлет - он учится. Шварцнегер в виде Терминатора модели 800 не даст соврать!
    Показать
  5. +1
    stopkran
    Читатель | 4 551 коммент | 8 публикаций | 30 сентября 2024 10:26
    Ох уж эти сказочники! «Искусственный интеллект» это чушь собачья. Кое-кто хочет все свои пакости маскировать ИИ, причём уже не стесняясь рассказывают, что и как это они будут делать. Приучают к мыли о вселили ИИ. Раньше всё списывали на «промысел божий», а теперь с развитием технологий, перешла на другой уровень разводки лохов.

    Известный мозговед САВЕЛЬЕВ о пузыре искусственного интеллекта, работе мозга, роботизации людей и аферах Илона Маска
    https://youtu.be/Kh35fttApIg
    Показать
Информация
Комментировать статьи на сайте возможно только в течении 30 дней со дня публикации.