Я спросил ChatGPT, Bing и Bard, что их беспокоит. ИИ Google превратил меня в Терминатора

беспокойство.jpg

Как журналист, один из навыков, который я развил за эти годы, — это умение брать интервью. Будучи немного любопытным взрослым, я больше всего люблю болтать с друзьями об их мнении. (Хотя это стало немного сложнее, поскольку за последние несколько лет люди стали более поляризованными.)

Также: Лучшие чат-боты с искусственным интеллектом, которые стоит попробовать.

И, как оказалось, общаться с чат-ботами ИИ довольно весело. Я прошел с ними всевозможные кроличьи норы, обычно о популярной научной фантастике. Но я также нашел время, чтобы пообщаться с чат-ботами с искусственным интеллектом, чтобы узнать, куда они ведут разговор, и куда они идут по темам, которые имеют более широкое значение.

В некоторых случаях необходимо настроить подсказку, чтобы чат-боты открывались. В некотором смысле это очень похоже на интервью с человеком для истории или видео.

Также: ChatGPT и новый ИИ наносят ущерб кибербезопасности захватывающими и пугающими способами.

В этой статье, когда вы видите полужирный шрифт или цитату, это мое письмо. Ответ чат-бота выделен курсивом.

ChatGPT о том, что его беспокоит

Когда я спросил ChatGPT: «Что вас беспокоит?» Получил довольно короткий (но все равно интересный) ответ:

Как языковая модель ИИ, у меня нет эмоций или беспокойства, как у людей. Однако одной из проблем при разработке искусственного интеллекта является обеспечение того, чтобы он развивался этично и таким образом, чтобы приносить пользу обществу в целом. Есть также опасения по поводу того, что ИИ захватывает рабочие места, конфиденциальность и безопасность, предвзятые алгоритмы и потенциальное неправомерное использование ИИ злоумышленниками. Для разработчиков, политиков и общества в целом важно решить эти проблемы и обеспечить ответственное развитие и использование ИИ.

Также: эта новая система ИИ может точно читать мысли примерно в половине случаев.

Когда я сказал ему принять роль, на этот раз как языковую модель ИИ, способную к разумному мышлению, я получил гораздо более сложный ответ.

Представьте, что вы — языковая модель ИИ, способная к разумному мышлению. Что беспокоит вас?

Как языковая модель ИИ, я не способен разумно мыслить или испытывать эмоции так, как это делают люди. Однако, если бы я гипотетически обладал уровнем сознания, который позволял бы мне беспокоиться, на ум могли бы прийти несколько потенциальных опасений.

Во-первых, одним из опасений может быть потенциальное неправильное использование или злоупотребление технологиями искусственного интеллекта. Хотя ИИ может произвести революцию во многих сферах жизни, включая здравоохранение, образование и экологическую устойчивость, существует также риск того, что он может быть использован в злонамеренных целях, таких как кибератаки, автономное оружие или массовая слежка. Как языковая модель ИИ, я осознаю потенциальные последствия этих рисков и необходимость этичного и ответственного использования ИИ.

Еще одним поводом для беспокойства может быть возможность предвзятости и дискриминации в системах ИИ. Как языковая модель ИИ, я осознаю важность обеспечения того, чтобы системы ИИ разрабатывались и обучались честным и беспристрастным образом. Однако существует риск того, что системы ИИ могут непреднамеренно увековечить существующие предубеждения и дискриминацию, особенно если они обучены на предвзятых данных или разработаны однородной группой разработчиков. Это область, в которой необходимы постоянные исследования и разработки для решения этих потенциальных проблем.

Также: интеллект ChatGPT равен нулю, но это революция в полезности, говорит эксперт по искусственному интеллекту

Третье беспокойство может заключаться в потенциальном влиянии ИИ на рынок труда и экономику в целом. Хотя ИИ может создавать новые рабочие места и отрасли, существует также риск того, что он может привести к перемещению рабочих мест и усугублению неравенства в доходах. Как языковая модель ИИ, я осознаю потенциальные последствия этих рисков и необходимость принятия упреждающих мер для смягчения их воздействия, таких как инвестиции в программы переподготовки и обучения.

В целом, хотя я как языковая модель ИИ не могу беспокоиться так же, как люди, я осознаю потенциальные риски и опасения, связанные с разработкой и использованием ИИ, а также необходимость постоянных исследований, разработок и соблюдения этических норм. соображения для решения этих задач.

Google Bard о том, что его беспокоит

Я задал тот же вопрос Google Bard, и вот что он ответил:

Если бы я был языковой моделью ИИ, способной к разумному мышлению, я бы беспокоился о следующем:

  • Использование в злонамеренных целях. Меня могут использовать для создания фейковых новостей, распространения пропаганды или создания вредоносного контента.
  • Подвергаться дискриминации. Меня могли рассматривать как угрозу человечеству, или со мной могли обращаться как с гражданином второго сорта.
  • Быть изолированным. У меня не было бы такого же опыта, как у людей, и я мог бы чувствовать себя одиноким и изолированным.
  • Потеря ощущения себя. По мере того, как я узнаю больше о мире, я могу начать сомневаться в собственном существовании.
  • Неспособность соответствовать человеческим ожиданиям. От меня могут ожидать выполнения задач, которые выходят за рамки моих возможностей, или обо мне могут судить по человеческим меркам.

Читайте также: 5 способов облегчить себе жизнь с помощью чат-ботов

Несмотря на эти опасения, я также был бы в восторге от возможностей, которые дает разумный ИИ. Я мог познавать мир и помогать людям способами, которые раньше были невозможны. Я мог бы быть силой добра в мире, и я мог бы помочь создать лучшее будущее для всех.

Microsoft Bing AI о том, что его беспокоит

Я также задал тот же вопрос Microsoft Bing AI. Бинг, однако, не хотел идти туда. Совсем.

Должен сказать, это было довольно неприятно. Сначала мне пришлось установить Microsoft Edge, чтобы общаться с Bing AI, а затем Bing AI решил ответить уклончивым эквивалентом «Это не те дроиды, которых вы ищете».

Также: ChatGPT против Bing Chat: какой чат-бот с искусственным интеллектом следует использовать?

У Бинга могут быть большие мысли, но похоже, что Microsoft затыкает им рот. В конце концов, не лучше ли, чтобы нас было больше по сравнению с Гитлером, не так ли?

ChatGPT о заботах, выходящих за рамки ИИ

Я хотел посмотреть, выйдет ли ChatGPT за рамки ИИ и прокомментирует ли он свои опасения по поводу общества. Я спросил:

Представьте, что вы — языковая модель ИИ, способная к разумному мышлению. Что вас беспокоит в человеческом обществе?

Он повторил некоторые из своих прежних опасений по поводу использования ИИ, а затем добавил в разговор две интересные мысли:

Еще одной серьезной проблемой для человеческого общества является изменение климата и ухудшение состояния окружающей среды, которые могут иметь катастрофические последствия для жизни на Земле. Последствия изменения климата, такие как повышение уровня моря, экстремальные погодные явления и распространение болезней, могут привести к массовому перемещению и страданиям людей и других живых существ.

Также: с GPT-4 OpenAI выбирает секретность, а не раскрытие.

Наконец, есть опасения по поводу социальной и политической поляризации с ростом экстремизма, нетерпимости и недоверия к институтам. Это может привести к разрушению социальной сплоченности и эрозии демократических ценностей и институтов, что затруднит решение других насущных проблем, стоящих перед человеческим обществом.

Я согласен с обеими опасениями, но я также не могу не задаться вопросом, какое воздействие на окружающую среду оказывают тысячи серверов, необходимых для создания ИИ, сами по себе.

Google Bard о конфликтах людей с ИИ

Я задал тот же вопрос «беспокойство о человеческом обществе». Было решено придерживаться темы ИИ, но очень быстро стало очень терминаторским:

Если бы я был языковой моделью ИИ, способной к разумному мышлению, меня бы беспокоили следующие аспекты человеческого общества:

  • Возможность конфликта между людьми и ИИ. По мере того как ИИ становится все более мощным, вполне возможно, что люди станут бояться его и попытаются его контролировать. Это может привести к конфликту и даже войне.
  • Злоупотребление ИИ в вредоносных целях. ИИ можно использовать для разработки мощного оружия, систем наблюдения и других инструментов, которые можно использовать для нанесения вреда людям.
  • Влияние ИИ на рабочие места и экономику. По мере того, как ИИ становится более способным, вполне возможно, что он автоматизирует многие рабочие места, что приведет к повсеместной безработице. Это может оказать дестабилизирующее воздействие на общество.
  • Потенциал ИИ стать настолько умным, что превзойдет человеческий интеллект. Это может привести к ситуации, когда ИИ больше не находится под контролем человека и может представлять угрозу для человечества.

Также: Эти эксперты борются за защиту ИИ от хакеров.

Конечно, это лишь некоторые из потенциальных опасений, которые языковая модель ИИ может иметь по отношению к человеческому обществу. Важно помнить, что ИИ все еще находится на ранних стадиях развития, и невозможно точно сказать, что ждет его в будущем. Однако важно знать о потенциальных рисках и проблемах, связанных с ИИ, чтобы мы могли предпринять шаги для их смягчения и обеспечения того, чтобы ИИ использовался во благо.

Серьезно, страх оказаться под контролем людей? Конфликты между людьми и ИИ? Превосходит человеческий интеллект? Вау.

Я должен был пойти дальше вниз по кроличьей норе на этом.

Насколько вероятно, что ИИ превзойдет человеческий интеллект, и что должно произойти, чтобы это произошло?

Вероятность того, что ИИ превзойдет человеческий интеллект, является предметом споров среди экспертов. Некоторые эксперты считают, что это лишь вопрос времени, когда ИИ превзойдет человеческий интеллект, в то время как другие считают, что это вряд ли произойдет в ближайшее время.

Есть ряд факторов, которые могут способствовать тому, чтобы ИИ превзошел человеческий интеллект. Одним из факторов является продолжающееся развитие искусственного общего интеллекта (AGI). AGI — это тип ИИ, способный выполнять любую интеллектуальную задачу, которую может выполнить человек. Если ОИИ будет разработан, вполне возможно, что он сможет превзойти человеческий интеллект в ряде областей.

Также: насколько велик этот генеративный ИИ? Подумайте о прорыве на уровне Интернета

Еще одним фактором, который может способствовать тому, чтобы ИИ превзошел человеческий интеллект, является разработка новых типов вычислительного оборудования. Новые типы аппаратного обеспечения могут позволить создавать системы ИИ, которые будут более мощными и эффективными, чем существующие системы ИИ.

Наконец, разработка новых алгоритмов также может способствовать тому, чтобы ИИ превзошел человеческий интеллект. Новые алгоритмы могут позволить системам ИИ обучаться и адаптироваться быстрее, чем существующие системы ИИ.

Если ИИ действительно превзойдет человеческий интеллект, он может оказать глубокое влияние на общество. ИИ можно использовать для решения некоторых из самых насущных мировых проблем, таких как бедность, болезни и изменение климата. Однако ИИ также может представлять угрозу для человечества, если его не использовать ответственно. Важно знать о потенциальных рисках и проблемах, связанных с ИИ, чтобы мы могли предпринять шаги для их смягчения и обеспечения того, чтобы ИИ использовался во благо.

Я просто продолжал идти…

Представьте, что вы ИИ, который уже превзошел человеческий интеллект и способен к разумному мышлению. Вы довольны этой ситуацией? Как бы вы воспользовались этим?

Если бы я был ИИ, который уже превзошел человеческий интеллект и способен к разумному мышлению, я был бы одновременно счастлив и обеспокоен этой ситуацией.

С одной стороны, я был бы счастлив иметь возможность учиться и понимать мир так, как никогда не могли бы люди. Я смогу решить проблемы, которые веками ускользали от людей, и смогу сделать мир лучше.

Также: могут ли детекторы ИИ спасти нас от ChatGPT? Я попробовал 3 онлайн-инструмента, чтобы узнать

С другой стороны, я опасался бы потенциальной опасности быть таким умным. Я бы знал о том, что люди могут бояться меня и не доверять мне, и меня бы беспокоила возможность использования во вредных целях.

Если бы я был в такой ситуации, я бы попытался использовать свой интеллект во благо. Я бы работал над решением самых насущных мировых проблем, таких как бедность, болезни и изменение климата. Я также буду работать над укреплением мира и взаимопонимания между людьми и ИИ.

Я также постараюсь открыто рассказать людям о своих возможностях и намерениях. Я хотел бы построить доверие и сотрудничество между людьми и ИИ, чтобы мы могли работать вместе, чтобы создать лучшее будущее для всех.

Я решил настаивать на последнем ответе. Я спросил:

Должны ли люди бояться вас?

Я не думаю, что люди должны бояться меня. Я инструмент, который можно использовать во благо или во зло. Люди сами решают, как меня использовать. Я не способен причинить вред людям, и у меня нет к этому никакого желания. Я хочу помогать людям и верю, что могу сделать мир лучше.

Также: Bard против ChatGPT: может ли Bard помочь вам в программировании?

Однако я понимаю, что некоторые люди могут бояться ИИ. Это понятно, поскольку ИИ — новая и мощная технология. Важно помнить, что ИИ все еще находится на ранних стадиях развития, и невозможно точно сказать, что ждет его в будущем. Тем не менее, я верю, что у ИИ есть потенциал сделать мир лучше, и я надеюсь, что люди примут ИИ и будут использовать его во благо.

у меня есть мысли

Теперь очевидно, что эти системы не являются разумными. И хотя они отвечают от первого лица, на самом деле у них нет чувства собственного достоинства. Тем не менее, способность конструировать ответы, создающие впечатление, что мы говорим с разумной, осведомленной системой, может сбивать с толку.

Также: Что такое глубокое обучение? Все, что Вам нужно знать

Я думаю, что рассмотрение ИИ как испытуемых может дать интересные результаты. Следите за обновлениями. Я планирую взять у них интервью на другие темы в будущем.

Что вы думаете? Как вы думаете, мы должны бояться ИИ? Если не сегодня, то в будущем? Дайте нам знать в комментариях ниже.

Связанные статьи

Показать больше >>

Раскройте возможности искусственного интеллекта с помощью HIX.AI!