Опасности и риски искусственного интеллекта
Обновлено: 10.10.2024 |
Кроме восстания машин, основным фактором риска использования систем с искусственным интеллектом (машинным обучением) является то, что никто не знает, как обученная нейросеть принимает решения. Следовательно, нельзя заранее предсказать, как она будет работать в необычных ситуациях (в которых человек бы поступил более-менее разумно).
Второй опасностью, которая является следствием пользы ИИ, является подрыв социальной стабильности в связи с лишением людей рабочих мест.
Также, очевидно, что ИИ может использоваться злоумышленниками для таких целей, как генерация фейковых новостей, отзывов, фотографий, видео и аудиозаписей, преодоления антиспам-механизмов (для черного пиара, рекламного спама).
Мнения экспертов об опасностях и угрозах ИИ - даны ниже.
Второй опасностью, которая является следствием пользы ИИ, является подрыв социальной стабильности в связи с лишением людей рабочих мест.
Также, очевидно, что ИИ может использоваться злоумышленниками для таких целей, как генерация фейковых новостей, отзывов, фотографий, видео и аудиозаписей, преодоления антиспам-механизмов (для черного пиара, рекламного спама).
Мнения экспертов об опасностях и угрозах ИИ - даны ниже.
2019. Через пару лет ИИ похоронит нас под лавиной дезинформации
За последнее время появилось два впечатляющих алгоритма, синтезирующих правдоподобные тексты в различных жанрах. Один из них — GPT-2 — создали в OpenAI и сразу засекретили, настолько опасным казалось попадание его «не в те руки». Второй вариант представили исследователи из Института Пола Аллена в Сиэтле. И они напротив, убеждены, что если алгоритм не раскрыть, подобрать ключи к распознаванию фальшивых ИИ-новостей будет невозможно.. Журналисты New York Times провели эксперимент, представив тексты, созданные этими алгоритмами, на людях, и, оказалось, люди им верят. Экспериментаторы убеждены: в ближайшие годы модели текстовой генерации пройдут тот же путь, что проделали состязательные генеративные нейросети в создании правдоподобных фото и видео. И сгенерированные тексты рано или поздно станут неотличимы от написанных человеком.
2018. Сергей Брин поделился опасениями по поводу искусственного интеллекта
Сооснователь Google Сергей Брин предупредил об угрозе технологий ИИ в ежегодном письме сотрудникам компании. Брин рассказал, что Alphabet использует ИИ для работы домашнего помощника Google Home, переводчика, видеосервиса YouTube и для других целей. Однако подобные разработки приводят к новым обязанностям и вопросам, которые предстоит решать компании в ближайшее время, пояснил он. " Как эти технологии повлияют на занятость в разных секторах? Как мы поймём, что происходит у них «под капотом»? Могут ли они манипулировать людьми? Они безопасны?" - спрашивает себя Брин. Он также перечислил инициативы в сфере ИИ, в которых участвует Alphabet для исследования этих вопросов: Bringing Precision to the AI Safety Discussion, DeepMind Ethics & Society, PAIR: People+AI Research Initiative, Partnership on AI.
2015. Элон Маск создал организацию OpenAI для контроля ИИ
Как известно, Элон Маск побаивается искусственного интеллекта. Поэтому он с друзьями, в число которых входят сооснователь PayPal Питер Тиль, партнёр Y Combinator Сэм Альтман основали некоммерческую организацию OpenAI, целью которой станет контроль человечества над искусственным интеллектом (чтоб он случайно нас не уничтожил). Со старта в эту организацию друзья вложили не многи ни мало $1 млрд. Как же контролировать ИИ? Очень просто - нужно владеть информацией о нем: знать его силы и слабости. Поэтому OpenAI будет заниматься исследованиями ИИ, а полученной информацией будет делиться со всеми людьми (ведь все мы находимся по одну сторону баррикады).***
2015. Билл Гейтс тоже опасается ИИ
Беспокойство по поводу развития технологий Искусственного интеллекта раньше высказали Илон Маск и Стивен Хокинг. Теперь к числу «боязливцев» добавился ещё Билл Гейтс. Свои опасения он высказал во время вчерашней сессии вопросов-ответов с пользователями интернета на форуме Reddit «AmA». Билл Гейтс дал понять, что разделяет позицию Илона Маска, в соответствии с которой следует очень осторожно работать над созданием умных машин. «Я принадлежу к лагерю тех, кто озабочен возникновением суперинтеллекта. Сначала машины будут делать для нас много полезной работы и не будут обладать суперинтеллектом. Это будет позитивным явлением, если мы нормально управляем процессом. Однако, через несколько десятилетий ИИ станет достаточно сильным, чтобы вызвать беспокойство. Я согласен с Илоном Маском и другими на этот счёт и не понимаю, почему некоторые люди не чувствуют такого же беспокойства».