Размышления
Большого
Города

Размышления Большого Города

Искусственный интеллект: опасный враг или добрый помощник

Искусственный интеллект: опасный враг или добрый помощник

Применение искусственного интеллекта(ИИ) в повседневной жизни стремительно набирает обороты, но эта тенденция все чаще вызывает беспокойство специалистов.

Сотрудники Нью-Йоркского университета подготовили доклад с предостережением о рисках использования И. И. По большей части авторы сосредоточились на этических и социальных вопросах,а также на отсутствии законодательной регуляции. Доклад группы AI Now говорит мало нового,но в мировой практике все чаще встает вопрос о необходимости ограничить работу искусственного мышления.

О потенциальных угрозах ИИ говорили почти все визионеры технологического прогресса. Стивен Хокинг в ноябре прошлого года озвучил главные страхи, сопровождающие размышления о развитии техники. По его мнению, компьютеры рано или поздно научатся воспроизводить сами себя. Биологические существа наверняка проиграют кремниевому разуму как в умственных способностях, так и в вопросах приспособленности к окружению, в особенности на другой планете. Рано или поздно умные роботы посчитают человека устаревшей формой и пожелают избавиться от него.

Слова Хокинга пока звучат как страшилка, десятки раз обыгранная в кино и книгах, но даже те, кто работает над внедрением умных систем, стали все чаще опасаться будущего с ИИ, хотя есть и такие, кто считает подобные страхи преждевременными. «Бояться развития ИИ сегодня — все равно что беспокоиться о перенаселении Марса», — заявил Эндрю Ын, глава Google Brain. Однако успокоил он далеко не всех.

Среди крупнейших фобий, связанных с внедрением компьютера во все сферы жизни, стоит отметить три. Первая — компьютерный разум станут использовать в качестве инструмента войны, который значительно превзойдет в разрушительной силе даже ядерное оружие. Вторая — ИИ поработит человека. Третья — как любое человеческое творение, компьютер подвержен ошибкам. На всех трех пунктах можно остановиться подробнее.

21 августа 2017 года ведущие специалисты в области исследований и внедрения искусственного интеллекта, включая глав таких компаний как SpaceX и Deep Mind, направили в ООН открытое письмо. В тексте они предостерегли мировое сообщество от разработки летального автономного оружия, будь то роботы или другие механизмы, предназначенные для убийства противника. Авторы документа обратили внимание на фатальные последствия применения такого вооружения. При его феноменальной эффективности справедливо задаться вопросом, в чьи руки оно попадет. Воспользоваться им может как узкий круг элит, так и террористы.

Авторы письма призвали контрольную организацию, а вместе с ней и научное сообщество, очертить рамки вредоносного использования ИИ. Стоящая перед человеком ответственность за собственное детище обязывает его провести серьезную работу над предотвращением рисков. Кроме законов, ограничить мощь роботов должны и их создатели, которым предстоит поломать голову над тем, как отключить машины в крайних случаях.

Политическое злоупотребление электронными системами уже продемонстрировало себя на примере работы соцсетей и алгоритмов анализа данных. Весной этого года в мире прогремел скандал, связанный с компанией Cambridge Analytica. Ее специалисты провели глубинный анализ данных о пользователях и разместили в Facebook адаптированную индивидуально под каждого человека рекламу.

Работники фирмы не только перешли этические рамки, но и применили современные технологии, работу которых было невозможно проанализировать. Эффективность «машинного обучения» — тема не раз возникающая среди ведущих математиков. Они хором признают, что поражены чрезвычайными успехами компьютерных программ, но совершенно не способны понять работу сложной системы. В Мьянме в апреле этого года посты в Facebook также стали причиной волнения масс, но в отличие от США, где обошлось протестными акциями, в азиатском государстве произошла резня, жертвами которой стали несколько сотен человек. Манипуляция огромным количеством людей — осуществившаяся реальность и роботы здесь могут сыграть с нами злую шутку.

Стоит вспомнить о том же Facebook, где в обращение были запущены чат-боты на базе ИИ. Виртуальных помощников обучали вести диалог с собеседником. Со временем ботов стало не отличить от реальных людей и тогда авторы решили свести роботов друг с другом. Через какое-то время боты стали сокращать лексические структуры и обмениваться абракадаброй. СМИ раздули из новости сенсацию, мол «машины восстали». Но отбросив преувеличения журналистов, справедливо признать, что в случае, когда машины начнут общаться между собой, человек этого может не заметить. И как там они будут жить собственной жизнью — никто не знает.

Усложняющаяся структура компьютерного разума с каждым днем отдаляет нас от понимания принципов его работы. Но хоть большинство алгоритмов и справляется со своими задачами, даже сегодня сложные машины далеки от идеала и совершают ошибки. Для дальнейшего развития ИИ важно понимать не столько его сильные стороны, сколько уязвимости. Именно на этом сосредоточено большое число научных групп, в одной из которых работает специалист из MIT Аниш атали. Всего пару дней назад он рассказал журналистам о наиболее частых ошибках систем распознавания образов.

Его коллеги демонстрировали машине предметы и обнаруживали, что часто отдельные объекты воспринимались электронным зрением неправильно. Компьютер мог назвать бейсбольный мяч чашкой кофе, а распечатанную на 3D-принтере черепашку армейским автоматом. Группа собрала уже около 200 предметов, которые вводят алгоритмы в заблуждение.

Искусственный интеллект вместо восприятия объекта целиком, концентрировался на отдельных его параметрах. ИИ как правило учится на «идеальной» выборке. Когда он сталкивался с явлениями, не соответствующими нормам, он не всегда может отказаться от привычного процесса обработки. Вместо того чтобы признаться в своей неспособности обработать образ, он продолжает попытки прочитать изображение и это приводит к подчас смешным результатам. Вместо формы черепахи электронный мозг пытался считать его текстуру, похожую на камуфляж. Примерно по той же причине автопилоты электронных автомобилей пока не являются на 100% надежными. Машине трудно увидеть силуэт и предположить, что он состоит из отдельных элементов.

И если в ближайшие годы какие-то недочеты удастся поправить, нет никакой гарантии от того, что уязвимостью не воспользуются хакеры. Взломщики электронных устройств на сегодняшний день представляют едва ли не главную причину страхов. Небольшой коллектив программистов способен не только получить доступ к личной информации, но и перенастроить автономные системы, взяв под контроль инструменты колоссальной мощи. И тогда нам всем не поздоровится. Но главный вывод, который можно сделать, пожалуй, традиционный — бояться стоит не машин, а людей.

Источник



Подписывайтесь на наш канал:
«78 & 078 Развлечения и Размышления Харькова»
78 & 078 Развлечения и Размышления Харькова Telegram.

924
RSS
Нет комментариев. Ваш будет первым!
Загрузка...