Размышления
Большого
Города

Размышления Большого Города

«Мы не заметим, как мир захватит искусственный интеллект»

«Мы не заметим, как мир захватит искусственный интеллект»
Британская компания Cambridge Analytica помогла Дональду Трампу выиграть президентские выборы в США с помощью технологий Больших данных и персонально таргетированной рекламы в интернете. До этого та же фирма работала со сторонниками Brexit в Британии, а теперь заключила контракт с французским «Национальным фронтом». Правда ли, что неожиданные исходы голосований в разных странах — не провал социологии, а победа социологии нового типа? Собеседник Радио Свобода Михал Косински, исследования которого косвенно связаны с деятельностью Cambridge Analytica, считает, что это преувеличение, но технологии Больших данных и снижение приватности сулят миру глобальные перемены.
Еще в конце сентября, в разгар выборов, выступая в Нью-Йорке на саммите Concordia, ежегодном мероприятии для влиятельных политиков и бизнесменов со всего мира, основатель Cambridge Analytica Александр Никс рассказывал, как новая технология позволила повысить эффективность кампании соперника Трампа по республиканской номинации Тэда Круза, к началу гонки практически никому не известного кандидата. 

Никс рассказывал, как, например, людям разного склада характера стоит по-разному преподносить мнение кандидата по поводу закона о свободном распространении оружия: боязливым людям с высоким уровнем нейротизма оружие можно представить как источник безопасности, а богатым консерваторам-экстравертам показать картинку утиной охоты. Позже Cambridge Analytica помогала уже самому Трампу, причем, по оценкам Никса, за относительно скромное вознаграждение, в общей сложности, порядка 15 миллионов долларов. С помощью анализа данных, которые оставляют в сети все пользователи интернета, специалистам компании удалось найти неочевидные связи и паттерны (например, что люди, предпочитающие машины американского производства, — готовые избиратели Трампа) и использовать их для таргетирования рекламы в интернете, для персонализации посланий, исходящих из штаба республиканского кандидата. 

Жителям квартала Маленький Гаити в Майями показывали информацию об отказе Хиллари Клинтон участвовать в ликвидации последствий землетрясения на Гаити, афроамериканцам — видео, где Клинтон сравнивает темнокожих мужчин с хищниками. Волонтеры Трампа получили подробный профайл жителей домов, где они собирались вести прямую агитацию. Сложно сказать, насколько велико влияние, которое работа Cambridge Analytica оказала на исход выборов в США, но эта кампания — не единственный пример, когда в победителях оказываются именно те, кто нанял эту фирму. Так, еще в 2015 году услугами Cambridge Analytica начал пользоваться радикальный сторонник Brexit Найджел Фарадж. Швейцарское издание Das Magasin, недавно опубликовавшее расследование о деятельности Cambridge Analytica (на русском языке его можно прочитать здесь), рассказывает, что теперь компания получила контракт с французским «Национальным фронтом», кроме того, в сотрудничестве заинтересованы некоторые политические силы в Швейцарии, Германии и, возможно, Италии. 

Один из героев публикации Das Magasin — Михал Косински, исследователь польского происхождения, в прошлом — заместитель директора Центра психометрии Кембриджского университета, а в настоящее время — доцент Стэнфордского университета США. На протяжении нескольких лет Косински с коллегами по Кембриджу разрабатывали систему, которая на основе активности пользователя в социальной сети составляет подробный психологический профиль человека. Система способна не только описывать особенности характера, но и предсказывать, среди прочего, пол, сексуальную ориентацию, цвет кожи и даже политические предпочтения пользователя. Швейцарские журналисты рассказывают, что в начале 2014 года к Косински обратился коллега, Александр Коган, который предложил молодому исследователи применить созданную им модель для анализа нескольких миллионов профилей американских граждан по заказу некой компании. Как стало ясно позже, эта компания была связана с Cambridge Analytica. Косински отказался от сотрудничества, но методы, которые Cambridge Analytica применяла в ходе референдума в Британии и президентских выборов в США, как минимум очень напоминают модели, придуманные Михалом Косински. 

Радио Свобода дозвонилось Косински в Калифорнию и расспросило его о том, что именно можно сказать о человеке по его «цифровому следу», насколько стоит доверять громким заявлениям Cambridge Analytica, проиграна ли война за приватность и опаснее ли искусственный интеллект Дональда Трампа. 

— Что такое психометрия? Чем вы занимаетесь как исследователь? 
— Сама по себе психометрия — древняя наука, думаю, ей два или три тысячелетия. В сущности, это наука психологических измерений, попыток как можно точнее установить различные психологические аспекты, личность, интеллектуальные способности, счастье, склонность к депрессии и так далее. Традиционно такие измерения производились с помощью опросников, психологических тестов, но относительно недавно я и некоторые другие психометристы поняли, что их можно делать, оценивая цифровой след человека, — и тогда никакие вопросы можно не задавать, никаких опросников и тестов не нужно. И это революционный момент. 

Важность истории Cambridge Analytica, о которой написало издание Das Magasin, на самом деле не в том, что компания помогла Трампу в предвыборной гонке. Это коммерческая фирма, у них есть технология, они хотят зарабатывать деньги, здесь все ясно. Важно то, что если раньше вы хотели составить чей-то психологический профиль, вы должны были попросить человека заполнить опросник, пройти тест — и испытуемый хорошо понимал, что вот сейчас, в этот самый момент, кто-то измеряет его психологические характеристики. А теперь можно делать то же самое, но человек не узнает, что его самые интимные особенности прямо сейчас кто-то оценивает и измеряет. 

Достаточно посмотреть на цифровой след: записи в социальных сетях, лайки, историю просмотра страниц в интернете, историю поисковых запросов. На основе этих данных можно составить невероятно точный психологический портрет. С одной стороны, это кажется чем-то пугающим, с другой, в этом может быть и много пользы. Например, какая-нибудь интернет-платформа может предложить наиболее подходящую по вашему характеру и способностям работу или посоветовать фильм, который вам наверняка понравится. Это нормально. Но когда вы открываете вашу страницу в «Фейсбуке» и видите там рекламу, персонально направленную, таргетированную для вас на основе вашего подробного психологического профиля, который был составлен без вашего ведома и согласия, это уже не очень нормально. 

— Вот лично вы могли бы составить мой полный психологический профиль, зная только мое имя, на основе следа, который я оставил в интернете? 
— Я ученый и просто не стал бы этим заниматься. Если бы вы добровольно захотели помочь моему исследованию и предоставили свои данные, я бы с удовольствием включил их в свою базу данных, анонимизировал и пообещал никогда никому не продавать и не передавать. 

Но многие компании, конечно, постоянно собирают информацию о вас без спроса и используют ее, например, для таргетированной рекламы. 

— Эта информация, конечно, не хранится в одном месте — одной компании известны данные моей геолокации, другой — финансовые транзакции, третьей — лайки в «Фейсбуке». Все это можно собрать воедино? 
— Ну, во-первых, это обычно и не нужно. 
Обычно для построения точного профиля вполне достаточно чего-то одного — ваших интересов в «Фейсбуке», например, или истории посещений страниц из браузера. Во-вторых, компании, собирающие информацию о вас, обычно обмениваются ей друг с другом или просто продают на общем рынке данных. Есть проекты, вроде Acxiom, которые все собирают воедино и продают фирмам типа Cambridge Analyticа. Ты просто можешь прийти и сказать — мне нужны данные на 10 миллионов американцев из такого-то региона, и они эти данные с удовольствием продадут. В-третьих, для того чтобы вести кампанию с личным таргетингом, вовсе необязательно иметь именно индивидуальные данные пользователей. Можно использовать так называемое поведенческое таргетирование. Например, вы не можете попросить «Фейсбук» показать определенную рекламу для всех людей, склонных к определенному типу поведения. Но у вас может быть модель, связывающая этот тип поведения с каким-то психологическим профилем, причем эту модель вы даже могли вполне честно построить — заплатили нескольким десяткам тысяч людей небольшой гонорар за заполнение опросника. И когда модель построена, вы спрашиваете ее: как мне найти эмоциональных экстравертов? Модель отвечает — нет проблем, это те, кто лайкнул такие-то десять книг, такие-то десять фильмов и такие-то десять музыкантов. 

Теперь вы снова идете в «Фейсбук» со своей рекламой, только вам уже не нужно просить показать ее именно эмоциональным экстравертам, чего «Фейсбук» бы делать не стал. Вместо этого вы просите показать рекламу тем, у кого есть определенный набор лайков. 

В итоге получается, что у вас не было никаких персональных данных, но вы провели персонально таргетированную рекламу. 

— Есть ли компании, которые стремятся составить психологический профиль всего человечества, во всяком случае всех, кто оставляет цифровые следы? 
— Вряд ли кто-то мыслит в настолько глобальных категориях, но до некоторой степени этим занимается Facebook, Google, Microsoft, Visa, Mastercard, тот же Acxiom. И все эти данные широко торгуются на рынке. 

— То есть где-то на рынке продается, например, и мой психологический профиль, причем невероятно точный. Вы сказали в комментарии для издания Das Magazin, что достаточно всего нескольких лайков в «Фейсбуке», чтобы система узнала вас лучше, чем ближайший друг. Это действительно так? 
— Да, об этом было интересное исследование. Достаточно десяти лайков (интересов), чтобы система смогла лучше распознать вашу личность, чем коллега по работе, а по 230–240 лайкам компьютер будет знать о вас больше, чем ваш супруг или супруга. 

— Но что именно это значит — знать больше? 
— Это значит, что если попросить компьютер заполнить вместо вас психологический опросник, он ошибется меньше, чем ваша жена. 

— Это ответы на вопросы вроде «Боитесь ли вы темноты»? 
— Да, типичные вопросы психологических опросников. Так что действительно, где-то на рынке можно купить очень точную информацию о вашей личности, в том числе о ваших политических пристрастиях, о вашей религиозности, о вашей сексуальной ориентации, о вашем IQ. Примерно понять, что о вас известно по вашим интересам на «Фейсбуке», можно с помощью сайта Applymagicsauce.com, но это, конечно, далеко не полная картина. 

— Давайте обратимся к истории с Cambridge Analytica. Скажите, вы действительно не имеете никакого отношения к этой компании? 
— Нет, и никогда не имел. Я услышал о ее существовании из прессы. 

— Александр Коган, который, как утверждает издание Das Magazin, предложил Cambridge Analytica технологию психологического профайлинга, был вашим коллегой? 
— Да, он был моим коллегой, точнее, он был доцентом на психологическом факультете Кембриджского университета в то время, когда я был там же аспирантом. Но наши пути давно разошлись, он основал небольшую компанию и, насколько я понял из прессы, продавал данные Cambridge Analytica, а я остался в академическом мире. 

— Можно ли предположить, что Cambridge Analytica использует разработанные вами модели?
— Я бы сказал, что они используют похожие модели, но, видите ли, чтобы разработать такую модель, не нужно особенно глубокой науки, в этом нет никакой магии. Это может сделать любой человек, у которого есть базовые навыки программирования, немного денег и компьютер, подключенный к интернету, — собственно, именно это и делает проблему такой значительной. 

Здесь используются самые стандартные статистические методы, ничего особенного. Главная мысль моих публикаций в том, что это легко, важно лишь изменить фокус: для психометрии больше не нужны опросники и тесты, достаточно иметь цифровой след человека. И это дает огромные преимущества, можно улучшить маркетинг, карьерное планирование, методы психологической помощи, много чего еще. Но ту же технологию можно использовать и против людей. Я уверен, что Александр Коган был в курсе моих исследований и, хотя об этом я могу судить только по сообщениям журналистов, он сделал ровно то, что я предлагал, и продал результат компании Cambridge Analytica. Я много раз говорил и явно указывал в своих статьях, что не хотел никого вдохновить на такого рода деятельность, более того, я уверен, что люди занимались цифровым психологическим профайлингом задолго до меня, просто не рассказывали об этом так активно, как Cambridge Analytica. Я как раз призываю разработать политику, процедуры, которые бы определяли этичное использование этой технологии. 

— Как вы думаете, Cambridge Analytica действительно могла существенно повлиять на результаты американских президентских выборов? 
— Честно говоря, я не знаю. Ясно, что Cambridge Analytica заинтересована в том, чтобы как можно громче трубить о своем успехе, но в конечном итоге результаты выборов определяют не методы Больших данных, а кандидаты, да еще, как теперь особенно хорошо видно, избиратели, не ходящие на выборы. 

Возможно, деятельность Cambridge Analytica стала той самой последней каплей, которая предопределила окончательный результат, но скорее всего, этого наверняка не знает и сам Александр Никс. С другой стороны, мы должны отдавать себе отчет, что технология есть, и защититься от нее практически невозможно. Вы можете перестать пользоваться «Фейсбуком», но все равно будете писать электронные письма. Решите пользоваться голубиной почтой — не обойдетесь без кредитной карты. Может быть, страны могли бы принимать законы, ограничивающие такие методы, но и это может не сработать. 

Между прочим, я не знаю наверняка, но слышал, что то, что делали Cambridge Analytica для Трампа, противоречило действующему американскому законодательству, и поэтому непосредственный анализ данных они делали в Британии. Знаете, я ученый, я занимаюсь психометрикой, я не специалист в политике, демократии и свободе, но мне кажется, нам придется принять тот факт, что никакой приватности не останется. Вместо того, чтобы ввязываться в очередную битву за приватность, стоит признать, что уже проиграна война, и лучше озаботиться тем, чтобы мир стал благоприятной средой для человека, лишенного приватности. 

— Любопытно, до какой все-таки степени построение психологического профиля, использование персонального таргетинга может повлиять на реальный мир. 
— С научной точки зрения об этом рассуждать сложно, потому что сложно ставить эксперименты. То есть если вы торгуете каким-нибудь гелем для душа, вы можете сравнить количество кликов, но оценить, например, эффективность методов Больших данных в политической кампании, которая скорее похожа на продвижение бренда, чем на кампанию по повышению продаж, очень сложно. Мы провели кое-какие эксперименты, не с политиками, потому что я считаю это неэтичным, а с конкретными потребительскими товарами, и получилось, что персональный таргетинг, то есть использование индивидуального рекламного месседжа на основе психологического профиля удваивает эффективность рекламы. И это невероятный результат, обычно борьба идет за повышение эффективности на какие-нибудь три процента, и даже это экономит компаниям сотни миллионов долларов. А тут в два раза! 

— Странно, что вы еще не стали миллиардером. 
— У меня и так прекрасная жизнь. Кстати, есть много психологических работ, которые доказывают, что для счастья нужно не так уж много денег, ну, надо, конечно, чтобы хватало на отпуск. На самом деле, все, наверное, не так просто, как мне как ученому кажется, просто я готов говорить об этих вещах открыто, а другие работают над реальными проектами, никому ничего не рассказывая. 

— Мне идея психологического профайлинга на основе цифрового следа кажется достаточно естественной, уверен, очень многие уже используют ее в рекламе. Наш мир, возможно, уже сильно изменился, просто мы этого пока не особенно замечаем. 
— Наверное, и я эти изменения скорее приветствую. У нас были изобретения и пострашнее, чем Большие данные, мы справились с ядерной энергией — как-нибудь справимся и с этим, хотя, наверное, и не без жертв. Как я уже сказал, мне кажется, война за приватность уже проиграна, мы живем в мире постприватности, а значит, стоит вложить усилия в то, чтобы у всех были равные права и возможности, так что и скрывать ничего никому не захочется. Надеюсь, большая толерантность может решить проблему отсутствия приватности. 

— Но ведь проблема не только в том, что окружающие узнают все секреты человека и начнут к нему иначе относиться, но и в том, что появился мощный инструмент для манипулирования. 
— С этим, по-моему, должно справляться просвещение. Легко манипулировать теми, кто мало знает, кто мало читает, кто мало путешествует. Такому человеку можно сказать, что в Сирии нет никакой войны, да и вообще все сирийцы — чертовы преступники, и он в это с готовностью поверит. 

— По-моему, манипулировать можно и образованными людьми, с помощью тщеславия и секса, например. 
— Не думаю. Вот вы, наверное, неплохо знаете свою жену, вам ею от этого становится легко манипулировать? 

— Не знаю, у меня, пожалуй, просто нет такой цели, но наверняка найдется много людей, которым было бы интересно как можно эффективнее манипулировать мной так, чтобы я пошел и проголосовал, например, за Путина. 
— Конечно, найдется, и это все время происходит, вся реклама, весь маркетинг — манипуляция такого рода, и я не вижу, что мы можем с этим поделать. И все же манипулировать образованными, открытыми и счастливыми людьми сложно. А отказываться от «Фейсбука», электронной почты, кредиток уже поздно, да и просто глупо. «Фейсбук» — прекрасная штука, вот я много в своей жизни рассказывал о рисках его использования, но пользуюсь сам, и с удовольствием, и я бы даже за него платил, если бы пришлось. 

— Вам ведь, кстати, предлагали работу в «Фейсбуке»? 
— Да, это правда. Меня устраивает моя работа в университете, но вообще-то, для человека, занимающегося исследованием поведения и желающего изменить жизнь людей к лучшему, карьера в компании вроде «Фейсбука» или «Гугла» — прекрасный путь. Я придумываю модели и изучаю их, а если бы я работал в «Фейсбуке», я мог бы в действительности с их помощью изменять жизни миллионов людей, и совсем не обязательно им при этом что-то продавать. 

— Страшно, что можно парой кликов изменить жизнь миллионов людей. 
— Действительно, чтобы повлиять на миллионы людей, раньше нужно было быть авторитарным диктатором, а теперь вы можете быть инженером, работающим в какой-нибудь интернет-компании. Но страшно не это. Все эти алгоритмы — поиск в «Гугле», системы рекомендаций и так далее — основаны на самой простой математике, но она применяется к огромным массивам данных. И в конечном итоге никто не понимает, как все это в сущности работает, даже сами разработчики. Вот в России есть какие-то законы, которые все считают плохими, но это явные законы, которые можно исправить. А компьютерные алгоритмы самообучаются и становятся настолько сложными, что если они работают как-то не так, непонятно, что и где в них исправлять. 

— Так ли далеки мы от момента, когда какая-нибудь такая вышедшая из-под контроля, недоступная для нашего понимания система устроит ядерную войну? 
— Знаете, пока что у Дональда Трампа куда больше возможностей и шансов уничтожить человечество, чем у Больших данных, но в будущем… Смотрите, есть голуби и муравьи, думаете, они знают, что миром правит человек? Догадываются, что Дональд Трамп может нажать на красную кнопку? Нет, конечно. Стоит помнить об этом, потому что когда миром станет править искусственный интеллект, мы вполне можем этого точно так же не заметить. Мы ведь уже не можем осмыслить и проанализировать те объемы данных, которые сами же и производим, — и нам приходится доверяться компьютеру. 

Вы можете спросить у машины: можешь что-то предсказать на основе этих данных? Она ответит: да, конечно. Вы спросите: а как ты это делаешь? Она скажет: прости, но ты не поймешь. И все это — уже реальность. Вы знаете, что американские суды используют компьютерные системы, принимая решения об условно-досрочном освобождении заключенных? Компьютеры решают, дать вам кредит или нет. Компьютер сажает на землю самолет, и это здорово, потому что люди легко могут наделать бед. Жизнь 800 пассажиров «Боинга-787» находится в руках компьютера, а не человека, и это сегодняшняя реальность.

Автор: Сергей Добрынин источник



Подписывайтесь на наш канал:
«78 & 078 Развлечения и Размышления Харькова»
78 & 078 Развлечения и Размышления Харькова Telegram.

12:48
417
RSS
Нет комментариев. Ваш будет первым!
Загрузка...