Один из первых примеров машинного обучения в действии имел место в Массачусетском технологическом институте в конце 1950-х годов. Эту технологию пытались применить к игре в шахматы.

«Программа просто поместила алгоритм в код, и это было прорывом в том, чтобы заставить людей понять, что компьютеры могут быть умными. Сам алгоритм оставался статичным. Если его противник делал ход, он запускал алгоритм и делал свой собственный соответствующий ход» (Бухер).

Этот тип искусственного мышления был новаторским и положил начало целой эре. Раньше требовалось навязчивое количество программирования, чтобы заставить машину выполнять простую задачу, связанную с искусственным принятием решений. Но эти прорывы в машинном обучении позволяют технологиям адаптироваться к собственному окружению. Искусственный интеллект и машинное обучение часто используются рука об руку при описании этого процесса объяснения интеллектуальных машин.

Эта способность системы обучаться на основе такой простой задачи стала свидетельством высокого потолка машинного обучения. Давайте перенесемся на 60 лет в будущее и обсудим нечто более сложное, чем простая игра в шахматы. По состоянию на апрель 2015 года социальный гуманоидный робот София стал полностью функциональным. Этот робот теперь хорошо известен своей человеческой внешностью и адаптивным социальным поведением. Ее система использует распознавание голоса и со временем становится все умнее. Ее программы с искусственным интеллектом предназначены для извлечения и обработки данных, что дает улучшенные ответы. Посмотрите это короткое видео ниже, чтобы точно понять, с чем мы имеем дело.

Жутко правда? Обратите внимание, как она могла менять выражение лица и поддерживать зрительный контакт, как нормальный человек. Скажу честно, первое, что пришло мне в голову, когда я увидел это видео, был Терминатор. Сюжет в основном вращается вокруг роботов, достигающих определенного уровня человеческого интеллекта и взаимодействия до точки захвата мира. В 1984 году эта идея была практически выдумкой и явно надуманной и преувеличенной. Перенесемся в настоящее, и теперь у нас буквально есть человекоподобный киборг в наших руках, дамы и господа. София демонстрирует умственные способности и внешний вид вымышленного персонажа из фильма. Учитывая предпосылку и исход сюжета, возможно, было бы разумно разобраться, что на самом деле происходит с этим новым существом с искусственным интеллектом. Хотя создатели Sophia думают, что в ближайшем будущем эти роботы могут жить среди нас; Я думаю, что у нас есть несколько этических последствий, которые нужно обсудить и оценить, прежде чем это станет реальностью.

В октябре 2017 года София получила гражданство Саудовской Аравии. Это означало бы, что она способна быть полноценным членом общества с правами человека. Из видео нам говорят, что у Софии в глазах есть камеры, которые позволяют ей использовать распознавание образов и «понимать» окружающий мир. Высокопрофильным технологическим компаниям трудно заставить эту новую технологию машинного обучения делать то, что они хотят, и возникли некоторые проблемы. Недавно Google внедрила распознавание изображений и лиц в свое программное обеспечение, чтобы классифицировать фотографии для своих пользователей. Эта, казалось бы, безобидная функция имела огромные последствия для компании. В 2015 году афроамериканский разработчик программного обеспечения написал в Твиттере Google, что программное обеспечение компании помечает фотографии его и его друга как горилл. Давайте остановимся здесь на секунду и подключим этот экземпляр к Софии. Представьте, с какой негативной реакцией столкнется этот бедный робот, если она укажет на «гориллу» в общественном месте, и это окажется афроамериканец. Даже если это будет сделано неосознанно, такого рода расизм не будет допущен действующим членом общества.

Потенциально опасным примером распознавания изображений является желание укрепить гендерные стереотипы и социальные оттенки сексизма. В исследовании Университета Вирджинии и Университета Вашингтона; «Искусственный интеллект (ИИ) с большей вероятностью назовет людей, которые готовят, делают покупки и убираются, женщинами, а людей, которые занимаются спортом, тренируют и стреляют, — мужчинами» (Вайс). Этот результат распознавания изображений поддерживается существующими данными. Дело в том, что фотографий женщин, готовящих, делающих покупки и убирающихся, больше, чем мужчин. «Чтобы увидеть, как предубеждения распространяются и усиливаются с помощью данных обучения системы машинного обучения, нам нужны истории самих наборов данных: как они были сформированы и почему, как они поддерживались и впоследствии изменялись, и как они были оценены как полезные данные. за проблемы, для решения которых они были заняты» (Plasek 6). Вопрос в том, можем ли мы действительно винить технологию? Виновата ли машинное обучение (София) или мы просто невольно реализуем наши собственные социальные нормы и предубеждения в отношении технологий, которые мы создаем? В любом случае, эти кажущиеся агрессивными или бесчувственными замечания робота могут вызвать гнев. Здесь вещи могут стать липкими. Помните, как София учится у своего окружения? Если люди агрессивны по отношению к ней, что мешает ей быть агрессивной по отношению к нам?

Это может показаться забавным, если Маленькому Джонни нравится пинать Робота Рика. Но было бы трагично, если бы, делая это снова и снова без ругани (или даже смеха), он думал, что было бы не менее забавно ударить своего друга-человека, Малыша Рикки. Джонни, как и все мы, является «созданием привычки, и все наши склонности формируются похвалой и порицанием, смехом или гневом и другими положительными и отрицательными подкреплениями» (Селинджер).

Мы должны осознавать эту ситуацию и способность этих роботов учиться у нас. Агрессия по отношению к роботам может в конечном итоге послужить подтверждением того, что люди могут быть черствыми, и такое поведение будет отражаться и сочетаться с технологией, которую мы, возможно, еще не полностью понимаем.

Важно понимать, насколько потенциально значимой может быть эта технология. Если мы хотим избежать превращения Терминатора в реальность, мы должны научиться обучаться этому новому и грядущему машинному обучению. И если по какой-то причине эти роботы все-таки начнут жить среди нас, мы должны научиться относиться к ним как к равным и проявлять к ним любовь, а не ненависть, иначе они могут отплатить тем же. Эти и многие другие примеры являются причиной того, что многие продолжают внимательно следить за способностью машин учиться и адаптироваться, и я надеюсь, что теперь вы тоже будете это делать. У него есть потенциал помочь обществу во многих отношениях, но этические сложности и запутанность технологии могут оказаться слишком большими для ее продвижения.

Ссылки:

  1. Бухер, Тим. «МАШИННОЕ ОБУЧЕНИЕ НА ОСНОВЕ ДАННЫХ СОЗДАЕТ ЦИФРОВОЙ ВЕК ОПЫТА». Medium, Creation: Being Human, 3 октября 2017 г., medium.com/creation-being-human/machine-learning-powered-by -данные-создают-цифровой-возраст-опыта-348b36c9064d.
  2. Пласек, Аарон. «О жестокости настоящего написания истории машинного обучения». Анналы истории вычислительной техники IEEE, vol. 38, нет. 4, октябрь 2016 г., стр. 6–8. EBSCOхост, doi:10.1109/MAHC.2016.43.
  3. Вайс, Сюзанна. Даже искусственный интеллект сексист. Glamour, журнал Glamour, 22 августа 2017 г., www.glamour.com/story/even-artificial-intelligence-is-sexist.
  4. Селинджер, Эван. «Должны ли мы уважать наших роботов?» Medium, Когда роботы правят миром, 8 мая 2018 г., medium.com/s/when-robots-rule-the-world/should-we-respect-our-robots-b7538aca6ee6.