Это репост некоторых комментариев из моего информационного бюллетеня InsideAI. Зарегистрируйтесь, если хотите больше подобного контента.

Для парня, очень озабоченного темной стороной ИИ, Илон Маск продолжает делать вещи, которые, как я опасаюсь, могут сделать его предсказания реальностью, а не спасти нас от злонамеренного супер-ИИ. Я уже писал ранее о том, что OpenAI может непреднамеренно вызвать проблемы, которые он пытается предотвратить. Чтобы повторить этот аргумент, мы должны начать с предположения, что мы не знаем, откуда может прийти окончательный прорыв, который сделает ИИ более эффективным. перейти черту сверхразума. Делая так много исследований ИИ открытыми, да, мы распространяем их, чтобы ни одна компания не доминировала над ними, но мы также увеличиваем риск того, что какой-то один человек, может быть, студент где-нибудь в колледже, совершит окончательный прорыв и теперь контролирует первый общий искусственный интеллект. . OpenAI, обнародовав все свои исследования, снижает вероятность того, что Google или Facebook единолично владеют ИИ, но за счет увеличения вероятности того, что другие страны или отдельные лица могут владеть ключами к королевству ИИ.

Сейчас Илон строит Neuralink, и это отличная идея. Но опять же, это компромисс. Да, наш лучший шанс против супер ИИ. заключается в том, чтобы увеличить себя, чтобы мы тоже стали сверхразумными. Но если вы считаете, что велики шансы, что суперИИ возникнет, и захочет нас контролировать или уничтожить, то для такого А.И. что у всех нас есть электронные устройства, имплантированные в наши головы и подключенные напрямую к нашему мозгу. Взломать людей в мире Neuralink может быть проще, чем в противном случае.

Вы, наверное, помните историю о царе Эдипе. Когда он родился, было предсказано, что он убьет своего отца и женится на своей матери. Таким образом, его отец сказал матери убить ребенка. Она не могла этого сделать, поэтому послала слугу сделать это. Слуга оставил младенца умирать, но его нашел и вырастил пастух. Вы, конечно, знаете, чем закончилась эта история. Я иногда беспокоюсь, что Илон, в своей сверхбдительности, чтобы защитить нас от опасного ИИ. будущее, позиционирует себя как Эдипа Илона — парня, создавшего ту самую проблему, которой он пытался избежать. Это особенно тревожно, учитывая, что сценарий «зло-супер-ИИ-уничтожит-нас» является лишь одним из многих возможных будущих исходов, и на данный момент нет оснований предполагать, что это будущее имеет более высокую вероятность материализации, чем альтернативы. Я думаю, нам следует составить план, как предотвратить такой сценарий, но такие агрессивные действия без полного понимания проблемы и возможностей могут быть ошибкой.