Искусственный интеллект

Может ли искусственный интеллект помочь сделать наше общество более справедливым и демократичным?

Любит | Нелюбов | Ответы | Вид | 7735


Длинная . Джи Лонг начинающий парень в Сан-Франциско.   
@ | Обновлено Right Now


Предполагая, что вы ссылаетесь на заявление Хокинга о росте искусственного интеллекта: « Это будет либо лучшее, что когда-либо случалось с нами, либо худшее. Если мы не будем осторожны, это может быть последним. »

Инстинктивный ответ исследователя, скорее всего, является защитным, тем более что наша «ответственность» (между цитатами) - продвигаться вперед во имя прогресса. Но давайте вспомним, что с незапамятных времен (от изобретения колеса до промышленной революции до изобретения автомобиля или просто демократизации и популяризации чтения и письма) люди боялись прогресса. Изменения могут быть страшными, разрушительными и неудобными.

Но мы говорим не о каком-либо исследователе. Мы цитируем профессора Хокингса, одного из самых ярких и образованных умов нашего времени и, возможно, одного из отцов современной науки. Просто защищаться или отстаивать ИИ во имя прогресса было бы плохой услугой.

Реальный вопрос не в том, будет ли это лучше или хуже. Настоящий вопрос состоит из двух частей: 1) как мы можем гарантировать или знать результат? и 2) кто будет нести ответственность за этот результат?

Вот один из способов подумать над вопросом.

Исследователи и инженеры ИИ - это гибрид алхимика и кузнеца . Как и алхимики, мы не всегда можем объяснить, как оптимизируются наши алгоритмы (концепция черного ящика в Deep Learning), и, подобно кузнецам, мы создаем инструменты, которые можно использовать в любом количестве задач. Имея это в виду, давайте зададим следующий вопрос: были ли кузнецы ответственны за убийства, совершаемые их мечами? Они полностью ожидали, что их мечи будут использованы для такого насилия, когда они их создали? Должен ли кузнец взять весь кредит на процветание культур, которые его инструменты использовали для посадки? Или для фермера, пострадавшего от инструмента из-за его неправильного использования? Я считаю, что ответ и да, и нет.

Все инструменты, которые мы используем в качестве исследователей или инженеров, изначально предназначены для решения проблемы, конкретной задачи, основанной на том, для чего у нас есть данные. К сожалению, наши мысли редко выходят за рамки приложения, которое мы создаем, или статьи, которую мы публикуем. Кто-то может назвать это безответственным, но помните, что есть бесконечные возможности, и рассмотреть их все было бы параличом изобретения.

Давайте возьмем скандал за "Deep Nudes". Должны ли мы считать Иана Гудфеллоу ответственным за изобретение и популяризацию GAN до такой степени, что теперь люди могут в цифровой форме раздевать и объективировать женщин, что было невозможно до его технологии? Я бы сказал, что нет. Эта технология была создана для определенной цели, и были рассмотрены многочисленные способы использования этой технологии в злонамеренных целях; технология, возможно, никогда не создавалась. Нет никакого способа адекватно обеспечить будущее использование своего изобретения, но это не может остановить изобретателя или стремление к намеченному прогрессу.

Если мы предполагаем, что не можем гарантировать результаты, мы должны спросить, кто несет ответственность за отклонения.

Хотя ИИ, который у нас есть сегодня, все еще находится на примитивной стадии, эксперты уже беспокоятся о последствиях того, что может произойти, когда интеллект опережает нас. Или, как сказал Хокинг, «в то время как краткосрочное воздействие ИИ зависит от того, кто его контролирует, долгосрочное влияние зависит от того, можно ли вообще его контролировать».

Исследователи искусственного интеллекта должны рассмотреть обратную связь и спросить себя: только потому, что я могу продвигать определенную технологию, я должен? Это не удар по искусственному интеллекту (в конце концов, мы - исследователи искусственного интеллекта), а вопрос, который ученые и исследователи в каждой области должны задавать себе, когда продвигают технологии с неизвестными последствиями (ping Google, Facebook). Это особенно верно для ИИ в большей степени, чем для любой технологии, потому что ИИ участвует в принятии решений. Легко узнать, кто отвечает за нажатие красной кнопки, посылающей ракеты врагу; это намного сложнее, когда решение было принято ИИ. Любая система, принимающая решения на основе данных, будет распространяться и усиливать человеческие предубеждения., Любой, кто использует ИИ, не может спрятаться за этим фактом и действовать как данные, являющиеся источником абсолютной правды, они должны нести полную ответственность за решение, принятое с их системой.

Ни один человек не может контролировать результат любого изобретения, история доказала, что это правда. Поэтому с каждым существующим нововведением должна быть система ответственности, внедренная в сообществе AI. Тот, который облегчает открытый поток сдержек и противовесов. Если изобретатель не способен увидеть все возможные результаты, возможно, сообщество может отметить потенциальные проблемы настоящих и будущих решений.

В нашем сообществе мы должны перестать подходить к проблемам, обвиняя человека. Но это не отменяет необходимости подотчетности; это должно быть видно на макро, а не на микроуровне. Как и ответственность каждого ученого создавать, так и ответственность каждого ученого ставить под сомнение настоящую и будущую работу своих коллег.

Мы верим, что будущее ИИ и всех его последствий зависит не только от одного человека, но и от плеч каждого мужчины и женщины, которые стремятся к нему. Мы сами включены.

Если мы все посмем оспаривать друг друга серьезно, то, возможно, однажды мы сможем снова процитировать профессора Хокинса, говоря только: « Это будет [было] лучшим, что когда-либо случалось с нами ».

| |



Онлайн-курс
«Машинное обучение для людей»
Один из самых трендовых курсов в сфере Цифровой экономики.