«Что предмет расскажет о себе. Стиральная машина»
НОД «Что предмет расскажет о себе. Стиральная машина.»
Конспект НОД
«Что предмет расскажет о себе. Стиральная машина»
Интеграция образовательных областей: «Социально-коммуникативное развитие», «Познавательное развитие», «Речевое развитие», «Художественно-эстетическое»
Возрастная группа: Старшая группа
Тема ООД: «Что предмет расскажет о себе. Стиральная машина»
Цель: формировать у детей представление о стиральной машине, ее предназначении; развивать перспективный взгляд на предметы.
Задачи:
1. Познакомить детей с историей возникновения стиральной машины;
2. Формировать представления детей о предметах бытовой техники, её назначении;
3. Развивать любознательность, познавательный интерес к предметам рукотворного мира;
4. Активизировать речь детей;
5. Воспитывать интерес к истории вещей.
Материалы: Стиральная машина, иллюстрации, геометрические фигуры разной формы, схемы, листы бумаги, карандаши.
Ход НОД
1. Организационный момент
Дети встают в полукруг
Воспитатель:
Я очень хочу, чтобы у всех сегодня было доброе утро, добрый день и добрый вечер!
Особенно для наших детей, ведь они пришли в детский сад играть, общаться и узнавать много нового и интересного.
А сейчас возьмитесь за руки и создадим цепочку дружбы.
Дети взявшись за руки говорят слова:
Мы самые дружные дети и нет нас дружнее на свете!
Присаживаются на стулья
2. Основная часть
Послушайте загадку:
В доме есть у вас помощница,
Она все делает сама.
Ты только положи в нее белье,
Насыпь немного порошка.
В: Ребята! Знаете ли вы, что раньше не было стиральных машин? Белье стирали в речке, в корыте. Стирали руками на стиральной доске. Это очень тяжелый труд. Руки от такой стирки становились красными, появлялись мозоли, болела спина. Сильно уставали женщины.
В: Долго думали люди, как облегчить труд женщин. И придумали… стиральную машину.
В: Из чего она сделана?
В: Как она работает?
В: В наше время люди придумали машину-автомат. Она работает по программе. Сама стирает, полощет, отжимает белье, меняет воду. Человеку нужно только нажимать на кнопки.
В: Мы стирали, мы стирали,
Полоскали, полоскали,
Выжимали, выжимали.
Встряхивали, встряхивали,
Вывешивали, вывешивали.
Ох, устали, ох, устали.
Сели – отдохнули.
О чем расскажет оценка малыша по шкале Апгар?
Свою первую оценку малыш получает уже в родильном зале на первой минуте после рождения. Неонатологи оценивают базовые показатели состояния новорожденного – окраску кожного покрова, частоту сердечных сокращений, рефлекторную возбудимость, мышечный тонус и дыхание.
Еще спустя 5 минут (а при особой необходимости через 10) обследование повторяется. Таким образом специалисты получают информацию о том, насколько хорошо малыш адаптируется к новым условиям жизни, нужно ли ему особое медицинское внимание, и выясняют, не требуются ли срочные реанимационные действия.
Автором данной системы быстрой оценки состояния новорожденного – шкалы Апгар – является американская врач анестезиолог-реаниматолог Вирджиния Апгар. Метод был представлен почти 70 лет назад и до сих используется во всем мире.
Как выставляются баллы?
По каждому критерию ребенок может получить от 0 до 2 баллов. Финальная оценка складывается из суммы пяти показателей и может составить максимум 10 баллов.
На выходе врач получит две цифры, записанные через дробь: одна расскажет о состоянии малыша в первую минуту жизни, вторая – спустя пять минут.
2 балла могут быть выставлены, когда оцениваемый признак выражен ярко и соответствует норме, 1 – при слабой выраженности, 0 – если отсутствует.
Интерпретация результатов
Результат второй оценки состояния малыша обычно оказывается выше. Это значит, что новорожденный хорошо адаптируется к жизни в новых условиях. Как правило, показатели 7/8, 8/8, 8/9, 9/9, 9/10 или 10/10 говорят о том, что с ребенком все хорошо и волноваться не стоит.
Средний балл обычно составляет 7-8. Это значит, что малыш хорошо себя чувствует и не имеет явных патологических особенностей.
А если цифры чуть ниже – не переживайте и доверьтесь специалистам, а также помните, значения данных показателей актуальны прежде всего на момент рождения, главным образом для врачей и если требуют внимания, то в основном, в первый год жизни ребенка, однако в долгосрочной перспективе не влияют на крепость здоровья и иммунитет.
Курс алгоритмы для разработчиков. Обучение в сервисе Яндекс.Практикум
Что вас ждёт на курсе
Это курс о базовых алгоритмах и структурах данных. Благодаря нему вы научитесь быстрее писать чистый код, видеть разные варианты решения задачи и сравнивать их по эффективности. Если вы планируете менять место работы, знание алгоритмов пригодится на собеседованиях. Кроме того, в курс включена консультация или сопровождение при поиске работы.
Курс рассчитан на 4 месяца при нагрузке примерно 10 часов в неделю, но вы можете проходить его быстрее — новые уроки будут доступны вам по мере изучения материала.
01
Образовательная инфраструктура
Основа всего обучения — это практика. Сначала вы изучаете теоретическую часть в интерактивном учебнике, а затем получаете до 15 практических задач по каждой пройденной теме. Всего на курсе более 100 задач.
Интерактивный учебник — это веб-платформа Практикума, в которую встроены уроки и небольшие тесты.
Практическая работа идёт в Яндекс.Контесте — специальной платформе, созданной для проверки алгоритмических задач. Язык программирования может быть любой: C++, Python, Java, Go или JavaScript.
02
Команда экспертов, сокурсников и поддержки
Команда экспертов состоит из код-ревьюеров и наставников. Они прошли путь от джуниоров до старших разработчиков и готовы делиться своим опытом.
Задача код-ревьюеров — проверять ваши самостоятельные работы и оставлять замечания по делу. Задача наставников — помогать разобраться в материале, отвечать на вопросы и проводить вебинары.
Студенты обучаются в группах и общаются в Slack — корпоративном мессенджере, которым пользуются многие IT-компании. Сокурсники видят друг друга, задают и отвечают на вопросы. В итоге получается дружелюбное сообщество, которое значительно помогает в обучении.
Чтобы процесс обучения был комфортным, у студентов есть куратор и команда поддержки в чате. Куратор отвечает за организационные вопросы: напоминает о дедлайнах, присылает полезные ссылки и записи вебинаров и поддерживает в трудные моменты. Команда поддержки 24/7 помогает справляться с любыми техническими сложностями.
03
Помощь с трудоустройством
Некоторые студенты планируют менять работу. Для них мы проводим базовые консультации с разбором резюме и портфолио.
Желающие могут участвовать в программе сопровождения с полным разбором стратегии поиска работы, включая возможность устроиться в Яндекс.
Мы не гарантируем, что вас возьмут в определённую компанию, но готовы максимально помогать с подготовкой и ориентированием на рынке труда. При этом важно, что ответственность за успех и основная часть усилий остаются на студенте.
Яндекс вернёт деньги за курс каждому, кто устроится к ним разработчиком в течение 6 месяцев после окончания курса. Подробные условия акции по ссылке.
Рекламное ПО – Что это такое и как его удалить?
Все о рекламном ПО
Вот как все происходит. Вы открываете веб-сайт с помощью своего удобного и хорошо настроенного браузера, но всего через несколько минут браузер будто сходит с ума: начинается нашествие рекламы – всплывающие окна, баннеры, появляющиеся справа и слева, и другой навязчивый контент, который не только мешает работать, но даже перенаправляет Вас на неизвестные веб-сайты. И сколько бы Вы ни пытались закрыть эти окна, они продолжают досаждать Вам, словно мухи на пикнике.
Причиной появления этих надоедливых всплывающих окон и баннеров стала атака рекламного ПО. Подобно тому, как принесенная на пикник еда привлекает вредителей, деньги – а точнее доходы от незапрашиваемой рекламы – привлекают рекламное ПО на Ваш компьютер или мобильное устройство. Ми подготовили для Вас небольшое справочное руководство, которое расскажет Вам, что такое рекламное ПО, как оно проникает на компьютер, какой вред наносит, как можно ему противодействовать и как можно избежать заражения в будущем.
Что такое рекламное ПО?
Рекламное ПО – это нежелательная программа, написанная для того, чтобы забрасывать экран компьютера рекламными сообщениями (чаще всего во время использования браузера). Некоторые специалисты в области кибербезопасности рассматривают рекламное ПО как предшественника современных потенциально нежелательных программ. Как правило, подобные объекты используют мошеннические методы, чтобы принудить пользователя установить их на свой ПК, планшетный компьютер или мобильное устройство: они выдают себя за обычные программы или проникают в систему в качестве «дополнительной нагрузки» при установке других приложений.
«Рекламное ПО – это нежелательная программа, написанная для того, чтобы забрасывать экран компьютера рекламными сообщениями».
Рекламное ПО приносит доход своим разработчикам, автоматически отображая в пользовательском интерфейсе программ или в отдельном окне, которое появляется перед глазами пользователя во время установки того или иного приложения, загружаемые из Интернета рекламные сообщения. И вот тогда Вы начинаете видеть сомнительные чудо-предложения по снижению веса, предложения быстрого обогащения и фальшивые предупреждения об атаках вирусов. Все они хотят от Вас одного – перейти по указанной ссылке. Кроме того, нередко в браузере открываются новые вкладки, изменяются настройки начальной страницы, поисковые системы выдают результаты, о которых Вы никогда не слышали, происходят перенаправления на веб-страницы с непристойным контентом.
Следует помнить, что легальные приложения тоже используют онлайн-рекламу – обычно рекламные блоки отображаются в окне программы, однако это происходит в соответствии с указаниями, предоставленными разработчиком. Рекламное ПО ведет себя совершенно по-другому. В одном случае Вы загружаете подобное приложение, даже не догадываясь о его истинном назначении. В другом случае оно проникает на Ваш компьютер при установке обычной программы, скрывшись глубоко в ее недрах. Каким бы ни был путь рекламного ПО, результат всегда один: оно прикрепляется к какой-либо программе на Вашем компьютере и начинает показывать Вам рекламные сообщения, не связанные с веб-сайтами, которые Вы посещаете.
Проникнув в систему, рекламное ПО способно выполнять все виды нежелательных действий. Например, функции вредоносной программы могут быть направлены на определение Вашего местоположения и анализ посещаемых веб-сайтов, что позволяет ей показывать Вам те рекламные сообщения, которые соответствуют типам товаров и услуг, представленных на этих ресурсах. С одной стороны, заражение компьютера рекламным ПО является скорее досадным неудобством, чем серьезной угрозой для кибербезопасности; с другой стороны, если авторы рекламного ПО продадут третьим лицам сведения о Вашей активности в Интернете и другую важную информацию, то злоумышленники смогут использовать эти данные для того, чтобы направлять Вам еще больше рекламы, тщательно подобранной в соответствии с Вашими предпочтениями. И здесь совершенно не важно, используете ли Вы Chrome, Firefox или другой браузер: все они подвержены атакам рекламного ПО.
Вот лишь некоторые наиболее распространенные признаки, которые указывают на наличие рекламного ПО в Вашей системе:
- рекламные сообщения появляются там, где их не должно быть;
- начальная страница Вашего браузера была странным образом изменена без Вашего разрешения;
- веб-страницы, которые Вы часто посещаете, отображаются неправильно;
- при переходе по ссылкам Вас перенаправляют на неизвестные сторонние веб-сайты;
- работа Вашего браузера существенно замедляется;
- в браузере внезапно появляются новые панели инструментов, расширения или подключаемые модули;
- Ваш компьютер Mac начинает автоматически устанавливать нежелательные приложения;
- Ваш браузер «зависает».
Как атакует рекламное ПО?
Рекламное ПО может проникнуть в систему двумя способами. В первом случае Вы загружаете бесплатную или условно-бесплатную программу, которая незаметно устанавливает рекламное ПО без Вашего ведома или разрешения. Это происходит потому, что авторы программы сотрудничают с производителями рекламного ПО. Почему? Потому что доход от показа рекламы позволяет распространять программу бесплатно (при этом даже платные приложения, полученные из ненадежных источников, могут распространять рекламное ПО). После этого рекламное ПО запускает свои вредоносные алгоритмы – и пользователь понимает, что у «бесплатного» приложения тоже есть своя цена.
«Рекламное ПО может проникнуть в систему двумя способами».
Второй способ не менее коварен. Вы посещаете веб-сайт. Это может быть надежный ресурс. Или же незнакомый веб-сайт, не заслуживающий доверия. И в том, и в другом случае сайт может быть заражен рекламным ПО, которое использует уязвимости в браузере и проникает на компьютер посредством теневой загрузки. Когда вредоносный объект затаится в системе, он начинает собирать информацию, периодически перенаправляя Вас на вредоносные веб-сайты и мешая работе браузера все новыми рекламными сообщениями.
Типы рекламного ПО
Какой бы способ проникновения ни использовало рекламное ПО, чтобы спрятаться в дальнем уголке операционной системы компьютера или другого устройства, оно чаще всего действует как программа-угонщик браузеров. Этот непрошеный гость модифицирует настройки интернет-браузеров без согласия и ведома пользователя. Обычно угонщики браузеров изменяют начальную страницу и настройки поиска, заданные по умолчанию. В результате спокойная работа в Интернете внезапно прерывается потоком навязчивых рекламных сообщений. Разумеется, Вы в первую очередь предполагаете, что реклама приходит с посещаемого Вами веб-сайта, хотя это не так. Поскольку рекламные сообщения оформлены в виде всплывающих окон, может показаться, что они встроены в сам веб-сайт.
В действительности же всему виной рекламное ПО, которое изменило настройки начальной страницы и поисковой системы или даже совершило махинации с ярлыками, открывающими браузеры. Конечно, существуют различные варианты рекламного ПО, предназначенные для различных устройств и операционных систем. Поэтому в тех или иных обстоятельствах Вы можете столкнуться с рекламным ПО для мобильных устройств под управлением Android, с рекламным ПО, нацеленным на компьютеры Mac или поражающим систему Windows.
Последние новости о рекламном ПО
Рекламное ПО – серия статей, часть 1
Рекламное ПО и рекламное мошенничество
Презренное рекламное ПО
История рекламного ПО
Рекламное ПО отсчитывает свою историю приблизительно с 1995 года: тогда эксперты считали, что первые приложения, поддержка которых осуществлялась за счет рекламы, принадлежат к более широкой категории шпионских программ. Однако в скором времени специалисты в области кибербезопасности начали рассматривать рекламное ПО отдельно от шпионских программ как менее вредоносный тип потенциально нежелательного ПО. В некоторых случаях приложения этой категории даже обозначались как обычные программы (по крайней мере теоретически), поскольку рекламное ПО создавалось законными производителями, обладающими собственными офисами и представительствами.
Однако филиалы этих законных компаний часто распространяли собственные рекламные программы, а производители рекламного ПО должным образом не проверяли эти действия на предмет соответствия установленным правилам. Такие непроверенные рекламные приложения распространялись всеми доступными способами – в пределах одноранговых сетей, посредством ботнетов, через зараженные системы мгновенного обмена сообщениями, а также с помощью программ-угонщиков браузеров.
Со временем производители рекламного ПО начали закрывать свои неблагонадежные филиалы, а также выпускать заявления об отказе от ответственности за их действия. Это было очень распространенной практикой в период с 2005 по 2008 гг., когда активность рекламного ПО достигла своего пика. Однако затем в игру вступили органы государственной власти, назначая большие штрафы за подобные злоупотребления, в результате чего крупнейшие производители рекламного ПО были вынуждены уйти с рынка. Относительно недавно в браузерах начали повсеместно использоваться подключаемые модули, блокирующие рекламный контент. И хотя эти средства защищают пользователей от рекламного ПО, они также лишают веб-сайты дохода, получаемого от законной рекламы.
На сегодняшний день ситуация такова: рекламное ПО искоренить не удалось, и оно продолжает рассматриваться как форма потенциально нежелательных программ, хотя уровень угрозы, которую представляет рекламное ПО для компьютеров, ниже уровня угрозы, исходящей от объектов категории вредоносного ПО. Тем не менее, можно говорить о некотором ренессансе рекламного ПО. Среди всех вредоносных объектов, которые обнаруживаются на компьютерах клиентов Malwarebytes, к этой категории принадлежат 40 %, то есть подавляющее большинство. Одной из причин такого состояния дел является увеличение количества объектов, классифицируемых как рекламное ПО, вследствие распространения мобильных устройств и постепенного смещения рекламного ПО в сегмент мобильных приложений. Производители рекламного ПО становятся все сильнее. Стремясь укрепиться на рынке, они не ограничиваются только лишь программами-угонщиками браузеров и используют все более агрессивные технологии, например скрывают свои продукты в троянских программах, создают программные пакеты с рекламными фродами или объекты с функциональностью руткитов, так что удаление таких угроз может быть сопряжено со значительными трудностями.
«Большинство вредоносных объектов, которые обнаруживаются на компьютерах клиентов Malwarebytes, принадлежат к категории рекламного ПО».
Рекламное ПО для Mac
Было время, когда пользователи компьютеров Mac могли не беспокоиться о рекламном ПО. Компьютеры Mac оснащены встроенной защитной системой XProtect, которая достаточно эффективно нейтрализует известные вредоносные объекты. Во многом именно поэтому киберпреступники концентрируют свои усилия главным образом на компьютерах под управлением платформы Windows, поскольку здесь – в отличие от платформы Mac – они могут успешно достигать многих своих целей. Однако совсем недавно все начало стремительно меняться. Статистика показывает, что в 2017 году количество новых семейств вредоносного ПО для Mac выросло более чем на 270 процентов по сравнению с 2016 годом. Первые упоминания о рекламном ПО, специально предназначенном для компьютеров Mac, датируются 2012 годом. С тех пор получили распространение многие варианты рекламного ПО для Mac. Их разрабатывают как секретно, так и вполне открыто: в первом случае речь идет о хакерах и организованных преступных группах, во втором – о формально законных компаниях, которые заявляют, что продают полноценные программы с якобы полезными функциями. Такие программы могут содержать в себе рекламное ПО, которое, естественно, упоминается в длинном соглашении об установке, набранном мелким шрифтом. Вы знаете людей, которые действительно читают подобные тексты? Нажимая кнопку установки, Вы принимаете условия данного соглашения. И вуаля – спам теперь гарантирован. Люди, разрабатывающие подобные программы, не делают ничего противозаконного. По крайней мере технически.
В большинстве случаев рекламные приложения для Mac скрываются внутри троянских программ – вредоносного ПО, которое своим именем обязано Троянскому коню из древнегреческого мифа. Троянская программа выдает себя за нужный Вам объект. Это может быть медиапроигрыватель или подключаемый модуль. Вредоносная нагрузка даже может скрываться внутри самой обычной программы, которую Вы, однако, загружаете с сомнительного веб-сайта. Так или иначе, подобные объекты обещают Вам одно, но обманным путем доставляют в систему нечто другое – рекламное ПО.
В целом, признаки заражения компьютера Mac рекламным ПО повторяют аналогичные симптомы, наблюдаемые в системах Windows. Всплывающие окна с рекламой появляются там, где их быть не должно, то есть фактически везде. Настройки начальной страницы браузера странным образом изменяются без Вашего участия. Знакомые веб-страницы уже не выглядят, как прежде, а когда Вы нажимаете на ссылку, происходит перенаправление на совершенно другой веб-сайт. Незваная программа может даже заменить используемую по умолчанию поисковую систему.
Таким образом, хотя компьютеры Mac и являются менее уязвимыми, чем компьютеры под управлением Windows, они все же могут испытывать проблемы с безопасностью, обусловленные рекламным ПО. Что делать, если компьютер заражен? Информация об этом приведена ниже.
Рекламное ПО для мобильных устройств
На сравнительно небольших экранах мобильных устройств все элементы хорошо заметны. Поэтому, если на начальном экране появляется загадочный значок или если каскад рекламных сообщений заполняет собой панель уведомлений, к Вам на мобильное устройство наверняка пожаловал непрошеный гость – рекламное ПО. Обычное дело, если вспомнить, что тысячи приложений для Android содержат «подарки», которые отображают незапрашиваемые значки и рекламные сообщения.
Рекламное ПО проникает на мобильные устройства двумя способами: через браузер и через загружаемые приложения.
- Заражение через браузер происходит за счет известного эксплойта, в основе которого лежит алгоритм обработки перенаправлений, используемый большинством браузеров и заложенный в коде JavaScript. Эта уязвимость может привести к появлению всплывающих окон, и производители рекламных приложений знают, как ее использовать. Если браузер на Вашем мобильном устройстве скомпрометирован, то лучший способ блокировать всплывающие окна – это воспользоваться другим браузером, отключить JavaScript или установить браузер с функцией блокировки рекламы. Кроме того, чтобы закрыть всплывающее окно, Вы можете нажать кнопку «Назад» на устройстве Android. Если очистить историю посещений и кэш, это также позволит предотвратить повторное появление всплывающих окон.
- Если вредоносный объект проник на телефон через установленные приложения, он будет постоянно досаждать Вам рекламными сообщениями. Они могут принимать самые различные формы – от полноэкранных рекламных баннеров в зараженном приложении или за его пределами до уведомлений устройства на экране блокировки. Из стороннего магазина приложений к Вам на телефон обычно попадают именно такие программы. Поэтому наилучшее решение данной проблемы – избегать сторонних магазинов приложений, хотя даже магазин Google Play иногда становится источником программ, зараженных рекламным ПО.
Рекламное ПО действительно является «надоедливым вредителем», но если Вам все-таки довелось с ним столкнуться, Вы можете несколько утешить себя тем фактом, что рекламное ПО обычно не представляет такой опасности для Вашего устройства, какую несут в себе вирусы. Многие бесплатные приложения, которые Вы загружаете на свой телефон, часто содержат рекламный контент третьих лиц: это дает разработчикам программного обеспечения альтернативный источник дохода, благодаря которому Вы можете пользоваться их продуктами бесплатно. В то же время нельзя сказать, что рекламное ПО является совершенно безобидным. Так что Вам нужно выбрать для себя наилучший вариант – бесплатное приложение, которое будет заполнять Ваше мобильное устройство навязчивой рекламой, или платную программу, которая будет работать исправно и ненавязчиво.
Кого атакует рекламное ПО?
Согласно устоявшемуся представлению основными жертвами рекламного ПО являются частные пользователи, а не предприятия. Рекламное ПО подстерегает пользователей всегда и повсеместно – от компьютеров под управлением Windows или Mac OS, до мобильных телефонов и практически всех типов браузеров. Злоумышленники изобретают все новые мошеннические схемы: предлагают новые игры, фильмы или специальные скидки, завлекают потенциальных жертв якобы полезным бесплатным продуктом, который слишком хорош, чтобы быть правдой.
«Основными жертвами рекламного ПО являются частные пользователи».
Что делать, если мой компьютер заражен?
Если Вы подозреваете, что рекламное ПО проникло на Ваш Mac или компьютер под управлением Windows, есть несколько способов, которыми Вы можете воспользоваться, чтобы нейтрализовать вредоносную программу. Прежде всего, нужно регулярно создавать резервные копии файлов. Вы можете попытаться удалить рекламное ПО с помощью соответствующей опции операционной системы (например, «Добавить/удалить» в системе Windows). Однако для этого нужно идентифицировать название рекламной программы. Кроме того, рекламное ПО нередко оснащено функцией восстановления – специальные файлы полностью реанимируют программу после ее удаления.
В этом случае Вам необходимо загрузить надежный антивирус, например Malwarebytes for Windows или Malwarebytes for Mac. Обе программы предусматривают бесплатную ознакомительную версию и могут эффективно выявлять и уничтожать рекламное ПО, потенциально нежелательные программы, а также любые новые формы вредоносного ПО, стремящиеся прокрасться на Ваш компьютер. Запустите проверку – и если программа обнаружит, что в системе скрываются непрошеные гости, она соберет, отметит и удалит их. После этого рекомендуется сменить пароли – не только в учетной записи компьютера, но и в электронной почте, социальных сетях, часто посещаемых онлайн-магазинах, а также в биллинговых системах. Если Вам нужен простой инструмент для удаления рекламного ПО, загрузите Malwarebytes AdwCleaner.
Если Вы хотите еще глубже погрузиться в эту тему, пожалуйста, прочитайте статьи «How to remove adware from your PC» (Как удалить рекламное ПО со своего ПК) и «How to remove adware from your Mac» (Как удалить рекламное ПО с компьютера Mac) на ресурсе Malwarebytes Labs.
Как защититься от рекламного ПО?
Соблюдайте меры предосторожности при работе с компьютером. Это означает, что лучше подумать дважды, прежде чем загружать и устанавливать новую программу, особенно если она бесплатна. Перед тем как принимать условия и положения использования, прочитайте их так, как это сделал бы юрист, и немедленно прерывайте процесс загрузки, если возникнет что-либо подозрительное, похожее на разрешение загрузить рекламное ПО. Избегайте торрент-сайтов, противозаконных загрузок и никогда не открывайте приложение, полученное из неизвестного источника – даже если ссылка на него пришла со знакомого Вам электронного адреса.
Наконец, прежде чем выполнять все эти советы и меры предосторожности, загрузите надежный антивирус на свой ПК или мобильное устройство. Регулярно запускайте проверку и устанавливайте обновления. Конечно, мы рекомендуем Вам воспользоваться любой программой из семейства продуктов Malwarebytes, предназначенных для противодействия вредоносному ПО, – от Malwarebytes for Windows и Malwarebytes for Mac до Malwarebytes for Android – и это будет самой действенной мерой предосторожности. Вооружившись знаниями и защитившись надежным антивирусом, Вы сможете эффективно противостоять рекламному ПО, которое мешает наслаждаться жизнью в Интернете.
Со всеми нашими отчетами о рекламном ПО Вы можете ознакомиться на ресурсе Malwarebytes Labs.
Кто же ты такой, алгоритм? / Блог компании ITSOFT / Хабр
Сегодня довольно легко столкнуться с недобросовестными школьными учебниками, в частности с учебниками по информатике. В главах, посвященных алгоритмам, вы можете найти непосредственно определение алгоритма. Не пояснение, о чем идет речь, не рассказ о предмете, а именно определение. Причем выделенное жирным шрифтом, старательно обведенное в рамку и помеченное какой-нибудь заметной пиктограммой в виде восклицательного знака. Обычно приправлено всё это соусом из кучи обязательных и необязательных свойств, образуя в итоге феерический кавардак. Давайте попытаемся понять, что же такое алгоритм, почему мы не может дать ему конкретного определения и выясним, какие свойства являются обязательными, а какие нет.
Составителей учебников легко понять, ведь на самом деле строгого определения алгоритма не существует, и более того, такого определения быть не может. Но вместо попыток объяснить, что к чему, авторы подсовывают бедным ученикам еще одно задание по зубрежке бесполезных и неправильных терминов. Чтобы не быть голословным, приведу выдержку из одного весьма распространенного учебника:
В университетах дела обстоят получше, однако автору этих строк на курсе по математической логике и теории алгоритмов пришлось столкнуться все с тем же винегретом из определения алгоритма и его свойств. Разберемся, что тут не так.
Бесконечность не предел
Но перед этим немного вспомним математику. Из школьного курса математики мы знаем, что чисел существует бесконечно много — какое бы большое число мы не взяли, всегда можно прибавить единицу и получить число еще большее. Обычно в школе этим и ограничиваются. В университете на курсе высшей математики нам расскажут, что бесконечности на самом деле бывают разные: множества, элементы которого можно пронумеровать натуральными числами считаются счётно-бесконечными. К таким множествам относят сами натуральные числа (числу 1 мы дадим номер один, числу 2 номер два и т.д.), целые числа — натуральные плюс ноль и отрицательные целые числа (первый номер отдаем нулю, второй — числу 1, третий — числу -1, то есть каждой положительное число k получает номер 2k, а каждое отрицательное число -m получает номер 2m + 1). К счетно-бесконечным множествам относят четные, нечетные и даже рациональные числа (числа представимые в виде несократимой дроби m/n, где m — целое, n — натуральное). Получается, что натуральных чисел ровно столько же, сколько четных, и, в то же время, ровно столько же, сколько целых. «Количество» (мощность) множества натуральных чисел обозначается символом ℵ0 (алеф-ноль).
Такой же трюк с нумерацией не пройдет для бесконечных непериодических дробей (иррациональных чисел). Допустим такое множество счетное, то есть элементы этого множества можно пронумеровать натуральными числами. Тогда рассмотрим бесконечную десятичную дробь с нулевой целой частью, у которой первая цифра после запятой не равняется цифре на той же позиции у дроби с номером 1, вторая цифра не равняется цифре на второй позиции у дроби с номером 2 и т.д. Тогда полученная дробь будет заведомо отличаться от всех дробей хотя бы одной цифрой. Получается для нее не нашлось номера в нашей бесконечной нумерации! Примененная схема доказательства называется канторовским диагональным методом в честь придумавшего ее математика Георга Кантора.
Про бесконечные дробиНе стоит делать ошибку, записывая в иррациональные числа все бесконечные дроби. Иррациональными являются только те числа, которые нельзя представить в виде несократимой дроби вида m/n. В десятичной системе счисления дроби 1/3 и 2/7 тоже окажутся бесконечными, однако их «бесконечность« обусловлена выбранной системой счисления. В системе счисления по основанию 21 эти дроби будут иметь конечное представление, а вот, например, дробь 1/2 окажется бесконечной (периодической).
Говорят, что множество бесконечных десятичных дробей имеет мощность континуум, которая обозначается символом ℵ1 (алеф-один). В дальнейшем нам понадобится следующее множество. Рассмотрим некоторый алфавит (конечное множество символов). Теперь представим множество всех конечных цепочек символов алфавита A*. Коль скоро алфавит конечен, и каждая цепочка конечна, то множество таких цепочек счетно (их можно пронумеровать натуральными числами).
На сколько велика бесконечность?Допустим в наш алфавит вошли все придуманные на земле символы: русский алфавит, японские иероглифы, шумерская клинопись и т.д. Тогда в наше множество войдут все написанные когда-либо книги, все книги, которые будут написаны и все книги, которые никто не стал бы писать (например, хаотичные последовательности символов). Кроме того, представим книгу, толщиной в Солнечную систему и диагональю листа равной диаметру Млечного Пути, набранную 12-м шрифтом. В наше придуманное множество войдут все такие книги, отличающиеся хотя бы одним символов, и не только они, ведь вселенная бесконечна! Кто мешает представить себе книгу, размером в миллиарды световых лет? А все такие книги? Уже на этом этапе воображение может давать сбои, а ведь наше множество всего лишь счетное. Чтобы дополнить множество до континуума, нужно рассмотреть бесконечную книгу, по сравнению с которой, предыдущие книги — детские игрушки. Но и одной бесконечной книги нам не хватит, нужно рассмотреть все бесконечные книги.
Конструктивно оперировать континуальными бесконечностями невозможно. Даже работая со счетными множествами, мы не рассматриваем сами множества, а только говорим, что какой бы не был элемент N, всегда найдется элемент N+1. Если мы ставим себе прикладную задачу, появление в наших рассуждениях континуальной бесконечности должно служить нам «тревожной лампочкой»: осторожно, выход за пределы конструктивного.
Алгоритмы и вычислимость
Суть работы компьютера заключается в проведении некоторого вычисления — преобразования одной порции информации в другую порцию. Причем результатом работы не обязательно должно быть число, главное, чтобы информация была представлена в некоторой объективной форме. Обычно под такой формой имеют в виду конечные цепочки символов некоторого алфавита. Получается, компьютерное вычисление есть некоторая функция в сугубо математическом смысле, с областью определения и значений в рассмотренном выше множестве A*. Именно тут возникают определенные проблемы. Если мы можем вычислить функцию, то можем записать промежуточные вычисления в виде текста. Более того, в виде тексте можно описать вообще правила вычисления. Мы знаем, что множество всех текстов счетное. Однако выясняется, что множество всех функций над натуральными числами имеет мощность континуум. Если мы пронумеруем все тексты, то получается функций вида A* -> A* тоже континуум. Получается, что некоторые функции вычислимы, а некоторые нет.
Компьютер проводит свои вычисления, подчиняясь некоторой программе, которая воплощает собой конструктивную процедуру, или алгоритм. Не сложно догадаться, что алгоритм как раз и есть то правило, по которому вычисляется функция. Можно сказать, функция считается вычислимой, если для нее существует некоторый алгоритм.
Понятия алгоритм и вычислимая функция оказываются настолько заковыристыми, что некоторые составители учебной литературы не утруждают себя попытками разъяснить их суть. Дело в том, что определения алгоритма не существует, и кроме того, существовать не может, иначе пришлось бы выбросить на свалку целый раздел математики — теорию вычислимости. Попробуем разобраться более подробнее.
Частично-рекурсивные функции и тезис Черча
Все началось с того, что математик Давид Гильберт в 1900 году предложил список нерешенных на тот момент математических проблем. Позже выяснилось, что десятая проблема (проблема решения произвольного диофантового уравнения) оказалось неразрешимой, но для доказательства этого факта пришлось составить целую новую математическую теорию. Вопросами того, какие задачи можно конструктивно решить, и что такое конструктивное решение, занялись математики Курт Гедель, Стивен Клини, Алонсо Черч и Алан Тьюринг.
Курт Гедель наиболее известен тем, что сформулировал и доказал 2 теоремы о неполноте. Между прочим, сделал он это в возрасте всего лишь 24 лет.Как выяснилось выше, континуальные бесконечности не всегда подходят под конструктивные рассуждения, поэтому Гедель и Клини предложили рассматривать только функции натурального аргумента (при необходимости любые функции над счетными множествами можно привести к «натуральным функция» путем замены элементов множеств их номерами). Изучая вычислимость таких функций, Гедель, Клини, Аккерман и другие математики пришли к так называемому классу частично-рекурсивных функций. В качестве определения этого класса рассматривается набор базовых, очень простых функций (константа, увеличение на единицу и проекция, которая сопоставляет функции многих аргументов один из ее аргументов) и операторов, позволяющих из функций строить новые функции (операторы композиции, примитивной рекурсии и минимизации). Слово «частичные» показывает, что эти функции определены лишь на некоторых числах. На остальных они не могут быть вычислены. Попытки расширить класс частично-рекурсивных функций ни к чему не привели, так как введение новых операций приводило к тому, что получалось множество функций, совпадающее с классом частично-рекурсивных. В дальнейшем Алонсо Черч отказался от попыток расширения этого класса, заявив, что, видимо:
Частично-рекурсивные функции соответствуют вычислимым функциям в любом разумном понимании вычислимости.
Это утверждение называют тезисом Черча. Стоит отметить, что тезис Черча не является теоремой или доказанным утверждением. Во-первых, не понятно, что такое «разумное понимание», во-вторых, превратив тезис Черча в доказанный факт, мы лишаем себя перспектив дальнейшего исследования вычислимости и механизмов вычислений. Никто, впрочем, не мешает попробовать определить такой набор операций, который был бы мощнее базиса для частично-рекурсивных функций. Только вот, до сих пор это никому не удавалось сделать.
Ученые долго не могли привести пример частично-рекурсивной функции, не являющейся примитивно-рекурсивной (без оператора минимизации). Наконец это удалось Вильгельму Аккерману. Предложенная функция Аккермана растет так быстро, что количество цифр в десятичной записи числа A(4,4) превосходит количество атомов во Вселенной.Формальная теория алгоритмов во многом построена аналогично теории вычислимости. Считается, что алгоритм есть некое конструктивное преобразование входного слова (цепочки символов некоторого алфавита) в некоторое выходное слово. Опять же, здесь мы имеем с функциями вида A*->A*. Конечно, предложенное описание не подходит под определение алгоритма, так как неясно, что же такое «конструктивное преобразование». Хоть понятия алгоритма и вычислимой функции близки, не стоит их смешивать. Для одного и того же алгоритма может быть предъявлено сколько угодно его записей на каком-нибудь формальном языке, но соответствующая вычислимая функция всегда одна. Один из основателей формальной теории алгоритмов, Алан Тьюринг, предложил формальную модель автомата, известного как машина Тьюринга. Тезис Тьюринга гласит:
Каково бы не было разумное понимание алгоритма, любой алгоритм, соответствующий такому пониманию, может быть реализован на машине Тьюринга.
Любые попытки построить более мощные автомат заканчивались неудачей: для каждого такого автомата (машина Поста, нормальные алгоритмы Маркова, автоматы с регистрами и несколькими лентами) удавалось построить аналогичную машину Тьюринга. Некоторые ученые объединяют тезис Черча и тезис Тьюринга в тезис Черча-Тьюринга, так как они весьма близки по духу.
С помощью такого незамысловатого автомата можно формализовать любой алгоритм.Таким образом, определив понятие алгоритма, мы будем вынуждены забыть о тезисе Черча-Тьюринга, и отказаться от целой математической теории, богатой содержанием и подарившую нам множество практических результатов.
Свойства алгоритмов
Мы выяснили, почему у алгоритма не может быть конкретного определения. Однако можно определить свойства, которыми должен обладать каждый алгоритм. К сожалению, в литературе часто смешивают обязательные и необязательный свойств. Разберемся подробнее.
Обязательные свойства
Начнем с обязательных свойств. Алгоритм можно записать в виде конечного текста из символов конечного алфавита. Действительно, бесконечный текст мы не можем записать чисто технически, а раз алгоритмы имеют отношение к конструктивной деятельности, бесконечными они быть не могут. Возможность представить алгоритм в виде конечного текста можно назвать свойством объективности и конечности.
Еще одно достаточно очевидное свойство любого алгоритма — его дискретность. Независимо от исполнителя, исполнение алгоритма представляет собой дискретный процесс, при рассмотрение распадающийся на элементарные действия. Понимать дискретность можно и в том смысле, что любая информация, над которой работает алгоритм может быть представлена в виде текста.
Третье фундаментальное свойство алгоритмов называется детерминированностью. Оно заключается в том, что следовать предписанной процедуре можно только одним способом. Единственное, что может повлиять на ход выполнения — это исходные данные, однако при одних и тех же исходных данных, алгоритм всегда выдает один и тот же результат.
Эти три свойства присущи всем алгоритмам. Если нарушено хотя бы одно из них, перед нами уже не алгоритм. С натяжкой к обязательным свойствам можно добавить понятность для исполнителя, хотя это уже на грани фола. По большей части. это относится не к самому алгоритму, а к его записи.
«Винегрет» из свойств из того же учебника по информатике.Необязательные свойства
Наряду с обязательными свойствами, алгоритм может обладать некоторыми частными свойствами, которые вовсе не обязательны. Начнем с массовости. Конечно, хочется, чтобы алгоритмы решали классы задач в зависимости от входных данных. Однако существуют алгоритмы, которые вообще не зависят от входных данных, например всем известный вывод на экран «Hello world». Как среди вычислимых функций существуют константные, так и среди алгоритмов существуют генераторы единственного результата.
Теперь рассмотрим широко распространенное убеждение, что алгоритмы должны обладать свойством правильности и завершаемости. Начнем с правильности. Такое свойство попросту невозможно формализовать, так как отсутствуют критерии этой правильности. Наверняка, многие из вас сталкивались с ситуацией, когда программист считает программу правильной, а заказчик нет. С завершаемостью дела обстоят интереснее. Рассмотрим термин «применимость« — алгоритм называется применимым к слову, если, получив на вход это слово, он завершается за конечное число шагов. Самое интересное то, что проблема применимости является алгоритмически неразрешимой, то есть невозможно составить алгоритм, которые определял бы по записи алгоритма и входному слову, завершится ли он за конечное число шагов. Никто не мешает вам составить программу, состоящую только из одного бесконечного цикла. И эта программа все еще будет алгоритмом.
Про зависающие программыПрограммы, которые не могут зациклиться, на самом деле входят в класс примитивно-рекурсивных — подмножество частично-рекурсивного класса. Отличает их отсутствия оператора минимизации. Он то и вносит пикантности. Если вы используете «неарифметический цикл» while или рекурсию, для которых нельзя заранее определить, сколько раз они выполняться, то ваша программа сразу переходит из класса примитивно-рекурсивных в класс частично-рекурсивных.
Теперь перейдем к пресловутой последовательности шагов. Дело в том, что алгоритм может быть представлен в любой из имеющихся формальных систем (частично-рекурсивные функции, машина Тьюринга, лямбда-исчисление и т.д.). Воплощение алгоритма в виде компьютерной программы далеко не всегда будет описанием последовательности шагов. Здесь все зависит от парадигмы программирования. В императивной парадигме программисты действительно оперируют последовательностью действий. Однако существуют и другие парадигмы, такие как функциональная (привет Haskell программистам), где нету никаких действий, а лишь функции в сугубо математическом смысле, или чистая объектно-ориентированная, которая основана не на «последовательности действий», а на обмене сообщениями между абстрактными объектами.
Заключение
Иногда мир устроен несколько сложнее, чем хотелось бы. Существующие формализмы в теории алгоритмов не более чем абстрактные математические системы, наподобие геометрии Евклида или теории вероятности, тогда как понятие вычислимости, возможно, находится вне математики и является свойством нашей Вселенной наряду со скоростью света и законом всемирного тяготения. И хотя, скорее всего, нам так и не удастся ответить на вопрос, что такое алгоритмы и вычислимость, попытки найти ответ на этот вопрос оказались более ценными, чем возможный однозначный ответ.
Материал данной статьи во многом опирается на 1-ый том «Программирование: введение в профессию» А. В. Столярова. Тем, кто хочет подробнее изучить вопросы, связанные с алгоритмами и теорией вычислимости, кроме этой книги, советую Босс В «От Диофанта до Тьюринга» и трехтомник А. Шеня по математической логике и теории алгоритмов.
Дата-центр ITSOFT — размещение и аренда серверов и стоек в двух дата-центрах в Москве. За последние годы UPTIME 100%. Размещение GPU-ферм и ASIC-майнеров, аренда GPU-серверов, лицензии связи, SSL-сертификаты, администрирование серверов и поддержка сайтов.
рекомендации по самостоятельной подготовке к ОГЭ с нуля
ОГЭ — это основной государственный экзамен. Служит для контроля знаний за девять лет обучения. Сдав экзамены в формате ОГЭ, вы получите аттестат об основном общем образовании и сможете поступить в колледж или продолжить обучение в 10–11 классах.
ОГЭ — довольно специфичная форма аттестации. Помимо системных знаний по школьной программе, нужно уметь правильно интерпретировать задания, грамотно заполнять бланки и работать в условиях ограниченного времени. Для выработки этих навыков в рамках подготовки к ОГЭ понадобится минимум 12 месяцев.
<<Форма с консультацией>>
Подготовка к ОГЭ за год
Число ребят, набирающих на госэкзаменах высокие баллы, растёт с каждым годом — усиливается конкуренция. Чем лучше вы подготовитесь к ОГЭ, тем больше шансов на успех.
1. Определитесь с предметами
ОГЭ состоит из двух обязательных и двух предметов на выбор.
В обязательном порядке сдают русский язык (устно и письменно) и математику. Дисциплины на выбор:
- физика,
- химия,
- биология,
- география,
- обществознание,
- история,
- информатика,
- литература,
- иностранные языки.
В топе девятиклассников — обществознание и география. Их сдают чаще всего, потому что считают лёгкими. Но это заблуждение. Так, ОГЭ по обществознанию включает в себя вопросы по праву и экономике, на которые не получится ответить исходя из «житейского опыта», а по географии необходимо уметь работать с картой и графиками.
Выбирайте предметы для ОГЭ исходя из своих целей. Не ищите лёгких путей.
Для чего вы сдаёте ОГЭ? Если ваша цель — вуз, определитесь с ним и сдавайте дисциплины, которые потребуются для поступления. Основной госэкзамен в девятом классе — прекрасная возможно прорепетировать ЕГЭ.
Если вы планируете получить среднее профессиональное образование, выясните, какие предметы нужны для поступления в выбранный вами колледж или техникум, и выбирайте их при подготовке к ОГЭ.
Учитывайте также степень своей подготовленности. Чем лучше вы знаете предмет, тем проще будет на экзамене.
2. Определите слабые стороны
Страшилки про ОГЭ передаются из класса в класс. Гуманитарии трепещут перед математикой, технари хватаются за голову от русского. Но не стоит полагаться на слухи и даже на текущую оценку по предмету. На госэкзамене проверяются знания и навыки, полученные за все девять классов.
Проведите объективный анализ своей готовности. Необходимо чётко представлять, что ждёт вас на экзамене, и честно оценивать свои силы перед началом подготовки к ОГЭ.
Темы и нововведения ОГЭ можно узнать из классификаторов, ежегодно публикуемых на сайте ФИПИ. Там же вы найдёте демоверсии работ предыдущих лет. Прорешайте их, чтобы понять, по каким дисциплинам вам потребуется помощь, а по каким сможете подготовиться к ОГЭ самостоятельно.
3. Выберите способ подготовки
ОГЭ — не самый сложный экзамен в мире, и любому школьнику по силам подготовиться к нему самостоятельно. Однако помощь специалистов может пригодиться, когда есть пробелы в знаниях.
<<Блок перелинковки>>
Если вам нужно тесное общение с преподавателем, вам подойдёт занятия с репетиторами. Но предметника, хорошо разбирающегося в специфике ОГЭ, найти довольно трудно, да и стоить это будет недёшево. Недостаток подготовительных курсов офлайн-формата в том, что придётся тратить время и деньги ещё и на дорогу. В то время как онлайн-подготовка к ОГЭ позволяет прокачивать знания не выходя из дома.
В «Домашней школе Фоксфорда» специализированную подготовку к основному государственному экзамену можно начать уже в восьмом классе. Ученики могут выстраивать индивидуальные образовательные маршруты и добавлять туда курсы подготовки к ОГЭ. Но главное — иметь крепкую базу по школьной программе.
Курсы «Экстерната и домашней школы Фоксфорда» по
школьной программе помогут вам подойти к экзамену во всеоружии. Выберите предмет, который хотите подтянуть, и целую неделю занимайтесь бесплатно.Как подготовиться к ОГЭ за полгода
Если вы в девятом классе, на дворе уже декабрь, а вы только вспомнили об экзаменах, срочно проделайте описанные выше шаги и приступайте к следующему этапу подготовки к ОГЭ.
1. Изучите задания и систему оценивания
КИМ — это контрольные измерительные материалы. Попросту — вопросы и задания, которые будут на ОГЭ. КИМ могут быть базового, повышенного и высокого уровня сложности, могут иметь тестовый формат, требовать краткого или развёрнутого ответа.
Так, экзаменационная работа по русскому языку состоит из двух частей: устное собеседование и письменный экзамен. Собеседование служит критерием допуска к письменному экзамену и состоит из четырёх заданий: чтение текста вслух, пересказ, монолог и диалог. Письменный экзамен состоит из трёх частей: задание №1 — изложение по прослушанному тексту; № 2–8 — задания на основе прочитанного текста; №9 — сочинение. Экзамен по математике состоит из 26 заданий, из которых пять арифметические, 13 по алгебре и восемь по геометрии.
Познакомьтесь с экзаменационными работами по нужным вам предметам, чтобы чётко представлять себе, сколько заданий предстоит решить, какого типа эти задания и какие навыки необходимо в себе развить при подготовке к ОГЭ.
Изучите, как оценивается и сколько «стоит» каждое экзаменационное задание по предмету. Особое внимание уделяйте отработке заданий, за которые можно получить два и более баллов.
Кроме того, есть задания, традиционно считающиеся сложными, при их решении часто допускаются ошибки. Данные по таким проблемным задачам публикуют на сайте ФИПИ. Изучите сложные задания и подготовьтесь к их решению, даже если они кажутся вам простыми.
2. Тренируйтесь, тренируйтесь и ещё раз тренируйтесь
Если первые полгода марафона под названием ОГЭ больше направлены на устранение пробелов в знаниях, то вторые — на оттачивание навыка работы с КИМ.
Решайте экзаменационные задания несколько раз в неделю, а лучше каждый день. Их можно брать в открытом банке заданий ОГЭ или в печатных сборниках.
Лучше выделять на подготовку к ОГЭ один-два часа в день, чем просиживать за компьютером все выходные. Не забывайте, мозг может работать эффективно не более 40-45 минут, после чего нужно обязательно делать перерыв.
По признанию наших выпускников, постоянная практика — 30% успеха на экзаменах. Ещё 50% составляют крепкие базовые знания и 20% умение справляться с волнением.
3. Учитесь работать с таймером
ОГЭ по русскому языку и математике длится 3 часа 55 минут. Продолжительность экзаменационного испытания по физике, биологии, истории и обществознанию — три часа, по информатике и географии — 2 часа 30 минут, а экзамены по иностранным языкам (без говорения) длятся всего два часа.
За это время вы должны всё решить и заполнить бланки. Черновики не принимаются.
Учитесь распределять своё время и тренируйтесь выполнять задания строго по таймеру.
Рассчитайте, сколько времени вам требуется на то или иное задание. Например, на обществознании задачи с развёрнутым ответом занимают у школьников от 10 до 20 минут. Заводите будильник и старайтесь уложиться в этот отрезок времени при решении задач №26, 29 и 31.
Быстрая подготовка к ОГЭ за один месяц
За 30 дней к государственным экзаменам подготовиться трудно, по крайней мере, так чтобы рассчитывать на высокие баллы. Но кое-что сделать всё-таки можно.
1. Продумайте алгоритм решения каждого типа заданий
Каждое задание — вопрос по какой-то теме, и серьёзная подготовка к экзамену в девятом классе предполагает сначала повторение этой темы, а затем решение.
Уберите подальше посторонние задачники и литературу для расширения кругозора. Всё, что необходимо делать в последние недели, — набивать руку и настраивать голову на формат экзамена.
Повторять материал в условиях ограниченного времени удобно по конспектам, простым схемам, компактным таблицами и иллюстрациям. Так, вы можете повторить отдельные темы школьной программе в нашей энциклопедии.
Примерный алгоритм решения экзаменационного задания:
- внимательно прочитать формулировку и подчеркнуть ключевые слова;
- отметить, что именно нужно указать в ответе: слово или слова, цифру и цифры, номер предложения или другой числовой ответ;
- сформулировать тему задания, чтобы вспомнить повторение, построить рассуждение и прийти к правильному ответу.
2. Потренируйтесь заполнять бланки
Большая часть заданий на экзамене в девятом классе проверяется компьютерами, поэтому при оформлении ответов крайне важна аккуратность.
Потренируйтесь заполнять бланки, чтобы на экзамене полностью сосредоточиться на решении заданий, не переживая за оформление.
3. Преодолейте страх
ОГЭ — это не столько испытание, сколько возможность продемонстрировать, что на самом деле вы очень многое знаете и умеете.
Изучите процедуру проведения ОГЭ. Чем меньше неизвестности впереди, тем меньше волнения.
Кроме того, справиться с предэкзаменационным мандражом помогут дыхательные упражнения и медитация, если освоить эти практики заранее. Соблюдайте режим и постарайтесь провести ночь перед экзаменом в постели, а не за повторением материала — так будет эффективнее. Также рекомендуем прочитать советы психолога о том, как справляться с волнением.
Вывод
Подготовиться к общему государственному экзамену можно даже в сжатые сроки, если заранее продумать стратегию подготовки. Определите, какие темы вызывают у вас трудности и повторите их. Тренируйтесь решать задания из ОГЭ прошлых лет, пока не доведёте этот процесс до автоматизма. Научитесь укладываться в экзаменационные сроки. Изучите процедуру проведения экзамена и продумайте алгоритм своих действий на каждом этапе. И самое главное — не волнуйтесь слишком сильно: помните, что основная работа по подготовке была проделана за девять лет учёбы.
Как самостоятельно сделать подкожную инъекцию с помощью предварительно заполненного шприца
Эта информация поможет вам научиться самостоятельно делать подкожную инъекцию (укол) с помощью предварительно заполненного шприца. Подкожная инъекция — это инъекция, которая вводится под кожу. Предварительно заполненный шприц — это шприц, который продается уже с лекарством внутри.
Медицинский сотрудник покажет вам, как сделать инъекцию самостоятельно. Вы можете воспользоваться информацией из этого материала в качестве напоминания, когда будете делать инъекцию дома.
Вернуться к началуИнформация о лекарстве
- Название лекарства: ______________________________
- Время введения лекарства: ____________________________
- Доза: ____________
Как хранить предварительно заполненные шприцы
Способ хранения предварительно заполненных шприцев зависит от вида лекарства в них. Большинство лекарств хранятся при комнатной температуре, но некоторые следует хранить в холодильнике. Медицинский сотрудник расскажет, как хранить ваши шприцы. Не храните предварительно заполненные шприцы в морозилке и не оставляйте их на солнце.
Поставьте галочку в одном из полей ниже, чтобы не забыть, как хранить шприцы.
- Хранить предварительно заполненные шприцы при комнатной температуре.
- Хранить предварительно заполненные шприцы в холодильнике.
Если у вас возникли вопросы о хранении или перевозке предварительно заполненных шприцев во время поездок, обратитесь к своему медицинскому сотруднику.
Что делать, если лекарство замерзло
Если лекарство внутри шприца замерзло, положите его ближе к передней части холодильника или на полку в дверце холодильника, чтобы оно оттаяло. Не используйте лекарство, если оно замерзало более одного раза. Позвоните своему медицинскому сотруднику, чтобы получить дальнейшие указания.
Вернуться к началуКак самостоятельно сделать подкожную инъекцию
Подготовьте все необходимое
Разложите принадлежности на чистой, ровной поверхности (например, на обеденном столе или на кухонной столешнице). Вам понадобятся:
- 1 спиртовая салфетка
- 1 небольшой марлевый или ватный тампон, кроме случаев, когда вы самостоятельно делаете инъекцию enoxaparin (Lovenox
®) или heparin - 1 повязка (например, пластырь Band-Aid®)
- Прочный контейнер для утилизации шприца и иглы (например, пластиковый флакон с крышкой из-под жидкого средства для стирки)
- 1 предварительно заполненный шприц с колпачком на игле
- Если вы храните предварительно заполненные шприцы в холодильнике, достаньте один шприц за 30 минут до инъекции. Когда вы будете делать инъекцию, лекарство должно быть комнатной температуры.
- Не встряхивайте шприц. Из-за встряхивания лекарство в нем может испортиться.
Проверьте предварительно заполненный шприц
Проверьте следующую информацию о лекарстве:
- Название. Убедитесь, что она совпадает с назначенной вам медицинским сотрудником.
- Доза. Убедитесь, что она совпадает с назначенной вам медицинским сотрудником.
- Срок годности. Убедитесь, что срок годности не истек.
- Цвет. Убедитесь, что лекарство в шприце прозрачное и бесцветное. Не используйте его, если оно вспенилось, изменило цвет, помутнело, или в нем появились кристаллики.
Если название лекарства или его доза не совпадает с тем, что назначил ваш медицинский сотрудник, срок действия лекарства истек либо лекарство вспенилось, изменило цвет, помутнело или в нем появились кристаллики, не используйте шприц. Если у вас есть другой шприц, воспользуйтесь им. После чего свяжитесь с медицинским сотрудником или фармацевтом и сообщите об этом. Возможно, вы сможете принести полный шприц в аптеку, чтобы заменить его.
Подготовьте место инъекции
Выберите на теле такое место для инъекции, где кожу можно оттянуть на 1–2 дюйма (2,5–5 см). Лучше всего выбрать один из следующих участков (см. рисунок 1):
- брюшная полость (живот), кроме участка в 2 дюйма (5 сантиметров) вокруг пупка;
- середина передней или середина внешней поверхности бедра;
- верхняя часть ягодиц;
- задняя поверхность плеча, если инъекцию вам сделает другой человек.
Если медицинский сотрудник попросил вас делать инъекцию в определенное место, следуйте этим рекомендациям. Некоторые лекарства работают лучше при введении в определенные места. Не вводите лекарство в болезненные, покрасневшие, ушибленные, твердые участки или в области со шрамами либо растяжками.
Рисунок 1. Места инъекций
Делайте каждую последующую инъекцию в другое место. Для отслеживания мест удобно использовать блокнот или календарь. Введение лекарства в одно и то же место приводит к формированию рубцовой ткани. Из-за этого лекарство может перестать работать так, как должно. Это также затруднит введение иглы в кожу.
Выбрав место введения, следуйте инструкциям ниже.
- Тщательно вымойте руки водой с мылом или обработайте их спиртосодержащим антисептиком.
- Если вы моете руки водой с мылом, намочите их, намыльте, тщательно потрите друг об друга в течение 20 секунд, затем ополосните. Просушите кожу рук одноразовым полотенцем и закройте кран с помощью того же полотенца.
- При использовании спиртосодержащего антисептика обязательно нанесите его на руки и трите руки друг о друга до его полного высыхания.
- Подверните одежду, закрывающую место инъекции.
- Откройте спиртовую салфетку. Протрите кожу в месте инъекции салфеткой, крепко прижимая ее к коже. Начните с центра выбранного участка и двигайтесь к внешним краям круговыми движениями.
- Дайте коже высохнуть. Не обмахивайте это место и не дуйте на него.
Сделайте себе инъекцию
- Достаньте шприц из упаковки.
- Если вы делаете инъекцию Lovenox, убедитесь, что в шприце есть пузырек воздуха. Если пузырька нет, отложите этот шприц и воспользуйтесь другим. После того как вы сделаете себе инъекцию, свяжитесь с медицинским сотрудником или фармацевтом и сообщите об этом. Возможно, вы сможете принести полный шприц в аптеку, чтобы заменить его.
- Доминирующей рукой (рукой, которой вы пишете) возьмитесь за середину шприца, как за ручку или дротик для игры в дартс.
- Осторожно снимите колпачок с иглы (см. рисунок 2). Сняв колпачок с иглы не кладите шприц. Старайтесь, чтобы ничто, даже ваши пальцы, не касалось иглы. Если что-либо коснулось иглы, поместите шприц в контейнер для острых предметов. Начните процедуру заново с новым шприцем. После того как вы сделаете себе инъекцию, свяжитесь с медицинским сотрудником и сообщите об этом.
Рисунок 2. Снимите колпачок с иглы
- Если вы ставите себе инъекцию лекарства, отличного от Lovenox, проверьте шприц на наличие пузырьков воздуха. Если в шприце есть пузырек, возьмите шприц так, чтобы игла была направлена вверх. Осторожно постучите по шприцу пальцами, чтобы пузырьки воздуха поднялись в его верхнюю часть, ближе к игле. Медленно нажмите на поршень, чтобы выпустить пузырьки воздуха из шприца. Не делайте этого в случае с лекарством Lovenox.
- Убедитесь, что вы продолжаете держать шприц за середину, как вы держите ручку или дротик для игры в дартс. Свободной рукой оттяните кожу в месте инъекции.
- Одним равномерным и быстрым движением полностью введите иглу под прямым углом в кожу (см. рисунок 3). Пока не кладите большой палец на поршень.
Рисунок 3. Рисунок 3. Введите иглу в кожу
- Перестаньте оттягивать кожу. Большим пальцем медленно нажмите на поршень и опустите его до упора, пока не введете все лекарство (см. рисунок 4). Вы можете использовать большой палец любой руки, чтобы вам было удобно.
Рисунок 4. Опустите поршень до упора
- Когда шприц опустеет, вытяните иглу из кожи вертикально вверх.
- Не давите на место инъекции, если вы сделали себе инъекцию Lovenox или heparin. В случае необходимости наложите повязку на место инъекции.
- Если вы поставили себе инъекцию какого-либо другого лекарства, отличного от Lovenox и heparin, приложите ватный или марлевый тампон к месту инъекции и прижмите его на несколько секунд. В случае необходимости наложите повязку на место инъекции.
- Наденьте на иглу защитную насадку.
- Если вы сделали себе инъекцию Lovenox, с силой нажмите на поршень и опустите его до конца. Защитная насадка должна сама сесть на нужное место.
- Если вы поставили себе инъекцию какого-либо другого лекарства, отличного от Lovenox, возьмитесь за прозрачные пластиковые упоры для пальцев по бокам шприца одной рукой. Возьмите защитную насадку другой рукой (см. рисунок 5). Надвиньте защитную насадку на иглу так, чтобы игла была полностью закрыта (см. рисунок 6). Вы услышите щелчок, когда защитная насадка встанет на место.
Рисунок 5. Возьмите защитную насадку
Рисунок 6. Надвиньте защитную насадку
- Выбросьте шприц в контейнер для острых предметов. Не используйте предварительно заполненный шприц повторно.
Для получения информации о том, как выбрать контейнер для острых предметов и утилизировать использованные шприцы и другие бытовые медицинские иглы, ознакомьтесь с нашим материалом Хранение и утилизация бытовых медицинских игл.
Вернуться к началуКогда следует обращаться к своему медицинскому сотруднику?
Позвоните своему медицинскому сотруднику, если:
- Из места инъекции не перестает идти кровь.
- У вас появилась очень сильная боль.
- Вы ввели лекарство в неправильное место.
- У вас поднялась температура 100,4 °F (38 °C) или выше.
- У вас появились признаки аллергической реакции, например отек, покраснение, зуд или сыпь.
- Вы не можете воспользоваться шприцем, поскольку срок годности лекарства истек, лекарство вспенилось, изменило цвет, помутнело или в нем появились кристаллики.
- Вы не можете воспользоваться шприцем, поскольку коснулись чего-либо иглой перед инъекцией.
- Вы не можете воспользоваться предварительно заполненным шприцем с Lovenox, поскольку в нем нет пузырька воздуха.
- У вас возникли трудности с введением инъекции.
Когда алгоритму важно объяснять себя?
Многие попытки применить машинное обучение застревают из-за опасений по поводу «черного ящика», то есть отсутствия прозрачности в отношении того, почему система делает то, что она делает. Иногда это происходит потому, что люди хотят понять , почему был сделан некоторый прогноз, прежде чем они предпримут действия, изменяющие жизнь, например, когда система компьютерного зрения указывает на 95% вероятность рака на рентгеновском снимке легкого пациента. Иногда это происходит потому, что техническим командам необходимо выявлять и устранять ошибки без нарушения работы всей системы.И теперь, когда действует Общий регламент по защите данных (GDPR), компании, которые обрабатывают данные потребителей, должны объяснять, как автоматизированные системы принимают решения, особенно те, которые существенно влияют на жизнь людей, например, выделение кредита или найм кандидата на работу. Хотя GDPR применяется только в Европе, компании по всему миру ожидают подобных изменений и поэтому пересматривают меры по управлению.
Если вы поищете в Интернете, то обнаружите, что большинство работ об алгоритмической объяснимости делятся на два лагеря.Сторонники быстрого внедрения технологий часто утверждают, что люди не лучше умеют объяснять решения, чем машины, и поэтому мы должны отложить вопрос, чтобы ускорить инновации. Эти риторические аргументы не помогают специалистам, отвечающим за соблюдение нормативных требований. С другой стороны, критики требуют строгих требований к прозрачности и очерняют культуру «двигайся быстро и ломай». Эти аргументы могут задушить принятие, поскольку не все варианты использования машинного обучения требуют одинакового уровня надзора и подотчетности — одни решения важнее объяснять, чем другие.
Чтобы добиться успеха с прикладным машинным обучением, нужно сделать шаг назад и решить проблему. Что означает «подходящая» математическая или статистическая процедура (как того требует GDPR)? Требуются ли разные варианты использования разных типов объяснений? Кто должен участвовать в принятии решений, касающихся воздействия на бизнес, соблюдения нормативных требований, технического подхода и даже этических ценностей, когда компании интегрируют машинное обучение в свои бизнес-операции?
Давайте начнем с выяснения того, почему такую, казалось бы, простую идею, как право на объяснение, трудно понять и реализовать на практике.
Как и в случае с любой другой технологией, когда вы запускаете проект машинного обучения, вы должны решить, создавать или покупать. Работа с поставщиком усложняет прозрачность, потому что многие компании-разработчики программного обеспечения предпочитают не раскрывать, какие алгоритмы они используют или данные, которые они используют для их обучения. Часто причиной является защита интеллектуальной собственности или предотвращение нарушения безопасности. Существует также проблема сложности: если поставщик использует несколько общедоступных и частных наборов данных для обучения своей системы, подумайте о том, насколько сложно было бы иметь механизмы аудита, чтобы точно отслеживать, что привело к принятию решения!
Если вы не пользуетесь услугами поставщика, но решили создать что-то собственное, вам нужно решить, нужно ли вам только объяснять, какие процедуры вы будете использовать — например, типы данных и типы моделей. — или хотите ли вы объяснить внутреннюю работу математической модели.
Формулировка GDPR подразумевает, что это процедура, требующая объяснения. В декларации 71 говорится, что «справедливая и прозрачная обработка» означает аудит того, как собираются данные, их точность, защиту данных и принятие мер по выявлению и предотвращению любых дискриминационных эффектов. Основное внимание уделяется сбору и целостности данных; статистические модели должны быть «соответствующими». Ни один из этих шагов не является тривиальным, но они часто упускаются из виду в дебатах об объяснимости, потому что так много внимания уделяется алгоритмам и моделям.Например, предвзятость может закрасться в алгоритм во многих точках системы. Ваш бизнес мог исторически недостаточно обслуживать некоторые этнические группы, поэтому вы могли собрать мало данных о них. Этнические и демографические сообщества могут быть тесно коррелированы с данными о местоположении, в результате чего, казалось бы, безобидная переменная, такая как местоположение по GPS, может быть признаком этнической дискриминации. Попадая в производство, модели часто сталкиваются с крайними случаями — ситуациями, данными или отдельными людьми, которых недостаточно, как данных, на которых они были обучены.Важно отслеживать систематические ошибки как до, так и после ввода системы в эксплуатацию, а также принимать меры по устранению непреднамеренной обработки.
Один из видов объяснения — прояснить результаты, для которых система предназначена для оптимизации. В примере системы подачи заявок на кредит онлайн, привлечение системы к ответственности будет означать мониторинг, чтобы гарантировать, что отказы не связаны с защищенными атрибутами, такими как этническое происхождение. Ограничения этого подхода, ориентированного на результаты, заключаются в том, что меньше понимания того, что нужно сделать человеку, чтобы вмешаться, чтобы изменить решение в будущем.Подход, ориентированный на вмешательство, требует понимания внутренней работы модели. Например: «Вы не соответствуете требованиям, потому что не оплатили последние три чека аренды. Если вы заплатите следующие четыре подряд, ваш балл будет достаточно высоким, чтобы пройти наш пороговый балл в 75% ».
Когда важно понять логику статистической модели, мы сталкиваемся с разными проблемами.
Как я намекал в своей статье об определении возможностей машинного обучения , различные алгоритмы машинного обучения все более и менее легко объяснить.Линейную регрессию вида y = mx + b нетрудно объяснить: нам нужно только отслеживать m, чтобы узнать, как x (вход) соотносится с y (выход). Но что, если «m» — это сокращение для миллионов отношений, определяющих сложные функции в архитектурах? При глубоком обучении мы теряем способность точно определять, как входные данные соотносятся с выходными, потому что количество включенных переменных и отношения между ними становятся слишком сложными для описания. Так, например, глубокая нейронная сеть может указать на 95% -ную вероятность того, что человек не сможет выплатить ссуду, но не может сформулировать, какие аспекты данных сформировали эту оценку.Это компромисс, поскольку более сложные алгоритмы открывают возможности, с которыми более простые статистические модели, такие как линейная регрессия, не могут справиться, но за счет объяснимости. (Также стоит помнить, что когда специалисты по обработке данных создают более простые алгоритмы, которые может быть легче объяснить, они также приносят с собой предубеждения и предположения, влияющие на то, что они видят в данных; эти субъективные предубеждения трудно выявить и контролировать с помощью технологий.)
Последняя проблема объяснимости — прояснить, для чего на самом деле оптимизируется модель.Идеальный клиент кредитной карты — это тот, кто будет часто использовать карту, на которую он подписывается (долгосрочный результат), а не только человек, который принимает предложение кредитной карты (краткосрочный результат). Люди, которые нажимают на медийные объявления, не часто являются клиентами с высокой жизненной ценностью, и большинство усилий по цифровому маркетингу могут использовать только данные о потоках кликов в качестве прокси для прямых продаж. Трудно измерить и получить обратную связь о долгосрочных результатах, но эти известные неизвестные могут быть наиболее ценными для производительности системы.
Это может показаться сложным, но если правильные люди задают правильные вопросы в нужное время, чтобы обосновать серию судебных призывов и решений, все становится послушным.
Для начала заинтересованным сторонам нетехнического профиля, участвующим в проекте машинного обучения, необходимо пройти некоторый тренинг, чтобы получить представление о том, как работают статистические системы. Им не нужно программировать или быть специалистами по данным, но им нужно понимать, что системы машинного обучения выводят корреляции, а не причины. Им необходимо понимать, что группа меньшинств, недостаточно представленная в наборе данных, может получить несправедливое отношение со стороны алгоритма не из-за какого-либо злого умысла со стороны специалистов по данным, а потому, что модели имеют тенденцию изучать взаимосвязи, которые помогают прогнозировать большие части набор данных за счет точности по сравнению с менее хорошо представленными примерами.
Затем, во время предпроектных обсуждений, за столом должна сесть разнообразная группа заинтересованных сторон из бизнеса, науки о данных, ИТ, конфиденциальности и соблюдения нормативных требований. (Компаниям также следует рассмотреть вопрос о том, чтобы чья-то роль могла ставить под сомнение алгоритм, как, например, «красные команды», которые иногда используются при принятии решений с высокими ставками.) Важно четко понимать нормативные требования или этические риски, прежде чем начинать любую работу, чтобы избежать провала. затраты на интересные приложения, которые не будут соответствовать требованиям новых правил, таких как GDPR, или рискуют подорвать доверие потребителей.
Этим кросс-функциональным проектным группам следует рассмотреть такие вопросы, как:
Какой тип ответственности имеет значение для варианта использования? Объясняемость не всегда важна. Например, если юридическая фирма использует машинное обучение для поиска документов, относящихся к делу, важно то, чтобы они не упускали ничего важного, не объясняли, почему один документ актуален, а другой нет. Здесь правильная метрика, на которой нужно сосредоточить внимание специалистов по данным, известна как «отзыв», то есть доля релевантных экземпляров, которые были извлечены из общего количества релевантных экземпляров в наборе документов.Команда специалистов по анализу данных должна встроить это в свои процессы тестирования моделей и обеспечения качества.
Какое место занимает конкретная модель машинного обучения во всем бизнес-процессе? Бизнес-аналитик должен наметить сквозной бизнес-процесс. Часто один процесс фактически включает в себя множество моделей машинного обучения с разными требованиями к объяснимости. Например, у банка, использующего машинное обучение для привлечения новых клиентов по кредитным картам, будет как минимум две модели: одна для оценки риска и утверждения карты (что требует большей объяснимости), а другая для прогнозирования склонности к конверсии и персонализации предложений (что требует меньших затрат). объяснимость).Комплаенс-функции должны информировать бизнес-аналитиков о нормативных требованиях на каждом этапе бизнес-процесса, а специалисты по обработке данных должны помнить об этих ограничениях, а не выбирать только тот метод машинного обучения, который обеспечивает наилучшую производительность при выполнении задачи.
Какие процессы мы будем использовать для управления результатами? Системы машинного обучения — это инструменты оптимизации, и один из способов управления ими — перейти от объяснения того, какие особенности данных привели к каким результатам, к объявлению политики более высокого уровня в отношении желаемых результатов и привлечению систем к ответственности за выполнение этой политики.Здесь специалисты по обработке данных должны нести ответственность за оценку своих моделей на предмет предвзятости в отношении конфиденциальных типов данных, таких как пол или этническое происхождение, во время проверки качества и, что наиболее важно, после того, как модель будет запущена. Статистические системы хорошо себя чувствуют в середине кривой колокола, где у них много данных, но они могут давать неожиданные результаты для менее хорошо представленных случаев или нового поведения. Кто-то должен быть ответственным за аудит и мониторинг производительности модели с течением времени и определение любых действий, противоречащих бизнес-политике.Техническая, бизнес-группа и группа соответствия должны регулярно встречаться для проверки эффективности и корректировки модели для достижения справедливых результатов. Бизнес должен задокументировать, как часто обновляются модели, и иметь процесс, чтобы сообщить об этом и как это влияет на прогнозы и любые изменения для потребителей, на которые влияет система.
Большая часть разговоров об объяснимости и интерпретируемости сосредоточена исключительно на внутренней работе моделей машинного обучения, что приводит к страху перед черными ящиками или риторическими аргументами о том, что люди не лучше объясняют свое поведение и решения, чем самая непрозрачная машина.Чтобы компании смогли добиться успеха с машинным обучением, они должны сделать шаг назад и решить проблему, рассматривая влияние систем в целом и критически осмысливая, что влечет за собой значимая подотчетность для различных вариантов использования. В некоторых случаях людям действительно потребуются более прямые объяснения, будь то для психологического комфорта (диагноз рака) или для вмешательства, чтобы изменить результат (изменение действий для получения жилищной ссуды в будущем после того, как кому-то было отказано). Но есть много процессов, которыми можно управлять, устанавливая политики для достижения желаемых результатов, отслеживая результаты для отслеживания расхождений и обновляя модели или процедуры сбора данных для улучшения будущих результатов.Понимание того, что имеет значение, и вынесение суждений о том, сколько ошибок может допустить бизнес, — это навыки, которые необходимо развивать бизнес-лидерам.
экспертов по плюсам и минусам алгоритмов
(filistimlyanin / iStock.com)Алгоритмы — это инструкции для решения проблемы или выполнения задачи. Рецепты — это алгоритмы, как и математические уравнения. Компьютерный код алгоритмичен. Интернет работает на алгоритмах, и весь онлайн-поиск осуществляется с их помощью. Электронная почта знает, куда обращаться, благодаря алгоритмам.Приложения для смартфонов — это не что иное, как алгоритмы. Компьютерные и видеоигры — это алгоритмическое повествование. Сайты знакомств, рекомендательные книги и туристические сайты не могли бы функционировать без алгоритмов. Картографические системы GPS доставляют людей из точки A в точку B с помощью алгоритмов. Искусственный интеллект (ИИ) — это не что иное, как алгоритмы. Материалы, которые люди видят в социальных сетях, передаются им с помощью алгоритмов. Фактически, все, что люди видят и делают в сети, является продуктом алгоритмов. Каждый раз, когда кто-то сортирует столбец в электронной таблице, задействуются алгоритмы, и большинство финансовых транзакций сегодня выполняется с помощью алгоритмов.Алгоритмы помогают гаджетам реагировать на голосовые команды, распознавать лица, сортировать фотографии, строить и водить автомобили. Взлом, кибератаки и алгоритмы взлома криптографического кода. Сейчас появляются самообучающиеся и самопрограммируемые алгоритмы, поэтому вполне возможно, что в будущем алгоритмы будут писать много, если не большинство алгоритмов.
Алгоритмы часто представляют собой элегантные и невероятно полезные инструменты, используемые для выполнения задач. В основном это невидимые помощники, невероятно улучшающие человеческие жизни.Однако иногда применение алгоритмов, созданных с добрыми намерениями, приводит к непредвиденным последствиям. Последние новости связаны с этими проблемами:
- Британский фунт упал на 6,1% за секунды 7 октября 2016 года, отчасти из-за валютных торгов, инициированных алгоритмами.
- Инженеры Microsoft создали Twitter-бота под названием «Tay» прошлой весной в попытке поболтать с миллениалами, отвечая на их запросы, но через несколько часов он начал изливать расистские, сексистские и отрицательные твиты, основанные на алгоритмах, которым он «учился». как отвечать другим, основываясь на том, что было написано в Твиттере.
- Facebook попытался создать функцию для выделения популярных тем со всего сайта в лентах пользователей. Во-первых, команда людей отредактировала функцию, но споры разгорелись, когда некоторые обвинили платформу в предвзятом отношении к консерваторам. Итак, Facebook передал работу алгоритмам только для того, чтобы обнаружить, что они не могут отличить настоящие новости от фейковых.
- Кэти О’Нил, автор книги Оружие разрушения математики: как большие данные увеличивают неравенство и угрожают демократии , указала, что прогнозная аналитика, основанная на алгоритмах, имеет тенденцию наказывать бедных, на примере алгоритмической практики найма.
- Созданные из лучших побуждений алгоритмы могут быть саботированы злоумышленниками. 21 октября 2016 года на восточном побережье США произошел спад интернета после того, как хакеры забросали Dyn DNS, обработчик интернет-трафика, с информацией, которая перегружала его сети, открыв новую эру интернет-атак с подключенных к Интернету устройств. Это произошло после того, как в сентябре эксперт по интернет-безопасности Брюс Шнайер предупредил, что «кто-то учится отключать интернет». А злоупотребление алгоритмом ленты новостей Facebook и всеобщее распространение фейковых новостей в Интернете стали предметом споров, поскольку в 2016 году U.С. Президентские выборы продолжились.
- Исследователь Эндрю Тутт призвал к «FDA для алгоритмов», отметив: «Рост все более сложных алгоритмов требует критического размышления о том, как наилучшим образом предотвратить, сдержать и компенсировать вред, который они причиняют…. Алгоритмическое регулирование потребует единообразия на федеральном уровне, экспертной оценки, политической независимости и предпродажной проверки, чтобы предотвратить — не подавляя инновации — внедрение на рынок неприемлемо опасных алгоритмов.”
- Белый дом опубликовал в октябре 2016 года два отчета, в которых подробно описываются прогресс алгоритмов и искусственного интеллекта и планы решения связанных с ним проблем, а также опубликован декабрьский отчет, в котором излагаются некоторые потенциальные последствия автоматизации, основанной на искусственном интеллекте, для рынка труда США и других стран. экономия.
- 17 января 2017 года Институт будущего жизни опубликовал список из 23 принципов полезного искусственного интеллекта, составленный собранием заинтересованных исследователей на конференции в Асимолар, в Пасифик-Гроув, Калифорния.Среди более 1600 подписантов были Стивен Хокинг, Илон Маск, Рэй Курцвейл и сотни ведущих мировых исследователей искусственного интеллекта.
Использование алгоритмов распространяется по мере того, как предприятия и правительства создают, собирают и анализируют огромные объемы данных. Некоторые называют это веком алгоритмов и предсказывают, что будущее алгоритмов связано с машинным обучением и глубоким обучением, которые будут становиться все лучше и лучше со все более быстрыми темпами.
В то время как многие из 2016 U.В ходе вскрытия президентских выборов в С. отмечалось революционное влияние веб-инструментов на их исход. Генеральный директор XPrize Foundation Питер Диамандис предсказал, что «пять крупных технологических тенденций сделают эти выборы скучными». Он сказал, что достижения в области квантовых вычислений и быстрая эволюция ИИ и агентов ИИ, встроенных в системы и устройства в Интернете вещей, приведут к гипер-преследованию, влиянию и формированию избирателей и гиперперсонализированной рекламе, а также создадут новые способы искажать реальность и увековечивать ложь.
Аналитики, такие как Аниш Аниш из Стэнфордского университета, предвидят, что алгоритмы возьмут на себя государственную и частную деятельность в новую эру «альгократического управления», которое вытеснит «бюрократические иерархии». Другие, такие как Шошана Зубофф из Гарварда, описывают появление «капитализма наблюдения», который организует экономическое поведение в «информационной цивилизации».
Чтобы прояснить нынешнее отношение к потенциальному влиянию алгоритмов в следующем десятилетии, Исследовательский центр Pew Research Center и Imagining the Internet Center Университета Илона провели широкомасштабный опрос экспертов в области технологий, ученых, корпоративных практиков и руководителей правительств.На вопрос о том, что будет в следующем десятилетии, ответили около 1302 человека:
Будет ли суммарный эффект алгоритмов положительным для людей и общества или отрицательным для людей и общества?
Ненаучный опрос показал, что 38% этих респондентов предсказывали, что положительное влияние алгоритмов перевесит отрицательное для отдельных людей и общества в целом, в то время как 37% заявили, что отрицательное влияние перевесит положительное; 25% сказали, что общее влияние алгоритмов будет примерно 50-50, положительное-отрицательное.[См. «Об этом опросе экспертов» для получения дополнительной информации об ограничениях этого образца.]
Участников попросили объяснить свои ответы, и большинство из них написали подробные пояснения, которые дают представление о обнадеживающих и тревожных тенденциях. Респондентам было разрешено ответить анонимно; они составляют незначительное большинство письменных разработок. Эти результаты не отражают всех точек зрения, которые возможны для подобного вопроса, но они раскрывают широкий спектр ценных наблюдений, основанных на текущих тенденциях.
В следующем разделе мы предлагаем краткое описание семи ключевых тем, обнаруженных в письменных разработках. После этого вводного раздела дается более подробный анализ мыслей респондентов по каждой из тем. Все ответы слегка отредактированы по стилю.
Тема 1: Алгоритмы будут продолжать распространяться повсюдуСреди этих респондентов существует довольно единое мнение о том, что алгоритмы, как правило, невидимы для публики и что в следующем десятилетии их влияние будет расти в геометрической прогрессии.
Репрезентативное заявление об этой точке зрения поступило от Барри Чудакова , основателя и директора Sertain Research и StreamFuzion Corp. Он ответил:
«Если бы каждый алгоритм внезапно перестал работать, это был бы конец света, каким мы его знаем» (Педро Доминго, The Master Algorithm ). Факт: Мы уже перевели наш мир на машинное обучение и алгоритмы. Теперь вопрос в том, как лучше понять и управлять тем, что мы сделали?
«Алгоритмы — полезный артефакт, чтобы начать обсуждение более широкой проблемы влияния помощи с технологией на нашу жизнь.А именно, как мы можем увидеть их в работе? Рассмотреть и оценить свои предположения? И что наиболее важно для тех, кто не создает алгоритмы для жизни — как мы узнаем, как они работают, где они действуют, какие допущения и предубеждения им присущи и как сделать их прозрачными? Как рыбы в аквариуме, мы можем видеть, как они плавают, и не спускать с них глаз.
Факт: мы уже перевели наш мир на машинное обучение и алгоритмы. Теперь вопрос в том, как лучше понять и управлять тем, что мы сделали?
Чудаков Барри
«Алгоритмы — новые арбитры принятия человеческих решений практически в любой области, которую мы можем себе представить, от просмотра фильма (распознавание эмоций Affectiva) до покупки дома (Zillow.com) на беспилотные автомобили (Google). Deloitte Global прогнозирует, что к концу 2016 года более 80 из 100 крупнейших мировых компаний, производящих программное обеспечение для предприятий, будут иметь когнитивные технологии, опосредованные алгоритмами, которые будут интегрированы в свои продукты. «лучший стандарт, с которым можно сравнивать само человеческое познание». Они также являются стимулом для рассмотрения того же самого познания: как мы думаем и что значит думать с помощью алгоритмов, опосредующих наш мир?
«Главный положительный результат этого — лучшее понимание того, как принимать рациональные решения, и в этой мере лучшее понимание самих себя.В конце концов, алгоритмы генерируются методом проб и ошибок, путем тестирования, наблюдения и приведения к определенным математическим формулам, касающимся выбора, который делался снова и снова — и это может быть использовано для трудных выборов и проблем, особенно когда интуитивно мы не можем легко увидеть ответ или способ решения проблемы. Правило 37%, оптимальная остановка и другие алгоритмические выводы — это основанные на фактах руководства, которые позволяют нам использовать мудрость и математически подтвержденные шаги для принятия лучших решений.
«Дополнительным положительным результатом является возможность подключения. В технологическом повторении того, что духовные учителя говорили на протяжении веков, наши вещи демонстрируют, что все связано — или может быть — связано со всем остальным. Алгоритмы с настойчивостью и повсеместностью насекомых автоматизируют процессы, которые раньше требовали человеческих манипуляций и мышления. Теперь они могут управлять основными процессами мониторинга, измерения, подсчета или даже просмотра. Наша машина может сказать нам, чтобы мы притормозили.Наши телевизоры могут предложить фильмы для просмотра. В продуктовом магазине на ужин можно предложить здоровое сочетание мяса и овощей. Siri напоминает вам, что у вас годовщина.
«Основные негативные изменения сводятся к простому, но теперь довольно сложному вопросу: как мы можем увидеть и полностью понять значение алгоритмов, запрограммированных в повседневные действия и решения? Загвоздка вот в чем: чей это вообще разум? … В наших системах нет, и нам необходимо встроить то, что Дэвид Гелернтер назвал «верхним взглядом», — способность не только создавать технологические решения, но также видеть и исследовать их последствия, прежде чем мы будем строить бизнес-модели, компании и рынки на их сильных сторонах, и особенно об их ограничениях.”
Чудаков добавил, что это особенно необходимо, потому что в следующем десятилетии и далее: «За счет расширения сбора и анализа данных и последующего применения этой информации к процессам и объектам, которые ранее не применялись, добавляется уровень интеллекта или манипуляции мышлением. этот слой. Так что возможности предсказания преследуют нас, как домашнее животное. Результат: по мере того, как информационные инструменты и прогнозная динамика получают более широкое распространение, наша жизнь будет все больше зависеть от их внутренних выводов и повествования, которые они порождают.”
«Общее влияние повсеместных алгоритмов в настоящее время невозможно подсчитать, потому что присутствие алгоритмов в повседневных процессах и транзакциях сейчас настолько велико и по большей части скрыто от общественности. Все наши системы расширенного мышления (алгоритмы подпитывают программное обеспечение и возможности взаимодействия, которые создают системы расширенного мышления) требуют большего, а не меньшего, и более глобальной перспективы, чем нам удавалось ранее. Расширяющийся сбор и анализ данных и, как следствие, применение этой информации может вылечить болезни, уменьшить бедность, принести своевременные решения людям и местам, где больше всего нужды, и развеять тысячелетние предрассудки, необоснованные выводы, бесчеловечные практики и игнорирование всего. виды.Наши алгоритмы теперь переопределяют то, что мы думаем, как мы думаем и что мы знаем. Нам нужно попросить их подумать о своем мышлении — обратить внимание на подводные камни и врожденные предубеждения, прежде чем они усвоятся и их будет труднее устранить.
«Чтобы создать надзор, который оценил бы влияние алгоритмов, сначала нам нужно увидеть и понять их в контексте, для которого они были разработаны. Это само по себе является непростой задачей, требующей от беспристрастных экспертов обратного отслеживания процесса разработки технологий для поиска моделей и формул, на основе которых были созданы алгоритмы.Затем, сохраняя все знания под рукой, экспертам необходимо трезво оценить преимущества и недостатки или риски, которые создают алгоритмы. Кто готов к этому? У кого есть время, бюджет и ресурсы, чтобы исследовать и рекомендовать полезные варианты действий? Это описание работы 21 века — и рыночная ниша — поиск реальных людей и компаний. Чтобы сделать алгоритмы более прозрачными, циркуляры с информацией о продуктах и продуктах могут включать схему алгоритмических предположений, сродни боковой панели по питанию, которая сейчас встречается на многих упакованных пищевых продуктах, которые будут информировать пользователей о том, как алгоритмы влияют на интеллект в данном продукте, и краткое описание последствий этих предположений.”
Тема 2: Хорошие дела впередиРяд респондентов отметили множество способов, с помощью которых алгоритмы помогут разобраться в огромных объемах данных, отметив, что это вызовет прорыв в науке, новые удобства и человеческие возможности в повседневной жизни, а также все большую способность связывать людей с информация, которая им поможет. Они выполняют, казалось бы, чудесные задачи, которые люди не могут сделать, и они будут продолжать значительно увеличивать человеческий интеллект и помогать в достижении великих дел.Типичным сторонником этой точки зрения является Стивен Даунс , исследователь Национального исследовательского совета Канады, который перечислил следующие положительные изменения:
«Примеры:
Банки . Сегодня банки предоставляют кредиты на основании очень неполных данных. Это правда, что многие люди, которые сегодня имеют право на получение ссуд, не получат их в будущем. Однако многие люди — и, возможно, намного больше людей — смогут получить ссуды в будущем, поскольку банки отказываются использовать такие факторы, как раса, социально-экономическое положение, почтовый индекс и т. Д., Для оценки пригодности.Более того, с большим объемом данных (и с более интерактивными отношениями между банком и клиентом) банки могут снизить свои риски, тем самым предоставляя больше кредитов, в то же время предоставляя ряд услуг, индивидуально направленных на то, чтобы реально улучшить финансовое состояние человека.
«Поставщики медицинских услуг . Здравоохранение — это значительные и растущие расходы не потому, что люди становятся менее здоровыми (на самом деле, в обществе, наоборот, верно), а из-за значительных накладных расходов, необходимых для поддержки все более сложных систем, включая рецепты, страхование, помещения и многое другое.Новые технологии позволят поставщикам медицинских услуг переложить значительную часть этой нагрузки на человека, который (с помощью систем личной поддержки) будет лучше управлять своим здоровьем, координировать и управлять своим собственным лечением и создавать меньшую нагрузку на систему. . По мере того, как общие затраты на здравоохранение снижаются, становится все более целесообразным предоставлять медицинское страхование с одним плательщиком для всего населения, которое, как известно, имеет положительные результаты и эффективность в отношении здоровья.
«Правительства .Значительная часть правительства основана на регулировании и мониторинге, которые больше не потребуются с развертыванием автоматизированных производственных и транспортных систем, а также сенсорных сетей. Это включает в себя многие из повседневных (и часто неприятных) взаимодействий, которые мы имеем сегодня с правительством, начиная с нарушений правил дорожного движения, проявления гражданского недовольства, несправедливого обращения в коммерческих и юридических процессах и т. Д. Простой пример: одна из самых серьезных политических проблем в Соединенных Штатах — это подтасовка политических границ в пользу действующих лиц.Избирательные подразделения, созданные с помощью алгоритма, в значительной степени исключают подтасовку (и, когда они открыты и обсуждаются, могут быть изменены для улучшения этого результата) ».
Выборка дополнительных ответов от анонимных респондентов:
Эффективность алгоритмов приведет к большему творчеству и самовыражению.
- «Алгоритмы находят знания в автоматическом режиме намного быстрее, чем это обычно возможно».
- «Алгоритмы могут обрабатывать базы данных достаточно быстро, чтобы избавиться от бюрократии и бюрократии, которые в настоящее время замедляют прогресс.”
- «Мы увидим меньше загрязнения, улучшим здоровье людей, меньше экономических отходов».
- «Алгоритмы могут уравнять доступ к информации».
- «Эффективность алгоритмов приведет к большему творчеству и самовыражению».
- «Алгоритмы могут уменьшить проблемы с транспортировкой; они могут определить заторы и альтернативные времена и пути ».
- «Беспилотные автомобили могут значительно сократить количество несчастных случаев в год, а также улучшить качество жизни большинства людей.”
- «Более адресная доставка новостей, услуг и рекламы».
- «Больше научно-обоснованных социальных наук, использующих алгоритмы для сбора данных из социальных сетей и переходов по ссылкам».
- «Улучшенная и более активная работа полиции, направленная на районы, где можно предотвратить преступность».
- «Меньше слаборазвитых областей и больше международных коммерческих обменов».
- «Алгоритмы уменьшают трения при принятии решений, покупках, транспортировке и многих других действиях.”
- «Боты будут следовать приказам покупать ваши акции. Цифровые агенты найдут нужные вам материалы ».
- «Все ошибки можно исправить. Это будет означать, что алгоритмы со временем станут только более эффективными в соответствии с желаниями человечества ».
Темы, освещающие проблемы и проблемы
Участники этого исследования были в значительной степени согласны с тем, что многочисленные положительные стороны ускорения зависимости от кода будут продолжать стимулировать распространение алгоритмов; однако, как и во всех великих технологических революциях, у этой тенденции есть и обратная сторона.Большинство респондентов указали на проблемы, главная из которых заключалась в пяти последних основных темах настоящего отчета; у всех есть подтемы.
Тема 3: Человечество и человеческие суждения потеряны, когда данные и прогнозное моделирование приобретают первостепенное значение
Прогресс в области алгоритмов позволяет технологическим корпорациям и правительствам собирать, хранить, сортировать и анализировать массивные наборы данных. Эксперты, участвовавшие в этом опросе, отметили, что эти алгоритмы в первую очередь написаны для оптимизации эффективности и прибыльности без особых размышлений о возможных социальных последствиях моделирования и анализа данных.Эти респонденты утверждали, что люди считаются «вкладом» в этот процесс и не рассматриваются как реальные, мыслящие, чувствующие, изменяющиеся существа. Они говорят, что это создает ошибочное, логически управляемое общество и что по мере развития процесса, то есть когда алгоритмы начинают писать алгоритмы, люди могут оказаться вне цикла, позволяя «роботам решать». Представитель этой точки зрения:
Барт Книжненбург , доцент кафедры ориентированных на человека вычислений в Университете Клемсона, ответил: «Алгоритмы будут извлекать выгоду из удобства и прибыли, тем самым дискриминируя определенные группы населения, но также разрушая опыт всех остальных.Целью алгоритмов является соответствие некоторым нашим предпочтениям, но не обязательно всем из них: они, по сути, представляют собой карикатуру на наши вкусы и предпочтения. Я больше всего опасаюсь, что, если мы не настроим наши алгоритмы для самоактуализации , людям будет просто слишком удобно следовать советам алгоритмов (или слишком сложно выходить за рамки таких советов), превращая эти алгоритмы в себя. -исполнение пророчеств и превращение пользователей в зомби, которые потребляют исключительно легкие в употреблении предметы.”
Анонимный футуролог сказал: «Это происходит с самого начала промышленной революции. Каждый раз, когда вы создаете человеческую систему, оптимизированную для повышения эффективности или прибыльности, вы дегуманизируете персонал. Эта дегуманизация теперь распространилась на наше здравоохранение и социальные службы. Когда вы удаляете человечество из системы, в которую включены люди, они становятся жертвами ».
Другой анонимный респондент написал: «Мы просто не можем зафиксировать каждый элемент данных, который представляет обширность человека и его потребности, желания, надежды, желания.Кто и какие данные собирает? Знают ли вообще люди, отраженные в точках данных, или они просто согласились с условиями обслуживания, потому что у них не было реального выбора? Кто зарабатывает на данных? Как кто-нибудь может узнать, как его / ее данные обрабатываются и для каких целей, чтобы оправдать какие цели? Нет прозрачности, а надзор — фарс. Все это скрыто от глаз. Я всегда буду убежден, что данные будут использоваться для обогащения и / или защиты других, а не отдельных лиц. Это основная природа экономической системы, в которой мы живем.”
Выборка отрывков, связанных с этой темой, от других респондентов (подробнее см. Более полные версии в полном тексте отчета):
Алгоритмы обладают способностью формировать индивидуальные решения, даже если они этого не знают, что дает тем, кто контролирует алгоритмы, несправедливую власть.
- «Потенциал добра огромен, но вероятность неправильного использования и злоупотребления — преднамеренного и непреднамеренного — может быть больше».
- «Компании стремятся максимизировать прибыль, а не максимизировать общественное благо.Хуже того, они переупаковывают стремление к прибыли как общественное благо. Мы приближаемся к пику волны, нижней стороной которой является новая этика манипуляции, маркетинга, почти полное отсутствие конфиденциальности ».
- «То, что мы видим уже сегодня, — это то, что на практике такие вещи, как« дифференцированное ценообразование », не помогают потребителю; это помогает компании, которая продает вещи и т. д. »
- «Отдельные люди будут пастись, как скот, с предсказуемо разрушительными последствиями для верховенства закона, социальной справедливости и экономики.”
- «Есть стимул только для дальнейшего сокрытия присутствия и операций алгоритмического формирования коммуникационных процессов».
- «Алгоритмы… усиливают негативное влияние пробелов и исключений данных».
- «Алгоритмы имеют возможность формировать индивидуальные решения, даже не зная их, что дает тем, кто контролирует алгоритмы, несправедливое положение власти».
- «Тот факт, что с помощью алгоритмов можно использовать Интернет для почти чтения наших мыслей, означает, [что] те, кто имеет доступ к алгоритмам и их базам данных, имеют огромные возможности для манипулирования большими группами населения.”
- «Пугает отсутствие подотчетности и полная непрозрачность».
- «Судя по утилитарным метрикам, у алгоритмического принятия решений нет недостатков; тот факт, что это приводит к постоянной несправедливости по отношению к тем самым классам меньшинств, которые он создает, будет проигнорирован. Общее Благо стало дискредитированным, устаревшим пережитком Прошлого ».
- «В экономике, в которой все больше доминирует крошечная, очень привилегированная и изолированная часть населения, это будет в значительной степени воспроизводить неравенство в их интересах.Критика будет преуменьшена и отвергнута из-за того, что весь процесс прикрывается цифровой «логикой» ».
- «Алгоритмы — это новое золото, и трудно объяснить, почему средний« хороший »расходится с индивидуальным« хорошим »».
- «Мы будем интерпретировать негативное индивидуальное воздействие как необходимый побочный ущерб от« прогресса »».
- «Это убьет местный интеллект, местные навыки, языки меньшинств, местное предпринимательство, потому что большая часть доступных ресурсов будет истощена глобальными конкурентами.”
- «В прошлом алгоритмы создавались программистом. В будущем они, вероятно, будут развиваться с помощью интеллектуальных / обучающихся машин…. Люди потеряют свободу выбора в этом мире ».
- «Будет только хуже, потому что нет« кризиса », на который нужно реагировать, и, следовательно, нет не только мотивации к изменениям, но и всех причин для продолжения, особенно со стороны заинтересованных влиятельных кругов. Нас ждет кошмар ».
- «Веб 2.0 обеспечивает больше удобства для граждан, которым нужно отвезти домой, но в то же время — и было бы наивно думать, что это совпадение — он также является монетизированным, корпоративным, лишающим возможности и каннибализирующим предвестником Конца времен.(Я преувеличиваю для эффекта. Но ненамного.) »
Здесь связаны две нити мышления. Во-первых, создатели алгоритмов (авторы кода), даже если они стремятся к инклюзивности, объективности и нейтральности, встраивают в свои творения свои собственные взгляды и ценности. Во-вторых, наборы данных, к которым применяются алгоритмы, имеют свои ограничения и недостатки. Даже наборы данных с миллиардами единиц информации не отражают полноты жизни людей и разнообразия их опыта.Более того, сами наборы данных несовершенны, потому что они не содержат входных данных от всех или репрезентативной выборки всех. В этих ответах раскрываются две темы:
Джастин Райх , исполнительный директор лаборатории обучающих систем Массачусетского технологического института, заметил: «Алгоритмы будут разрабатываться в первую очередь белыми и азиатскими мужчинами — на основе данных, выбранных теми же привилегированными участниками — для пользы потребителей, подобных им самим. Большинство людей, занимающих высокие посты, сочтут эти новые инструменты удобными, безопасными и полезными.Вред от новых технологий больше всего пострадает те, кто уже находится в неблагоприятном положении в обществе, где рекламные алгоритмы предлагают объявления о залоге, предполагающие, что читатели являются преступниками, заявки на получение ссуды, которые наказывают людей за доверенных лиц, настолько связанных с расой, что они эффективно наказывают людей на основе расы, и похожие проблемы ».
Дадли Айриш , инженер-программист, заметил: «Все, позвольте мне повторить, , все данных обучения содержат ошибки. По большей части это связано либо с расой, либо с классом, с изрядной долей простого наказания людей за то, что они не используют стандартный диалект английского языка.Перефразируя Иммануила Канта, из кривых бревен этих наборов данных никогда не было сделано ничего прямого ».
Выборка цитат других респондентов, связанных с этой темой (подробности см. В полном тексте отчета):
Одной из величайших проблем следующей эпохи будет балансировка защиты интеллектуальной собственности в алгоритмах с защитой субъектов этих алгоритмов от несправедливой дискриминации и социальной инженерии.
- «Алгоритмы по определению обезличены и основаны на общих данных и обобщенных предположениях.Люди, пишущие алгоритмы, даже те, которые основаны на данных, не являются репрезентативной подмножеством населения ».
- «Если вы начнете с места неравенства и используете алгоритмы, чтобы решить, какой вероятный исход для человека / системы, вы неизбежно усилите неравенство».
- «Со всеми нами будут плохо обращаться как с более однородными, чем мы есть».
- «Результатом может быть институционализация предвзятых и вредных решений под предлогом:« Решение принял компьютер, поэтому мы должны его принять.’”
- «Алгоритмы будут отражать предвзятое мышление людей. Мусор на входе, мусор на выходе. Это затронет многие аспекты жизни, но лишь немногим поможет. Надзор будет очень трудным или невозможным ».
- «Алгоритмы ценят эффективность выше правильности или справедливости, и со временем их эволюция продолжит те же приоритеты, которые изначально сформулировали их».
- «Одной из величайших задач следующей эпохи будет балансировка защиты интеллектуальной собственности в алгоритмах с защитой субъектов этих алгоритмов от несправедливой дискриминации и социальной инженерии.”
- «Алгоритмы претендуют на то, чтобы быть справедливыми, рациональными и беспристрастными, но просто навязывают предрассудки, не обращаясь за помощью».
- «Если алгоритмы в основном не имеют открытый исходный код и, как таковые, могут быть изменены по отзывам пользователей в некоторой справедливой манере, то власть, с которой вероятные производители алгоритмов (корпорации и правительства) должны делать выбор, благоприятный для себя, будь то в условиях использования Интернета или договоренности о приверженности или политические предубеждения привнесут в алгоритмы как сознательную, так и бессознательную предвзятость.”
В ответах многих респондентов были очевидны две взаимосвязанные идеи об общественных делениях. Во-первых, они предсказали, что будущее, основанное на алгоритмах, увеличит разрыв между разбирающимися в цифровых технологиях (преимущественно самыми обеспеченными, которые являются наиболее желаемой демографической группой в новой информационной экосистеме) и теми, кто не настолько связан или не может участвовать. . Во-вторых, они сказали, что социальное и политическое разделение будет поддерживаться алгоритмами, поскольку категоризация и классификации, основанные на алгоритмах, направляют людей в эхо-камеры повторяющегося и усиленного медиа и политического контента.Два наглядных ответа:
Райан Хейс , владелец Fit to Tweet, прокомментировал: «Двадцать лет назад мы говорили о« цифровом разрыве », когда люди имеют доступ к компьютеру дома по сравнению с теми, у кого его нет, или теми, у кого есть доступ к нему. Интернет против тех, кто этого не сделал…. Однако через десять лет жизнь человека, чьи возможности и восприятие мира дополнены датчиками, обрабатываются мощным ИИ и подключен к огромным объемам данных, будет сильно отличаться от жизни тех, у кого нет доступа. к этим инструментам или знанию того, как их использовать.И этот разрыв будет сохраняться постоянно, когда те, у кого меньше возможностей, будут более уязвимыми во многих отношениях для тех, у кого больше ».
Адам Гисмонди , приглашенный ученый из Бостонского колледжа, написал: «Я опасаюсь, что, поскольку пользователи изолированы в определенных идеологических областях, человеческая способность к сочувствию может пострадать. Сопротивление противоположным точкам зрения бросает нам вызов, и если мы сможем (активно или пассивно) избегать других с другими точками зрения, это негативно повлияет на наше общество.Будет интересно увидеть, какие функции наши крупные компании в области социальных сетей добавят в ближайшие годы, поскольку они будут иметь огромную власть над структурой информационного потока ».
Выборка цитат других респондентов, связанных с этой темой (подробности см. В полном тексте отчета):
Общий эффект для некоторых людей будет положительным. Это будет плохо для бедных и необразованных. В результате цифровой разрыв и неравенство в уровне благосостояния будут расти.Это будет чистым негативом для общества.
- «Если нынешний экономический порядок останется на месте, то я не вижу роста алгоритмов, основанных на данных, которые принесут большую пользу кому-либо, кроме самых богатых в обществе».
- «Предположительно, социальное неравенство станет овеществленным».
- «Главный риск состоит в том, что менее регулярные пользователи, особенно те, которые объединяются на одном или двух сайтах или платформах, не разовьют эту функцию навигации и выбора и окажутся в невыгодном положении.”
- «Алгоритмы делают дискриминацию более эффективной и обеззараженной. Положительный эффект будет заключаться в увеличении прибыли для организаций, способных избежать рисков и затрат. Негативные последствия будут иметь все, что алгоритмы сочтут рискованными или менее прибыльными ».
- «Общество будет расслоено в зависимости от того, какое доверие / поставщик удостоверений личности может позволить себе / иметь право работать. Уровень конфиденциальности и защиты будет разным. Лоис Макмастер [Буджолд] Jackson’s Whole внезапно кажется немного более пугающе реалистичным.”
- «У нас есть радикально расходящиеся наборы ценностей, политических и других, и алгоритмы всегда основаны на системах ценностей их создателей. Таким образом, сценарий представляет собой один из огромных открытий возможностей — экономических и иных — под контролем либо таких, как Цукерберг, либо седых движителей глобального капитала, либо… ».
- «Общий эффект будет положительным для некоторых людей. Это будет плохо для бедных и необразованных. В результате цифровой разрыв и неравенство в уровне благосостояния будут расти.Это будет чистым негативом для общества ».
- «Расовая изоляция в потребительском таргетинге. Исключение по признаку пола в таргетинге на потребителей. Исключение класса в таргетинге на потребителей…. Националистическое исключение в потребительском таргетинге ».
- «Если алгоритмы, управляющие потоком новостей, подавляют противоречивую информацию — информацию, которая бросает вызов предположениям и ценностям отдельных людей — мы можем увидеть усиление крайностей разделения мировоззрений среди быстро расходящихся субпопуляций».
- «Возможно, мы движемся к потокам информации с наименьшим общим знаменателем.”
- «Эффективность и приятность, а также серотонин, которые исходят от предписаний, сильно переоценены. Важно сохранить в нашей жизни некоторый хаос ».
Ряд участников этого опроса выразили озабоченность по поводу изменений в информационных диетах общественности, «атомизации СМИ», чрезмерного акцента на крайних, уродливых, странных новостях и предпочтения «правдивости» над чем-то еще. фактический материал, который может иметь жизненно важное значение для понимания того, как быть ответственным гражданином мира.
Тема 6: Безработица вырастетРаспространение искусственного интеллекта (ИИ) может вызвать серьезную безработицу и все ее последствия.
Анонимный генеральный директор сказал: «Если задача может быть эффективно представлена алгоритмом, то ее можно легко выполнить с помощью машины. Негативная тенденция, которую я здесь вижу, заключается в том, что — с развитием алгоритма — люди будут заменены машинами / компьютерами для выполнения многих работ / задач. Какая же тогда будет судьба Человека? »
Выборка цитат других респондентов, связанных с этой темой (подробности см. В полном тексте отчета):
Я предвижу, что алгоритмы заменят почти всех рабочих без реальных возможностей для замененных людей.
- «Искусственный интеллект и роботы могут подорвать рабочую силу до потенциальной 100% безработицы среди людей. Они будут умнее, эффективнее, продуктивнее и дешевле, поэтому для корпораций и бизнеса имеет смысл двигаться в этом направлении ».
- «Значительный рост производительности за счет автоматизации приведет к увеличению неравенства между рабочими и владельцами капитала».
- «Современное западное общество построено на социальной модели, согласно которой Капитал обменивается на Труд для обеспечения экономического роста.Если лейбористы больше не участвуют в этом обмене, последствия будут огромными ».
- «Отсутствие работы, рост населения и меньшая потребность в автономном функционировании среднестатистического человека. Какая часть этого теплая и нечеткая? »
- «Я предвижу, что алгоритмы заменят почти всех рабочих без реальных возможностей для замененных людей».
- «В долгосрочной перспективе это может быть хорошо для людей, если они откажутся от малоценных повторяющихся задач и мотивируют их выполнять те, которые создают более высокую ценность.”
- «Надеюсь, страны ответят введением форм минимального гарантированного прожиточного минимума и бесплатного образования после K-12; в противном случае самые умные будут использовать онлайн-ресурсы, чтобы быстро превзойти обычных людей, а самые богатые будут использовать свою экономическую мощь для получения большего политического преимущества ».
Респонденты этого опроса предложили различные идеи о том, как отдельные люди и культура в целом могут реагировать на алгоритмизацию жизни.Они выступали за то, чтобы общественное образование воспитывало у широкой публики грамотность о том, как работают алгоритмы. Они также отметили, что те, кто создает и развивает алгоритмы, не несут ответственности перед обществом, и утверждали, что должен быть какой-то метод, с помощью которого они несут ответственность. Комментарии представителя:
Сьюзан Этлингер , отраслевой аналитик Altimeter Group, сказала: «Так же, как мы все чаще хотим знать место и условия производства нашей еды и одежды, мы должны задаться вопросом, как принимаются наши данные и решения.Какова цепочка поставок этой информации? Есть ли четкое руководство и контрольный журнал? Были ли предположения основаны на частичной информации, ошибочных источниках или нерелевантных контрольных показателях? Достаточно ли мы обучили наши данные? Были ли задействованы нужные заинтересованные стороны, и чему мы научились на своих ошибках? Результатом всего этого является то, что в следующем десятилетии весь наш способ управления организациями будет перевернут. Способность создавать и изменять реальность будет заключаться в технологиях, которые лишь немногие действительно понимают.Итак, чтобы гарантировать, что мы успешно используем алгоритмы, будь то для финансовой или человеческой выгоды, или для того и другого, нам необходимы структуры управления и подотчетности. Легче сказать, чем сделать, но если когда-либо было время объединить самые умные умы в отрасли с самыми умными умами в академических кругах для решения этой проблемы, то самое время ».
Крис Кутарна , автор Age of Discovery и сотрудник Оксфордской школы Мартина, писал: «Алгоритмы — это явная форма эвристики, способ упорядочивания определенных выборов и решений, чтобы мы не постоянно пили из огня. гидрант сенсорных входов.Эта стратегия выживания всегда развивалась вместе с человечеством и со сложностью наших социальных систем и сред данных. Явное осознание наших упрощающих предположений и эвристики — важный момент, на котором наш интеллект и влияние созревают. Что изменилось сейчас, так это растущие возможности явного программирования этой эвристики для выполнения упрощения за пределами человеческого разума, внутри машин и платформ, которые доставляют данные миллиардам индивидуумов.Нам потребуется время, чтобы развить мудрость и этику, чтобы понять и направить эту силу. Между тем, мы, честно говоря, не знаем, насколько хорошо и безопасно это применяется. Первым и наиболее важным шагом является повышение социальной осведомленности о том, кто, как и где это применяется ».
Выборка цитат других респондентов, связанных с этой темой (подробности см. В полном тексте отчета):
Нам нужна какая-то радужная коалиция, чтобы выработать правила, которые не позволят встроенной предвзятости и групповому мышлению влиять на результаты.
- «Кто охраняет стражей? И, в частности, какие «опекуны» что и для кого делают, используя обширный массив информации? »
- «В капитализме нет стимулов бороться с пузырями фильтров, профилированием и негативными эффектами, а государственное / международное управление практически бессильно».
- «Механизмы надзора могут включать более строгие протоколы доступа; подписать этические кодексы для цифрового управления и назначить хранителей информации; онлайн-отслеживание повторного использования информации отдельными лицами; функции отказа; установка сроков доступа; запрещены продажи третьим лицам без согласия.”
- «Если не приложить больше усилий, чтобы сделать настоящую информационную грамотность частью базового образования, будет класс людей, которые могут использовать алгоритмы, и класс, используемый алгоритмами».
- «Потребители должны быть информированы, образованы и, по сути, должны быть активными в своей ориентации на что-то тонкое. В этом суть компьютерной грамотности в 21 веке ».
- «Решающее значение будет иметь поиск основы для обеспечения прозрачности и оценки результатов. Также необходимо иметь широкое представление об алгоритмической «цепочке создания стоимости», и эти данные являются ключевым фактором и не менее ценны, чем алгоритм, который они обучают.”
- «Алгоритмическая подотчетность — это масштабный проект, требующий навыков теоретиков и практиков, юристов, социологов, журналистов и других. Это неотложная глобальная задача, за поддержкой которой нуждаются целеустремленные и мобилизованные эксперты ».
- «В конце концов, закон об ответственности за программное обеспечение будет признан нуждающимся в реформе, поскольку прямо сейчас программисты могут избежать наказания за убийство».
- «Закон непредвиденных последствий указывает на то, что возрастающие уровни социальной и технической сложности, закодированные в алгоритмах, гарантируют, что произойдут непредвиденные катастрофические события — вероятно, не те, о которых мы беспокоились.”
- «В конечном итоге мы будем развивать механизмы, чтобы дать потребителям больший контроль, что должно привести к большему пониманию и доверию…. Противодействие будет неизбежным, но необходимым и в конечном итоге приведет к балансу, который будет более выгодным для всех нас ».
- «Нам нужна какая-то радужная коалиция, чтобы выработать правила, которые не позволят встроенной предвзятости и групповому мышлению влиять на результаты».
- «Алгоритмы слишком сложны, чтобы быть прозрачными или полностью безопасными.Эти факторы будут и дальше влиять на направление нашей культуры ».
- «Я ожидаю, что будут разработаны метаалгоритмы, чтобы попытаться противостоять негативам алгоритмов».
Анонимные респонденты поделились следующими комментариями по теме:
- «Золотое правило: тот, кто владеет золотом, устанавливает правила».
- «Плохие парни, кажется, намного опережают хороших парней».
- «Сопротивление бесполезно».
- «Алгоритмы определяются людьми, которые хотят продать вам что-то (товары, услуги, идеологии) и будут искажать результаты в пользу этого.”
- «Алгоритмы, безусловно, полезны, но, вероятно, недостаточны, если они не сочетаются с человеческими знаниями и политической волей».
Наконец, это предсказание анонимного участника, который видит вероятную конечную точку как одну из двух крайностей:
«Общий удар будет утопией или концом человеческого рода; золотой середины не предвидится. Я подозреваю, что это утопия, учитывая, что мы пережили по крайней мере один экзистенциальный кризис (ядерный) в прошлом и что наш путь к миру, хотя и медленный, но прочный.”
Мнения ключевых экспертов о будущем влиянии алгоритмов
Ниже приводится краткая подборка комментариев нескольких из многих ведущих аналитиков, участвовавших в опросе:
«Направление людей к полезной информации»
Винтон Серф , член Зала славы Интернета, вице-президент и главный евангелист Интернета в Google: «Алгоритмы в основном предназначены для того, чтобы направлять людей к полезной информации, и я считаю это чистым позитивом».
Остерегайтесь «непроверенных, неотслеживаемых, не уточненных моделей»
Кори Доктороу , писатель, активист по информатике в MIT Media Lab и совладелец Boing Boing, ответил: «Выбор в этом вопросе слишком ограничен.Правильный ответ: «Если мы будем строго использовать модели машинного обучения, они улучшат ситуацию; если мы будем использовать их, чтобы скрыть несправедливость прикрытием машинного эмпиризма, будет хуже ». Amazon использует машинное обучение для оптимизации своих стратегий продаж. Когда они вносят изменение, они делают прогноз о его вероятном результате в продажах, а затем используют данные о продажах из этого прогноза для уточнения модели. Подрядчики в пенитенциарной системе Америки используют машинное обучение для оптимизации рекомендаций по вынесению приговора.Их модель также делает прогнозы о вероятных исходах (при повторном преступлении), но не отслеживает, дает ли их модель хорошие прогнозы, и нет никаких уточнений. Это позволяет им делать ужасные прогнозы без последствий. Эта характеристика непроверенных, неотслеживаемых, неотработанных моделей присутствует во многих местах: в списках наблюдения террористов; модели профилирования для уничтожения дронов; современные системы красной черты / Джима Кроу, ограничивающие кредит; алгоритмы прогнозирования полиции; и т. д. Если мы санкционируем или установим нормативные ограничения в отношении методов, которые исправляют это подлое поведение, то мы можем использовать эмпиризм для исправления предвзятости и повышения справедливости и беспристрастности фирм и государства (а также государственно-частных партнерств).Если же, с другой стороны, практика продолжается как есть, она заканчивается своего рода кошмаром в кафкианском стиле, когда мы делаем что-то «потому что компьютер так говорит», и мы называем это справедливым, «потому что компьютер так говорит».
«Общая тенденция к положительным результатам будет преобладать»
Джонатан Грудин , главный исследователь Microsoft, сказал: «Мы наконец достигли состояния симбиоза или партнерства с технологиями. Алгоритмы не контролируются; люди создают и корректируют их.Однако положительные эффекты для одного человека могут быть отрицательными для другого, а отследить причины и следствия может быть сложно, поэтому нам придется постоянно работать, чтобы понять и скорректировать баланс. В конечном итоге большинство ключевых решений будут политическими, и я оптимистично уверен, что общая тенденция к положительным результатам будет преобладать, учитывая огромный потенциал роста использования технологий. Меня меньше беспокоит преобладание плохих актеров, чем непреднамеренные и незаметные негативные последствия, подкрадывающиеся к нам.”
«Безликие системы больше заинтересованы в наблюдении и рекламе, чем в реальных услугах»
Док Сирлс , журналист, спикер и директор проекта VRM в Центре Беркмана Гарвардского университета, написал: «Самая большая проблема с алгоритмами сегодня — это природа черного ящика некоторых из самых крупных и важных алгоритмов. Примером может служить тот, который используется Dun & Bradstreet для определения кредитоспособности. Методы, лежащие в основе принимаемых им решений, совершенно непонятны не только для тех, чья репутация оценивается, но и для большинства людей, управляющих алгоритмом.Только программисты могут точно знать, что делает алгоритм, и даже они могут не понимать, что происходит. В некоторых случаях невозможно точно сказать, почему и как достигается решение алгоритма. И даже если ответственные стороны точно знают, как работает алгоритм, они назовут это коммерческой тайной и будут скрывать. Уже есть отпор непрозрачности алгоритмов, а иногда и огромных систем, стоящих за ними. Многие законодатели и регулирующие органы также хотят, чтобы, например, обширные серверные фермы Google и Facebook были более известны и поняты.Эти объекты имеют размер, масштаб и в некотором смысле важность атомных электростанций и нефтеперерабатывающих заводов, но почти не контролируются регулирующими органами. Это изменится. В то же время изменится размер сущностей, использующих алгоритмы. Они будут становиться все меньше и многочисленнее, поскольку большая ответственность за жизнь людей уходит от безликих систем, более заинтересованных в наблюдении и рекламе, чем в фактическом обслуживании ».
Призыв к #AlgorithmicTransparency
Марк Ротенберг , исполнительный директор Информационного центра электронной конфиденциальности, заметил: «Основная проблема с алгоритмическим принятием решений — это отсутствие подотчетности.Машины буквально превратились в черные ящики — даже разработчики и операторы не до конца понимают, как производятся выходные данные. Проблема усугубляется «цифровым сциентизмом» (моя фраза) — непоколебимой верой в надежность больших данных. «Алгоритмическая прозрачность» должна стать фундаментальным требованием для принятия всех решений на основе ИИ. Существует более серьезная проблема с увеличением результатов, основанных на алгоритмах, за пределами риска ошибки или дискриминации — возрастающая непрозрачность принятия решений и растущее отсутствие подотчетности со стороны человека.Нам нужно противостоять реальности, что власть и власть переходят от людей к машинам. Вот почему #AlgorithmicTransparency — одна из величайших проблем нашей эпохи ».
Данные «будут использоваться не по назначению»
Ричард Столлман , член Зала славы Интернета и президент Фонда свободного программного обеспечения, сказал: «Люди будут вынуждены передать все личные данные, которые будут оценивать алгоритмы. Накопленные данные будут использоваться различными способами — компаниями, которые их собирают, мошенниками, взломщиками, которые крадут данные с сайта компании, и государством с помощью писем национальной безопасности.Я слышал, что люди, которые отказываются от использования Facebook, подвергаются некоторой дискриминации. Возможно, скоро им будет отказано во въезде, например, в США. Даже если США на самом деле этого не сделают, люди будут опасаться, что они это сделают. Сравните это с оценкой китайского социального послушания для интернет-пользователей ».
Люди должны жить с результатами алгоритмов, «даже если они боятся рисков»
Дэвид Кларк , член Зала славы Интернета и старший научный сотрудник Массачусетского технологического института, ответил: «Я вижу, что положительные результаты перевешивают отрицательные, но проблема будет в том, что определенные люди пострадают от отрицательных последствий, возможно, очень серьезных, и общество пострадает. должны решить, как бороться с этими результатами.Эти результаты, вероятно, будут различаться по характеру и по нашей способности понять, почему они произошли, и эта реальность напугает некоторых людей. Но, как мы видим сегодня, люди чувствуют, что они должны использовать Интернет, чтобы стать частью общества. Даже если они опасаются последствий, люди соглашаются с тем, что они должны жить с результатами этих алгоритмов, даже если они опасаются рисков ».
«Это затронет КАЖДУЮ область жизни. Каждый. Одинокий. One. ’
Баратунде Терстон , научный сотрудник MIT Media Lab, обозреватель Fast Company и бывший директор по цифровым технологиям The Onion, написал: «Основные положительные изменения: 1) Отговорка о незнании вещей значительно сократится по мере того, как информация станет еще более связанной и полный.2) Ошибки, возникающие в результате ошибок в человеческих суждениях, «знаниях» или времени реакции, будут значительно сокращены. Назовем это принципом «роботы управляют лучше людей». Сегодняшние водители будут ныть, но через 50 лет никто не захочет водить машину, если они смогут использовать это время, чтобы испытать неотличимую от реальности иммерсивную виртуальную среду, наполненную кучей ботов Бейонсе.
«3) Коррупция, которая существует сегодня в результате человеческого обмана, значительно сократится — взяток, взяточничества, кумовства.Если алгоритмы построены хорошо и надежно, возможность добавить эту неэффективность (например, нанять какого-нибудь идиота, потому что он ваш кузен) должна уменьшиться. 4) В целом, мы должны добиться гораздо более эффективного распределения ресурсов, включая дорогие (в долларах или экологических издержках) ресурсы, такие как ископаемое топливо. По сути, алгоритмическое понимание начнет влиять на дизайн наших домов, городов, транспортных сетей, уровни производства, обработку отходов и многое другое. В мире, где у каждого американца есть машина, которой она никогда не пользуется, много избыточности.Мы должны стать намного более энергоэффективными, если уменьшим дублирование процессов, создаваемых людьми.
«Но будут негативные изменения: 1) Увеличится скорость взаимодействия и объем обрабатываемой информации — все станет быстрее. Ни один из результатов повышения эффективности, вызванных технологиями, никогда не приводил к большему количеству досуга, отдыха или счастья. Мы просто будем больше делать покупки, больше работать, решать больше вещей, потому что наши возможности делать все это увеличатся. Это похоже на добавление полос на шоссе в качестве решения для управления дорожным движением.Когда вы делаете это, вы просто поощряете больше людей водить машину. Настоящая уловка состоит в том, чтобы не добавлять больше автомобильных полос, а построить мир, в котором меньше людей нуждаются или хотят водить машину.
«2) Будет алгоритмическое и ориентированное на данные угнетение. Учитывая, что эти системы будут созданы явно несовершенными и предвзятыми людьми, мы, вероятно, создадим новые и гораздо менее заметные формы дискриминации и угнетения. Создатели этих алгоритмов и сборщики данных, используемых для их тестирования и первичной обработки, не имеют ни малейшего представления о всестороннем понимании культуры, ценностей и разнообразия.Они забудут проверить свое распознавание изображений на темной коже или свои медицинские диагностические инструменты на азиатских женщинах или их транспортных моделях во время крупных спортивных мероприятий в сильном тумане. Мы предположим, что машины умнее, но мы поймем, что они такие же тупые, как и мы, но лучше скрывают это.
«3) Целые группы людей будут исключены, и они, скорее всего, не узнают о параллельной реальности, с которой они не сталкиваются. Это затронет все сферы жизни. Каждый. Одинокий. Один.»
Призыв к «реформе отрасли» и «более разумным режимам регулирования»
Технолог Анил Даш сказал: «Лучшие элементы алгоритмического влияния сделают жизнь лучше для многих людей, но худшие излишества действительно непредсказуемо нанесут вред наиболее маргинализованным группам.Нам потребуется как отраслевая реформа внутри технологических компаний, создающих эти системы, так и гораздо более продуманные режимы регулирования, чтобы справиться со сложными возникающими проблемами ».
«Мы — общество, которое берет свое жизненное направление с ладони»
Джон Марков , автор книги Машины любящей благодати: поиск точек соприкосновения между людьми и роботами и старший писатель The New York Times, заметил: «Меня больше всего беспокоит отсутствие алгоритмической прозрачности.Все чаще мы являемся обществом, которое берет свое жизненное направление с ладони — наших смартфонов. Руководство по всему, от лучшего корейского барбекю до того, кого выбрать для супруга, генерируется алгоритмически. Однако мало что известно о ценностях и мотивах разработчиков этих систем ».
Исправить «созданный нами организационный, общественный и политический климат»
Дана Бойд , основатель Data & Society, прокомментировал: «Алгоритм сам по себе ничего не значит.На карту поставлено то, как создается и используется «модель». Модель состоит из набора данных (например, обучающих данных в системе машинного обучения) вместе с алгоритмом. Алгоритм — ничто без данных. Но модель тоже ничто без варианта использования. Эту же технологию можно использовать для расширения прав и возможностей людей (например, для выявления людей из группы риска) или для нанесения им вреда. Все зависит от того, кто использует информацию для каких целей (например, социальные службы или полиция). Я с сожалением подозреваю, что из-за нездоровой динамики власти в нашем обществе результаты будут гораздо более проблематичными — механизмы, ограничивающие возможности людей, сегрегация и разделение людей на неравные группы, а также использование слежки, чтобы вынудить людей попасть в более тяжелые ситуации.Но так быть не должно. То, что поставлено на карту, не имеет ничего общего с технологиями; это напрямую связано с созданным нами организационным, общественным и политическим климатом ».
У нас уже есть алгоритмическая проблема: Кредитный рейтинг
Хеннинг Шульцринне , член Зала славы Интернета и профессор Колумбийского университета, отметил: «У нас уже были первые индикаторы трудностей с алгоритмическим принятием решений, а именно кредитные рейтинги. Их вычисления непрозрачны, и затем они использовались для всех видов целей, далеких от предоставления ссуд, таких как принятие решений о приеме на работу или сегментирование клиентов для различного обращения.Они приводят к утечке большого количества частной информации и раскрываются, намеренно или по неосторожности, организациям, которые действуют не в лучших интересах потребителя. Исправление данных сложно и требует много времени, поэтому они вряд ли будут доступны лицам с ограниченными ресурсами. Неясно, как предлагаемые алгоритмы решают эти хорошо известные проблемы, учитывая, что они часто не регулируются никакими правилами. Во многих областях входные переменные либо грубые (и часто являются косвенными показателями гонки), например домашний почтовый индекс, либо крайне инвазивны, например, поминутно отслеживают поведение при вождении.В целом, учитывая отсутствие законов о конфиденциальности, у организаций, которые могут наблюдать за нашим поведением, например у рекламных брокеров, есть все стимулы для монетизации поведенческой информации. Как минимум, учреждения, оказывающие широкое влияние на общество, должны будут раскрывать используемые входные переменные, то, как они влияют на результат и подлежат проверке, а не только индивидуальные исправления в записях. Честный, поддающийся проверке анализ затрат и выгод, измеряющий повышенную эффективность или лучшие результаты в отношении потери конфиденциальности или непреднамеренной дискриминации, позволил бы избежать принятия решений типа «поверьте нам, это будет замечательно, и это AI!».”
Алгоритмы «создают ценность и сокращают расходы» и будут улучшены
Роберт Аткинсон , президент Фонда информационных технологий и инноваций, сказал: «Как практически все технологии прошлого, алгоритмы будут создавать ценность и сокращать затраты, намного превышающие любые затраты. Более того, по мере того, как организации и общество приобретут больше опыта в использовании алгоритмов, появятся естественные силы для улучшения и ограничения любых потенциальных проблем ».
«Цель должна заключаться в том, чтобы помочь людям подвергнуть сомнению авторитет»
Джудит Донат из Гарвардского центра Беркмана Кляйна по Интернету и обществу ответила: «Данные могут быть неполными или неправильными, а алгоритмы могут содержать ложные предположения.Опасность увеличения использования алгоритмов заключается в том, что процесс принятия решений становится оракульным: непрозрачным, но бесспорным. Решение — дизайн. Процесс должен быть не черным ящиком, в который мы вводим данные и получаем ответ, а прозрачным процессом, предназначенным не только для получения результата, но и для объяснения того, как он пришел к этому результату. Системы должны иметь возможность создавать четкий, разборчивый текст и графику, которые помогут пользователям — читателям, редакторам, врачам, пациентам, соискателям ссуды, избирателям и т. Д.- понять, как было принято решение. Системы должны быть интерактивными, чтобы люди могли исследовать, как изменение данных, предположений и правил повлияет на результаты. Алгоритм не должен быть новым авторитетом; цель должна состоять в том, чтобы помочь людям усомниться в авторитете ».
Делайте больше для обучения программистов с разносторонним мировоззрением
Эми Уэбб , футуролог и генеральный директор Future Today Institute, написала: «Чтобы наши машины думали, мы, люди, должны помогать им учиться. Наряду с другими предварительно запрограммированными наборами данных для обучения наши личные данные используются, чтобы помочь машинам принимать решения.Однако нет стандартных этических требований или предписаний для разнообразия, и в результате мы уже начинаем видеть более мрачное будущее, разворачивающееся в настоящем. Приведу слишком много примеров, чтобы привести их, но я перечислю несколько: потенциальные заемщики, отказавшиеся от банков, лица с черными именами, которые видят себя в рекламных объявлениях о поисках криминального прошлого, людям, которым отказывают в страховании и медицинском обслуживании. В большинстве случаев эти проблемы возникают из-за ограниченного мировоззрения, а не потому, что кодировщики по своей природе расисты.У алгоритмов есть отвратительная привычка делать именно то, что мы им говорим. Итак, что происходит, когда мы приказываем нашим машинам учиться у нас? И начать принимать решения самостоятельно? Единственный способ решить проблему алгоритмической дискриминации в будущем — это инвестировать в настоящее. Подавляющее большинство кодеров — белые и мужчины. Корпорации должны делать больше, чем публиковать отчеты о прозрачности своих сотрудников — они должны активно инвестировать в женщин и цветных людей, которые скоро станут следующим поколением работников.И когда настанет день, они должны выбрать новых сотрудников как по своим навыкам, так и по своему мировоззрению. Университеты должны удвоить свои усилия не только для набора разнообразных студентов — администраторы и преподаватели должны поддерживать их до окончания учебы. И не только студенты. Университеты должны диверсифицировать свои факультеты, чтобы студенты видели свое отражение в своих учителях ».
Влияние в краткосрочной перспективе будет отрицательным; в долгосрочной перспективе будет положительным
Ямайс Кашио , выдающийся научный сотрудник Института будущего, заметил: «Влияние алгоритмов на раннем этапе перехода будет в целом негативным, поскольку мы (люди, человеческое общество и экономика) пытаемся научиться интегрировать эти технологии. .Предвзятость, ошибка, коррупция и многое другое сделают реализацию алгоритмических систем хрупкой и сравнительно легко сделают использование этих неудач в целях злого умысла, политической власти или лулзов. К тому времени, когда переход состоится — вероятно, через 20 лет, а может и чуть меньше — многие из этих проблем будут преодолены, и дополнительные адаптации (например, потенциальное повышение универсального базового дохода) начнут приносить общую пользу. Другими словами, краткосрочный (это десятилетие) отрицательный, долгосрочный (следующее десятилетие) положительный.”
История будет продолжаться
Майк Либхольд , старший научный сотрудник и выдающийся научный сотрудник Института будущего, прокомментировал: «Будущее влияние алгоритмов на нашу жизнь будет меняться со временем по мере того, как мы осваиваем новые компетенции. Темпы принятия и распространения будут очень неравномерными и будут зависеть от естественных переменных географических регионов, окружающей среды, экономики, инфраструктуры, политики, социологии, психологии и, что наиболее важно, образования. Рост преимуществ машинного интеллекта для человека будет больше всего сдерживаться нашей коллективной компетенцией в области проектирования и эффективного взаимодействия с машинами.Как минимум, нам нужно научиться формировать эффективные вопросы и задачи для машин, как интерпретировать ответы и как просто обнаруживать и исправлять машинную ошибку ».
Сделайте алгоритмы «понятными, предсказуемыми и управляемыми»
Бен Шнейдерман , профессор информатики в Университете Мэриленда, писал: «Хорошо спроектированные алгоритмы усиливают человеческие способности, но они должны быть понятными, предсказуемыми и управляемыми. Это означает, что они должны быть прозрачными, чтобы пользователи могли понимать последствия их использования, и они должны подвергаться постоянной оценке, чтобы критики могли оценить предвзятость и ошибки.Каждой системе требуется ответственное контактное лицо / организация, которая поддерживает / обновляет алгоритм и социальную структуру, чтобы сообщество пользователей могло обсуждать свой опыт ».
В ключевых случаях передать управление пользователю
Дэвид Вайнбергер , старший научный сотрудник Гарвардского центра Беркмана Кляйна по вопросам Интернета и общества, сказал: «Масштабный алгоритмический анализ может выявить предсказательные и полезные взаимосвязи, даже если они находятся за пределами человеческих возможностей их понять.Это нормально, когда ставки низкие, например, рекомендация книги. Там, где ставки высоки, например, при алгоритмической фильтрации новостной ленты, нам нужно быть гораздо более осторожными, особенно когда стимулы для создателей не соответствуют интересам отдельных лиц или более широким социальным благам. В этих последних случаях рекомендуется предоставить пользователю больший контроль ».
Что такое алгоритм | SpringerLink
Cleland, CE (2001). Рецепты, алгоритмы, программы. Minds and Machines , 11 , 219–237.
Артикул Google Scholar
Додиг-Црнкович, Г. (2011). Значение моделей вычислений, от модели Тьюринга до естественных вычислений. Minds and Machines , 21 , 301–322. DOI: 10.1007 / s11023-011-9235-1.
Артикул Google Scholar
GameTable Online Inc. (2013).Правила: шашки. Доступно в Интернете по адресу https://www.gametableonline.com/pop_rules.php?gid=20.
Гарднер М. (1970). Математические игры — фантастические комбинации нового пасьянса Джона Конвея «Жизнь». Scientific American , 223 , 120–123.
Артикул Google Scholar
Гуревич Ю. (2000). Последовательные машины с абстрактными состояниями захватывают последовательные алгоритмы. Транзакции ACM в вычислительной логике (TOCL) , 1 (1), 77–111.
Артикул Google Scholar
Гуревич Ю. (2011). Что такое алгоритм? Доступно в Интернете по адресу http://research.microsoft.com/en-us/um/people/gurevich/Opera/209.pdf.
Hill, R.K. (2013). Что такое алгоритм, а что нет. Связь с ACM , 56 (6), 8–9. 10.1145 / 2461256.2461260. ISSN 0001-0782.
Артикул Google Scholar
Хопкрофт, Дж.E., & Ullman, J.D. (1979). Введение в теорию автоматов, языки и вычисления . Филиппины: ISBN издательства Addison-Wesley Publishing Co. 0-201-02988-X.
Google Scholar
Клини, Южная Каролина (1967). Математическая логика : Wiley. ISBN 0-471-49033-4.
Knuth, D.E. (1997). Искусство программирования, том 1 (3-е изд.): Фундаментальные алгоритмы . Редвуд-Сити: Addison Wesley Longman Publishing Co.Inc. ISBN 0-201-89683-4.
Google Scholar
Крейзель Г. (1967). Неформальные доказательства строгости и полноты. В: Лакатос И. (Ред.) Проблемы философии математики (Том 1. North-Holland Publishing Company, стр. 138–186).
Маккормик, Дж. (2012). Девять алгоритмов, изменивших мир . Принстон: Издательство Принстонского университета.
Google Scholar
Марков, А.А., Нагорный Н.М. (1988). Теория алгоритмов. Математика и ее приложения . Нидерланды: Спрингер. ISBN 978
27732.Google Scholar
Минский, М.Л. (1967). Вычисление: конечные и бесконечные машины . Верхняя река Сэдл: Prentice-Hall, Inc. ISBN 0-13-165563-9.
Google Scholar
Мощовакис, Ю.Н. (2002). Об основах теории алгоритмов.Доступно в Интернете по адресу http://www.math.ucla.edu/ynm/papers/foundalg.pdf.
Пиччинини, Г. (2007). Вычислительные механизмы. Философия науки , 74 (4), 501–526.
Артикул Google Scholar
Rapaport, W.J. (2012). Семиотические системы, компьютеры и разум: как познание может быть вычислением. Международный журнал знаков и семиотических систем , 2 (1), 32–71.
Артикул Google Scholar
Россер Б. (1939). Неформальное изложение доказательств теорем Гёделя и Чёрча. Журнал символической логики , 4 , 53–60, 6. DOI: 10.2307 / 2269059. ISSN 1943-5886. http://journals.cambridge.org/article_S0022481200035349.
Артикул Google Scholar
Зиг, В. (2008). Церковь без догм.В: Бенедикт Лве Купер, С. Б. и Сорби, А. (ред.) Новые вычислительные парадигмы: изменение представлений о том, что является вычислимым. Спрингер, Нью-Йорк; Лондон.
Тернер Р. (2011). Спецификация. Minds and Machines , 21 (2), 135–152. 10.1007 / s11023-011-9239-х. ISSN 0924-6495.
Артикул Google Scholar
Тернер Р. (2013). Философия информатики. В кн .: Залта, Э.(Ред.) Стэнфордская энциклопедия философии. Осенний выпуск 2013 года.
Успенский В.А., Семенов А.Л. (1981). Каковы достижения теории алгоритмов. В: Ершов А.П., Кнут Д.Е. (Ред.) Алгоритмы в современной математике и информатике, том 122 конспектов лекций по информатике. ISBN 978-3-540-11157-3. Springer, Berlin Heidelberg, (стр. 100–234), DOI 10.1007 / 3-540-11157-3_27, (появится в печати).
Варди, М. (2012). Что такое алгоритм? Связь с ACM , 55 (3).DOI: 10.1145 / 2093548.2093549.
Weizenbaum, J. (1966). Элиза — компьютерная программа для изучения естественного языка общения между человеком и машиной. Связь с ACM , 9 (1), 36–45. DOI: 10.1145 / 365153.365168. ISSN 0001-0782.
Артикул Google Scholar
Википедия (2013). Элиза — Википедия, бесплатная энциклопедия. http://en.wikipedia.org/wiki/ELIZA. По состоянию на 28 октября 2013 г.
Типы алгоритмов машинного обучения, которые вы должны знать | Дэвид Фумо
По просьбе моего друга Ришалдо в этом посте я собираюсь объяснить типы алгоритмов машинного обучения и когда вы должны использовать каждый из них. Я особенно думаю, что знакомство с типами алгоритмов машинного обучения — это как увидеть общую картину ИИ и какова цель всего, что делается в полевых условиях, и дать вам возможность лучше понять реальная проблема и разработать систему машинного обучения.
Термины, часто используемые в этом посте:
- Помеченные данные : данные, состоящие из набора из обучающих примеров, , где каждый пример представляет собой пару , состоящую из входа и желаемого выходного значения (также называемые контрольный сигнал, метки и т. д. )
- Классификация: Целью является прогнозирование дискретных значений, например {1,0}, {True, False}, {спам, а не спам}.
- Регрессия: Цель состоит в том, чтобы предсказать непрерывные значения, например.г. цены на дома.
Существуют некоторые варианты определения типов алгоритмов машинного обучения, но обычно их можно разделить на категории в соответствии с их назначением, и основные категории следующие:
- Контролируемое обучение
- Неконтролируемое обучение
- Полу-контролируемое обучение
- Обучение с подкреплением
- Мне нравится думать о контролируемом обучении с концепцией аппроксимации функций, где в основном мы обучаем алгоритм, а в конце процесса мы выбираем функцию, которая лучше всего описывает входные данные, те, которые для данного X дают наилучшую оценку y (X -> y).В большинстве случаев мы не можем определить истинную функцию, которая всегда делает правильные прогнозы, и другая причина заключается в том, что алгоритм полагается на предположение, сделанное людьми о том, как компьютер должен учиться, и эти предположения вносят предвзятость. Я объясню в другом посте.
- Здесь люди-эксперты действуют как учитель, где мы загружаем компьютер обучающими данными, содержащими ввод / предикторы, и показываем ему правильные ответы (вывод), и на основе данных компьютер должен быть в состоянии изучить закономерности.
- Алгоритмы контролируемого обучения пытаются моделировать взаимосвязи и зависимости между целевым выходом прогнозирования и входными функциями , чтобы мы могли предсказать выходные значения для новых данных на основе тех отношений, которые он узнал из предыдущих наборов данных.
Черновик
- Прогнозирующая модель
- мы пометили данные
- Основные типы контролируемых задач обучения включают проблемы регрессии и классификации
- Ближайший сосед
- Наивный Байес
- Деревья решений
- Линейная регрессия
- Поддержка Векторные машины (SVM)
- Нейронные сети
- Компьютер обучается с немаркированными данными.
- Здесь вообще нет учителя, на самом деле компьютер может научить вас чему-то новому после того, как изучит закономерности в данных, эти алгоритмы особенно полезны в тех случаях, когда эксперт-человек не знает, что искать в данных.
- — это семейство алгоритмов машинного обучения, которые в основном используются в обнаружении паттернов и описательном моделировании . Однако, , здесь нет выходных категорий или меток , на основе которых алгоритм может попытаться смоделировать отношения.Эти алгоритмы пытаются использовать методы для входных данных в шахту для правил , обнаружения шаблонов и суммируют и группируют точки данных , которые помогают в получении значимой информации и лучше описывают данные для пользователей.
Черновик
- Описательная модель
- Основные типы алгоритмов неконтролируемого обучения включают алгоритмов кластеризации и алгоритмов обучения ассоциативным правилам.
Список общих алгоритмов
- Кластеризация k-средних, правила ассоциации
В двух предыдущих типах либо нет меток для всех наблюдений в наборе данных, либо метки присутствуют для всех наблюдений.Полуконтролируемое обучение находится между этими двумя. Во многих практических ситуациях стоимость маркировки довольно высока, поскольку для этого требуются квалифицированные специалисты-люди. Таким образом, в отсутствие меток в большинстве наблюдений, но присутствующих в немногих, полууправляемые алгоритмы являются лучшими кандидатами для построения модели. В этих методах используется идея о том, что даже если членство в группах данных без метки неизвестно, эти данные несут важную информацию о параметрах группы.
Методнаправлен на использование наблюдений, полученных в результате взаимодействия с окружающей средой, для принятия действий, которые позволят максимизировать вознаграждение или минимизировать риск. Алгоритм обучения с подкреплением (называемый агентом) непрерывно итеративно учится у окружающей среды. В процессе агент учится на своем опыте в окружающей среде, пока не исследует весь диапазон возможных состояний.
R Обучение с усилением — это разновидность машинного обучения и, следовательно, ветвь искусственного интеллекта .Это позволяет машинам и программным агентам автоматически определять идеальное поведение в конкретном контексте, чтобы максимизировать его производительность. Чтобы агент узнал о своем поведении, требуется простая обратная связь с вознаграждением; это называется сигналом подкрепления.
T Вот много разных алгоритмов, которые решают эту проблему. Фактически, обучение с подкреплением определяется конкретным типом проблемы, и все его решения классифицируются как алгоритмы обучения с подкреплением.В задаче предполагается, что агент решает, какое действие лучше всего выбрать, исходя из своего текущего состояния. Когда этот шаг повторяется, проблема известна как Марковский процесс принятия решений .
Для создания интеллектуальных программ (также называемых агентами) обучение с подкреплением проходит через следующие этапы:
- Агент наблюдает за состоянием ввода.
- Функция принятия решения используется для того, чтобы агент выполнил действие.
- После выполнения действия агент получает вознаграждение или подкрепление от окружения.
- Сохраняется информация о награде в паре состояние-действие.
Список общих алгоритмов
- Q-Learning
- Temporal Difference (TD)
- Deep Adversarial Networks
Примеры использования:
Некоторые приложения алгоритмов обучения с подкреплением представляют собой компьютерные настольные игры (шахматы, Go), руки роботов и беспилотные автомобили.
Можно использовать разные критерии для классификации типов алгоритмов машинного обучения, но я думаю, что использование обучающей задачи отлично подходит для визуализации общей картины машинного обучения, и я считаю, что в соответствии с вашей проблемой и данными, которые у вас есть, вы можете легко решить если вы будете использовать контролируемое, неконтролируемое обучение или обучение с подкреплением.В следующих статьях я приведу больше примеров по каждому типу алгоритмов машинного обучения.
Это изображение с сайта en.proft.me ниже может вам помочь.
Дайте мне знать, что вы думаете по этому поводу. Если у вас есть предложения по теме, которую вы хотели бы здесь увидеть, свяжитесь с нами.
Last Thing
Если вам понравились записи, оставьте свои аплодисменты 👏, чтобы порекомендовать эту статью, чтобы ее могли увидеть другие.
Диагностика этического вреда в основных компонентах программного обеспечения — Университет Иллинойса, Урбана-Шампейн
TY — JOUR
T1 — Когда сам алгоритм является расистским
T2 — Диагностика этического вреда в основных компонентах программного обеспечения
AU — Sandvig, Christian
AU — Hamilton, Kevin
AU — Karahalios, Karrie
AU — Langbort, Cedric
PY — 2016/1/1
Y1 — 2016/1/1
N2 — Компьютерные алгоритмы систематизировать и выбирать информацию по широкому кругу приложений и отраслей, от результатов поиска до социальных сетей.Злоупотребление властью со стороны интернет-платформ привело к призывам к прозрачности алгоритмов и регулированию. Алгоритмы имеют особенно проблематичную историю обработки информации о расе. Тем не менее, некоторые аналитики предупреждают, что базовые компьютерные алгоритмы не являются полезными объектами для этического или нормативного анализа из-за сложности, секретности, технического характера или общности. Мы отвечаем, исследуя то, что аналитик должен знать, чтобы определить, является ли алгоритм в компьютерной системе неправильным, неэтичным или незаконным сам по себе.Мы утверждаем, что «алгоритмическая этика» может анализировать конкретный опубликованный алгоритм. Мы объясняем важность разработки практической алгоритмической этики, учитывающей достоинства, последствия и нормы: мы все чаще делегируем полномочия алгоритмам, и они быстро становятся неясными, но важными элементами социальной структуры.
AB — Компьютерные алгоритмы систематизируют и выбирают информацию в широком диапазоне приложений и отраслей, от результатов поиска до социальных сетей. Злоупотребление властью со стороны интернет-платформ привело к призывам к прозрачности алгоритмов и регулированию.Алгоритмы имеют особенно проблематичную историю обработки информации о расе. Тем не менее, некоторые аналитики предупреждают, что базовые компьютерные алгоритмы не являются полезными объектами для этического или нормативного анализа из-за сложности, секретности, технического характера или общности. Мы отвечаем, исследуя то, что аналитик должен знать, чтобы определить, является ли алгоритм в компьютерной системе неправильным, неэтичным или незаконным сам по себе. Мы утверждаем, что «алгоритмическая этика» может анализировать конкретный опубликованный алгоритм.Мы объясняем важность разработки практической алгоритмической этики, учитывающей достоинства, последствия и нормы: мы все чаще делегируем полномочия алгоритмам, и они быстро становятся неясными, но важными элементами социальной структуры.
кВт — алгоритмы
кВт — прикладная этика
кВт — информационные и коммуникационные технологии (ИКТ)
кВт — интернет-исследования
кВт — исследования науки и технологий (STS)
UR — http: // www.scopus.com/inward/record.url?scp=85024933855&partnerID=8YFLogxK
UR — http://www.scopus.com/inward/citedby.url?scp=85024933855&partnerID=8YFLogxK
M3 — : 85024933855VL — 10
SP — 4972
EP — 4990
JO — Международный журнал коммуникаций
JF — Международный журнал коммуникаций
SN — 1932-8036
ER —
Лучшие практики и политики для снижения вреда потребителя
Введение
Частный и государственный секторы все чаще обращаются к системам искусственного интеллекта (ИИ) и алгоритмам машинного обучения для автоматизации простых и сложных процессов принятия решений. 1 Массовая оцифровка данных и новые технологии, которые их используют, разрушают большинство секторов экономики, включая транспорт, розничную торговлю, рекламу, энергетику и другие области. ИИ также оказывает влияние на демократию и управление, поскольку развертываются компьютеризированные системы для повышения точности и повышения объективности государственных функций.
Доступность массивных наборов данных позволила легко получать новые идеи с помощью компьютеров. В результате алгоритмы, представляющие собой набор пошаговых инструкций, которым компьютеры следуют для выполнения задачи, стали более сложными и широко распространенными инструментами для автоматического принятия решений. 2 Хотя алгоритмы используются во многих контекстах, мы фокусируемся на компьютерных моделях, которые делают выводы на основе данных о людях, включая их личности, демографические атрибуты, их предпочтения и их вероятное будущее поведение, а также объекты, связанные с ними. 3
«Алгоритмы используют объемы макро- и микроданных, чтобы влиять на решения, влияющие на людей в целом ряде задач, от создания рекомендаций из фильмов до помощи банкам в определении кредитоспособности людей.”
В мире до алгоритмов люди и организации принимали решения о найме, рекламе, вынесении уголовных приговоров и кредитовании. Эти решения часто регулируются федеральными законами, законами штата и местными законами, которые регулируют процессы принятия решений с точки зрения справедливости, прозрачности и беспристрастности. Сегодня некоторые из этих решений полностью принимаются или на них влияют машины, масштаб и статистическая точность которых обещают беспрецедентную эффективность. Алгоритмы используют объемы макро- и микроданных, чтобы влиять на решения, влияющие на людей в целом ряде задач, от создания рекомендаций из фильмов до помощи банкам в определении кредитоспособности людей. 4 В машинном обучении алгоритмы полагаются на несколько наборов данных или обучающих данных, которые определяют правильные выходные данные для некоторых людей или объектов. На основе этих обучающих данных он затем изучает модель, которую можно применить к другим людям или объектам, и делать прогнозы о том, какими должны быть правильные выходные данные для них. 5
Однако, поскольку машины могут по-разному обращаться с людьми и объектами, находящимися в одинаковом положении, исследования начинают выявлять некоторые тревожные примеры, когда реальность алгоритмического принятия решений не оправдывает наших ожиданий.Учитывая это, некоторые алгоритмы рискуют воспроизвести и даже усилить человеческие предубеждения, особенно те, которые затрагивают защищенные группы. 6 Например, автоматическая оценка риска, используемая судьями США для определения пределов освобождения под залог и вынесения приговора, может привести к неверным выводам, что приведет к значительным совокупным последствиям для определенных групп, таким как более длительные сроки тюремного заключения или более высокие сроки освобождения под залог для цветных.
В этом примере решение порождает «предвзятость» — термин, который мы определяем в широком смысле, поскольку он относится к результатам, которые систематически менее благоприятны для отдельных лиц в определенной группе и где нет существенных различий между группами, которые оправдывают такой вред. 7 Предвзятость в алгоритмах может происходить из-за нерепрезентативных или неполных обучающих данных или из-за неверной информации, отражающей историческое неравенство. Если оставить без внимания предвзятые алгоритмы, они могут привести к решениям, которые могут иметь коллективное разрозненное влияние на определенные группы людей даже без намерения программиста проводить различие. Изучение предполагаемых и непредвиденных последствий алгоритмов необходимо и своевременно, особенно потому, что текущая государственная политика может быть недостаточной для выявления, смягчения и устранения последствий для потребителей.
Поскольку алгоритмы используются в различных приложениях, мы утверждаем, что операторы и другие заинтересованные стороны должны проявлять усердие в упреждающем устранении факторов, способствующих предвзятости. Выявление и своевременное реагирование на алгоритмическую предвзятость потенциально может предотвратить вредное воздействие на пользователей и тяжелую ответственность перед операторами и создателями алгоритмов, включая программистов, правительство и лидеров отрасли. Эти субъекты составляют аудиторию ряда предложений по смягчению последствий, которые будут представлены в этом документе, потому что они либо создают, лицензируют, распространяют, либо им поручено регулировать или законодательно закреплять алгоритмическое принятие решений для уменьшения дискриминационных намерений или последствий.
Наше исследование представляет основу для алгоритмической гигиены , которая определяет некоторые конкретные причины предубеждений и использует передовой опыт для их выявления и смягчения. Мы также представляем набор рекомендаций государственной политики, которые способствуют справедливому и этичному развертыванию технологий искусственного интеллекта и машинного обучения.
Этот документ основан на мнениях 40 лидеров мнений из различных академических дисциплин, секторов промышленности и организаций гражданского общества, которые участвовали в одном из двух круглых столов. 8 Участники круглого стола активно обсуждали концепции, связанные с алгоритмическим дизайном, подотчетностью и справедливостью, а также технические и социальные компромиссы, связанные с различными подходами к обнаружению и смягчению предвзятости.
Наша цель — сопоставить проблемы, с которыми компьютерные программисты и лидеры отрасли сталкиваются при разработке алгоритмов, с проблемами политиков и групп гражданского общества, которые оценивают их последствия. Чтобы сбалансировать инновации искусственного интеллекта и алгоритмов машинного обучения с защитой прав личности, мы представляем набор рекомендаций государственной политики, передовых методов саморегулирования и стратегий, ориентированных на потребителя, — все они способствуют справедливому и этичному развертыванию этих технологий. .
Наши рекомендации по государственной политике включают обновление законов о недискриминации и гражданских правах для применения к цифровым технологиям, использование нормативных «песочниц» для стимулирования экспериментов по борьбе с предвзятостью и безопасных гаваней для использования конфиденциальной информации для выявления и смягчения предубеждений. Мы также описываем набор передовых практик саморегулирования, таких как разработка заявления о влиянии предвзятости, инклюзивных принципов проектирования и кросс-функциональных рабочих групп. Наконец, мы предлагаем дополнительные решения, ориентированные на алгоритмическую грамотность среди пользователей и формальные механизмы обратной связи с группами гражданского общества.
В следующем разделе представлены пять примеров алгоритмов, объясняющих причины и источники их предвзятости. Позже в статье мы обсудим компромиссы между справедливостью и точностью в смягчении алгоритмической предвзятости, а затем предложим надежные передовые практики саморегулирования, рекомендации государственной политики и ориентированные на потребителя стратегии для устранения предвзятости в Интернете. В заключение мы подчеркнем важность упреждающего подхода к ответственному и этичному использованию машинного обучения и других автоматизированных инструментов принятия решений.
Примеры алгоритмических предубеждений
Алгоритмическая предвзятость может проявляться по-разному с разной степенью последствий для исследуемой группы. Рассмотрим следующие примеры, которые иллюстрируют как ряд причин, так и следствий, которые либо непреднамеренно применяют различное лечение к группам, либо намеренно оказывают на них разное воздействие.
Смещение в инструментах онлайн-наймаИнтернет-магазин Amazon, в котором 60% сотрудников во всем мире составляют мужчины и где мужчины занимают 74% руководящих должностей в компании, недавно прекратил использование алгоритма найма после обнаружения гендерной предвзятости. 9 Данные, которые инженеры использовали для создания алгоритма, были получены из резюме, отправленных в Amazon за 10-летний период, преимущественно от белых мужчин. Алгоритм был обучен распознавать шаблоны слов в резюме, а не соответствующие наборы навыков, и эти данные сравнивались с преимущественно мужским инженерным отделом компании, чтобы определить, подходит ли кандидат. В результате программа искусственного интеллекта наказывала любое резюме, содержащее слово «женское» в тексте, и понижала рейтинг женщин, посещавших женские колледжи, что приводило к гендерной предвзятости. 10
Amazon прекратил использовать алгоритм найма, обнаружив, что он привел к гендерным предубеждениям при приеме на работу. (Кредит: Брайан Снайдер / Рейтер) Предвзятость в словесных ассоциацияхИсследователи Принстонского университета использовали готовое программное обеспечение для машинного обучения искусственного интеллекта, чтобы проанализировать и связать 2,2 миллиона слов. Они обнаружили, что европейские имена воспринимались как более приятные, чем имена афроамериканцев, и что слова «женщина» и «девушка» чаще ассоциировались с искусством, а не с наукой и математикой, которые, скорее всего, были связаны с мужчинами. . 11 Анализируя эти словесные ассоциации в обучающих данных, алгоритм машинного обучения учел существующие расовые и гендерные предубеждения, проявляемые людьми. Если бы изученные ассоциации этих алгоритмов использовались как часть алгоритма ранжирования поисковой системы или для генерации предложений слов как часть инструмента автозаполнения, это могло бы иметь кумулятивный эффект усиления расовых и гендерных предубеждений.
Смещение в интернет-рекламеЛатанья Суини, исследователь из Гарварда и бывший технический директор Федеральной торговой комиссии (FTC), обнаружила, что поисковые запросы афроамериканцев в Интернете с большей вероятностью возвращали этому человеку рекламу из службы, которая ведет записи об арестах, по сравнению с результаты объявления для белых имен. 12 Ее исследование также показало, что такая же дифференцированная трактовка имела место при микротаргетинге кредитных карт с более высоким процентом и других финансовых продуктов, когда компьютер сделал вывод, что испытуемые были афроамериканцами, несмотря на то, что они имели схожий с белыми фон. 13 Во время публичной презентации на слушаниях в Федеральной торговой комиссии по большим данным Суини продемонстрировал, как веб-сайт, посвященный празднованию столетия черного братства, постоянно получал рекламные предложения о покупке «записей об аресте» или получении кредита с высокой процентной ставкой. карточные предложения. 14
Смещение в технологии распознавания лицИсследователь из Массачусетского технологического института Джой Буоламвини обнаружила, что алгоритмы трех коммерчески доступных программных систем распознавания лиц не распознают лица с более темной кожей. 15 Как правило, в большинстве наборов данных для обучения распознаванию лиц более 75 процентов составляют мужчины и более 80 процентов — белые. Когда человек на фотографии был белым мужчиной, программа в 99% случаев точно определяла человека как мужчину.Согласно исследованию Буоламвини, процент ошибок продукта для трех продуктов в целом составлял менее одного процента, но увеличился до более чем 20 процентов в одном продукте и до 34 процентов в двух других при идентификации темнокожих женщин как женщин. 16 В ответ на результаты анализа лица Буоламвини и IBM, и Microsoft взяли на себя обязательство повысить точность своего программного обеспечения для распознавания лиц с более темной кожей.
Предвзятость в алгоритмах уголовного правосудияПризнание возможности и причин предвзятости — первый шаг в любом подходе к смягчению последствий.
Алгоритм COMPAS (Профилирование исправительных правонарушителей для альтернативных санкций), который используется судьями для прогнозирования того, должны ли обвиняемые быть задержаны или освобождены под залог до суда, был признан предвзятым по отношению к афроамериканцам, согласно отчету ProPublica. 17 Алгоритм присваивает оценку риска вероятности совершения обвиняемым правонарушения в будущем, полагаясь на объемные данные, доступные в записях об арестах, демографические данные обвиняемого и другие переменные.По сравнению с белыми, у которых была одинаковая вероятность повторного совершения преступления, афроамериканцы с большей вероятностью получали более высокий балл риска, что приводило к более длительным срокам содержания под стражей в ожидании суда. 18 Northpointe, фирма, которая продает результаты алгоритма, предлагает доказательства для опровержения таких утверждений и утверждает, что для оценки справедливости продукта используются неверные метрики — тема, к которой мы вернемся позже в статье.
Хотя эти примеры предвзятости не являются исчерпывающими, они предполагают, что эти проблемы являются эмпирической реальностью, а не просто теоретическими проблемами.Они также иллюстрируют, как эти результаты возникают, и в некоторых случаях без злого умысла со стороны создателей или операторов алгоритма. Признание возможности и причин предвзятости — это первый шаг в любом подходе к смягчению последствий. По этому поводу участник круглого стола Рикардо Баеза-Ятс из NTENT заявил, что «[компании] по-прежнему будут иметь проблемы с обсуждением алгоритмической предвзятости, если они не будут ссылаться на саму фактическую предвзятость».
Причины предвзятости
Барокас и Селбст указывают на то, что предвзятость может закрасться на всех этапах проекта, «… будь то определение проблемы, которую необходимо решить таким образом, чтобы по-разному воздействовать на классы, неспособность распознать или устранить статистические предубеждения, воспроизвести прошлые предрассудки или рассмотреть недостаточно богатый набор факторов.” 19 Участники круглого стола уделяли особое внимание предвзятости, возникающей из-за недостатков данных, используемых для обучения алгоритмов. «Некорректные данные — большая проблема, — заявила участница круглого стола Люси Вассерман из Google, — особенно для групп, над защитой которых прилагают все усилия». Хотя причин много, мы сосредоточимся на двух из них: исторических человеческих предубеждениях и неполных или нерепрезентативных данных .
Исторические человеческие предубежденияИсторические человеческие предубеждения сформированы широко распространенными и часто глубоко укоренившимися предубеждениями против определенных групп, которые могут привести к их воспроизведению и усилению в компьютерных моделях.В алгоритме COMPAS, если афроамериканцы с большей вероятностью будут арестованы и заключены в тюрьму в США из-за исторического расизма, различий в полицейской практике или других неравенств в системе уголовного правосудия, эти реалии будут отражены в данных обучения и использоваться вносить предложения о задержании подсудимого. Если в модель учесть исторические предубеждения, она будет делать такие же неправильные суждения, как и люди.
Алгоритм приема на работу Amazon выявил аналогичную траекторию, когда мужчины были эталоном профессиональной «пригодности», что привело к снижению рейтинга кандидатов-женщин и их характеристик.Эти исторические реалии часто отражаются в разработке и исполнении алгоритмов, и они усугубляются отсутствием разнообразия, которое существует в областях компьютерной науки и науки о данных. 20
Кроме того, человеческие предубеждения могут усиливаться и сохраняться без ведома пользователя. Например, афро-американцы, которые в первую очередь являются целевой аудиторией для вариантов с высокой процентной ставкой по кредитным картам, могут обнаружить, что нажимают на этот тип рекламы, не осознавая, что они будут продолжать получать такие хищные предложения в Интернете.В этом и других случаях алгоритм может никогда не накапливать противоречащие фактам рекламные предложения (например, варианты кредитования с более низкой процентной ставкой), которые потребитель мог бы иметь право и предпочел. Таким образом, разработчикам алгоритмов и операторам важно следить за такими потенциальными петлями отрицательной обратной связи, которые со временем приводят к усилению предвзятости алгоритма.
Неполные или нерепрезентативные данные обученияНедостаток обучающих данных — еще одна причина алгоритмической ошибки.Если данные, используемые для обучения алгоритма, более репрезентативны для одних групп людей, чем для других, прогнозы модели также могут быть систематически хуже для непредставленных или недостаточно представительных групп. Например, в экспериментах Буоламвини по анализу лиц плохое распознавание лиц с более темной кожей в значительной степени объяснялось их недостаточной статистической репрезентативностью в данных обучения. То есть алгоритм предположительно уловил определенные черты лица, такие как расстояние между глазами, форма бровей и вариации оттенков кожи лица, как способы обнаружения мужских и женских лиц.Однако черты лица, которые были более репрезентативными в данных обучения, не были столь разнообразными и, следовательно, менее надежными для различения цвета лица, что даже приводило к ошибочной идентификации темнокожих женщин как мужчин.
Тернер Ли утверждал, что часто отсутствие разнообразия среди программистов, разрабатывающих обучающую выборку, может приводить к недопредставлению конкретной группы или конкретных физических атрибутов. 21 Выводы Буоламвини были связаны с ее тщательностью в тестировании, выполнении и оценке различных проприетарных программ для анализа лица в различных условиях, исправляя отсутствие разнообразия в их выборках.
И наоборот, алгоритмы со слишком большим объемом данных или избыточным представлением могут склонить решение к конкретному результату. Исследователи из Джорджтаунской школы права обнаружили, что около 117 миллионов взрослых американцев участвуют в сетях распознавания лиц, используемых правоохранительными органами, и что афроамериканцы с большей вероятностью будут выделены в первую очередь из-за того, что их избыточно представлены в базах данных фотографов. 22 Следовательно, лица афроамериканцев имели больше возможностей для ложного сопоставления, что приводило к предвзятому эффекту.
Стратегии обнаружения смещения
Понимание различных причин предубеждений — первый шаг к внедрению эффективной алгоритмической гигиены. Но как операторы алгоритмов могут оценить, действительно ли их результаты предвзяты? Даже когда ошибки в обучающих данных исправлены, результаты все равно могут быть проблематичными, потому что контекст имеет значение на этапе обнаружения смещения.
«Даже когда ошибки в обучающих данных исправлены, результаты все равно могут быть проблематичными, потому что контекст имеет значение на этапе обнаружения смещения.”
Во-первых, все подходы к обнаружению должны начинаться с осторожного обращения с конфиденциальной информацией пользователей, включая данные, идентифицирующие членство человека в группе, защищенной на федеральном уровне (например, раса, пол). В некоторых случаях операторы алгоритмов могут также беспокоиться о принадлежности человека к какой-либо другой группе, если они также подвержены несправедливым результатам. Примером этого могут быть приемные комиссары колледжей, обеспокоенные тем, что алгоритм исключает абитуриентов из малообеспеченных или сельских районов; это люди, которые могут не находиться под защитой государства, но подвержены определенному ущербу (например,г., финансовые затруднения).
В первом случае системная предвзятость в отношении защищаемых классов может привести к коллективным, разрозненным воздействиям , которые могут иметь основу для юридически признанного вреда, такого как отказ в предоставлении кредита, расовое профилирование в Интернете или массовое наблюдение. 23 В последнем случае результаты алгоритма могут давать неравных результатов, или неравные частоты ошибок для разных групп, но они не могут нарушать законодательные запреты, если не было намерения проводить различие.
Эти проблемные результаты должны привести к дальнейшему обсуждению и осознанию того, как алгоритмы работают с конфиденциальной информацией, а также к компромиссам в отношении справедливости и точности моделей.
Алгоритмы и конфиденциальная информацияХотя интуитивно привлекательно думать, что алгоритм может не замечать чувствительные атрибуты, это не всегда так. 24 Критики указали, что алгоритм может классифицировать информацию на основе онлайн-прокси для чувствительных атрибутов, что приводит к предвзятому отношению к группе даже без принятия решений, непосредственно основанных на членстве в этой группе.Барокас и Селбст определяют онлайн-прокси как «факторы, используемые в процессе оценки алгоритма, которые являются просто заменой для защищенных групп, например, почтовый индекс в качестве прокси для расы или рост и вес в качестве заместителей для пола». 25 Они утверждают, что прокси-серверы, часто связанные с алгоритмами, могут приводить как к ошибкам, так и к дискриминационным результатам, например, в случаях, когда почтовый индекс используется для определения решений о цифровом кредитовании или гонка приводит к разным результатам. 26 Рекламная платформа Facebook содержала прокси-серверы, которые позволяли продавцам жилья микротаргетировать предпочтительных арендаторов и покупателей, нажимая на точки данных, включая предпочтения по почтовому индексу. 27 Таким образом, возможно, что алгоритм, который полностью игнорирует чувствительный атрибут, может фактически дать тот же результат, что и алгоритм, использующий атрибут дискриминационным образом.
«Хотя интуитивно привлекательно думать, что алгоритм может не замечать чувствительные атрибуты, это не всегда так».
Например, Amazon приняла корпоративное решение исключить определенные районы из своей системы доставки Prime в тот же день. Их решение основывалось на следующих факторах: имел ли конкретный почтовый индекс достаточное количество членов Prime, находился ли рядом со складом и имелось ли достаточное количество людей, желающих доставить по этому почтовому индексу. 28 Хотя эти факторы соответствовали модели рентабельности компании, они привели к исключению бедных, преимущественно афроамериканских районов, преобразовав эти данные в прокси для расовой классификации. Результаты, даже непреднамеренные, дискриминировали расовые и этнические меньшинства, которые не были включены.
Точно так же алгоритм сопоставления вакансий может не получать поле пола в качестве входных данных, но он может давать разные оценки соответствия для двух резюме, которые отличаются только заменой имени «Мэри» на «Марк», потому что алгоритм обучен проводите эти различия с течением времени.
Существуют также аргументы в пользу того, что ослепление алгоритма к чувствительным атрибутам может вызвать алгоритмическое смещение в некоторых ситуациях. Корбетт-Дэвис и Гоэл в своем исследовании алгоритма COMPAS отмечают, что даже после учета «законных» факторов риска эмпирически установлено, что женщины реже совершают повторные преступления, чем мужчины во многих юрисдикциях. 29 Если алгоритму запрещено сообщать разные баллы оценки риска для двух обвиняемых по уголовным делам, различающихся только по полу, судьи могут с меньшей вероятностью освободить обвиняемых-женщин, чем обвиняемых-мужчин, с равными фактическими рисками совершения другого преступления до суда.Таким образом, исключение алгоритма из любого типа чувствительного атрибута не может устранить систематическую ошибку.
Хотя участники круглого стола не пришли к единому мнению об использовании онлайн-прокси в моделировании, они в основном согласились с тем, что операторы алгоритмов должны быть более прозрачными при обращении с конфиденциальной информацией, особенно если потенциальный прокси-сервер сам по себе может наносить юридический классификационный ущерб. 30 Также обсуждалось, что использование чувствительных атрибутов как части алгоритма может быть стратегией для обнаружения и, возможно, устранения преднамеренных и непреднамеренных предубеждений.Поскольку в настоящее время это может быть ограничено правилами конфиденциальности, такими как Общие правила защиты данных Европейского Союза (GDPR) или предлагаемое федеральное законодательство США о конфиденциальности, можно привести аргумент в пользу использования нормативных песочниц и безопасных гаваней, чтобы разрешить использование конфиденциальных данных. информация при выявлении и устранении предубеждений, которые будут включены в наши рекомендации по политике.
Обнаружение смещенияПри обнаружении систематической ошибки компьютерные программисты обычно проверяют набор выходных данных, создаваемых алгоритмом, на предмет аномальных результатов.Сравнение результатов для разных групп может быть полезным первым шагом. Это можно сделать даже с помощью моделирования. Участник круглого стола Рич Каруана из Microsoft предложил компаниям рассмотреть возможность моделирования прогнозов (как истинных, так и ложных), прежде чем применять их к реальным сценариям. «Нам почти необходим вторичный процесс сбора данных, потому что иногда модель [выдает] нечто совершенно иное», — поделился он. Например, если средний балл алгоритма подбора вакансий для кандидатов-мужчин выше, чем для женщин, могут потребоваться дальнейшие исследования и моделирование.
Однако обратная сторона этих подходов состоит в том, что не все неравные результаты несправедливы. Участник круглого стола Солон Барокас из Корнельского университета резюмировал это, сказав: «Возможно, мы обнаружим, что у нас есть очень точная модель, но она все равно дает несопоставимые результаты. Это может быть прискорбно, но справедливо ли это? » Альтернативой учету неравных результатов может быть рассмотрение равенства частот ошибок и того, больше ли ошибок у одной группы людей, чем у другой.По этому поводу Изабель Клуманн из Facebook поделилась, что «у общества есть ожидания. Одно из них не заключается в непропорциональном заключении в тюрьму одной группы меньшинства [в результате алгоритма] ».
Как показали дебаты вокруг алгоритма COMPAS, даже частота ошибок не является простой лакмусовой бумажкой для смещенных алгоритмов. Компания Northpointe, разработавшая алгоритм COMPAS, опровергает утверждения о расовой дискриминации. Они утверждают, что среди обвиняемых, которым присвоена одинаковая оценка высокого риска, афроамериканцы и белые обвиняемые имеют почти равные уровни рецидивизма, поэтому по этой оценке нет ошибки в решении алгоритма. 31 По их мнению, судьи могут рассматривать свой алгоритм без какой-либо ссылки на гонку в решениях об освобождении под залог и освобождении под залог.
Как правило, невозможно иметь одинаковые коэффициенты ошибок между группами для всех различных коэффициентов ошибок. 32 ProPublica сосредоточилась на одном уровне ошибок, а Northpointe — на другом. Таким образом, необходимо установить некоторые принципы, для которых частота ошибок должна быть уравновешена в каких ситуациях, чтобы быть справедливыми.
Алгоритм COMPAS, который используется судьями для прогнозирования того, должны ли обвиняемые быть задержаны или освобождены под залог до суда, привлек внимание к заявлениям о потенциальной расовой дискриминации.(Фото: Стивен Лам / Reuters)Однако различение того, как алгоритм работает с конфиденциальной информацией, и потенциальных ошибок может быть проблематичным для операторов алгоритмов, политиков и групп гражданского общества. 33 «Компании потеряют много, если мы не будем проводить различие между ними», — сказала Джули Брилл из Microsoft. По крайней мере, участники круглого стола согласились с тем, что алгоритмы не должны увековечивать историческое неравенство и что необходимо проделать большую работу для решения проблемы онлайн-дискриминации. 34
Компромиссы справедливости и точности
Далее необходимо обсуждение компромиссов и этики. Здесь следует сосредоточить внимание на оценке как социальных представлений о «справедливости», так и возможных социальных издержек. В своем исследовании алгоритма COMPAS Корбетт-Дэвис, Гоэль, Пирсон, Феллер и Хук видят «внутреннее противоречие между минимизацией насильственных преступлений и удовлетворением общих представлений о справедливости». 35 Они пришли к выводу, что оптимизация с точки зрения общественной безопасности приводит к решениям, которые наказывают цветных подсудимых, при соблюдении юридических и социальных определений справедливости, и может привести к большему количеству освобождений подсудимых с высоким риском, что отрицательно скажется на общественной безопасности. 36 Более того, негативное влияние на общественную безопасность может непропорционально сильно повлиять на афроамериканские и белые районы, что также приведет к издержкам справедливости.
Если цель состоит в том, чтобы избежать усиления неравенства, что же тогда должны делать разработчики и операторы алгоритмов, чтобы смягчить потенциальные предубеждения? Мы утверждаем, что разработчики алгоритмов должны сначала найти способы уменьшить неравенство между группами, не жертвуя общей производительностью модели, особенно когда кажется, что существует компромисс.
Несколько участников круглого стола утверждали, что существуют возможности для улучшения как справедливости, так и точности алгоритмов. Для программистов исследование очевидных ошибок в программном обеспечении может выявить, почему модель не была максимальной для общей точности. Устранение этих ошибок может повысить общую точность. Наборы данных, которые могут быть недостаточно репрезентативными для определенных групп, могут потребовать дополнительных обучающих данных для повышения точности принятия решений и уменьшения несправедливых результатов.Эксперименты Буоламвини по распознаванию лиц являются хорошими примерами такого подхода к справедливости и точности.
Участница круглого стола Сара Холланд из Google указала на толерантность к риску, связанную с подобными компромиссами, когда она поделилась, что «повышение риска также связано с поднятием вопросов справедливости». Таким образом, компании и другие операторы алгоритмов должны определить, оправданы ли социальные издержки компромиссов, вовлечены ли заинтересованные стороны в решение с помощью алгоритмов или необходимы ли люди, принимающие решения, для разработки решения.
Этические рамки имеют значение
В основе этих компромиссов в отношении справедливости и точности должно быть обсуждение этических рамок и потенциальных препятствий для задач и систем машинного обучения. В настоящее время предпринимаются несколько текущих и недавних международных и базирующихся в США усилий по разработке стандартов этического управления при использовании ИИ. 37 Ожидается, что в ближайшее время Организация экономического сотрудничества и развития (ОЭСР), состоящая из 35 членов, опубликует свои собственные руководящие принципы этического ИИ. 38 Европейский Союз недавно выпустил «Руководящие принципы этики для надежного ИИ», в которых выделяются семь принципов управления: (1) человеческое участие и надзор, (2) техническая надежность и безопасность, (3) конфиденциальность и управление данными, (4) прозрачность , (5) разнообразие, недискриминация и справедливость, (6) экологическое и социальное благополучие и (7) подотчетность. 39 Этические рамки ЕС отражают явный консенсус в отношении того, что «несправедливо проводить дискриминацию — неэтично». В рамках этих руководящих принципов государства-члены связывают разнообразие и недискриминацию с принципами справедливости, обеспечивая включение и разнообразие на протяжении всего жизненного цикла системы искусственного интеллекта.Их принципы интерпретируют справедливость через призму равного доступа, инклюзивных процессов проектирования и равного обращения.
Тем не менее, даже несмотря на эти правительственные усилия, все еще на удивление сложно определить и измерить справедливость. 40 Хотя не всегда возможно удовлетворить все понятия справедливости одновременно, компании и другие операторы алгоритмов должны знать, что не существует простой метрики для измерения справедливости, которую может применить инженер-программист, особенно при проектировании. алгоритмов и определение соответствующих компромиссов между точностью и справедливостью.Справедливость — это человеческая, а не математическая решимость, основанная на общих этических убеждениях. Таким образом, алгоритмические решения, которые могут иметь серьезные последствия для людей, потребуют участия человека.
Например, хотя расхождения в обучающих данных в алгоритме COMPAS можно исправить, человеческая интерпретация справедливости все еще имеет значение. По этой причине, хотя такой алгоритм, как КОМПАС, может быть полезным инструментом, он не может заменить принятие решений, которое остается на усмотрение человеческого арбитра. 41 Мы считаем, что тщательное тестирование алгоритма может поставить под сомнение различные определения справедливости, что является полезным упражнением среди компаний и других операторов алгоритмов.
«Для операторов и разработчиков алгоритмов важно всегда спрашивать себя: оставим ли мы некоторые группы людей хуже в результате конструкции алгоритма или его непредвиденных последствий? “
При принятии решения о создании и выводе алгоритмов на рынок необходимо учитывать этику вероятных результатов, особенно в тех областях, где правительства, гражданское общество или политики видят потенциал нанесения ущерба и где существует риск увековечения существующих предубеждений или принятия защищенных группы, более уязвимые к существующему социальному неравенству.Вот почему для операторов и разработчиков алгоритмов важно всегда спрашивать себя: Оставим ли мы некоторые группы людей в худшем положении в результате конструкции алгоритма или его непредвиденных последствий?
Мы предлагаем, чтобы этот вопрос был одним из многих, которые создатели и операторы алгоритмов должны учитывать при разработке, выполнении и оценке алгоритмов, которые описаны в следующих предложениях по смягчению последствий. Наше первое предложение касается обновления U.S. Законы о недискриминации применимы к цифровому пространству.
Предложения по смягчению последствий
Необходимо обновить законы о недискриминации и других гражданских правах, чтобы интерпретировать и компенсировать разрозненные воздействия онлайн
Чтобы завоевать доверие политиков, программисты, компании и другие операторы алгоритмов должны соблюдать законы и постановления США, которые в настоящее время запрещают дискриминацию в общественных местах. Исторически сложилось так, что законы и постановления о недискриминации недвусмысленно определяют пороговые значения и параметры для несопоставимого отношения к защищаемым классам.Закон о гражданских правах 1964 года «запрещает дискриминацию по признаку пола, а также расы при приеме на работу, продвижении по службе и увольнении». Закон о справедливом жилищном обеспечении 1968 года запрещает дискриминацию классов, находящихся под федеральной защитой, при продаже, аренде и финансировании жилья, а также в других сделках, связанных с жильем. Принятый в 1974 г. Закон о равных возможностях кредита запрещает кредитору дискриминировать любого заявителя по кредитным операциям любого типа на основании защищенных характеристик. Хотя эти законы не обязательно смягчают и устраняют другие неявные или неосознанные предубеждения, которые могут быть заложены в алгоритмы, компании и другие операторы должны избегать нарушения этих установленных законом ограничений при разработке алгоритмов, а также смягчать их неявную озабоченность по поводу предотвращения прошлой дискриминации. продолжение.
Участница круглого стола Венди Андерсон из офиса конгрессмена Вэл Демингс заявила: «[Типично] законодатели слышат только тогда, когда происходит что-то плохое. Нам нужно найти способ защитить тех, кто в этом нуждается, не подавляя инноваций ». Конгресс может разъяснить, как эти законы о недискриминации применяются к типам жалоб, недавно обнаруженных в цифровом пространстве, поскольку большинство этих законов были написаны до появления Интернета. 42 Такое законодательное действие может обеспечить более четкие ограничения, которые срабатывают, когда алгоритмы способствуют юридически признанному ущербу.Более того, когда создатели и операторы алгоритмов понимают, что это могут быть более или менее не подлежащие обсуждению факторы, технический дизайн будет более продуманным, отойдя от моделей, которые могут вызывать и усугублять явную дискриминацию, например, рамки дизайна, которые исключают, а не включают определенные входы или не проверяются на предвзятость. 43
Операторы алгоритмов должны разработать отчет о влиянии смещенияПосле того, как идея алгоритма была проверена на соответствие законам о недискриминации, мы предлагаем операторам алгоритмов разработать заявление о влиянии предвзятости, которое мы предлагаем в качестве шаблона вопросов, которые можно гибко применять, чтобы направлять их через проектирование, реализацию и мониторинг. фазы.
В качестве практики саморегулирования заявление о влиянии смещения может помочь исследовать и предотвратить любые потенциальные смещения, которые заложены в алгоритмическом решении или являются его результатом. В качестве передовой практики операторы алгоритмов должны провести мозговой штурм по основному набору исходных предположений о цели алгоритма до его разработки и выполнения. Мы предлагаем операторам применять заявление о влиянии смещения для оценки цели, процесса и производства алгоритма, где это уместно.Участники круглого стола также отметили важность создания кросс-функциональной и междисциплинарной команды для создания и реализации заявления о влиянии предвзятости.
- Институт AI Now Нью-Йоркского университета
Институт AI Now при Нью-Йоркском университете уже представил структуру модели, которую правительственные органы могут использовать для создания алгоритмических оценок воздействия (AIA), которые оценивают потенциальные пагубные последствия алгоритма таким же образом, как окружающая среда, конфиденциальность, данные или права человека. заявления о воздействии. 44 Хотя могут быть различия в реализации, учитывая тип прогнозной модели, AIA включает в себя несколько раундов проверки внутренней, внешней и общественной аудиторией. Во-первых, предполагается, что после этого обзора компания с помощью более технических внешних экспертов разработает список потенциального вреда или предвзятости в своей самооценке. Во-вторых, если кажется, что произошла предвзятость, AIA требует, чтобы уведомление было направлено затронутым группам населения, и открывается период комментариев для ответа.В-третьих, процесс AIA рассчитывает на то, что федеральные и другие организации поддержат право пользователей оспаривать алгоритмические решения, которые кажутся несправедливыми.
Хотя процесс AIA поддерживает существенную петлю обратной связи, чего может не хватать, так это как необходимой предусмотрительности, ведущей к решению, так и надзора за положениями алгоритма. Более того, предлагаемое нами заявление о влиянии предвзятости начинается с структуры, которая определяет автоматизированных решений , которые должны быть подвергнуты такой проверке, стимулированию операторов и взаимодействию с заинтересованными сторонами.
- Какие автоматизированные решения?
В случае определения того, какие автоматизированные решения требуют такой проверки, операторы алгоритмов должны начинать с вопросов о том, будет ли возможен отрицательный или непреднамеренный результат в результате алгоритма, для кого и серьезность последствий для членов пострадавших группа, если не обнаружена и не устранена. Анализ установленных правовых средств защиты в отношении справедливого жилья, занятости, кредита, уголовного правосудия и здравоохранения должен служить отправной точкой для определения того, какие решения необходимо рассматривать с особой осторожностью при разработке и тестировании любого алгоритма, используемого для прогнозирования результатов или принятия важных решений о приемлемости о доступе к пособию.Это особенно верно, учитывая правовые предписания против использования данных, которые могут иметь разрозненное влияние на защищаемый класс или другой установленный ущерб. Таким образом, мы предлагаем операторам постоянно ставить под сомнение потенциальные правовые, социальные и экономические последствия и потенциальные обязательства, связанные с этим выбором, при определении того, какие решения следует автоматизировать и как автоматизировать их с минимальными рисками.
- Каковы стимулы для пользователей?
Поощрения также должны побуждать организации к активному устранению алгоритмической предвзятости.И наоборот, операторы, которые создают и внедряют алгоритмы, обеспечивающие более справедливые результаты, также должны быть признаны политиками и потребителями, которые будут больше доверять им в их практике. Когда компании применяют эффективную алгоритмическую гигиену до, во время и после внедрения алгоритмического принятия решений, они должны быть вознаграждены и, возможно, публично признаны за передовой опыт.
- Как вовлекаются заинтересованные стороны?
Наконец, последний элемент, инкапсулированный в заявлении о влиянии смещения, должен включать участие заинтересованных сторон, которые могут помочь компьютерным программистам в выборе входных и выходных данных для определенных автоматизированных решений.«Технология успешна, когда пользователи понимают продукт лучше, чем его дизайнеры», — сказал Рич Каруана из Microsoft. Вовлечение пользователей на раннем этапе и на протяжении всего процесса приведет к улучшению алгоритмов, что в конечном итоге приведет к улучшению взаимодействия с пользователем.
Обязанности заинтересованных сторон могут также распространяться на организации гражданского общества, которые могут внести вклад в обсуждение структуры алгоритма. «Компании [должны] привлекать гражданское общество», — поделилась Миранда Боген из Upturn. «В противном случае они пойдут со своими жалобами в прессу и регулирующие органы.«Возможным решением для операторов алгоритмов могло бы стать создание консультативного совета организаций гражданского общества, который, работая вместе с компаниями, может быть полезным при определении объема процедуры и прогнозирования предубеждений на основе их базового опыта.
- Шаблон отчета о влиянии смещения
Эти три основополагающих элемента для заявления о влиянии смещения отражены в дискретном наборе вопросов, на которые операторы должны ответить на этапе проектирования, чтобы отфильтровать потенциальные смещения (таблица 1).В качестве основы саморегулирования компьютерные программисты и другие операторы алгоритмов могут создать инструмент этого типа до разработки и выполнения модели.
Таблица 1. Шаблон вопросов по разработке для отчета о влиянии систематической ошибкиЧто будет делать автоматизированное решение? |
Кто является аудиторией алгоритма и кого он больше всего затронет? |
Есть ли у нас обучающие данные, чтобы делать правильные прогнозы относительно решения? |
Достаточно ли разнообразны и надежны обучающие данные? Каков жизненный цикл данных алгоритма? |
Какие группы нас беспокоят ошибки в обучающих данных, несопоставимое обращение и влияние? |
Как будет обнаруживаться потенциальная систематическая ошибка? |
Как и когда будет тестироваться алгоритм? Кто будет объектами тестирования? |
Каким будет порог для измерения и коррекции систематической ошибки в алгоритме, особенно в отношении защищенных групп? |
Каковы стимулы для операторов? |
Что мы получим при разработке алгоритма? |
Каковы потенциально плохие результаты и как мы узнаем об этом? |
Как открыть (напр.g., в коде или намерении) будем ли мы доводить процесс разработки алгоритма до внутренних партнеров, клиентов и заказчиков? |
Какое вмешательство будет предпринято, если мы предскажем, что могут быть плохие результаты, связанные с разработкой или развертыванием алгоритма? |
Как вовлекаются другие заинтересованные стороны? |
Какова обратная связь алгоритма для разработчиков, внутренних партнеров и клиентов? |
Участвуют ли организации гражданского общества в разработке алгоритма? |
Было ли учтено разнообразие при проектировании и исполнении? |
Будет ли алгоритм влиять на культурные группы и по-разному действовать в культурном контексте? |
Достаточно ли представительна группа разработчиков, чтобы уловить эти нюансы и спрогнозировать применение алгоритма в различных культурных контекстах? Если нет, какие шаги предпринимаются, чтобы сделать эти сценарии более заметными и понятными для дизайнеров? |
Достаточно ли разнообразны обучающие данные с учетом цели алгоритма? |
Существуют ли законодательные ограничения, которые компании должны учитывать, чтобы гарантировать, что алгоритм является как законным, так и этичным? |
Разнообразие дизайна
Операторы алгоритмов должны также учитывать роль разнообразия в своих рабочих группах, данные обучения и уровень культурной чувствительности в своих процессах принятия решений.Предварительное использование разнообразия при разработке алгоритмов вызовет и потенциально предотвратит пагубные дискриминационные последствия для определенных защищаемых групп, особенно расовых и этнических меньшинств. Хотя непосредственные последствия предвзятости в этих областях могут быть небольшими, огромное количество цифровых взаимодействий и выводов может составить новую форму систематической предвзятости. Следовательно, операторы алгоритмов не должны сбрасывать со счетов возможность или преобладание предвзятости и должны стремиться к тому, чтобы для разработки алгоритма использовались разнообразные кадры, интеграция инклюзивных пространств в свои продукты или использование «разнообразия в дизайне», когда преднамеренные и прозрачные действия будут быть приняты для обеспечения того, чтобы культурные предубеждения и стереотипы были устранены заблаговременно и надлежащим образом.Добавление инклюзивности в дизайн алгоритма может потенциально проверить культурную инклюзивность и чувствительность алгоритмов для различных групп и помочь компаниям избежать того, что может быть спорным и затруднительным алгоритмическим результатом.
Заявление о влиянии смещения не должно быть исчерпывающим инструментом. Для алгоритмов, ставящих на карту больше, постоянный анализ их выполнения должен быть включен в процесс. Цель здесь состоит в том, чтобы отслеживать разрозненные воздействия модели, граничащие с неэтичным, несправедливым и несправедливым принятием решений.Когда процесс выявления и прогнозирования цели алгоритма будет достигнут, надежная петля обратной связи поможет в обнаружении предвзятости, что приводит к следующей рекомендации, продвигающей регулярные аудиты.
Другие передовые методы саморегулирования
Операторы алгоритмов должны регулярно проверять на предмет систематической ошибки
Формальный и регулярный аудит алгоритмов для проверки смещения — еще один лучший способ обнаружения и смягчения смещения. О важности этих аудитов участник круглого стола Джон Клейнберг из Корнельского университета поделился, что «у алгоритма нет другого выбора, кроме как заранее продумать».«Аудиты побуждают анализировать как входные данные, так и выходные решения, и, когда они проводятся сторонним оценщиком, они могут дать представление о поведении алгоритма. Хотя некоторые аудиты могут потребовать технических знаний, это не всегда так. Программное обеспечение для распознавания лиц, которое ошибочно идентифицирует цветных людей в большей степени, чем белых, — это случай, когда заинтересованное лицо или пользователь может определить предвзятые результаты, ничего не зная о том, как алгоритм принимает решения. «Мы должны ожидать, что компьютеры будут иметь контрольный след», — поделилась участница круглого стола Миранда Боген из Upturn.Разработка регулярного и тщательного аудита данных, собранных для алгоритмической работы, наряду с ответами разработчиков, гражданского общества и других лиц, на которых влияет алгоритм, позволит лучше выявить и, возможно, предотвратить предвзятость.
«Разработка регулярного и тщательного аудита данных, собранных для алгоритмической работы, наряду с ответами разработчиков, гражданского общества и других лиц, на которых влияет алгоритм, позволит лучше выявить и, возможно, предотвратить предвзятость».
Опыт государственных служащих округа Аллегейни свидетельствует о важности аудита третьей стороной.В 2016 году Департамент социальных служб запустил инструмент поддержки принятия решений — Allegheny Family Screening Tool (AFST), чтобы получить оценку, по которой дети, скорее всего, будут изгнаны из своих домов в течение двух лет или будут повторно направлены. окружное управление по защите детей в связи с подозрением в жестоком обращении. Округ взял на себя ответственность за использование инструмента, работал совместно с разработчиком и заказал независимую оценку его прямого и косвенного воздействия на процесс проверки на жестокое обращение, включая точность решений, рабочую нагрузку и последовательность.Должностные лица округа также запросили у экспертов дополнительные независимые исследования, чтобы определить, дискриминирует ли программное обеспечение определенные группы. В 2017 году результаты действительно выявили некоторые статистические диспропорции с более высоким уровнем ошибок по расовым и этническим группам. Белые дети, у которых был самый высокий риск жестокого обращения, с меньшей вероятностью были удалены из дома по сравнению с афроамериканскими детьми с аналогичными оценками риска. 45 Округ отреагировал на эти выводы в рамках перестройки инструмента, и в ноябре 2018 года была внедрена вторая версия. 46
Facebook недавно завершил аудит гражданских прав, чтобы определить, как он справляется с проблемами и отдельными лицами из защищенных групп. 47 После раскрытия того, как платформа решала различные проблемы, включая подавление избирателей, модерацию контента, конфиденциальность и разнообразие, компания взяла на себя обязательство провести обновленный аудит своей внутренней инфраструктуры для рассмотрения жалоб, связанных с нарушением гражданских прав, и решения проблем разнообразия в дизайн своей продукции по умолчанию. Недавние действия Facebook по запрету белого националистического контента или борьбе с кампаниями по дезинформации являются одними из результатов этих усилий. 48
Операторы алгоритмов должны полагаться на межфункциональные рабочие группы и опытУчастники круглого стола в целом признали идею о том, что организации должны использовать межфункциональные команды. Но движение в этом направлении может быть затруднено в уже разрозненных организациях, несмотря на технические, социальные и, возможно, юридические последствия, связанные с разработкой и исполнением алгоритма. Не все решения потребуют такого анализа между группами, но когда эти решения несут риск реального вреда, их следует использовать.В целях снижения предвзятости и управления рисками, связанными с алгоритмом, совместные рабочие группы могут компенсировать слепые пятна, которые часто упускаются в небольших, сегментированных беседах и обзорах. Объединение экспертов из различных отделов, дисциплин и секторов поможет разработать стандарты подотчетности и стратегии для смягчения предубеждений в Интернете, в том числе в инженерном, юридическом, маркетинговом, стратегическом и коммуникационном направлениях.
Межфункциональные рабочие группы — независимо от того, руководят ли они внутренними или внешними экспертами — могут попытаться выявить предвзятость до и во время развертывания модели.Кроме того, партнерство между частным сектором, академическими кругами и организациями гражданского общества также может способствовать большей прозрачности в применении ИИ в различных сценариях, особенно тех, которые влияют на защищенные классы или распространяются в общественных интересах. Кейт Кроуфорд, исследователь ИИ и основатель AI Now Partnership, предположила, что «замкнутые циклы не открыты для алгоритмического аудита, обзора или публичного обсуждения», потому что они обычно усугубляют проблемы, которые они пытаются решить. 49 Далее по этому поводу участница круглого стола Наташа Дуарте из Центра демократии и технологий обратилась к проблеме Аллегени, сказав: «[C] компании должны быть более открытыми при описании ограничений своих технологий, а правительство должно знать, какие вопросы спрашивать в своих оценках », что говорит о важности более тесного сотрудничества в этой области.
Увеличить участие человека в разработке и мониторинге алгоритмовДаже с учетом всех перечисленных выше мер предосторожности все еще существует определенный риск того, что алгоритмы будут принимать необъективные решения.Люди будут продолжать играть роль в выявлении и исправлении предвзятых результатов еще долгое время после того, как алгоритм будет разработан, протестирован и запущен. Хотя больше данных может использоваться для автоматизированного принятия решений, этот процесс должен дополнять, а не полностью заменять человеческое суждение. Участник круглого стола Алекс Пейсахович из Facebook поделился: «Нам не нужно устранять модераторов-людей. Нам нужно нанять больше сотрудников и заставить их сосредоточиться на крайних случаях ». Такое мнение становится все более важным в этой области, поскольку сравнительные преимущества людей и алгоритмов становятся более различимыми, а использование того и другого улучшает результаты для онлайн-пользователей.
Люди будут продолжать играть роль в выявлении и исправлении предвзятых результатов еще долгое время после того, как алгоритм будет разработан, протестирован и запущен. (Фото: Gabrielle Lurie / Reuters)Однако последствия для конфиденциальности возникнут, когда больше людей будут участвовать в управлении алгоритмами, особенно если при создании модели или при проверке предсказаний алгоритма на предмет предвзятости задействована более конфиденциальная информация. Сроки проведения круглых столов, которые также произошли в связи с принятием GDPR в ЕС, говорят о необходимости усиления принципов конфиденциальности потребителей, когда пользователи имеют право выбирать, какими данными они хотят делиться с компаниями.Поскольку в настоящее время в США обсуждается необходимость принятия федерального законодательства о конфиденциальности, доступ к персональным данным и их использование могут стать еще более трудными, что потенциально может сделать алгоритмические модели более предвзятыми. Поскольку ценности создателей и пользователей алгоритмов меняются со временем, люди должны решать конфликты между результатами и заявленными целями. В дополнение к периодическим аудитам участие человека обеспечивает постоянную обратную связь по эффективности усилий по снижению предвзятости.
Другие рекомендации по государственной политике
Как указано в документе, политики играют решающую роль в выявлении и смягчении предубеждений, обеспечивая при этом, чтобы технологии продолжали приносить положительные экономические и социальные выгоды.
Конгрессу следует внедрить нормативные «песочницы» и «безопасные гавани», чтобы обуздать онлайн-предубежденияНормативные «песочницы» воспринимаются как одна из стратегий создания временных отсрочек от регулирования, позволяющих технологиям и правилам, связанным с их использованием, развиваться вместе. Эти правила могут применяться к алгоритмической предвзятости и другим областям, где рассматриваемая технология не имеет аналогов, охватываемых существующими правилами. Вместо того, чтобы расширять сферу действия существующих правил или создавать правила в ожидании потенциального вреда, песочница позволяет внедрять инновации как в технологии, так и в ее регулировании.Даже в жестко регулируемой отрасли создание «песочниц», где инновации могут быть протестированы наряду с более легкими правилами касания, может принести пользу.
«Вместо того, чтобы расширять сферу действия существующих правил или создавать правила в ожидании потенциального вреда, песочница позволяет внедрять инновации как в технологии, так и в ее регулировании».
Например, компании финансового сектора, использующие технологии или финтех, показали, как нормативные «песочницы» могут стимулировать инновации в разработке новых продуктов и услуг. 50 Эти компании широко используют алгоритмы для всего, от выявления мошенничества до принятия решения о предоставлении кредита. Некоторые из этих действий повторяют действия обычных банков, и они по-прежнему подпадают под существующие правила, но в песочнице будут разрешены новые способы решения задач. 51 Поскольку «песочницы» дают новаторам большую свободу действий при разработке новых продуктов и услуг, им потребуется активный контроль до тех пор, пока технологии и нормативные требования не станут зрелыми. Министерство финансов США недавно сообщило не только о преимуществах, которые получили страны, внедрившие нормативные песочницы в сфере финансовых технологий, но и рекомендовало U.S. применяют «песочницы» для финансовых технологий, чтобы стимулировать инновации. 52 Учитывая широкую полезность алгоритмов для стимулирования инноваций в различных регулируемых отраслях, участники круглых столов рассмотрели потенциальную полезность расширения регуляторных «песочниц» на другие области, где алгоритмы могут помочь стимулировать инновации.
Могут также использоваться регулирующие безопасные гавани, где регулирующий орган может указать, какие виды деятельности не нарушают существующие правила. 53 Преимущество этого подхода заключается в повышении регуляторной определенности для разработчиков и операторов алгоритмов.Например, раздел 230 Закона о порядочности в коммуникациях снял с веб-сайтов ответственность за действия их пользователей — положение, широко известное благодаря развитию таких интернет-компаний, как Facebook и Google. Позже это исключение сузилось, чтобы исключить торговлю людьми в целях сексуальной эксплуатации с принятием Закона о запрете сексуальной торговли в Интернете и Закона о борьбе с торговлей людьми в Интернете. Применение аналогичного подхода к алгоритмам могло бы освободить их операторов от ответственности в определенных контекстах, сохраняя при этом защиту в других, где вред легче идентифицировать.В соответствии с предыдущим обсуждением использования определенных защищенных атрибутов, можно было бы рассмотреть безопасные гавани в тех случаях, когда сбор конфиденциальной личной информации используется для конкретных целей обнаружения и смягчения предвзятости.
Потребителям нужна более высокая алгоритмическая грамотностьШироко распространенная алгоритмическая грамотность имеет решающее значение для смягчения предвзятости. Учитывая более широкое использование алгоритмов во многих аспектах повседневной жизни, все потенциальные субъекты автоматизированных решений выиграют от знания того, как эти системы функционируют.Подобно тому, как компьютерная грамотность теперь считается жизненно важным навыком в современной экономике, вскоре может потребоваться понимание того, как алгоритмы используют свои данные.
Субъекты, принимающие автоматизированные решения, заслуживают знать, когда на них негативно сказывается предвзятость, и как реагировать, когда это происходит. Отзывы пользователей могут поделиться и предвидеть области, в которых может проявиться предвзятость в существующих и будущих алгоритмах. Со временем создатели алгоритмов могут активно запрашивать обратную связь от широкого круга субъектов данных, а затем предпринимать шаги для просвещения общественности о том, как работают алгоритмы, чтобы помочь в этих усилиях.Государственные агентства, регулирующие предвзятость, также могут работать над повышением алгоритмической грамотности в рамках своей миссии. Как в государственном, так и в частном секторе те, кто больше всего потеряет от необъективного принятия решений, также могут сыграть активную роль в его выявлении.
Заключение
В декабре 2018 года президент Трамп подписал Закон о первом шаге, новое законодательство в области уголовного правосудия, которое поощряет использование алгоритмов по всей стране. 54 В частности, система будет использовать алгоритм для первоначального определения, кто может использовать кредиты заработанного времени — сокращение срока наказания за завершение образовательных, профессиональных или реабилитационных программ — за исключением заключенных, считающихся более подверженными риску.Существует вероятность того, что эти алгоритмы увековечивают расовые и классовые различия, которые уже встроены в систему уголовного правосудия. В результате афроамериканцы и бедняки в целом с большей вероятностью будут отбывать более длительные сроки тюремного заключения.
«Когда алгоритмы разрабатываются ответственно, они могут избежать печальных последствий усиленной системной дискриминации и неэтичных приложений».
Как указано в документе, эти типы алгоритмов должны вызывать беспокойство, если не существует процесса, который включает в себя техническую осмотрительность, справедливость и равенство от разработки до исполнения.То есть, когда алгоритмы разрабатываются ответственно, они могут избежать печальных последствий усиленной системной дискриминации и неэтичных приложений.
Для одних решений лучше всего подходят алгоритмы и другие инструменты искусственного интеллекта, в то время как другие могут потребовать вдумчивого рассмотрения перед проектированием компьютерных моделей. Кроме того, тестирование и анализ определенных алгоритмов также позволит выявить и, в лучшем случае, смягчить дискриминационные результаты. Для операторов алгоритмов, стремящихся снизить риск и осложнения плохих результатов для потребителей, продвижение и использование предложений по смягчению последствий может создать путь к алгоритмической справедливости, даже если справедливость никогда не будет полностью реализована.
Институт Брукингса — некоммерческая организация, занимающаяся независимыми исследованиями и политическими решениями. Его миссия — проводить качественные независимые исследования и на основе этих исследований предоставлять инновационные практические рекомендации для политиков и общественности. Выводы и рекомендации любой публикации Brookings принадлежат исключительно ее авторам и не отражают точку зрения Учреждения, его руководства или других ученых.
Amazon, Facebook, Google, IBM и Microsoft предоставляют общую неограниченную поддержку The Brookings Institution.Пол Резник также является консультантом Facebook, но эта работа является независимой, и его взгляды, выраженные здесь, являются его собственными. На находки, интерпретации и выводы, опубликованные в этой статье, пожертвования не повлияли. Brookings осознает, что ценность, которую он предоставляет, заключается в его абсолютной приверженности качеству, независимости и влиянию. Мероприятия, поддерживаемые донорами, отражают это обязательство.
Приложение: Список участников круглого стола
Участник | Организация |
Венди Андерсон | Офис конгрессмена Вэл Демингс |
Норберто Андраде | |
Солон Барокас | Корнельский университет |
Джини Бартон | Privacy Genie |
Рикардо Баеза-Йейтс | NTENT |
Миранда Боген | Восход |
Джон Брешиа | Бюро лучшего бизнеса |
Джули Брилл | Microsoft |
Рич Каруана | Microsoft Research |
Эли Коэн | Институт Брукингса |
Анупам Датта | Карнеги-Меллон |
Девен Десаи | Технологический институт Джорджии |
Наташа Дуарте | Центр демократии и технологий |
Надя Фаваз | |
Лаура Фрагомени | Walmart Глобальная электронная коммерция |
Шарад Гоэль | Стэнфордский университет |
Скотт Голдер | Корнельский университет |
Аарон Халфакер | Викимедиа |
Сара Холланд | |
Джек Карстен | Институт Брукингса |
Кришнарам Кентапади | LinkedIn и Стэнфордский университет |
Джон Кляйнберг | Корнельский университет |
Изабель Клуманн | |
Джейк Меткалф | Этическое решение |
Алексей Пейсахович | |
Пол Резник | Мичиганский университет |
Уильям Райнхарт | Американский форум действий |
Алекс Розенблат | Данные и общество |
Джейк Шнайдер | Институт Брукингса |
Jasjeet Sekhon | Калифорнийский университет в Беркли |
Роб Шерман | |
Джоанн Стоунье | Mastercard в мире |
Никол Тернер Ли | Институт Брукингса |
Люси Вассерман | Проект Jigsaw’s Conversation AI / Google |
Суреш Венкатасубраманиан | Университет штата Юта |
Джон Верди | Форум о будущем конфиденциальности |
Хизер Уэст | Mozilla |
Джейсон Йосинки | Убер |
Цзиньянь Занг | Гарвардский университет |
Лейла Зия | Фонд Викимедиа |
Список литературы
Ангвин, Джулия и Терри Пэррис-младший.«Facebook позволяет рекламодателям исключать пользователей по расе». Текст / HTML. ProPublica, 28 октября 2016 г. https://www.propublica.org/article/facebook-lets-advertisers-exclude-users-by-race.
Ангвин, Джулия, Джефф Ларсон, Сурья Матту и Лаура Киршнер. «Машинный уклон». ProPublica, 23 мая 2016 г. Доступно по адресу https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing (последнее посещение — 19 апреля 2019 г.).
Барокас, Солон и Эндрю Д. Селбст, «Разрозненное влияние больших данных», Научная статья SSRN (Рочестер, штат Нью-Йорк: Сеть социальных исследований, 2016.Доступно на https://papers.ssrn.com/abstract=2477899.
Бласс, Андреа и Юрий Гуревич. Алгоритмы: поиск абсолютных определений. Бюллетень Европейской ассоциации теоретической информатики 81, 2003 г. https://www.microsoft.com/en-us/research/wp-content/uploads/2017/01/164.pdf (последний доступ 12 апреля 2019 г.).
Бреннан, Тим, Уильям Дитрих и Беата Эрет. «Оценка прогностической достоверности системы оценки рисков и потребностей КОМПАС». Уголовное правосудие и поведение 36 (2009): 21–40.
Чессел, Мэнди. «Этика для больших данных и аналитики». IBM, без даты. Доступно по адресу https://www.ibmbigdatahub.com/sites/default/files/whitepapers_reports_file/TCG%20Study%20Report%20-%20Ethics%20for%20BD%26A.pdf (последнее посещение — 19 апреля 2019 г.).
Ходош, Сара. «Суды используют алгоритмы для определения приговора, но случайные люди получают те же результаты». Popular Science, 18 января 2018 г. Доступно по адресу https://www.popsci.com/recidivism-algorithm-random-bias (последний доступ 15 октября 2018 г.).
Корбетт-Дэвис, Сэм, Эмма Пирсон, Ави Феллер и Шарад Гоэль. «Компьютерная программа, используемая для принятия решений об освобождении под залог и вынесении приговора, была названа предвзятой против чернокожих. На самом деле все не так ясно «. Washington Post (блог), 17 октября 2016 г. Доступно по адресу https://www.washingtonpost.com/news/monkey-cage/wp/2016/10/17/can-an-algorithm-be-racist-our-analysis -is-more-cautious-than-propublicas / (последнее посещение — 19 апреля 2019 г.).
Корбетт-Дэвис, Сэм, Эмма Пирсон, Ави Феллер, Шарад Гоэль и Азиз Хук.«Принятие алгоритмических решений и цена справедливости». ArXiv: 1701.08230 [Cs, Stat], 27 января 2017 г. https://doi.org/10.1145/3097983.309809.
Кортленд, Рэйчел. «Детективы с предвзятостью: исследователи, стремящиеся сделать алгоритмы справедливыми», журнал Nature 558, вып. 7710 (июнь 2018 г.): 357–60. Доступно по адресу https://doi.org/10.1038/d41586-018-05469-3 (последний доступ 19 апреля 2019 г.).
ДеАнджелиус, Стивен Ф. «Искусственный интеллект: как алгоритмы делают системы умными», Wired Magazine, сентябрь 2014 г.Доступно по адресу https://www.wired.com//insights/2014/09/artificial-intelligence-algorithms-2/ (последнее посещение — 12 апреля 2019 г.).
Элехальде-Руис, Алексия. «Конец резюме? Наем сотрудников происходит в разгар технологической революции с алгоритмами, чат-ботами ». Чикаго Трибьюн (19 июля 2018 г.). Доступно по адресу http://www.chicagotribune.com/business/ct-biz-artificial-intelligence-hiring-20180719-story.html.
Юбэнкс, Вирджиния. «Модель прогнозирования жестокого обращения с детьми не помогает бедным семьям», Wired, 15 января 2018 г.Доступно по адресу https://www.wired.com/story/excerpt-from-automating-inequality/ (последнее посещение — 19 апреля 2019 г.).
Слушание FTC № 7: Проблемы конкуренции и защиты потребителей алгоритмов, искусственного интеллекта и прогнозной аналитики, § Федеральная торговая комиссия (2018). https://www.ftc.gov/system/files/documents/public_events/1418693/ftc_hearings_session_7_transcript_day_2_11-14-18.pdf.
Гарбаде, Майкл Дж. «Устранение путаницы: искусственный интеллект против машинного обучения против различий в глубоком обучении», Наука о данных, 14 сентября 2018 г.Доступно по адресу https: // todatascience // clearing-the-confusion-ai-vs-machine-learning-vs-deep-learning-sizes-fce69b21d5eb (последнее посещение — 12 апреля 2019 г.).
Griggs v. Duke Power Company, Oyez. Доступно на https://www.oyez.org/case/ 1970/124 (по состоянию на 1 октября 2018 г.).
Герен, Лиза. «Дискриминация по разным последствиям». www.nolo.com. Доступно по адресу https://www.nolo.com/legal-encyclopedia/disparate-impact-discrimination.htm (последний доступ 24 апреля 2019 г.).
Хадхази, Адам.«Предвзятые боты: системы искусственного интеллекта отражают человеческие предрассудки». Принстонский университет, 18 апреля 2017 г. Доступно по адресу https://www.princeton.edu/news/2017/04/18/biased-bots-artificial-intelligence-systems-echo-human-prejudices (последнее посещение — 20 апреля 2019 г. ).
Гамильтон, Изобель Ашер. «Почему совершенно неудивительно, что ИИ для найма персонала Amazon был настроен против женщин». Business Insider, 13 октября 2018 г. Доступно по адресу https://www.businessinsider.com/amazon-ai-biased-against-women-no-surprise-sandra-wachter-2018-10 (последний доступ 20 апреля 2019 г.).
Хардести, Ларри. «Исследование обнаруживает предвзятость по признаку пола и типа кожи в коммерческих системах искусственного интеллекта». MIT News, 11 февраля 2018 г. Доступно по адресу http://news.mit.edu/2018/study-finds-gender-skin-type-bias-artificial-intelligence-systems-0212 (последнее посещение — 19 апреля 2019 г.).
Группа экспертов высокого уровня по искусственному интеллекту. «Рекомендации по этике надежного ИИ (проект)». Европейская комиссия, 18 декабря 2018 г.
Ингольд, Дэвид и Спенсер Сопер. «Amazon не принимает во внимание гонку своих клиентов.Должен ли он? » Bloomberg.com, 21 апреля 2016 г. http://www.bloomberg.com/graphics/2016-amazon-same-day/.
Кирнс, Майкл. «Конфиденциальность данных, машинное обучение и конфиденциальность потребителей». Школа права Университета Пенсильвании, май 2018 г. Доступно по адресу https://www.law.upenn.edu/live/files/7952-kearns-finalpdf (последнее посещение — 12 апреля 2019 г.).
Кляйнберг, Джон, Сендхил Муллайнатан и Маниш Рагхаван, «Неотъемлемые компромиссы в справедливом определении оценок риска». В Трудах инноваций в теоретической информатике (ITCS), 2017.Доступно по адресу https://arxiv.org/pdf/1609.05807.pdf (по состоянию на 19 апреля 2019 г.).
Ларсон, Джефф, Сурья Матту и Джулия Ангвин. «Непредвиденные последствия географического нацеливания». Technology Science, 1 сентября 2015 г. Доступно по адресу https://techscience.org/a/20150
/ (последний доступ 19 апреля 2019 г.).Локлир, Мэллори. «Facebook публикует обновленную информацию о своей проверке соблюдения гражданских прав». Engadget (блог), 18 декабря 2018 г. Доступно по адресу https://www.engadget.com/2018/12/18/facebook-update-civil-rights-audit/ (последнее посещение — 19 апреля 2019 г.).
Лопес, немец. «Разъяснение Закона о первом шаге, законопроекта Конгресса о реформе уголовного правосудия». Vox, 3 декабря 2018 г. Доступно по адресу https://www.vox.com/future-perfect/2018/12/3/18122392/first-step-act-criminal-justice-reform-bill-congress (последнее посещение — апрель. 16, 2019).
Мнучин, Стивен Т. и Крейг С. Филлипс. «Финансовая система, которая создает экономические возможности — небанковские финансы, финтех и инновации». Вашингтон, округ Колумбия: Министерство финансов США, июль 2018 г.Доступно по адресу https://home.treasury.gov/sites/default/files/2018-08/A-Financial-System-that-Creates-Economic-Opportunities—Nonbank-Financials-Fintech-and-Innovation_0.pdf (последний доступ 19 апреля 2019 г.).
Райзман, Диллон, Джейсон Шульц, Кейт Кроуфорд и Мередит Уиттакер. «Алгоритмическая оценка воздействия: практическая основа подотчетности государственного агентства». Нью-Йорк: AI Now, апрель 2018 г.
Ромеи, Андреа и Сальваторе Руджери. «Анализ данных о дискриминации: многопрофильная библиография.”В Дискриминации и конфиденциальности в информационном обществе, под редакцией Барта Кастерса, Т. Колдерса, Б. Шермера и Т. Зарски, 109–35. Исследования в области прикладной философии, эпистемологии и рациональной этики. Springer, Berlin, Heidelberg, 2013. Доступно по адресу https://doi.org/10.1007/978-3-642-30487-3_6 (по состоянию на 19 апреля 2019 г.).
Шац, Брайан. AI в Постановлении Правительства от 2018 г., Pub. L. No. S.B. 3502 (2018). https://www.congress.gov/bill/115th-congress/senate-bill/3502.
Шпилькамп, Матиас.«Нам нужно пролить больше света на алгоритмы, чтобы они могли помочь уменьшить предвзятость, а не закрепить ее». Обзор технологий Массачусетского технологического института. По состоянию на 20 сентября 2018 г. Доступно по адресу https://www.technologyreview.com/s/607955/inspecting-algorithms-for-bias/ (по состоянию на 19 апреля 2019 г.).
Стек, Лиам. «Facebook объявляет о новой политике запрета контента белых националистов». The New York Times, 28 марта 2019 г., сек. Бизнес. Доступно по адресу https://www.nytimes.com/2019/03/27/business/facebook-white-nationalist-supremacist.html (по состоянию на 19 апреля 2019 г.).
Суини, Латанья и Цзиньян Занг. «Насколько правильными могут быть решения по аналитике больших данных при размещении рекламы?» Презентация Powerpoint, представленная на конференции Федеральной торговой комиссии, Вашингтон, округ Колумбия, «Большие данные: инструмент для включения или исключения». 15 сентября 2014 г. Доступно по адресу https://www.ftc.gov/systems/files/documents/public_events/313371/bigdata-slides-sweeneyzang-9_15_14.pdf (по состоянию на 12 апреля 2019 г.).
Суини, Латания. «Дискриминация при размещении онлайн-рекламы.”Рочестер, штат Нью-Йорк: Сеть социальных исследований, 28 января 2013 г. Доступно по адресу https://papers.ssrn.com/abstract=2208240 (последний доступ 12 апреля 2019 г.).
Сиделл, Лора. «Это не я, детка: исследователи обнаружили недостатки в полицейской технологии распознавания лиц». NPR.org, 25 октября 2016 г. Доступно по адресу https://www.npr.org/sections/alltechconsidered/2016/10/25/4969/it-aint-me-babe-researchers-find-flaws-in-police -facial-распознавание (последний доступ: 19 апреля 2019 г.).
«Глобальный проект по этике данных.”Data for Democracy, n.d. https://www.datafordemocracy.org/project/global-data-ethics-project (последний доступ 19 апреля 2019 г.).
Тобин, Ариана. «HUD подает в суд на Facebook за дискриминацию в сфере жилья и заявляет, что алгоритмы компании усугубили проблему». ProPublica (28 марта 2019 г.). Доступно по адресу https://www.propublica.org/article/hud-sues-facebook-housing-discrimination-advertising-algorithms (последний доступ 29 апреля 2019 г.).
Тернер Ли, Никол. «Инклюзия в технологии: как разнообразие приносит пользу всем американцам», § Подкомитет по защите потребителей и торговле, Комитет Палаты представителей США по энергетике и торговле (2019).Также доступно на веб-сайте Брукингса https://www.brookings.edu/testimonies/inclusion-in-tech-how-diversity-benefits-all-americans/ (последнее посещение — 29 апреля 2019 г.).
Тернер Ли, Никол. Обнаружение расовой предвзятости в алгоритмах и машинном обучении. Журнал информации, коммуникации и этики в обществе 2018, Vol. 16 Выпуск 3, стр. 252-260. Доступно по адресу https://doi.org/10.1108/JICES-06-2018-0056/ (последний доступ 29 апреля 2019 г.).
«Понимание предвзятости в алгоритмическом дизайне», Impact.Engineered, 5 сентября 2017 г. Доступно по адресу https://medium.com/impact-engineered/understanding-bias-in-algorithmic-design-db9847103b6e (последний доступ 12 апреля 2019 г.).
Винсент, Джеймс. «Amazon, как сообщается, отказывается от инструмента найма внутреннего ИИ, который был настроен против женщин». The Verge, 10 октября 2018 г. Доступно по адресу https://www.theverge.com/2018/10/10/17958784/ai-recruiting-tool-bias-amazon-report (последний доступ 20 апреля 2019 г.).
Зафар, Мухаммад Билал, Изабель Валера Мартинес, Мануэль Гомес Родригес и Кришна Гуммади.«Ограничения справедливости: механизм справедливой классификации». В материалах 20-й Международной конференции по искусственному интеллекту и статистике (AISTATS). Форт-Лодердейл, Флорида, 2017.
Зарский, Тал. «Понимание дискриминации в оцениваемом обществе». Научная статья ССРН. Рочестер, штат Нью-Йорк: Сеть исследований в области социальных наук, 15 января 2015 г. https://papers.ssrn.com/abstract=2550248.
Объяснение алгоритмов и предвзятости — Vox
Люди склонны к ошибкам и предвзяты, но это не значит, что алгоритмы обязательно лучше.Тем не менее, технология уже принимает важные решения о вашей жизни и потенциально определяет, какую политическую рекламу вы видите, как проверяется ваше заявление о работе вашей мечты, как полицейские размещаются в вашем районе и даже прогнозируют риск пожара в вашем доме.
Но эти системы могут быть предвзятыми в зависимости от того, кто их создает, как они разрабатываются и как в конечном итоге используются. Это широко известно как алгоритмическое смещение. Трудно точно понять, как системы могут быть подвержены алгоритмической предвзятости, тем более что эта технология часто работает в корпоративном черном ящике.Мы часто не знаем, как был разработан конкретный искусственный интеллект или алгоритм, какие данные помогли его создать или как он работает.
Обычно вы знаете только конечный результат: как он повлиял на вас, если вы даже знаете, что ИИ или алгоритм использовались в первую очередь. Вы получили работу? Вы видели эту рекламу Дональда Трампа на своей временной шкале в Facebook? Вас идентифицировала система распознавания лиц ? Это делает борьбу с предубеждениями искусственного интеллекта сложной, но еще более важной для понимания.
Системы на основе машинного обучения обучаются на данных. Очень много.
Размышляя об инструментах «машинного обучения» (машинное обучение — это разновидность искусственного интеллекта), лучше подумать об идее «обучения». Это включает в себя предоставление компьютеру набора данных — любого типа данных — а затем этот компьютер учится делать суждения или прогнозы относительно информации, которую он обрабатывает, на основе наблюдаемых им закономерностей.
Например, в очень упрощенном примере , допустим, вы хотите научить свою компьютерную систему распознавать, является ли объект книгой, на основе нескольких факторов, таких как его текстура, вес и размеры.Человек мог бы сделать это, но компьютер мог бы сделать это быстрее.
Для обучения системы вы показываете компьютерные метрики, относящиеся к множеству различных объектов. Вы даете компьютерной системе метрики для каждого объекта и сообщаете компьютеру, когда это книги, а когда нет. После непрерывного тестирования и доработки система должна узнать, что указывает на книгу, и, надеюсь, суметь предсказать в будущем, является ли объект книгой, в зависимости от этих показателей, без помощи человека.
Звучит относительно просто. И это могло бы быть, если бы ваш первый пакет данных был правильно классифицирован и включал хороший набор показателей, охватывающих множество разных типов книг. Однако эти системы часто применяются в ситуациях, которые имеют гораздо более серьезные последствия, чем эта задача, и в сценариях, где не обязательно есть «объективный» ответ. Часто данные, на основе которых обучаются или проверяются многие из этих систем принятия решений, часто не являются полными, сбалансированными или выбранными надлежащим образом, и это может быть основным источником — хотя, конечно, не единственным источником — алгоритмической предвзятости.
Никол Тернер-Ли, научный сотрудник Центра технологических инноваций аналитического центра Брукингского института, объясняет, что мы можем думать об алгоритмической предвзятости двумя основными способами: точностью и воздействием. ИИ может иметь разные показатели точности для разных демографических групп. Точно так же алгоритм может принимать совершенно разные решения применительно к разным группам населения.
Важно отметить, что когда вы думаете о данных, вы можете подумать об официальных исследованиях, в которых тщательно рассматриваются демография и представительство, взвешиваются ограничения, а затем результаты рецензируются.Это не обязательно относится к системам на основе искусственного интеллекта, которые могут использоваться для принятия решения о вас. Возьмем один источник данных, к которому у каждого есть доступ: Интернет. Одно исследование показало, что, обучая искусственный интеллект ползать по Интернету — и просто читая то, что люди уже написали, — система порождает предубеждения против чернокожих людей и женщин.
Еще один пример того, как обучающие данные могут вызвать сексизм в алгоритме, произошел несколько лет назад, когда Amazon попыталась использовать ИИ для создания инструмента для проверки резюме.Согласно Reuters, компания надеялась, что технологии могут сделать процесс сортировки заявлений о приеме на работу более эффективным. Она построила алгоритм отбора на основе резюме, которое компания собирала за десять лет, но эти резюме, как правило, исходили от мужчин. Это означало, что система, в конце концов, научилась дискриминировать женщин. В итоге также учитывались прокси для пола, например, поступила ли заявительница в женский колледж. (Amazon заявляет, что этот инструмент никогда не использовался и не работал по нескольким причинам.)
На фоне обсуждений алгоритмических предубеждений компании, использующие ИИ, могут сказать, что они принимают меры предосторожности, принимают меры для использования более репрезентативных обучающих данных и регулярно проверяют свои системы на предмет непреднамеренной предвзятости и несопоставимого воздействия на определенные группы. Но Лили Ху, докторант Гарвардского университета прикладной математики и философии, изучающая справедливость ИИ, говорит, что это не гарантия того, что ваша система будет работать справедливо в будущем.
«У вас нет никаких гарантий, потому что ваш алгоритм работает« честно »на вашем старом наборе данных», — сказал Ху Recode.«Это просто фундаментальная проблема машинного обучения. Машинное обучение работает со старыми данными [и] с данными обучения. И это не работает с новыми данными, потому что мы еще не собрали эти данные ».
Тем не менее, не следует ли нам просто создавать более репрезентативные наборы данных? Это может быть частью решения, хотя стоит отметить, что не все усилия, направленные на создание более качественных наборов данных, этичны. И дело не только в данных. Как объясняет Карен Хао из MIT Tech Review, искусственный интеллект также может быть разработан для постановки проблемы в принципиально проблемной форме.Например, алгоритм, разработанный для определения «кредитоспособности», который запрограммирован на максимизацию прибыли, может в конечном итоге принять решение о выдаче хищнических субстандартных кредитов.
Вот еще одна вещь, о которой следует помнить: только потому, что инструмент проверяется на предвзятость — что предполагает, что инженеры, проверяющие предвзятость, действительно понимают, как проявляется и действует предвзятость — против одной группы, не означает, что он проверяется на предвзятость относительно другого типа. группы. Это также верно, когда алгоритм учитывает несколько типов факторов идентичности одновременно: инструмент может считаться достаточно точным, например, для белых женщин, но это не обязательно означает, что он работает с чернокожими женщинами.
В некоторых случаях бывает невозможно найти данные по обучению без предвзятости. Возьмем исторические данные, предоставленные системой уголовного правосудия США. Трудно представить, чтобы данные, предоставленные учреждением, изобилующим системным расизмом, можно было использовать для создания эффективного и справедливого инструмента. Как отмечают исследователи из Нью-Йоркского университета и Института AI Now, в инструменты прогнозной полицейской деятельности могут поступать «грязные данные», в том числе модели полицейской деятельности, которые отражают сознательные и неявные предубеждения полицейских департаментов, а также коррупцию в полиции.
Основополагающие предположения инженеров также могут быть предвзятыми
Итак, у вас могут быть данные для построения алгоритма. Но кто его разрабатывает и кто решает, как его развертывать? Кто решает, какой уровень точности и неточности для разных групп является приемлемым? Кто решает, какие применения ИИ этичны, а какие нет?
Несмотря на то, что не существует большого количества исследований, посвященных демографии в области искусственного интеллекта, мы знаем, что в ИИ, как правило, доминируют мужчины.По данным Комиссии по равным возможностям при трудоустройстве, в «высокотехнологичном» секторе в более широком смысле, как правило, преобладают белые люди и недопредставлены чернокожие и латиноамериканцы.
Тернер-Ли подчеркивает, что нам нужно подумать о том, кто получит место за столом, когда будут предложены эти системы, поскольку эти люди в конечном итоге формируют дискуссию об этичном развертывании своих технологий.
Но есть и более широкий вопрос: на какие вопросы нам может помочь искусственный интеллект.Ху, исследователь из Гарварда, утверждает, что для многих систем вопрос построения «справедливой» системы по сути бессмысленен, потому что эти системы пытаются ответить на социальные вопросы, на которые не обязательно есть объективный ответ. Например, Ху говорит, что алгоритмы, которые утверждают, что предсказывают рецидив человека, в конечном итоге не решают этический вопрос о том, заслуживает ли кто-то условно-досрочное освобождение.
«На этот вопрос нельзя ответить объективно, — говорит Ху. «Когда вы затем вставляете систему искусственного интеллекта, алгоритмическую систему [или] компьютер, это не меняет фундаментального контекста проблемы, заключающегося в том, что проблема не имеет объективного ответа.По сути, это вопрос того, каковы наши ценности и какова цель системы уголовного правосудия ».
Имейте в виду, что некоторые алгоритмы, вероятно, не должны существовать, или, по крайней мере, они не должны сопровождаться таким высоким риском злоупотреблений. То, что технология точна, не делает ее справедливой или этичной. Например, китайское правительство использовало искусственный интеллект для отслеживания и расового профилирования своего преимущественно мусульманского уйгурского меньшинства, около 1 миллиона из которых, как полагают, живут в лагерях для интернированных.
Прозрачность — первый шаг к ответственности
Одна из причин, по которой алгоритмическая предвзятость может казаться такой непонятной, заключается в том, что мы сами по себе обычно не можем сказать, когда это происходит (или есть ли алгоритм вообще). По словам Тернер-Ли, это была одна из причин, по которой разногласия по поводу мужа и жены, которые подали заявку на получение карты Apple Card — и у них были очень разные кредитные лимиты, — привлекли столько внимания. Это был редкий случай, когда два человека, по крайней мере, казалось, использовали один и тот же алгоритм и могли легко сравнивать записи.Подробности этого дела до сих пор не ясны, хотя в настоящее время регулирующие органы проверяют наличие кредитной карты компании.
Но потребители могут редко сравнивать результаты алгоритмов, и это одна из причин, по которой сторонники требуют большей прозрачности в отношении того, как работают системы, и их точности. В конце концов, это, вероятно, не та проблема, которую мы можем решить на индивидуальном уровне. Даже если мы действительно понимаем, что алгоритмы могут быть предвзятыми, это не значит, что компании будут прямо разрешать посторонним изучать их искусственный интеллект.Это стало проблемой для тех, кто выступает за более справедливые технологические системы. Как вы можете критиковать алгоритм — своего рода черный ящик — если у вас нет настоящего доступа к его внутренней работе или способности проверить большое количество его решений?
Компаниив целом утверждают, что они точны, но не всегда раскрывают свои данные по обучению (помните, что это данные, которые использует искусственный интеллект перед оценкой новых данных , например, вашего заявления о приеме на работу).Многие, похоже, не подвергаются аудиту со стороны стороннего оценщика или публично не рассказывают, как работают их системы в применении к различным демографическим группам. Некоторые исследователи, такие как Джой Буоламвини и Тимнит Гебру, говорят, что обмен этой демографической информацией как о данных, используемых для обучения, так и о данных, используемых для проверки искусственного интеллекта, должен быть базовым определением прозрачности.
Искусственный интеллект — новое явление, но это не означает, что существующие законы не применяются
Скорее всего, нам понадобятся новые законы для регулирования искусственного интеллекта, и некоторые законодатели пытаются наверстать упущенное.Есть закон, который заставит компании проверять свои системы искусственного интеллекта на предмет предвзятости через Федеральную торговую комиссию (FTC). Также был предложен закон, регулирующий распознавание лиц и даже запрещающий эту технологию в государственном жилищном фонде с федеральной поддержкой.
Но Тернер-Ли подчеркивает, что новое законодательство не означает, что существующие законы или агентства не имеют права проверять эти инструменты, даже если есть некоторая неопределенность. Например, FTC наблюдает за действиями и методами обмана, которые могут дать агентству полномочия над некоторыми инструментами на основе ИИ.
Комиссия по равным возможностям при трудоустройстве, которая расследует дискриминацию при приеме на работу, как сообщается, изучает как минимум два дела, связанных с алгоритмической дискриминацией. В то же время Белый дом поощряет федеральные агентства, которые выясняют, как регулировать искусственный интеллект, учитывать технологические инновации. Это поднимает вопрос о том, готово ли правительство изучать эту технологию и управлять ею, а также выяснить, как применяются существующие законы.
«У вас есть группа людей, которые действительно очень хорошо это понимают, и это будут технологи, — предупреждает Тернер-Ли, — и группа людей, которые на самом деле вообще этого не понимают или имеют минимальное понимание, и это будут политиками ».
Это не означает, что не предпринимаются технические усилия по устранению предвзятости несовершенного искусственного интеллекта, но важно помнить, что эта технология не станет решением фундаментальных проблем справедливости и дискриминации.И, как показывают примеры, которые мы рассмотрели, нет никаких гарантий, что компании, создающие или использующие эту технологию, будут следить за тем, чтобы она не носила дискриминационный характер, особенно без юридического мандата на это.