Рентгеновские лучи «видят» буквально насквозь, но даже профессионал не сможет определить по снимку, человек какой расы на нем изображен. Но то, на что не способен человек, оказалось под силу искусственному интеллекту. Этому загадочному феномену посвящена свежая статья в The Lancet Digital Health.
Международная команда исследователей, куда вошли ученые из MIT и Медицинской школы Гарвардского университета, обнаружили, что алгоритм, натренированный читать рентгеновские и снимки КТ с 90%-й точностью предсказывают расовую принадлежность объекта съемки. Сами ученые не могут объяснить, как ИИ это удается, но они обеспокоены: может ли алгоритмический «расизм» повлиять на решения врачей о диагнозе и лечении?
Unsplash.com
Тема интересная, но проблема явно надуманна. Как минимум непонятно (и в тексте это не объясняется), чем плохо, если ИИ будет подбирать, скажем, наиболее эффективную методику лечения с учетом цвета кожи человека.
Фразы типа "ИИ зачастую подвержен расистским и сексистским взглядам" и вовсе отдают популизмом, потому что ИИ, как пишут сами авторы статьи, лишен представления концепции расовых различий. Он делает свои выводы исключительно на основе статистики — то есть на основе анализа того массива данных, который в него загрузили люди. Если люди загрузили в него такой массив данных, из которого статистически следует, что чернокожие чаще совершают преступления, то "вины" ИИ в этом никакой нет — он же не сам отбирал этот массив данных. Он просто честно (и беспристрастно!) все подсчитал (в отличие, кстати, от людей, которые при подсчете могут поддаваться расистским стереотипам и считать неправильно). В самой процедуре подсчета, если она производится по математическим формулам, нет (и не может быть) расизма, поскольку принципы математических законов не подвержены влиянию стереотипов. 2+2 всегда равно 4 вне зависимости от расовых и религиозных предрассудков тех, кто использует эту формулу.
Иными словами, "расизм" ИИ имеет прямую зависимость от расизма в алгоритмах (или наборах данных), которые в него загружают. Если алгоритм и данные нейтральны, нейтральными будут и результаты работы ИИ. Таким образом, чтобы ИИ не делал "расистских" выводов, достаточно просто загружать в него всестороннюю и объективную информацию о мире.
Меня удивляет, что люди не понимают: с какими бы позитивными и благими намерениями он ни разделяют белых и небелых, как ни борются они за равенство разделенных, это все тот же расизм.
А ИИ, - он, что, у них на изолированном от других машин устройстве?
Весь "расизм" свелся к способности отличения черных от белых. Ужос!
"ИИ зачастую подвержен расистским и сексистским взглядам, обычно присущим человеку. Среди примеров «ИИ-расизма»: компьютер считает, вероятность повторного совершения преступления у темнокожих обвиняемых вдвое выше, чем у белых"
Ну что за дебилизм, дальше пропал интерес читать. Как они еще математику не обвинили в расизме или там статистику. Наверное потому что те кто обвиняет, не в состоянии посчитать в уме то же что считает ИИ, поэтому не допетривают, что на самом деле во всем виноваты числа и способ их подсчета.
Может все же стоило дочитать статью? Там есть объяснение и другой взгляд на проблему. Вероятно, вопрос в географии, а не в расе. Ну и проблема корректной выборки остаётся не решенной
Изначальная проблема не в выборке и не в географии, а в том что результат подгоняется под нужные представления о расизме. И далее согласно этим представлениям начинается допиливание выборок, алгоритмов и т.д. Т.е. во главу исследования ставится не рассчет, а мораль. Очень перспективно, ага.
Для поиска источника расового признака на снимках достаточно дать алгоритму снимки только костей без мягких тканей разных рас. В статье, кстати, ничего не говорится о сбалансированности выборок по расам, использовавшихся для обучения
Пропал калабуховский дом
Окончательно сошли с ума. Получилось корректно определить по рентгеновскому снимку (!) расу пациента, но вместо питья шампанского и прокола дырки в лацкане под Нобелевскую премию подняли вой про расизм алгоритма AI (!). Учёные дошли до того, что отрицают данные эксперимента, который не соответствует их представлениям о прекрасном. Куда катится этот мир?
«Во-первых, непонятно как алгоритм определяет расу. Во-вторых, он точно определяет не расу, потому что ее определить нельзя по снимкам. В-третьих, алгоритм нужно запретить, потому что определять расу опасно и это расизм.»
Поразительная все же логика у людей.
Непонятно, в чем были "расистские или сексистские решения"?..