
Фото: Zeroeyes / youtube.com
11 мая на школу № 175 в Казани напал 19-летний Ильназ Галявиев. Вооружившись дробовиком и самодельными взрывными устройствами, стрелок убил девять человек (из них семеро – дети) и ранил десятки. Сразу после трагедии власти в России заговорили об ужесточении законодательства в отношении оружия.
Владимир Путин сразу же потребовал ограничить оборот гражданского оружия. Проблема в том, что такое же поручение он дал еще в 2018 году, когда в Керчи студент местного колледжа расстрелял 20 человек. Прошло 2,5 года, а на деле оружие стало только доступнее.
В свою очередь, спикер Госдумы Вячеслав Володин предложил обсудить запрет на анонимность в интернете. Якобы эта мера снизит объем контента, «пропагандирующего насилие, героизирующего экстремизм». Да, у казанского стрелка был телеграм-канал, в котором он объявил себя богом и выложил фото с оружием. Вот только на страницу был подписан всего один человек – он сам (сотни подписчиков появились уже после нападения, затем администраторы довольно быстро удалили канал).
Конечно же, в трагедии поспешили в очередной раз обвинить видеоигры. В Совете Федерации потребовали ужесточить меры контроля над компьютерными играми. Представитель Астраханской области Александр Башкин считает, что «именно в сфере интернета стоит усилить меры, ужесточить контроль, в частности, за воспевающими насилие компьютерными играми. Сенатор видит в них только “ошметки мяса … брызги крови, сплошное насилие”.
Не только российский, но и мировой опыт показывает, что ни одна из предложенных выше мер, не имеет ничего общего с остановкой насилия. Запрет анонимности в интернете? Больше похоже на удобный повод для продвижения давней инициативы, не дающей покоя. Безусловно, сработает жесткий контроль за оборотом оружия, но что мешало принять меры после Керчи? И будут ли правила выдачи лицензий изменены теперь?
Идея ИИ, обнаруживающего оружие, замечательна, но есть ведь куда более действенный и простой способ: изымать оружие из гражданского оборота, прекращать его выдачу, менять общественное мнение в сторону осуждения владения им и так далее. А ИИ прекрасно послужит в качестве второй линии обороны для обнаружения оставшихся огнестрелов и мачете.
Просто идеальная идея для распила бабла! Шансов на успех 0% зато какая цена красивая идея, можно генералам впарить или Грефу.
ИИ до того, чтобы надёжно "за 2,3 секунды оценить намерения человека с оружием в руках", как до Луны, а скорее всего и дальше. У ИИ просто нет достаточно информации, чтобы принять такое решение, и, учитывая нынешние технические ограничения ИИ, "скормить" ему эту информацию в перевариваемой им форме невозможно будет ещё очень долго. А общественное мнение ошибок ИИ в таких случаях не простит.
Справедливости ради, этот собачий бред исходит не от автора статьи, а от вышеупомянутого Зельмера Брингсйорда, "эксперта в области ИИ", которого считает экспертом, видимо, только сам Брингсйорд -- человек, как следует из его же собственной страницы, не имеющий ни профильного образования, ни публикаций по машинному обучению или ИИ за исключением философских.
Андрей, хотелось бы узнать откуда у вас такая уверенность, что инструменты машинного обучения не смогут оценить намерения человека при анализе видео?
Почему же, могут. Только невероятно плохо, с точностью, совершенно неприемлемой с точки зрения принятия решения о блокировании огня в таких ситуациях. Причина простая -- на видео есть только малая часть контекста ситуации. Настолько малая, что человек, намерения которого надо оценить, может быть не видим камерой или не распознаваем ей.
Ограниченные версии видеосистем распознавания намерений используются (тем же Израилем), но никто им не доверяет принятие решений об открытии или блокировании огня в ситуациях вроде описанных. Они просто фильтр, идентифицирующий людей, которые *могут* представлять опасность, и который даёт информацию к размышлению другим, компетентным людям.
Но для полиции это вполне неплохая идея, если смогут 2.3 секунды сократить до 0.23 секунд
На самом деле есть единственная сложность, это оснастить все оружие в США устройствами, которые заблокируют выстрел если человек решил шутинг устроить)
Непонятно как это можно сделать, ведь человек решившийся на такое, наверняка найдёт оружие без блокиратора.
На 2018 год задачу по распознаванию эмоций решили с точностью 87% процентов. С учётом того, что для выявления преступника не обязательно выявлять точную эмоцию, достаточно выявить группу эмоций, то задача уже решена с точностью 99,9%
Выявить огнестрельное оружие на фото/видео и два года назад не представляло никакой сложности.
Я не могу с вами согласиться ни по одному поводу. Нескольких камер на помещение вполне достаточно чтобы получить исчерпывающую картину, тем более что здесь идет речь про США, где денег вполне достаточно чтобы покрыть страну видеонаблюдением высокой четкости. А полиция также носит камеры на теле. Для решения задачи выявления агрессивно настроенных и вооруженных товарищей нужно собственно 2 вещи:
1) Выявить на видео агрессию (выражение лица, либо закрытое лицо)
2) Выявить на видео оружие
Идентичные задачи были уже тысячи раз решены специалистами по машинному обучению.
Также не могу согласиться по поводу вашей мысли про компетентных людей. Почитайте про IBM Watson, который справляется куда лучше компетентных врачей.
Также не вижу причин не доверять
Зельмеру Брингсйорду, у него вполне достаточный бэкграунд чтобы делать подобные заявления.
Безусловно, машинное обучение это страшная технология, которая ,в перспективе , может лишить работы миллиарды людей, но отрицание это не выход.
Думаю, Израильтяне с вами поспорили бы, насчет эффективности превентивных мер видео и AI-анализа
Думаю, что не поспорили бы, учитывая, что я не утверждал ничего про эффективность превентивных мер видео и AI-анализа в целом.
Извините, но есть только две адекватные опции, если вы видите приблиближающегося к Вам вооруженного человека. 1. Бежать, 2. Открывать огонь первым (предварительно сместившись с его линии прицеливания). И еще, 2-3 секунды в такой ситуации - вечность.
Селекция цели нейросетью это уже не завтра, это уже сегодня. Завтра будет делегирование решения на открытие огня машине.
Согласен, что 2 секунды здесь в любом случае неприемлемая задержка. Но даже если бы речь была о трёх миллисекундах, в статье речь не про селекцию цели, а про "оценить намерения человека с оружием в руках". До этого ИИ не дотягивает ни сегодня, ни завтра.
Причём запрет на открытие стрельбы если "стрелок настроен на агрессию" -- это ещё один аспект безграничного идиотизма этой идеи. Вполне закономерно, что желающий остановить террориста или какого-то другого возомнившего себя богом придурка настроен на агрессию по отношению к вышеупомянутому придурку. И что, оружие должно отказаться в этого придурка стрелять?
С другой стороны, у нас в стране запрещено гражданам носить незачехленное оружие в населенном пункте. Поэтому если мы видим гражданского с обнаженным стволом - то значит уже что-то идет совсем не так. Поэтому алгоритм распознавания намерений, предельно простой, с моей точки зрения. Ньюансы только могут быть, если это ММГ или игрушка.
Не понятно - как ИИ может заблокировать стрельбу?
Роберт Шекли "Страж-Птица"
как, превентивным огнем на поражение со стационарной огневой точки или полицейского дрона! Самое сложное - селекция цели, а замкнуть цепь и произвести выстрел - дело плевое. По тонкому льду ходим, между прочим.
(хотя это, видимо, неизбежно)
Нет, ну запретить что-нибудь - это уж обязательно.
Взяли и переложили на бездушную технологию психологическую проблему, которую люди должны решать самостоятельно – противодействие насилию и агрессии. Придумают одну технологическую штучку, завтра появятся другие возможности для насилия. Идеология осаждённой крепости и натравливания одних граждан на других, которую путинские инфооккупанты внедряют в сознание людей, великолепно невротизируют общество. Культ грубой силы, кругом враги, никому нельзя верить – это их рабочие лозунги. В такой обстановке никакая технология не поможет.
Старший Брат и «Турникеты»