Искусственный интеллект внедрят в работу офиса окружного прокурора Сан-Франциско, чтобы избежать расовых предрассудков при предъявлении обвинений подозреваемым. 

Сан-Франциско прокурор полиция расизм искусственный интеллект система

Система будет анализировать отчеты сотрудников полиции и автоматически удалять из них данные, которые каким-либо образом будут указывать на расу подозреваемого. К таким сведениям отнесли упоминание расы, цвета волос и глаз, имени и места проживания человека.

Нововведения потребуют от прокуроров сначала изучить дела, обработанные искусственным интеллектом, и на их основании вынести решения о виновности подозреваемого. Далее им предоставят доступ к полному отчету со всеми данными, чтобы они могли определить, есть ли в этом деле смягчающие обстоятельства.

Систему разработали программисты-аналитики и инженеры из лаборатории вычислительной политики Стэнфордского университета. Сначала она будет протестирована в офисе окружного прокурора Джорджа Гаскона и при положительных результатах бесплатно предоставлена всем прокурорам страны.

Как отмечает AP, в 2017 году по просьбе окружного прокурора в Сан-Франциско исследовали статистику по уголовным делам. Выяснилось, что период с 2008-го по 2014 год 41% арестов приходилось на афроамериканцев при том, что они составляли лишь 6% от общего населения. Аналитики тогда заключили, что в решениях судов есть «существенные расовые и этнические различия».

В прошлом месяце Совет наблюдателей Сан-Франциско запретил полиции города использовать систему распознавания лиц из-за опасений злоупотребления государством данной технологии.


Сообщает RTVI