В открытом письме, которое было опубликовано вчера вечером, исследователи вышеуказанных организаций заявляют, что многочисленные исследования успели неоднократно показать факт того, что алгоритмы, используемые Amazon, имеют крайне серьёзные недостатки, к которым относят факт более высокого уровня ошибок, при работе с темнокожими и женщинами. Исследователи так же утверждают, что в том случае, если данная технология будет официально принята для использования полицией, то это может в разы усилить расовую дискриминацию, а так же создать не редкие случаи ошибочной идентичности и стимулировать навязчивый надзор за некоторыми группами людей.
Морган Клаус Шойерман, аспирант Университета Колорадо в Боулдере, параллельно являющийся одним из 26 исследователей подписавших письмо, сказал следующее в электронном сообщении к изданию The Verge: «Неправильные технологии лицевого анализа смогут усилить предвзятость к людям». Шойерман так же говорит, что подобные технологии «могут быть использованы для злонамеренных действий, о которых компании, поставляющие их, могут даже и не догадываться».
Тем временем список подписавшихся под письмом исследователей, так же включает в себя: Тимнита Гебру, исследователя из Google, чья работа выявила недостатки в алгоритмах распознавания лиц Amazon; Йошуа Бенжио, исследователь искусственного интеллекта, недавно получивший премию Тьюринга; Анима Анандкумар, профессор Калифорнийского технологического института и бывший главный научный сотрудник одного из филиалов Amazon.
Анима Анандкумар заявила по электронной почте изданию The Verge, что она надеется на то, что письмо начнёт массовые обсуждения, по поводу целесообразности использования подобной, некорректной технологии распознавания лиц. Так же она настаивает на регулировании подобных проектов на государственном уровне, заявляя, что: «Государственное регулирование может появиться только после того, как мы разработаем технические рамки для оценки этих систем».
Будучи одним из ведущих поставщиков технологий по распознаванию лиц, алгоритмы Amazon неоднократно подвергались тщательному анализу. Исследование, опубликованное ранее в этом году, показало, что программному обеспечению компании труднее определить пол темнокожих мужчин и женщин. Так же другой тест, проведенный в 2018 году, показал, что программное обеспечение Amazon Rekognition неправильно сопоставило фотографии 28 членов Конгресса с сотрудниками полиции.