ИИ и алгоритмы все больше контролирую……
Компании все чаще используют алгоритмы и искусственный интеллект (ИИ) для анализа огромного объема данных, которые они собирают о нас, чтобы решить, на какие финансовые продукты мы имеем право, и сколько мы заплатим за них.Эти сложные инструменты используются банками при принятии решений о предоставлении кредитования, работодателями проверки заявок на работу и, в большинстве штатов, автомобильными и страховыми компаниями и страхованием жилья при установлении премий.
При обучении для обеспечения справедливости и точности ИИ может расширить доступ к кредитам и уменьшить дискриминацию, вызванную предвзятостью человека.Если нет, это может нанести огромный финансовый вред.
Например, если ИИ отрицает вашу заявку на ссуду, у вас нет возможности узнать, почему было принято это решение или какие данные были использованы.
«Во многих моделях ИИ и машинного обучения они пылесосят данные из социальных сетей, от использования цифровых приложений на вашем телефоне, и вы не знаете, что в этой базе данных», — сказал Чак Белл, защитник финансовой политики в Consumer Reports.«Это может быть даже для другого человека, у которого есть подобное имя, а не вас».
Большинство заявителей понятия не имеют, когда решения принимаются ИИ.И даже если они это сделали, этот процесс принятия решений непрозрачен, поэтому они никогда не узнают, какие факторы рассматривались.Инструмент искусственного интеллекта может соскрести информацию из Интернета о заявителе, который является неточным или полностью ложным.
«Это проблема черного ящика»,-сказала Сьюзен Вайншток, генеральный директор некоммерческой федерации потребителей Америки.«Если поступают плохие данные, вы получите выпуск данных о мусоре», — сказал Вайншток в недавнем эпизоде подкаста Consceerpedia от Conceckbook.«А потом потребитель полностью охвачен этими плохими данными. Регуляторы могут даже не знать, что алгоритм смещен».
В прошлом году потребительские отчеты и Федерация потребительской Федерации Америки письмо в Бюро финансовой защиты потребителей, что «алгоритмическая дискриминация может возникнуть из многих источников», таких как «непредставление, неправильные или неполные данные обучения, а также данные, отражающие исторические предупреждения».Это может помешать сообществам цветов и потребителей с низким доходом получить доступ к доступному кредиту, написали они.
Предвзятость может быть включена в модели ИИ в процессе проектирования, например, когда «защищенные характеристики», такие как раса, неправильно используются непосредственно или через прокси.
Например, база данных, созданная для инструмента кредитования, может включать почтовые индексы, которые могут показаться нейтральным фактором для разработчика, но может служить прокси для расы, дохода, пола или религии.
«Когда у вас есть дискриминация по доверенности, Белл объяснил:« Вы дискриминируете защищенный класс людей, которые заслуживают справедливого обращения, и вы даже не обращаете внимания на тот факт, что ваша модель пострадала от них.И это, по сути, такая ситуация, которая у нас есть ».
ИИ и алгоритмы все больше контролирую…
Checkbook попросила Ассоциацию ИИ, отраслевую торговую группу, прокомментировать это, но она не ответила на наши запросы.
Потребительские проблемы
Опрос Consumer Reports 2024, что большинство американцев «несколько неудобно» или «очень неудобно», когда ИИ принимает решения о высоких ставках об их жизни, таких как анализ интервью с видео (72 процента), проверка потенциальных арендаторов (69 процентов) и принятие решений о кредитовании (66 процентов).
Когда CR спросил о подаче заявки на работу в компанию, которая использовала ИИ для принятия решений о найме, 83 процента сказали, что они хотели бы узнать, какую личную информацию использовали программу для принятия решения, и 93 процента сказали, что хотят возможность исправить любую неверную личную информацию, на которую опирался инструмент для найма искусственного интеллекта.
Подавляющий дискомфорт, позволяющий машинам принимать важные финансовые решения, может быть обоснованным.Исследования показывают, что ИИ может давать ложные результаты и усилить вредные уклоны.
Генеративные инструменты искусственного интеллекта «несут потенциал для вводящих в заблуждение результатов», а из Массачусетского технологического института.Было также обнаружено, что они предоставляют пользователям «сфабрикованные данные, которые кажутся подлинными».Эти неточности «настолько распространены», в отчете отмечается, что «они заработали свой собственный прозвище; мы называем их« галлюцинациями ».
Отраж необходимы
Защитники потребителей говорят, что они считают, что новые законы и правила необходимы для защиты потребителей от постоянно расширяющегося использования принятия решений искусственным интеллектом.
«Нам нужно поговорить о том, как ИИ может быть справедливым и подотчетным, и используется таким образом, чтобы это помогает потребителям, а не сдерживает их», — сказал Белл CR’s Checkbook.«[Должно быть] четкое раскрытие того, когда используются алгоритмические инструменты, чтобы потребитель знал, что ИИ используется. И мы хотели бы, чтобы люди могли обращаться к человеку», если алгоритм отвергает их приложения.
ИИ и алгоритмы все больше контролирую…
Потребительские отчеты хотят, чтобы государственные и федеральные правила будут регулировать то, что компании должны делать, когда ИИ используется для принятия «косвенных решений» о потребителе, например, если они имеют право на кредит, выбираются для аренды квартир, получить повышение или увидеть их страхование …
поделиться в твиттере: ИИ и алгоритмы все больше контролирую...