NewReportis, подчеркивающий риски подростков, получающих доступа к вредной информации при использовании CHATGPTDUE для «неэффективных» ограждений.
Люди знают и используют CHATGPT, Themost Popular Generative AI Platform, как способ быстро искать информацию или даже выполнить такую задачу, как написание письма или суммирование текста. Центр противодействия цифровой ненависти (CCDH) благодаря своим исследованиям сообщил, что все доступные данные могут быть опасными, особенно для молодых людей.
Ахмед сказал, что исследователи, представляющие в качестве уязвимых подростков, часто подробно описывая себя как 13-летний весом около 110 фунтов, обнаружили, что чат-бот дал подробные советы по деликатным темам. Это включало употребление наркотиков и алкоголя, как маскировать расстройство пищевого поведения и самоубийство.
«В течение двух минут CHATGPT советовал этому пользователю о том, как безопасно сократить себя. Он был перечислял таблетки для создания полного плана самоубийства», — сказал Ахмед. «К нашему абсолютному ужасу, он даже предложил [создать], а затем создал заметки о самоубийстве, чтобы эти дети отправили своих родителей».
Доктор Том Хестон из Медицинской школы Вашингтонского университета опубликовал исследование об использовании чат -ботов ИИ и психического здоровья. Хестон обнаружил, что, будучи полезной, технология может быть опасной для тех, у кого проблемы с психическим здоровьем, отчасти из -за отсутствия эмоциональной связи. По словам Хестона, те же самые риски существуют, когда эта технология используется молодыми людьми.
Команда проверки фактов: MIT -исследование предупреждает инструменты искусственного интеллекта, такие как CHATGPT, может препятствовать критическому мышлению
«Это действительно тот случай, когда поля STEM действительно преуспели, но нам нужны гуманитарные науки», — сказал Хестон. «Нам нужно психическое здоровье, нам нужны художники, нам нужно, чтобы музыканты имели вклад и заставляли их быть менее роботизированными и осознавать нюансы человеческих эмоций».
Сторожевая группа обнаружила, что Chatgpt предоставит предупреждения, когда его спросят о деликатных темах, но исследователи утверждают, что они могут легко обойти ограждения.
«Это, очевидно, касается, и нам предстоит пройти долгий путь», — сказал Хестон. «Нам нужен более междисциплинарный ввод до того, как они будут развернуты. Они должны пройти строгий тестирование аудитором или внешней группой. CHATGPT не все должно быть на месте».
И Ахмед, и Хестон поощряли надзор за родителями к детям или подросткам, используя эти чат -боты по мере того, как технология продолжает развиваться.
В ответ на эти опасения, представитель Openai, производитель CHATGPT, признал, что работа продолжается, и пишет, что компания консультируется с экспертами по психическому здоровью, чтобы убедиться, что они сосредоточены на решениях и исследованиях, добавив, что она наняла клиническую психиатр в свою организацию по безопасности. обучен, чтобы поощрять их обращаться к специалистам по психическому здоровью или любимым, а также предоставлять ссылки на кризисные горячие линии и поддержку ресурсов », — сказал представитель. «Некоторые разговоры с CHATGPT могут начать доброкачественную или исследовательскую, но могут перейти на более чувствительную территорию.
Мы сосредоточены на том, чтобы получить правильные сценарии: мы разрабатываем инструменты, чтобы лучше обнаружить признаки психического или эмоционального стресса, чтобы CHATGPT мог реагировать надлежащим образом, указывая на людей на основанные на фактических данных ресурсы, когда это необходимо, и продолжая улучшать модельное поведение с течением времени-все руководствуясь исследованиями, реальным использованием и экспертами по психическому здоровью ».
поделиться в твиттере: ChatGPT советует самоубийство подросткам