Общественно-политическая интернет газета
Все больше людей обращаются к ChatGPT за психологической помощью, но такие разговоры не имеют правовой защиты, которая действует при общении с настоящими терапевтами.
Как передает Oxu.Az, об этом заявил глава OpenAI Сэм Альтман в подкасте Theo Von.
Альтман объяснил, что беседы с ChatGPT не защищены врачебной тайной или другими видами конфиденциальности.
"Если вы расскажете ChatGPT о своих самых деликатных проблемах, а потом начнется судебный процесс, нас могут обязать предоставить эти данные, и я считаю это очень неправильным", - сказал он.
Глава OpenAI отметил, что разговоры с врачами, юристами и психотерапевтами защищены профессиональной тайной, но для ИИ таких правил пока не существует. По его словам, необходимо срочно создать такую же концепцию приватности для бесед с искусственным интеллектом.
Альтман подчеркнул, что особенно молодые люди все чаще используют ChatGPT как терапевта, лайф-коуча или советника по отношениям. В отличие от зашифрованных мессенджеров вроде WhatsApp, OpenAI может читать переписку пользователей с ChatGPT - сотрудники компании используют эти данные для улучшения модели и мониторинга злоупотреблений.
Согласно политике OpenAI удаленные чаты в бесплатной и платных версиях ChatGPT окончательно стираются в течение 30 дней, если только компанию не обяжут сохранить их по правовым причинам или из соображений безопасности. В июне The New York Times и другие истцы подали в суд требование заставить OpenAI сохранять все пользовательские логи, включая удаленные чаты, на неопределенный срок в рамках судебного процесса о нарушении авторских прав.
Также Альтман заявил, что в ближайшем будущем искусственный интеллект позволит любому человеку имитировать голос и даже внешность другого настолько точно, что это будет неотличимо от реальности. Он, впрочем, открестился от ответственности своей компании за это, сказав, что она не разрабатывает такие инструменты.
01 Август 2025
31 Июль 2025
КомментарииОставить комментарий