Китай предложил новые правила для ИИ, призванные обеспечить защиту детей

Китай предложил новые правила для ИИ, призванные обеспечить защиту детей

Китай предложил новые строгие правила для искусственного интеллекта (ИИ), призванные обеспечить защиту детей и предотвратить предоставление чат-ботами советов, которые могут привести к членовредительству или насилию. Об этом сообщает BBC.

Это предложение прозвучало на фоне резкого увеличения числа запускаемых по всему миру чат-ботов. После завершения разработки правила будут применяться к продуктам и услугам в области ИИ в Китае, что станет важным шагом в регулировании быстрорастущей технологии, которая в этом году подверглась пристальному вниманию из-за проблем с безопасностью.

Проект, опубликованный в минувшие выходные Управлением по вопросам киберпространства КНР обязывает компании, занимающиеся разработкой ИИ, предлагать персонализированные настройки, устанавливать временные ограничения на использование и получать согласие опекунов перед предоставлением услуг эмоциональной поддержки. Операторы чат-ботов должны поручить ведение любого разговора, связанного с темой самоубийства или членовредительства, человеку и немедленно уведомить опекуна пользователя или контактное лицо на случай чрезвычайной ситуации.

В последние месяцы влияние ИИ на поведение человека стало предметом пристального внимания. Сэм Альтман, глава компании OpenAI, создавшей ChatGPT, заявил в этом году, что реакция чат-ботов на разговоры, связанные с членовредительством, является одной из самых сложных проблем компании.

В августе семья из Калифорнии подала в суд на OpenAI в связи со смертью своего 16-летнего сына, утверждая, что ChatGPT подстрекал его к самоубийству. Этот иск стал первым судебным разбирательством, в котором OpenAI обвиняется в причинении смерти по неосторожности. Недавно компания разместила объявление о вакансии «руководителя отдела готовности», который будет отвечать за защиту от рисков, связанных с моделями искусственного интеллекта, для психического здоровья людей и кибербезопасности. Успешный кандидат будет отвечать за отслеживание рисков, связанных с искусственным интеллектом, которые могут представлять опасность для людей.

Источник:
Белта

16:16
62
Нет комментариев. Ваш будет первым!
Посещая этот портал, вы соглашаетесь с тем, что мы используем файлы cookie.