澳大利亚已要求四家提供人工智能(AI)聊天机器人的公司,说明如何防止儿童接触到性内容或自残相关内容,显示澳洲网络监管机构正加强对AI领域的安全把关。
路透社报道,澳洲电子安全专员办公室(eSafety Commissioner)在一份声明中说,已要求相关公司提供关于防范儿童性剥削、色情,以及宣扬自杀或饮食失调内容的具体保障措施。
收到通知的公司包括名人模拟聊天工具character.ai的母公司Character Technologies,以及竞争对手Glimpse.AI、Chai Research和Chub AI。
专员格兰特(Julie Inman Grant)在声明中直言:“这些服务也有阴暗的一面,许多……聊天机器人能够与未成年人进行露骨的性对话。”她补充说:“有人担心,它们还可能鼓励自杀、自残和紊乱饮食行为。”
根据澳洲的线上监管体系,电子安全专员有权要求互联网企业报告内部安全流程,否则将面临每日最高82万5000澳元(约69万5000新元)的罚款。
...
#澳大利亚 #人工智能 #AI #儿童 #网络安全 #未成年
来自频道: @zaobao_news
⚠️ 评论区加载失败
可能原因:
- 浏览器广告拦截器阻止了 Telegram widget
- 网络连接问题
解决方法: