ChatGPT智能机器人应用的风险与协同治理研究 |
| |
引用本文: | 蔡士林,杨磊.ChatGPT智能机器人应用的风险与协同治理研究[J].情报理论与实践,2023(5):14-22. |
| |
作者姓名: | 蔡士林 杨磊 |
| |
作者单位: | 1. 中国矿业大学人文学院;2. 中国矿业大学安全工程学院;3. 江苏省徐州市泉山区人民法院 |
| |
基金项目: | 江苏省高校哲学社会科学研究一般项目“网络数据治理的刑法体系建构研究”(项目编号:2022SJYB1117)的成果; |
| |
摘 要: | 目的/意义]作为大型语言模型的杰作,ChatGPT智能机器人的出现暗示着强人工智能时代即将来临。由于ChatGPT功能多样和强智能性等特征使其备受关注,但同时也潜藏应用风险,故而有必要探索治理路径。方法/过程]文章分析ChatGPT的技术逻辑和特征,论证ChatGPT智能机器人应用的风险类型,并在此基础上构建协同治理的体系。结果/结论]ChatGPT智能机器人应用的风险主要包括:社会信任机制面临危机、版权规则遭受冲击、个人数据的泄露风险骤升以及真实信息被篡改或滥用。未来法律层面应当完善数据分类分级、数据获取以及数据利用制度;ChatGPT开发者和平台层面应当分别强化审查义务和数据清洗义务;ChatGPT用户层面应当承担声明义务和注意义务,同时提高甄别能力;行业组织层面需要发布技术指南,推进企业事前合规建设。
|
关 键 词: | ChatGPT 人工智能 大语言模型 数据安全 协同治理 合规建设 |
|