作者:资源汇聚网 | 发布于:2024年05月19日 | 浏览:47 次
今天分享的是大模型系列深度研究报告:《大模型专题:人工智能大模型伦理规范操作指引》。
(报告出品方:同济大学上海市人工智能社会治理协同创新中心)
报告共计: 8页
海量/完整电子版/报告下载方式:公众号《人工智能学派》
AI 大模型全生命周期的技术与伦理要素
首先,在大模型等基础模型研发方面,应大力促进创新发展,构建以高等院校、科研院所、领军企业为主体,产学研深度合作的创新体系。由于大模型是高资金投入、高人才壁垒的研究领域,我们需要增加战略投入,加大对重点人才的引进力度,强化科学家之间的国际交流合作,以期加速追赶国际领先水平。同时,对于可能带来的技术风险,如训练数据中显见的不当偏向、模型的可解释性问题、系统健壮性的不足等,我们需要从法学与伦理视角出发,制定严格的研发规范,以防范可能产生的风险。
其次,在产业配套方面,我们应包容审慎,大力支持国产人工智能芯片 和超算平台的发展,以有利于创新与合乎伦理法规的方式构建国家数据资源平台,发展数据标注产业和合成数据产业等,为国产人工智能大模型研发 提供算力和数据保障。同时,我们需要关注技术的公平性问题,鼓励开源共享,防止数字鸿沟的加剧,以及海外巨头的技术垄断可能对国内经济发展造成的影响。
再者,在应用落地方面,我们应积极推动大模型在制造业、医疗、金融、 司法、传媒、互联网等垂直领域的行业示范应用和规模化价值落地。在推动应用的同时,我们也应努力维护市场竞争秩序,保护用户权益,关注可能产生的信息内容安全风险,避免人工智能生成内容污染互联网环境。
提升透明度和可解释性
透明度和可解释性是 AI 伦理的核心原则之一。我们必须确保 AI 大模型的决策过程是透明的,用户可以理解这些决策是如何产生的。具体的操作建议包括:
对于 AI 系统的决策,尽可能提供详细的解释,包括模型的输入、过程和输出,并保证过程的可控性。
对于涉及用户权益的决策,用户应有权了解这些决策的具体依据,保证可溯源。
对于复杂的 AI 模型,应提供简洁、易懂的解释,以帮助用户理解模型的工作原理。
透明性
研发者应对模型的工作原理和决策过程保持透明,包括数据来源、使用的模型和算法,以及决策的解释。具体做法包括:
对外发布清晰的模型说明文档,包括模型的训练方法、使用的主要算法、关键参数等。
提供模型的解释性分析,帮助用户理解模型的决策依据。例如,可以采用 SHAP、LIME 等模型解释方法,对模型的预测结果进行解释。
公开关于模型的性能和极限的信息,包括模型在各项评估指标上的表现、模型的鲁棒性测试结果等。
展开全文
报告共计: 8页
海量/完整电子版/报告下载方式:公众号《人工智能学派》
额 本文暂时没人评论 来添加一个吧
发表评论