旷视《人工智能应用准则》全文公布 提倡善用AI技术
发布日期:2021-07-01 02:38:02 浏览次数:2 分类:技术文章

本文共 946 字,大约阅读时间需要 3 分钟。

2019年7月17日,旷视正式全文公布基于企业自身管理标准的《人工智能应用准则》(以下简称《准则》)。《准则》从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。

AI应用落地加速 善用科技是关键

旷视是全球最早一批探索人工智能商业化的拓荒者,从早期单一的识别应用发展到城市中各场景的智能改造,旷视的核心产品和软硬一体的全栈解决方案已经得到了全球数十万开发者和上千家行业客户的验证。作为世界级人工智能前沿企业,旷视希望以此为契机,发挥自身在规范人工智能应用方面的示范引领作用,履行自身的社会责任。

因此,旷视率先行业推出的《准则》,是旷视从客户角度出发,为持续实现客户和社会价值最大化的自我要求,旨在从人工智能企业自身的角度,规范、引导人工智能技术正确运用和健康发展,并确保其安全可控可靠。旷视也希望《准则》能够对人工智能行业起到示范作用,呼唤起各界对善用技术的重视,倡导行业提早建立可持续发展的生态。

《准则》全文如下:

《人工智能应用准则》

 

1.正当性:技术应该是一种正面的力量。我们致力于成为一个负责任的企业公民,遵守适用的法律和普遍接受的道德原则,增进社会福祉。

2.人的监督:人工智能不应该超越人的自主性。人类应该能够监督人工智能技术的发展以及人工智能系统的决策,并在必要时进行干预。

3.技术可靠性和安全性:人工智能解决方案应该能够做出准确有效的决策,同时对外部攻击具有足够的安全性和防御力。人工智能解决方案应该进行广泛的测试,谨慎使用并严格监控。

4.公平和多样性:人工智能技术的开发人员应尽量减少人工智能解决方案的系统性偏差,这种系统性偏差可能来自于用于开发解决方案的数据和算法中固有的偏差。无论年龄,性别,种族或其他特征如何,所有人都应该可以使用人工智能解决方案。

5.问责和及时修正:人工智能解决方案应该是可审核、可追责的。人工智能解决方案的错误、缺陷、偏见或其他负面影响,一经发现,应立即予以承认并积极地加以处理。

6. 数据安全与隐私保护:人工智能解决方案的开发及使用过程中,需严格保护用户的个人隐私、保障数据安全。

转载地址:https://megvii.blog.csdn.net/article/details/103289119 如侵犯您的版权,请留言回复原文章的地址,我们会给您删除此文章,给您带来不便请您谅解!

上一篇:R Talk | 旷视研究院姚聪:深度学习时代的文字检测与识别技术
下一篇:Last Call!旷视研究院「技术圆桌派 for PhDs」

发表评论

最新留言

表示我来过!
[***.240.166.169]2024年05月06日 05时12分15秒