欧盟当地时间周三公布了严格的人工智能监管规定,这是首个此类政策文件,规定了企业和政府能以哪些方式利用人工智能。
规定草案将对人工智能在自动驾驶汽车、招聘决策、银行放贷、学校招生选拔和考试打分等各种活动中的运用加以限制。它还将涉及执法部门和法院系统对人工智能的运用。人工智能在这些领域的应用被认为具有“高风险”,因为它可能危及人们的人身安全或基本权利。
有些用途将被全面禁止,包括公共场所的实时人脸识别,但用于实现国家安全和其他目的时会有例外情况。
这份108页的政策文件尝试在一项新兴技术成为主流之前对其进行监管。对投入大量资源开发人工智能的大型技术企业(包括亚马逊、谷歌、脸书和微软),以及其他几十家利用人工智能来开发药品、签保险单和评判信用可靠性的公司而言,新规具有深远意义。有些国家的政府将这一技术用于刑事司法活动以及分配低收入补贴等公共服务。
违反最新规定的公司有可能被罚全球销售额的6%。新规可能需要数年时间才能走完欧盟的决策程序。
欧盟对技术行业的监管力度一直是全世界最大的,其他国家往往以欧盟的政策为蓝图。但推动加强监管的不再只有欧洲。规模最大的技术类企业现在面临世界各国政府的更广泛审查,这些政府出于各自的政治和政策动机都想遏制该行业的力量。
(新华社客户端 4.24)

上一版


缩小
全文复制
上一篇