无障碍链接

中国时间 10:19 2024年12月29日 星期日

挑战行业底线?大华摄像头被指在西方市场推销肤色分析功能


2018年10月23日,在中国北京举行的一次安防科技展会上的大华公司展台。
2018年10月23日,在中国北京举行的一次安防科技展会上的大华公司展台。

美国监控技术行业研究机构说,中国大华公司承认其监控摄像头产品自带“肤色分析”功能,并将这些产品在欧洲销售,这引发人权活动人士的担忧。

大华在欧洲市场销售监控摄像头可识别分析肤色

总部设在美国的监视器技术行业研究机构IPVM本周发表报告说,中国监视摄像头生产商大华在欧洲销售的几款监视器包含了对“肤色”的识别分析功能。

IPMV提供给美国之音的报告内容显示,大华的智能物联综合管理平台(ICC平台)的应用编程接口(API)有关“人体特征”的指南项目包括“肤色”类别。大华产品平台的“数据字典”中,肤色属性有“黄”、“黑”、“白”和“未识别”这四种定义。

报告还说,大华在中国市场推广的“智慧园区解决方案”产品中,在“人员布控”类别中也提到了肤色。

中国大华公司“ICC开放平台”对肤色分析功能的介绍(网页截屏)
中国大华公司“ICC开放平台”对肤色分析功能的介绍(网页截屏)

报告作者之一、IPVM调查记者夏尔·罗莱(Charles Rollet)对美国之音解释说:“这些视频分析所做的是,如果你开启这些功能,摄像头会自动去试图识别过往行人的肤色,只要是在视频中捕捉到的。

他说:“这意味着摄像头将猜测或试图确定面前的人……皮肤是黑色、白色还是黄色。”

IPVM的报告说,这些具备肤色监控分析功能的大华监控器正在德国、法国和荷兰这三个欧洲国家销售。

IPMV大华不再否认

大华公司开始承认其产品自带的肤色分析功能,甚至表示这是监控技术领域的一项基本功能。IPMV认为,该公司此前对相关功能长期否认,现在态度发生扭转。

大华在提供给IPVM的声明中说,大华不会“针对任何特定种族、族裔或民族群体的建立解决方案”。声明说:“对可观察的特征,如身高、体重、头发和眼睛的颜色以及皮肤颜色的一般类别的能力,这是智能安全解决方案的基本功能。”

基于人工智能的视频监控可识别的特征日趋广泛,例如,相关功能可以识别画面中的人是否戴了口罩、识别和统计车辆的品牌和颜色等。

不过,行业观察人士表示,在西方,有关肤色分析的争议由来已久,以肤色将不同人群分类成为许多社会经济领域的禁区,在监控应用中识别肤色可能带来人权与民权方面的弊端,在西方市场并非监控产品的主流功能。

IPVM的罗莱说:“在肤色方面进行分析是很不寻常的,因为这是一个充满争议和道德问题的领域。”

大华公司此前一直否认其监控产品提供了种族识别和肤色分析功能。在其美国公司的官方网站上,大华公司仍然表示:“从未开发过旨在识别或以其他方式针对任何特定种族群体的产品或解决方案。”

不过,大华早在2020年就被指控其产品提供针对维吾尔人的分析功能。2021年2月,IPVM和《洛杉矶时报》报道说,大华摄像机为中国警方提供的视频监控系统包括针对“维族人员的实时警报”。

IPVM曾在2018年发表统计报告说,自2016年来,海康威视和大华共获得新疆政府价值10亿美元的合同。

已在美国部分禁用

在美国,包括大华在内的中国监控设备企业都在被美国政府列入禁止交易的黑名单。

美国联邦通讯委员会(FCC)2022年认定,海康威视、大华等中国科技企业的产品对美国国家安全构成威胁,禁止这些公司产品的在美国的部分销售。禁止交易的范围限于“用于公共安全、政府设施安全、关键基础设施的实体安全监控以及其他国家安全目的”的领域,并非全面销售禁令。

在欧洲,尽管大华的监控产品的销售尚未面临类似美国FCC黑名单的阻碍,但欧盟今年6月通过《人工智能法》草案的修订提案,计划全面禁止在公共场所使用面部识别系统。

来自德国的欧洲议会议员斯文加·哈恩(Svenja Hahn)在提案投票前对政治新闻网站Politico说:“我们知道,中国将面部识别用于人群监控;这种技术在自由民主国家没有立足之地。”

分析:肤色识别可能助长歧视

在西方国家,用于识别种族的AI软件也在不断发展,其应用主要集中在商业领域的市场营销。华尔街日报2020年曾报道说,美国化妆品公司露华浓(Revlon)曾使用AI初创企业Kairos的识别软件,分析不同种族的消费者如何使用化妆品,但引发了研究人员对种族识别可能导致歧视的担忧。

美国政府一直禁止医疗、银行等部门基于种族区别对待客户。美国的IBM、谷歌和微软公司限制向执法部门提供人脸识别服务。

据美国维权网站“禁止人脸识别”(Ban Facial Recognition)统计,美国24个州、县、市级政府禁止政府机构使用人脸识别监控技术。俄勒冈州波特兰市、纽约市和巴尔的摩甚至限制私营部门使用人脸识别。

一些民权活动人士认为,种族识别技术容易出错,可能对监控对象带来不利后果。IPVM的罗莱说:“如果摄像头是在晚上拍摄,或者周围有阴影,它可能会对人进行错误的分类。”

华盛顿智库战略与国际研究中心(CSIS)科技法规研究员陈智美(Caitlin Chin)说,在视频监控中纳入肤色考量,几乎是一种缺乏人性的做法。她强调,与西方科技企业的不同之处在于,西方人脸识别主要用于商业,但中国科技企业往往乐于协助政府机构对公众的监控。

她对美国之音说:“这非常没有人性,从人权的角度来看,也非常令人担忧,部分原因是,如果这项技术中存在任何错误,可能会导致错误的逮捕,也可能导致歧视。我认为,这种仅凭根据肤色对人进行分类的能力几乎不可避免地会导致人们受到歧视。”

她说,在执法和人群监控方面,深色皮肤的群体受到更多的监视:“所以,这些大华摄像头通过按肤色对人进行分类,让人们更容易做到这一点。”

美国民权组织公民和自由联盟在一份提供给IPVM的声明中说:“视频分析已经有可能导致更普遍的监控;将肤色检测作为工具组成的一部分,将切实保证种族歧视成为(监控)的一部分。”

声明表示:“对维吾尔人监测分析是中国政府用于压迫的基础设施的一部分,这一历史清楚地提醒我们,这种丑恶的后果也可能在这里发生。”

评论区

VOA卫视最新视频

时事大家谈:管控经济舆论能否振兴经济、提升信心?
请稍等

没有媒体可用资源

0:00 0:19:16 0:00

美国之音中文节目预告

  • 7/23【时事大家谈】拜登退选中国网民热议 “把他赶下台”影射习近平?拜登退选牵动美外交政策 下届总统恐对中更强硬?嘉宾:美国“信息与战略研究所”经济学者李恒青; 美国《当代中国评论》国际季刊主编荣伟;主持人:樊冬宁

XS
SM
MD
LG