对话北京大学数字治理研究中心主任邱泽奇:算法可以向善,但有些平台尚未做到
(原标题:对话北京大学数字治理研究中心主任邱泽奇:算法可以向善,但有些平台尚未做到)
11月27日下午,北京大学理科5号楼内,“算法为人”论坛的展旗仍摆在大楼入口处,这场几天前由北京大学数字治理研究中心等多家机构主办的论坛是国内第一个讨论算法与社会关系的专题论坛。此前,算法相关论坛讨论的主要是技术话题,研究如何提高技术效率。
北京大学数字治理研究中心主任邱泽奇为这场论坛准备了很久,举办时间恰好与网信办等四部委联合推出算法治理清朗行动,以及农夫山泉创始人钟��炮轰抖音创始人张一鸣的热点事件重合。这是巧合,某种意义上也是必然。“以前大家对算法的感觉不明显,不痛不痒,现在可能是感觉到痛了。”邱泽奇对经济观察报说,社会大众已经回过味了,有体验也有能力去反思算法了。
邱泽奇师从著名社会学家费孝通,他从2000年起关注算法治理。一开始,他觉得ERP(Enterprise Resource Planning,企业资源规划)的算法会让人失去工作,后来发现电商系统的算法对商家可能不公平,再到现在,算法几乎覆盖到了每个中国人。算法偏见、算法歧视、算法霸权已经成为社会的敏感议题。
在20多年的研究中,邱泽奇发现,算法可以作恶,也可以向善,这主要取决于算法制造者。在与微信创始人张小龙的一次长谈后,他加深了这种认知:如果掌控技术的人,能够把社会的良心和社会的共识植入产品中,数字技术是完全可以向善的,算法也是完全可以为人的。
但是,近期钟��的控诉、网信办等四部委的治理,证明一些平台和行业明显没有做到技术向善和算法为人,反而因技术对社会造成了伤害。一些内容平台缺乏将企业社会责任付诸平台运营的行动,更没有相关的经验。
邱泽奇认为,缺乏价值观和社会责任感的企业,非常危险。他呼吁企业充分运用当下的窗口期,从提升运营和管理质量的视角,认真对待算法问题。一旦等到监管大棒落下,对整个互联网行业都不是好事。届时,即使监管不介入,平台也会承受巨大的社会压力。
算法操纵后果已现
经济观察报:你为什么会在11月底举办算法治理论坛?这是第一次举办吗?
邱泽奇:是第一次举办。为这个论坛我筹备了很久。算法并不是新鲜话题,之前大家有各种各样的争议,讨论更多的是大数据“杀熟”之类的经济议题。最近两年,与算法相关的其他问题也开始被热议。我的想法是,与其让大家只凭直觉,没有依据地讨论,不如举办一个专题会议,请各方专家,尤其是懂算法的人讲一讲,这是第一个初衷。第二个初衷是,很多人都说算法在作恶,我想知道,算法是不是也能做点好事?我从这个立场询问大家意见,大家都很有兴趣,于是就举办了这个论坛。
经济观察报:这场论坛结束的第二天,网信办就发布了开展“清朗·网络平台算法典型问题治理”专项行动的通知。最近钟��也在控诉算法,这些都是巧合吗?还是因为现在算法对社会带来的危害已经到了一个爆发点了?
邱泽奇:算法偏见一直都存在,偏见带来的后果也一直都在。只是之前大家对算法后果缺乏反思,或者反思得不够。
比如钟��这件事,他认为自己遭遇网暴时,已经过去半年时间了,现在站出来讲这件事,并把根源归结到算法和抖音身上,是因为他需要有一个反应过程。整个社会对算法后果的反思也需要一个反应时间。
在2024年,算法应用的大致形态基本呈现出来了,算法带来的负面社会后果也在显现。以前大家对算法的感觉不明显,不痛不痒,现在可能是感觉到痛了。早期大家是从买机票、火车票的体验中感受到大数据“杀熟”的,这主要是经济议题。现在各类算法的目标对象都有了长时间体验,也不再只是经济议题,大家回过味了,有能力去反思了。比如信息茧房、权益损害、算法偏见、算法歧视,这些概念过去只存在于学术界,现在,普通老百姓都知道这些概念了,说明社会认知提高了。
在这个意义上讲,算法治理不只是政府的单向治理,而是多主体参与的综合治理。
经济观察报:现在人们提到算法偏见、算法歧视、信息茧房、过度沉迷等,会认为都是算法在作恶。你认为算法是在作恶吗?
邱泽奇:坦率地讲,算法就是帮你算个数。你写了一套程序,它帮你把一些看不明、道不清的规律从数据里扒出来。我的观点是,算法自己不会作恶。
那么,问题出在哪里呢?关键在数据和算法的匹配以及算法的调试,说到底,都是人在忙乎。总体而言,由于使用数字技术的人群不是同质性的、而是异质性的,且每一类人群对数据的贡献,在量和质上都有差异,因此,算法使用的数据始终是有偏差的。当算法应用数据时,便会复刻现实社会的结构,甚至放大现实社会的问题。
这时,形式上有两条路径可以解决问题。第一是对来自现实生活的真实数据进行加权,第二是调试算法来纠偏。两者实质上是一条路径,因为,对数据加权也是由算法来实现的。
经济观察报:算法可以做到厘清偏见吗?
邱泽奇:算法是人写出来的,无论如何都是可以调整的。在方法意义上,算法是工具。工具是否合用,是可以做交叉检验的,在技术上也很容易实现,完全没有问题。
平台不宜涸泽而渔
经济观察报:你是社会学专家,为什么会一直关注算法问题?
邱泽奇:要说我为什么关注算法,可以从2000年算起。那时,我研究ERP在企业中的应用,用今天的视角来观察,ERP可以被理解为算法推动的自动化。ERP运用的数据,质量非常高,每个字段都很清晰。
我们的研究发现,运用信息技术会产生比较重要的社会后果。ERP会产生的社会后果就包括让人失去工作,失去权力。我们在青岛啤酒做研究时遇到了一个例子,啤酒厂的库管员在没有ERP时是很有权力的,仓库里有什么,他说了算。可是有了ERP,信息是透明的,他说了就不算了。
与当下的算法比较,ERP的社会影响不算大,它还只是影响企业。2012年我做淘宝店家研究时发现,平台会让网店连接泛在(通过现代通信技术,实现设备、系统、人和环境的广泛连接,形成一个无缝、即插即用的网络环境),也因此会带来某种特定的后果,比如让一个人的影响力变得非常巨大。这时,平台的作用和机制就变得特别重要了,平台想为买卖双方谋福利,还是想自己从中抽更多的成,至关重要。在电商圈,平台对商家抽成常常会被商家理解为平台税。如果平台税过高,商家的收益就会受损,在算法里,完全可以被理解为平台没有把控好自己。
同期,因为游戏问题我也关注了到某些平台,不少家长都说,游戏真是害死人。我记得某平台当时做了一点创新,成立了未成年人成长守护平台。能让技术来帮忙监督孩子们玩游戏,自然是对社会负责任的做法。这件事给我很大的启发,让我见识了平台是可以做有利于社会、有利于大众的事的。
之后,我和张小龙有过一个很长时间的访谈,其中,谈到微信对广告植入的考量,他让我认识到,如果掌握技术的人能够把社会的良心和社会共识的诉求植入产品中,便是数字技术的向善,也是算法为人。至少,他可以做得相对克制一点,让大家感受更好一点。
那几年,我也在与网约车平台接触。当时正好遇到网约车乘客死亡事件,我提了一个建议:设置一键报警。后来我发现,网约车平台的改进比我想象的好太多了,比如有录音,有一键报警,也有紧急联系人,做得越来越完善。
这些事情都让我相信,数字技术不仅可以赚钱,也可以为人类社会服务。其中,算法是数字技术的核心力量,也是数字时代的技术强权。技术掌控者掌握技术,是为一个人,还是为大多数人,向左走,还是向右走,都是值得关注的,不只是值得政府关注,更值得社会关注。
经济观察报:你提到了很多已经改善的互联网公司,这些公司都偏向基础设施类。但近期大家反对声音比较大的是内容平台和社区平台。人们认为这些平台在积聚戾气,甚至形成网暴,为什么这些公司的算法会走上这条路?
邱泽奇:依我看,内容平台的价值观更加重要。马云曾有一句话说,让天下没有难做的生意。微信则让世界变成一个小地球,让你站在地球的中央。这些都是价值观。一个公司有了价值观,尤其是有了符合社会共识的价值观,也就有了价值追求,继而就会有追求目标的行动。
与零售平台、社交平台、生活平台不同,内容平台直接关涉人们的认知和认知改变,更需要有符合社会共识的价值观。仅就这一点而言,它们可以做很多事。
经济观察报:可以做什么事?
邱泽奇:比如有效处理虚假信息。就钟��事件而言,我以为内容平台是可以有作为空间的,比如对事实类内容,如果未经核实,可以让算法在内容里打上平台提示,如:此内容未经核实,请观众注意辨别。我以为,对于未经核实的事实类内容,平台有提示的责任和义务。为此,平台的工作量和工作内容的确会大大增加,可是,受益的却是大多数人,平台可以留下更优质的内容,受众会增加判别的依据,内容空间会因此更加清朗,社会还会因此更加积极向上。
经济观察报:为什么现在算法问题较多的是短视频平台?
邱泽奇:我更愿意相信这是这类平台迈向成熟的社会过程,还是应该允许这些平台成熟起来,不能一上来就指责它们,因为没有人能想到事情会发展到什么地步。比如网约车平台,可能最初也没有人想到会有司机这么坏。有些事情超出了人们的认知底线,的确是想不到。不过,既然坏的结果已经显现了,就需要正视,也正好可以抓住机会在平台运营和管理上提档升级。
经济观察报:就成熟度而言,中国互联网公司走向成熟,似乎都经历过大型舆论风波。短视频平台是不是还没有经历过?
邱泽奇:百度经历过“魏则西事件”,阿里巴巴经历过商家“十月围城”,腾讯经历过“3Q大战”,滴滴经历过顺风车司机杀人,美团经历过骑手“困在系统里”事件,只有短视频平台还没有经历过舆论的风暴口,这次是这类平台历史上的第一次。
其他平台前些年的经历,都是社会力量的反映,它们有明确的受害者,有社会力量的参与。内容平台不一样的是,对象的离散性使得它不可能因某个事件而带来一场社会运动,否则就会落入法治之网,这次的清朗行动也可以算是内容平台自我进化的一个机会。
历史告诉我们,一家得到社会广泛认可的技术公司,通常会选择在让大多数人获益的同时,从大多数人那里获益,而不是简单地竭泽而渔。
经济观察报:为什么现在一些公司出现了涸泽而渔的现象?
邱泽奇:可能是因为公司太年轻,心太大,或者担心失去赚钱的机会而选择了只做几年的公司,不做百年公司。公司的成长是需要时间的,比如腾讯提出科技向善,是因为它12岁时遇到了“3Q大战”,学会了把半条命交给合作伙伴。
经济观察报:你接触到的很多内容平台,比如抖音、快手、腾讯视频号等,平台现在有意愿改变吗?
邱泽奇:我觉得是有的,只是平台可能真的不知道应该怎么做。所以我主张呼吁一下,或者引发一些社会讨论,为这些公司集智。
经济观察报:你似乎一直从积极的角度去鼓励平台,倡导它们承担社会责任。为什么要这么做?
邱泽奇:我还有一个更大的担忧,如果监管继续趋于严格,整个中国互联网产业有可能垮掉。2020年全球市值前10名的公司之中,有七家互联网公司,中国有两家。2023年全球市值前50名的公司中,只有一家中国互联网公司,而且排名靠后。国内互联网行业这几年掉得太厉害,这不是我们期待的结果,更不是对中国发展有利的结果。
监管是一柄双刃剑,在中美竞争的关键时刻,我们应该更好地运用监管工具箱,促进产业发展,促进经济发展,促进社会发展。
经济观察报:如果平台一直不改怎么办?
邱泽奇:我们先把道理说在前面。可以先假定平台是无辜的,它们没有意识到算法对社会可能带来的负面影响,但当我们把危害摆在平台面前,清晰明确地让它们知晓后,如果它们依旧再犯,那时再口诛笔伐,也不迟。
我相信大部分平台也希望解决算法带来的社会问题,消弭大家的抱怨。清朗行动一定不是零和博弈,而是希望双赢和多赢。现在,是考验平台智慧的时候。
经济观察报:如果最后还是有公司不改呢?
邱泽奇:那它就死定了。并且这种死不会是因为监管而死,而是自己作死,自然而死。因为社会会抛弃它,这时,也一定会有新的公司乘虚而入。
对内容平台而言,现在是一个很巧的时间节点,如果能自我反思,认真整改,一定会更上层楼。如果不能反思,那它就很危险了。
关于监管
经济观察报:你怎样评价这次四部委出台的算法治理政策?和往年相比有哪些差别吗?
邱泽奇:这次列出的治理要点更清晰了,他们把哪一些算法会导致什么后果都点出来了,比如信息茧房、榜单操纵、危害劳动者权益、大数据“杀熟”、危害用户权益、算法安全等,从后果出发,直接列出了算法的负面影响。
这次也把算法的每一大类都点了名,每个大类背后可能都指向一类典型平台。
我不清楚的是,清朗行动会怎么操作。清朗行动等政府治理,目标还是促进发展,尤其是促进经济发展、促进社会发展。
经济观察报:你对国外算法治理研究比较多,之前的论文里提到国外算法治理法案比较完善,并且事后问责已经形成了完整的逻辑。你觉得这种监管方式有用吗?
邱泽奇:我觉得是有用的。对于最前沿的事情,人们都不是很清楚可能的创新空间,也不清楚创新可能产生的后果及其边界。这个时候,我们要提早预防负面后果,但不应该提早约束,因为我们不知道要约束什么,如果只是原则性地说不能做,就会约束整个行业的发展。
美国的监管模式其实很简单,就是我不熟悉的事你先干,只要出了状况我一定找你算账,即问责制。欧盟的模式是罚款,你在我这里运营,就要给我交一笔过路费。我们的监管有时会直接说你不能干。如果不能做事,哪里能获得收益呢?我以为,中国一定要监管,并且要体现几千年中华文化里的监管智慧,不过,还是要以促进经济社会发展为目标来进行监管,我们也可以尝试事后监管,采用问责制。
在算法监管上我始终主张问责制,也认为这是一个大趋势。
经济观察报:为什么问责制会是大趋势?
邱泽奇:就比如内容平台上的一些内容体现的是人类的创新性和创造力,我们不能假定内容平台什么都知道,并且有意在犯错。在你假定它有意犯错时,你需要拿出证据。在我们没法假定时,最好的监管就是让子弹先飞一会儿,让人们释放自己的创新和创造能力。
一旦造成了不好的后果,监管就可以立即到位,不管是内容责任主体还是平台,对它问责,罚它。不过,最好不要一竿子打死它,因为它也在探索中。允许探索中犯错是促进创新、促进发展最优的政策选择。
经济观察报:国外现在有完整的算法治理法案,我们现在是不是还缺一部法案?
邱泽奇:也不能说国外有完整的法案,不过,我们现在的“九龙治水”倒是事实。比如说数据流通,监管的部门太多,事情就会变复杂。
经济观察报:如果“九龙治水”最后能统一成治理法案,情况会变好吗?
邱泽奇:现在,算法的类型大致清晰了。对不同类型算法的治理,我主张采用判例法,谁被人告状了,我就治谁。在我们不了解的领域采用判例法是更符合实际的做法,也是动用社会力量参与政策治理、参与国家法治的有效路径,还是提升国家治理能力的必要维度,可以让治理产生更优的社会效应。
本文 原创,转载保留链接!网址:https://licai.bangqike.com/gnxw/946374.html
1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。