查看原文
其他

算法调查对未来治理有何启示?算法悖论的表现及原因是什么?为何要提升算法素养?《追AI的人》第18期直播回放


直播回顾

《追AI的人》系列直播第18期邀请了对外经济贸易大学数字经济与法律创新研究中心主任许可老师分享《中国民众如何看待算法:经验与规范》。

以下为直播的文字回放,共计8752字。


直播简介回顾:
中国民众如何看待算法?我国算法治理的基本框架?《追AI的人》直播第18期预告来袭!



许 可


对外经济贸易大学数字经济与法律创新研究中心主任。他在网络安全、个人信息、数据保护、算法治理等方面的研究成果丰硕,已在《中国社会科学》《中国法学》《法学家》《东方法学》《法商研究》《政法论坛》《现代法学》《法制与社会发展》《环球法律评论》、China Legal Science、Minnesota Law Review等国内外著名期刊发表中英文论文60余篇,合作出版《网络主权论》《财产故事》《大数据战争》《数据要素》等多部著作。同时,他还是FT中文网、财经网专栏作者,发表评论性文章近100篇。

分享大纲


一、我国算法治理的基本框架
二、面向民众的算法问卷调查
三、算法调查揭示的算法悖论
四、算法调查对未来治理启示


对于人工智能而言,它由三个方面构成,一是算力,二是数据,三是算法。所以AI的治理离不开算法的发展。最近几年AI之所以能够成为新的发展趋势,是因为神经网络算法、深度学习算法发展的推动,所以我们在讨论AI治理的时候,离不开对于算法的治理。


随着算法的广泛使用,推动了经济的发展和社会的变革。但另一方面,算法的不当使用也会带来一些乱象。其中包括大家耳熟能详的信息茧房,信息茧房是指大家只看自己感兴趣的内容,导致没有办法跳出认知困境的问题。



算法的歧视


算法在进行决策时,可能会对一些人带来歧视。最典型的算法歧视:在美国对于有色人种的歧视。


大数据杀熟


大数据杀熟通过算法来给不同的人不同的价格,由此消费者会产生一种被剥削的感觉。


算法的霸权


这是一种普遍意义上存在的隐喻性权利。面对掌握算法的机构,我们不可避免的成为被决定的一方,而不能自行决定。算法的霸权反映在治理之中,体现着对于社会秩序、市场秩序、传播秩序的侵害。


其次,算法治理有更加宏观的背景,首先是总体国家安全观。算法存在的这些不当使用的风险,可能会带来对于总体国家安全观的侵害。


总体国家安全观强调的是一种系统性的安全,即全方位的安全。包括了信息安全、科技安全。在算法普遍应用的情况下,对总体国家安全观会带来前所未有的挑战。

这些挑战是方方面面的。最典型的挑战,举个例子,使用深度伪造算法将某位领导人的头像和别的视频进行拼接,制造出领导人在一个虚拟场景上说出虚假表述,虚假发言的视频,由此会对国家社会稳定带来侵害。


因此,算法治理不仅仅是算法使用中带来的个别风险,也会涉及到算法使用所引发的国家安全、社会稳定等宏观风险。这是从国家总体安全观的角度对于算法治理的理解。



另一方面,当前中国正处于由工业经济向数字经济转型的大变革期,数字经济与实体经济的深度融合,以及实体经济正在进行数字化转型,都在呼唤着一种新的治理形式。这种新的治理形式,按照数字经济的三个要素,数据、平台、算法来说,对于数字经济的新型经济形势治理,离不开数据治理,平台治理和算法治理。


数据治理我国已经有了比较完善的《数据安全法》、《个人信息保护法》。在平台治理方面,有正在修订的《反不正当竞争法》和去年已经修改的《反垄断法》。对于数据的持有者平台进行了全方位的治理活动。在过去几年,对于大型平台的监管非常严格,已经出台了具有影响力的案件,均体现出国家对于数据平台治理的重大举措。


对于算法治理,它是在数据、平台、算法三位一体的架构下来推进的。所以对于算法的治理,在中国过去已经有非常多的实践,也积累了很多经验。


2017年出台《互联网新闻信息服务新技术新应用安全评估管理规定》,初步确立了对于算法的安全评估。随后在《电子商务法》、《网络信息内容生态治理规定》、《网络音视频信息服务管理规定》等的规则中,初步确立了对于算法的人工干预和自主选择的机制。2021年《个人信息保护法》出台,借鉴了欧盟《一般数据保护条例》,即GDPR对于自动化决策的规制,引入了对于中国使用自动化方式进行的信息内容,商业内容的推荐以及自动化的决定。对于这些内容都是从不同的角度对算法进行了指引。

除了已经在《个人信息保护法》、《电子商务法》信息内容相关的管理规则中出现的算法治理以外,在2022年,国家的相关部门,特别是国家网信办针对算法出台了专门的管理规则,有最重要的两步,一是出台了《互联网信息服务算法推荐管理的规定》,对算法推荐进行了全面细致的规则。它被视为全球首部算法的立法。除此以外,今年12月份,《互联网信息服务深度合成管理规定》正式的发布。

大家对于算法推荐可能了解比较多,上网打开APP搜索,看到搜索排序,这是有算法推荐的功能,通过算法推荐,只要点击一个高价商品,那么你推荐的商品可能都是比较贵的;如果你购买一个便宜的商品,那么相应地,在你浏览项目中靠前的都是相对便宜的商品。算法推荐即通过算法的排序,提供了千人千面信息内容的服务。

那什么是深度合成?深度合成即深度的合成算法,在日常生活中也会经常碰到深度合成的信息内容,比如一些新闻网站,大量的新闻其实并不是由记者一个字一个字写出来的,而是由算法来进行深度合成的。具体操作是投入了一些原始素材,经过算法的加工,就能够形成一个像模像样的新闻稿。


前段时间大热ChatGPT是深度合成算法最顶级的应用。它通过深度合成算法,可以与人进行实时的互动,互动回答内容的质量非常高。由此也反映出网信办出台的《互联网信息服务深度合成管理规定》的必要性。



在执法方面,网信办在2022年开展了“清朗·算法综合治理“专项行动,对于算法的现场检查、算法备案、算法相应的审查办法等进行了非常明确的规定。




立法是对于社会需求的回应,法律并不是从天而降的规则,法律的规则必须积极的回应民众的需求,呼应民众的呼声。为此有一个非常重要的工作需要去做——了解民众对于算法的看法。这需要通过一些实证研究问卷的形式展开调查。去年我们联合中国人民大学以及蚂蚁集团对算法进行了广泛的问卷调查。



在算法的设计上采取了两方面的内容,一方面是通过算法透明,算法安全,算法公平,算法向善为经度。以用户的认知,用户的态度,用户的权利,和用户的行动为维度,构成了经纬交织的算法调查问卷的题目设计。为什么这么做呢?因为我国对于算法治理最重要目的是通过算法治理达到算法的透明、安全、公平与向善。


同时民众对于算法的认知,也往往是有理性的、感性的、行动的这几个层面。所以我们用经纬交互的设置形成了我们的算法调查问卷。通过多个渠道发放,调查的时间持续了一周,共收集到6941份有效问卷,相对比较符合网民的特征,其中男性回复的比较多,26岁到40岁中,青年人回复的也很多,我们调查的地域分布也比较广泛。



总体来说,在近7000份问卷中,半数以上是本专科的学历,这说明在教育背景有一定的认知的民众中,对于算法较为关注。

从职业分布来看,企业工作人员、机关事业工作人员比重为24.22%和27.26%;自由职业者比重为24.22%,占比也较高,这可能与自由职业者多在网上工作,回答问卷的概率较高有关。

从回复问卷用户的收入来观察,90%左右的年收入在20万以下,其中5万到20万的群体占有37.75%万以下的群体占比是5%。还有一些用户是学生,即使去掉学生的占比,仍然有40%调查对象的年收入是不到5万元的,说明我们的调查问卷具有普遍的代表性。通过对于算法问卷的分析,我们发现以下有趣的问题点。


算法透明



算法透明强调的是算法在多大程度上被民众知悉,算法的规则原理大程度上被民众所知悉。从算法透明的问题设置来看,我们发现对于是否使用算法的问题,有40%的人不大清楚,有17%的人完全不清楚,只有20%的人是清楚的知道企业使用的算法的。



第二个问题:你了解企业使用算法的目的和内容吗?可想而知,有更多的人是不了解企业使用算法的内容和目的的。在这个背景下,我们继续去询问我们的被调查者,如果你在使用算法、接受算法服务的过程当中出现了困惑,你认为企业是否要向用户解释呢?


可以看到绝大多数人是希望企业解释算法的,只有7%的人认为不需要进行解释。算法如果对你的生活造成了影响,最典型的就是评级信用分,网络金融进行相应的消费贷,都会对于你的信用进行评估,授予你一定额度的金额。如果对于你的信用分有异议,你是否希望企业进行人工介入?对于此问题,我们看到基本上大部分人会认为需要人工介入。


关于千人千面的算法推荐,网络时代和传统的工业时代的“广告”不同,网络时代的广告有的时候是“窄告”,什么叫“窄告”?即根据你的特征进行了精确的推送,这是一种算法的推荐。


那大众怎么看此类算法呢?我们的调查显示,有55%的人会认同,根据不同的群众的特点推荐不同的广告。有25%的人会认为千人千面的推送是正面的。


在这个背景下,我们继续询问如果根据个人特征的标签、性别、喜好、位置进行推荐,是否能接受?对于这个问题,有一部分人表示接受,而另一部分人觉得希望关闭根据精确的个人的特征进行的推荐。



总体来说,我们发现很多受访者对于算法应用处理有一定感知,但是处于相对浅显和模糊的阶段。绝大部分的受访者希望对于算法进行不同程度的解释,即算法是怎么运作的,内在原理是什么。


第三,80%的受访者希望有个性化推荐,但对超过一定限度的精准推荐表现出担忧,并希望可以选择推荐所依据的标签组合。


第四,当算法结果有异议的时候,多数的受访者期待是有人工介入。也就是说大家相对于算法而言,我们反而更相信人工。


算法安全



算法使用的过程中是不是对我们的权益造成了侵害?对于此问题我们也设置了以下问题。


1、算法对于你的权益有没有造成损害?


从结果来看, 60%的人认为存在风险,20%的人认为存在很高风险,只有4%的人认为不存在风险。我们对于存在的风险进行了进一步的分类,首先有30%的人认为侵犯隐私,所以大众对个性化广告,个性化视频和新闻有隐私担忧。



2、哪类企业的算法存在着严重侵害消费者权益的行为?


第一,电商平台是大家关注比较多的,第二,社交平台;第三;金融机构的个性化推荐算法的使用,带来了消费者权益的受损。第四,影视的媒体平台。从用户对于自身权利的了解来看,大家了解不多,阅读过相关内容的人非常少,只有不到8%。绝大部分不了解我国关于算法安全的规定,那么面对着算法带来的不利影响,用户会采取什么样的行动呢?



我们发现面对着算法的不利影响,人们选择最多的就是主动管理算法数据收集的请求,拒绝不合理的数据请求。第二个办法是关闭个性化推荐,如果大家对于个性化推荐真的反感,在我们的隐私政策里是可以选择关闭的,这是我们看到的避免算法不利影响的最主要的两种方法。


在企业层面,在国家层面,民众有什么期待?


第一,最主要的期待是希望企业加强算法的安全评估,企业要做好看门人的角色,哪些算法可以用,哪些算法不能用,要加强评估。第二,是要强调强化企业的法律责任,使用算法带来的损害,要承担相应的法律责任。第三,加大国家对算法的企业监督和审查,这些都是民众对于算法安全的防范措施的一种期待。



调研结论:

一、从算法安全的调研来看,我们的受访者对于算法是普遍不信任的,80%的受访者认为存在着损害消费者权益的可能。


二、受访者对于应用算法扭曲信息的行为感知很强烈,觉得经常在算法使用过程中接到一些不良的虚假信息。


三、面对算法风险的时候,很多受访者表现出较强的自我保护意识,通过一些拒绝收集个人信息的提供选择,不使用自动化的个性化推荐,保护自己的隐私。


四、对于算法的治理,大部分的受访者认为不应该限制算法的使用,而是强调了加强企业的自律。


五、用户对于算法的法律法规及自身合法权益,了解很有限。


算法公平



算法公平也是算法治理的核心问题。算法的使用的过程中,有几种算法公平的问题:


1、有没有不同的人收取不同的价格,即我们讲的大数据杀熟的问题。


从问卷的反馈来看,不同的人收取不同价格的现象还是比较普遍的,有50%的人偶尔经历过,有22%的人经常经历,也就是说有70%的人经历过大数据杀熟行为,对于差别化定价,哪些情况是最常见的?



从我们的调研来看,对于新老用户采取不同的定价是最常见的情况。其次是根据用户的消费频率频次进行定价,存在经常使用者的价格高,不经常使用者的价格低,这是因为存在拉新的业务。


第三,对于会员和非会员定价不同。比如看电影,会员的价格就比非会员的要便宜。什么情况下进行了差别化定价?作为用户是否认同?对于此问题,不同的民众,不同的受访者给的答案不太一样。


根据是否是会员,是否接受频率的高低,新老用户是不是根据收入水平进行定价,可以看到有赞同的、有不赞同的。虽然根据不同的原因进行差别化定价的程度,大家赞同的程度,反对的程度有所差异,但差别并不明显。



对于察觉到自己被差别化定价对待后,会采取什么行为呢?


可以看到用户的行动还是很积极的,有41%的人会比较在意差别化定价,会暂停使用。有14%的人是十分在意,会进行投诉和曝光。有25%的人保持相对中立态度,这也反映出不同的民众,不同的受访者对于差别化定价的态度和行为也有着较大的差异。



从算法公平的结论来看:


一、有1/4的受访者认为经常经历差别化定价,同时认为根据收入水平进行差别化定价的比例并不高。


二、大数据杀熟的情况是比较常见的,在察觉到差别化定价之后,绝大部分的消费者会积极维权。


三、我们看到对于差异化定价的态度差异非常大,有人赞成有人反对,原因何在?因为差别化定价对不同人的优劣是不一样的,对于高收入群体,会觉得自己吃亏了,因为同样的产品和服务,支付的比别人要高;但对低收入群体,不一定是坏的影响,因为对他们来说,往往可以拿到比较低的价格去享受到高收入者付出更多的价格享受到的服务和产品。


算法向善



算法向善是中国特有的算法治理的相关规则。中国对于算法治理一直是从信息内容层面展开的,而算法的治理工作一开始就指向了信息的内容传播秩序上,所以算法一定要符合我们的内容,这就是监管反复强调的算法要为人民服务。那么到底算法是不是为人民服务?有没有为好的内容服务?


从调研来看,算法其实并没有那么善良,用户收到不良信息的频次是非常多的,有32%的人经常收到不良信息。那么面对着不良信息,用户会怎么办呢?53%的人反映不举报,有35%的人反映举报过,但是没有用。



在算法向善过程中,我们的监管机构特别强调,算法不能诱导用户高额的消费,不该花的钱花了,为了便宜一块钱,花了100块钱买了不必要的产品的情况存在吗?从我们的调研来看,几乎没有人因为算法购买了不必要的产品和服务。85%的用户反映没有因为看到了广告就去买那些不必要的产品和服务,这说明我们的民众非常理智。


信息茧房大家怎么看?


从我们的调研来看,不同的人对于信息茧房的认知和态度大相径庭,有人认为信息茧房不错,推荐的信息内容很好,推送的精准节省了时间;也有人认为信息的内容比较同质限制了知识获取的多元;也有人恰恰相反,认为信息内容还挺好的,很丰富,还有很多人认为信息内容一点都不智能,还不如我自己找的,这说明不同的人去搜集检索信息的能力并不相同。



调研结论:


一、过度消费的问题并不突出,用户消费的行为比较理智。

二、个性化推荐有利有弊,节省搜寻时间,大家也认可。但另一方面也有不少人认为个性化推荐导致了信息茧房。

三、不良信息的侵扰的行为较为严重,用户对于举报之后,企业并不重视。

四、平台在人性化设计方面不如人意。



我们还做了一个分组的调查,关于受访者个人信息的分组,根据这些分组,我们看到随着年龄和学历不同,态度认知也不一样,年轻人和老年人相比,年轻人往往对算法有更高的认知度,对于算法有好奇和包容的态度,也展现出更强的维护网络环境和自身权利的意志。


从受教育的角度去看,就会发现对于算法的认知随着学历的提高而增强,高学历的群体表现出更强的隐私保护和主动管理的能力,高学历的群体更加不认同和更主动的应对企业的差别化定价。



根据上面的问卷,得到以下几个结论:


一、在算法透明方面,绝大多数受访者享受算法带来的便利和优惠,希望有个性化推荐,与此同时,目前用户关于算法的认知和了解尚不充分,对提高算法透明度有较强诉求。


二、在算法安全方面,受访者对算法表现出普遍的“不信任”,但并不认同限制算法应用这种因噎废食的做法,而是希望在规范中促进算法的合理应用和健康发展。


三、在算法公平方面,受访者对“大数据杀熟”为代表的差别定价感知并不普遍,且差别定价所依据的条件本身并不足以判断该差别定价是否合理。


四、在算法向善方面,算法推荐下的过度消费问题并不突出,信息茧房、网络沉迷一定程度上存在,但企业在不良信息治理、“适老化”“未成年人模式”设计方面不尽如人意。


五、分组交叉分析显示,不同群体的算法感知和算法风险防范能力差异较大。



我们的调研中更深层的原理叫做算法悖论。悖论什么意思呢?民众,受访者在算法的认知、态度、行动之间的背离。即说的一套,但是做的是另外一套,我们称之为算法的悖论。



举个例子,有80%的受访者认为算法不好,算法会带来用户隐私,人为的信息扭曲和一些算法带来的用户权益受损。但另一方面,有相当比例的用户并不抵触算法带来的便利和体验。例如,在面对广告推送,只有7%的用户赞成对所有人推送相同广告,有四分之一的用户赞成千人千面的推送,其他用户也在一定程度接受企业使用个人信息进行分类推动的做法。


同样,在面对差别定价时,只有20%的用户完全不认同按照消费频率及收入高低进行差别定价,约半数用户表示对这种做法不是很在意;面对信息分发,亦有近半数用户认为算法可以降低信息收集成本。



在算法悖论中,有三种不同的表现形式:第一种表现形式是不同群体的的算法关注,实际上就是算法对于用户权益带来风险的忧虑,而不同群体对于算法的忧虑还存在着分歧,我们看到年轻人对于算法接受度比较高的,而老年人接受度比较低,高学历的人接受度对算法的关注度比较高,而相对教育程度不高的人,反而没有很强的算法关注。


这背后的原因是什么?我们认为算法关注或者对于算法的担忧是一种发展的偏好。什么叫发展偏好?并不是人们一开始就对算法有着不好的印象或者是好的印象。算法的关注是由后天的使用所带来的,也就是说如果社会反复地去讲算法带来的风险,人们就会认为这个不好。同样如果在使用算法的过程中使用的越多,有的时候越会担心算法对于我们的侵害。


不同群体算法关注的分歧,反映出算法的关注是受到社会经济的文化,那么如何解决对于这个问题呢?需要提升算法的素养。


二、同一个群体,对于算法的行为和算法的关注,产生的矛盾。即一边担心算法的风险,但是在具体的活动中觉得算法还挺好的。这么一种算法关注和行为的矛盾,很有可能是陷入了一种扭曲和操纵。为什么会有扭曲和操纵的行为呢?最典型的是平台和算法的使用者之间存在着一种地位的不对等。在网络上的所有的行为都是依托于网络平台,使用代码给大家提供的服务,通过代码的设计,就有可能潜移默化的去影响到我们的选择。


三、算法推荐的便利和算法关注的取舍。我们虽然很担心算法的个性化推荐导致了隐私受损,但另一方面发现推荐挺好的,通过个性化的推荐,提供一个最适合我们需求的产品和服务,我们当然会选择个性化推荐,尽管它对我们的隐私,个人信息可能带来风险。



面对这种算法悖论,我们的调研对于未来的算法治理提供了什么样的启示?有以下几个方面:

第一,理解算法带来的偏好。大家对于算法的担忧并不是从天而降,算法之所以会带来这些分歧,就是因为算法的使用过程中对于使用者的影响,一朝被蛇咬,十年怕井绳。在使用过程中带来的这些负面影响,会决定着对算法的态度,所以要求企业在一开始就要将算法向善嵌入到业务流程中,回应算法的担忧。

第二,算法要透明。算法要向用户去披露,使用了什么算法,原理是什么,这些东西很重要。让每个人真正的去了解算法。提升我们每个人的算法素养。我想对于年轻人来说,未来算法会越来越成为我们生活中必不可少的一部分,大家不能被算法所戏弄,不能被算法所操纵,那怎么从算法的奴隶变成算法的主人,提升算法素养迫在眉睫。


第三,去优化成本收益演算。为了获得便捷,不得不以牺牲算法的风险,算法的损害为代价,此过程中一定要公平。


第四,社会要去强化过程的公开和透明,虽然算法风险始终存在,但是一定要落实企业的责任。在算法向善、算法透明、算法公平都没有办法去解决问题的时候,我们的用户应当有权利去向使用算法的组织,政府,企业,追究他们的责任,通过算法的问责来去真正的实现算法的安全。



今日推荐

往期精彩推荐点击标题查看文章● 两大看点大揭秘!《人工智能治理与可持续发展实践白皮书》

● AAIG成立一周年!砥砺前行,谱写新时代的科技之歌~请查收这份最新的自我介绍


● AI治理必修第20刊|ChatGPT发布!智能回答堪比雅思口语满分案!它会成为下一代搜索引擎吗?


 听委员说|AAIG薛晖出席杭州市"两会",提出加快建立人工智能产业的多元协同治理机制


 时空分布偏移下的动态图神经网络:如何在图数据上做数据变换或者数据扰动?NeurIPS论文分享直播回放(7)


 “算法偏见”是概念炒作吗?「这个AI不太冷」第3期带你揭秘现实AI!

更多人工智能治理和可持续发展好文
点击下方名片关注和星标【阿里巴巴人工智能治理与可持续发展研究中心】

👇AAIG课代表,获取最新动态就找她 关注公众号发现更多干货❤️


有启发点在看喔👇
继续滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存