算法霸权与公益诉讼

2018年11月11日,刘哲 发布于检察日报,

第五届世界互联网大会正在浙江乌镇召开,我也在关注并思考一些互联网的问题。

前一阵子,都在批评滴滴的管理问题以及经营策略问题,很多也很有针对性。但是面对日益崛起的互联网公司,联想到几年前百度的“贴吧门”,以及最近报道的“复大医院”竞价排名问题,我们是不是可以从一个更广泛的意义,更宏大的视角来看待这个问题。

这是一个算法统治世界的时代。

那么算法是否涉及公共利益,算法霸权是否侵犯公共利益,也是我们应该认真思考的问题。这是不是也可以作为互联网大会的编外议题讨论讨论?

算法是互联网公司的运营核心规则,其实,由于日益的互联网化,很多传统的公司也在算法化。

那么算法到底是什么?

算法不仅是一串代码,不仅是网络程序或者编程语言,这些都是它的表象。

算法的实质是逻辑,以此形成人们基于使用必须遵守的规则。

这些规则就像法律,只是法律还需要司法机关的维护来确认辩解。

算法是数学化,是高度确定性也是高度刚性的规则,如果违反了就无法操作下一步,甚至可以通过限制资格、降低积分等方式进行惩罚,同样也可以相反的方式予以鼓励。

算法就是互联网社会的法律。

每一个APP除了服务之外,都代表了一系列运营的规则。

你也可以叫它操作流程、使用方式,不管怎样,它的效力是不可撼动的。而对各种网络平台是不由自主的,因此算法规则也是不可逃避的。

但是算法又与法律很不同,最大的不同就是它没有基于民主基础之上产生机制,因此它反映的不是所谓公民的整体意志。它反映的只是一个公司的商业意图。

由于互联网公司普遍的免费策略,似乎算法带有很强的公共产品属性,比如微信就比原来的短信便宜很多,功能也更强大。它并不意味着它是一种公益产品,它考虑的更多的是规模策略,规模是盈利的基础,盈利模式更加隐蔽、更加多样化。

这种隐蔽性也体现在百度的竞价排名。

这种方式其实戳破了互联网公司公益性的外衣。

不存在免费的午餐,只是钱由谁出的问题。

但是,不管钱由谁出,这个午餐都不能让人吃坏肚子,更不能要人命。

这就是互联网公司的底线,即不能违反公共利益。

算法可以具有商业目的,但不能侵犯公共利益。这种侵犯性与个人对公共利益的侵犯很不同,往往不是简单直接的。

  • 它首先具有高度隐蔽性,非常难以察觉。

比如“复大医院”问题,它利用了人们的误解,并不是直接给出错误,而是进行错误的关联。

再比如滴滴顺风车乘客与司机的匹配算法等等,他利用人们的疏忽和潜意识中的冲动。

  • 其次,它具有强大的系统性。

算法不是一两条,它是一个规则体系,具有严密性和组织性。竞价排名可不是一两次单一的案例,它是核心盈利策略,是千百万次的商业操作。

滴滴对出租车、专车和顺风车也采取了差异很大的运营策略,背后的算法千差万别。

  • 再次,是对公共利益的损害。

这种损害是潜在的,但又非常明确。竞价排名利用公共服务的外观和长期积累的信任,造成信息误导,从而产生基于误导引发的各种损害结果。

滴滴通过放松监管放任了危险车主的运营,通过算法可以让危险车主更容易找到侵害目标,官僚化的反馈机制又延宕了危机处理的解决。

总之,对于一个安全性要求非常高的产品,通过忽视安全措施的设置,无形地增加了乘客的风险。这些风险最终演变成了一件件血淋淋的案件。

  • 最后,对公共利益的违反存在企业责任。

这些互联网公司的责任有时与社会责任看似不宜区分。

比如搜索问题,“我是免费提供,凭什么要求搜索结果百分之百正确,您要是信不着我可以找其他搜索引擎啊?”

刚才说过了,免费并不等于一份有毒的午餐。免费不是免责的理由。我们可以允许数据的有限性,数据的不精确性,但我们不能允许蓄意的欺骗,即使是通过隐瞒真相的方式,或者错误关联的方式。

这不仅是一个商业伦理问题,这也违反了基于信任产生的商业联系。这种蓄意的隐瞒或者关联,是社会难以察觉的,更不要说监管,因此社会无法代替企业履行数据真实性的责任。

滴滴更加明确的收费方式,就更是产生难以推卸的安全责任。出行产品,除了更快更有效率之外,难道安全到达不是更加基本的要求么?

记得几十年前,铁路就在反复强调,安全生产多少天,公交车司机也被反复关注安全属性,这种公共产品的安全意义已经深深烙在这些传统运输行业的意识之中。

虽然滴滴提供的更多的是一对一的出行服务,但基于海量的用户,一定也不会比公共交通部门承载的客源少。但安全还没有刻印在滴滴人的脑海中,也不见有什么安全生产多少天的口号。

虽然极端的个案都是在车主与乘客之间发生的,滴滴并没有直接介入,但是滴滴通过算法匹配的倾向性和筛选的忽视性,实际上是在放大乘客的风险,出事只是一个概率性的问题。

在这个问题上,在这些个案的处理上,社会的介入隔着滴滴的算法和运营,事实上是很难及时介入的。其实,滴滴算法与外部规则融合紧密性程度也是这些案件被诟病最多的。

真正的法律难以介入到算法调整的范围。这是我们最需要关注的问题。

算法不能成为独立网络,算法本身也要遵守法律。

但是谁来检验算法的合法性,而且由于公司商业秘密的存在,怎么能够及时全面地进行事前预防,可能还需要比较长时间的研究。

  • 但是笔者认为,目前可以通过公益诉讼的方式对算法进行事后的系统监督。

优先算法关涉公共利益,涉及不特定的多数人。而且个人的力量微弱,除了提出个人利益损害的民事诉讼以外,很难就算法问题提出系统性诉讼请求。而算法性问题不解决,头痛医头脚痛医脚是没有太多实际意义的。这也是为什么这些互联网公司会一错再错的原因。

虽然这些公司也会承诺进行系统整改,但是自己确实很难当好自己的医生,即使一两个企业痛改前非,也不能保证所有企业都会系统反思,必须引入外部监督机制。

行政管理部门虽然也是一种外部监督机制,但是由于多头管理,利益盘根错节,很难有一个根本上的改善,对此,算法问题和雾霾问题具有一致性。

具体来说,可以考虑对民事诉讼法“人民检察院在履行职责中发现破坏生态环境和资源保护、食品药品安全领域侵害众多消费者合法权益等损害社会公共利益的行为…”这个“等”进行扩张性机制,除了食品药品安全等领域外,其他与其相当的民生领域,存在广泛的侵害消费者合法权益的问题,也可以纳入公益诉讼的范围。

通过进入检察机关的公益诉讼才有可能引入强有力的外部规范机制,才能使法律的意志在算法中得到执行,避免算法成为独立王国,法外之法。

确保法律的统一实施本身也是法律监督机关的职责所在。

在算法日益强大的未来,如果不及早考虑这些问题,法律就会存在被算法架空的风险。

 撰文/刘哲 /检察日报 编辑 / 孙风娟

链接:法律读库搜狐新浪

2018年11月11日

 

点击量:15

发表评论

电子邮件地址不会被公开。 必填项已用*标注