可以看到远方事物,但很快就可能是让别人从远方看见们。正如乔治·奥威尔(GeorgeOrwell)在《九八四》中想象,们看着电视时候,电视也正看着们。等到们把整部《低俗小说》看完之后,可能早就忘大半情节。然而,网飞(Netflix)、亚马逊或任何拥有这套电视算法人,将会知道们性格类型,也知道怎样能触动们情绪。有这些数据,网飞和亚马逊除能帮们挑片挑得精准无比,更能够为们做出人生中最重要决定,比如该读什专业、在哪里工作、和谁结婚。
当然,要求亚马逊永远不犯错,那是不可能事。不管是因为数据不足、程序错误、目标定义不明,还是生命本来就是团混乱,总之各家算法定会时不时犯下各种错误。然而,亚马逊并不需要做到完美,只要能比们这些人类强就行。而且这并不难,因为大多数人并不太解自己,也总是在做人生最重要决定时犯下可怕错误。比起算法,人类因为数据不足、程序错误(基因或文化上)、目标定义不明、生命团混乱而犯下错误机会,实在有过之而无不及。
谁都可以列出算法面临许许多多问题,并由此得出结论:人类永远不会信任算法。这有点儿像列出m;主所有弊端,然后得出结论:任何个有理智人都不会支持这种制度。丘吉尔曾有句名言,说除其他所有制度之外,m;主是全世界最糟糕政治制度。不论是对是错,人类都可能对大数据算法得到相同结论:虽然算法漏洞百出,但们并没有更好选择。
随着科学家越来越解人类决策机制,对算法依赖可能也会越来越强烈。掌握人类决策机制之后,就能提升大数据算法可靠性,但同时也降低人类感受可靠性。而当z.府和企业都能够成功进入们这套人体操作系统时,人类就将面临铺天盖地种种精准操纵、广告和宣传。到时候,要操纵们观点和情绪将非常简单,于是们也不得不依赖算法来反制,就像飞行员旦因为眩晕而产生空间迷向,就不能再相信自己感官,而必须全然相信仪器。
在某些国家和某些情况下,人们可能完全没有选择,只能被迫服从大数据算法决定。然而,就算是在理论上自由社会里,算法也可能成为权威,因为经验让们把越来越多问题交给算法来处理,最后也就逐渐失去为自己做决定能力。只要简单回想下,短短不到20年,就已经有几十亿人把件可以说是最重要任务全然交付给谷歌搜索算法:搜索相关、可信赖信息。们不再自己去搜索信息,而是都靠“谷歌下”。而随着们越来越依赖谷歌来寻找答案,自己搜索信息能力就会下降。今日“真相”,已经是由谷歌搜索排名最靠前结果来定义。
人类身体能力也正在发生这种情况。以找路为例,现在已经
请关闭浏览器阅读模式后查看本章节,否则可能部分章节内容会丢失。