《智能社会:进退两难》:我们都可以冷静一下吗?

深夜电影 (44) 2021-01-19 10:00:55

《智能社会:进退两难》:我们都可以冷静一下吗? (http://www.candyfist.com/) 深夜电影 第1张

记录一下《智能社会:进退两难》的一些谈话内容,有很多可以讨论与思考的部分。在这个时间点看《智能社会:进退两难》,很难没有共鸣,片中提到的问题都是现在进行式,而我们正身处其中,更能感受到问题的严重性与需要被解决的急迫性。

谁是买家谁是卖家产品又是什么

「由于我们并没有花钱买我们使用的产品,所以我们用的产品是由广告主买单,广告主才是客户,我们才是被卖的商品。」

「如果你没有花钱买产品,你自己就是产品。」

免钱的才最贵,当我们使用社群媒体时,我们是在提交出个人的资料,社群媒体利用演算法分析「使用者」的兴趣,让客户的产品可以投放到适合(准确)的目标。社交媒体的使用者鲜少意识到他们在网路上展现的性格、兴趣、习惯等,即是被贩售的产品。

「这是所有公司自古以来的梦想,能够保证只要刊登广告,就会有效果,这是他们的业务,他们卖的是确定性,为了在这一行成功,你必须有很强的预测能力,预测能力要强就必须有一个前提,你需要大量的资料。」

「很多人以为这些大型公司出卖我们的个资,脸书交出这些资料必会有商业利益,重点是他们拿资料去干嘛?」

电脑如何监控我们?光是你在一张照片上停留多少时间,就会成为一组数字。你是开心或难过,你晚上没睡觉时在看什么东西,你按了什么文章的赞等等。透过这些看似无关紧要的数字追踪,去预测我们的行为,并建构使用者的性格数据。而且越来越能精准预测我们的喜好,进而开始有效投递「我们会喜欢的物件或议题」。

科技只要够进步看起来就会像魔术

「你把手机向下拉就能更新,最新资讯就会出现在最上面,向下拉就又能更新又有新资讯,每次都是,这在心理学有个术语叫做”间歇正增强”。」

「你不知道何时会得到或者会不会得到某样东西,原理就跟赌城的吃角子老虎一样,你不能只是有意识地使用产品,我要深入挖掘人的脑干,把潜意识习惯植入你的大脑,从你的大脑深处控制你,你甚至不会知道。每次你看桌上的手机,光是看着手机就知道只要伸手过去,就可能有新消息,就好像玩吃角子老虎试手气,对吧?这不是意外,这是一种设计技术。」

「另一个例子是照片标注,如果你收到一封邮件,说你朋友刚刚在照片上标注你,你当然会点那封邮件来看,你没办法放着不管。他们完全利用人类的深层人格。你要问自己一个问题:为什么邮件里没有那张照片?这样看不是更简单?」

我觉得社群媒体最变态的设计就是打字的时候会出现「删节号」,暗示你对方正在回覆留言,那会给你一种期待感,会想着:「对方要留言给我,那我就在这里待一下吧。」久而久之,你使用社交媒体的时间就会拉长,更无法离开网路世界。

《智能社会:进退两难》:我们都可以冷静一下吗? (http://www.candyfist.com/) 深夜电影 第2张

我们成了实验室的白老鼠?

「脸书进行他们所谓的”巨幅感染型实验”我们要怎么在脸书网页上用最低限度的暗示,就能让更多人在期中选举投票?他们发现真的有办法做到,其中一个结论就是我们现在知道的:人类在真实世界的行为和情绪,的确会受到影响。而且使用者完全不会察觉。他们什么都不知道。」

「人类在真实世界的行为和情绪,的确会受到影响。」这件事在过去几年的感受更为深刻,无论是年初的台湾总统大选或是近期的美国总统大选,我们发现网路言论变得越来越失控,很多时候人们不再「好好谈话」而是发出各种情绪化的言论,到处贴标籤,丑化彼此。其实早在网路发展初期,这样的问题就已经发生,但激化与对立的状况依然是一年比一年往上增强,而我们也在不知不觉中变得更为偏执、情绪化、暴力...

「我们拿这些人工智慧系统对付自己,用逆向工程的方式,找出怎么做才能让人类做出回应。几乎就像刺激蜘蛛的神经细胞,看看怎么让蜘蛛的腿抽动。这就像一种监狱实验,我们把人带进这个数学矩阵,利用他们的一举一动,搜刮大量金钱和资料,中饱私囊。用户却完全不晓得。」

「脚踏车面世时,没有人受害,对吧?如果大家都开始骑脚踏车,没有人会说:天啊,我们毁了这个社会。或者脚踏车会影响大家,让大家都不照顾小孩、毁了民主基石,导致大家无法分辨等等。我们绝对不会说脚踏车有这些问题。如果某样东西是工具,就只会静静躺在那里,耐心等待。如果某样东西不是工具,就会跟你要东要西,引诱你、操弄你、要你提供东西。我们已经不是在工具型的科技环境,而是进入成瘾和操弄型的科技环境。改变的是这个:社群媒体并非被动让人使用的工具,而是有其目标,有自己实现目标的方式,利用人类心理对付人类。」

社群媒体透过心理学去改变人类的行为,这其实跟《全面启动》的概念非常相似,科技不再停留在浅层表面,而是进入深层的意识里,植入一个想法(习惯),改变人们对一件事或一个人的想法。

你在看我吗?

「全世界只有两种产业把客户称为使用者,一个是DU品,一个是软体。」

「人类演化后,开始在意其他部落同胞喜不喜欢我们,因为这很重要。但是我们有演化成在意一万个人的想法吗?我们并没有演化成每隔五分钟就需要一点点社会认可,这不是人类与生俱来能够应付的体验。」

「我们根据公认的完美标准改变生活,因为这种短期讯号就像一种奖励,大心、按赞、竖起拇指,我们认同这种价值,以为这就是真理。但这都是虚假、稍纵即逝的人缘,不但无法长久,而且承认吧,这种生活反而让你比以前更空虚。因为你被迫进入这种恶性循环,心里想着:接下来该做什么?因为我还想要这种感觉。想想看,这种情形对二十亿人的影响,再想想大家对别人的观感如何反应,大事...真的不妙。」

记得去年的南美旅行,有个小镇的网路超弱,在那里我只能发简单的脸书讯息。在小镇待上两天时间,一方面感到焦虑「网路这么慢,我会不会错过什么重要讯息?」一方面却也发现,当你无法使用网路时,你不会一直被手机制约、不会一直想要知道网路上谁谁谁又说了什么、不会一直想要分享你看到了什么或拍了什么照(因为那让我们觉得自己很重要)。当生活没有非必要让他人知道我们的一举一动时,或许我们才能回过头看见自己的真正需求。

讽刺的是,观赏《智能社会:进退两难》时,我一边纪录下剧中有意思的对白,一边不由自主地产生:「哇,这段话讲好好,我要记下来发到网路上,这样可能会赚到很多赞。」想法。在社群媒体的时代,我们已经被训练成无时不刻都在思考如何赢得他人的目光,如何索求他人的认同...即便,我正在观看一部探讨网路媒体对人的影响的作品。

「整个新生代都被我们训练和制约成只要觉得不舒服、寂寞、不确定或者害怕,就可以拿数位奶嘴麻痺自己,这会削弱我们处理负面感觉的能力。」

生命会找到出路

「你给电脑一个目标:我要这个结果。然后电脑自己学着怎么达成,”机器学习”这个名词就是这样来的,所以系统每天都精进一点,用最佳顺序挑选最佳贴文,让你用这套产品的时间越来越长。其实没人知道人工智慧用什么方法达到那个目标。」

「这些公司里只有少数人,不管是脸书、推特还是其他公司,只有几个人瞭解这些系统的运作方式,连他们都不见得完全瞭解特定内容会变成怎么样,所以我们人类几乎无法控制这些系统,因为这些系统控制我们看到的资讯,系统对人的掌控能力,超出人控制系统的能力。」

人类创造社群媒体,利用心理学掌控使用者,社群媒体在短短几年内迅速发展,创造者甚至难以控制它的成长速度。这让我想起《侏罗纪公园》的经典对白:「生命会找到自己的出路。」人类的好奇心为社会带来便利与多种可能性,但同时间,人类的发明却也常常让自身陷入险境。看似无生命的社交媒体,其实是有机体,依靠人类的寂寞、孤单、自恋、恐惧、喜悦、悲愤等情绪,变得越来越强大而有杀伤力。

《智能社会:进退两难》:我们都可以冷静一下吗? (http://www.candyfist.com/) 深夜电影 第3张

资讯客製化的恐怖

「我要向大家解释脸书的动态消息功能到底有多糟糕时,其中一个例子就是要大家看某科,你登入某科网页,看到的东西都跟别人一样。这是网路上少数大家都一样的东西。假设某科说:我们要让每个人有不一样的客製化定义,而且我们是拿钱办事。所以某科会监视你,某科会计算:”我要怎么做才能让他改变一点点,以便达到商业利益呢?”结果某科就改变词条内容。你能想像吗?你应该可以想像得到,因为脸书、Youtube动态消息就是如此。」(本文为原创文章,独家首发于深夜故事(www.candyfist.com),作者清梦。未经授权,不得转载。文中所用配图均来源于网络,版权归属于原作者,侵删。)

「就算是两个很亲近的朋友,他们的朋友也几乎重迭,他们想:我去看脸书上的动态消息,就会看到同样的更新。但其实完全不是这样,他们会看到完全不同的世界,因为电脑会根据计算结果,显示最适合他们的内容。」

同温层局限你的视界

「你可以想像27亿个《楚门的世界》,每个人都有自己的真相,自己的...事实。久了以后,你会以为大家都同意你的看法,因为动态消息里的每个人都跟你有同感,一旦你处在那个状态,就很容易被操弄,就跟你被魔术师骗了一样,魔术师表演扑克牌技法时会说:随便选一张牌。你不知道的是他们早就设计好了,所以你选的是他们要你挑的牌。脸书就是这样,脸书说:你挑选你的朋友、你挑选要点的连结等。其实都是胡扯,就像魔术师一样,脸书控制你的动态消息。」

「你看到另个阵营,就会开始觉得:”这些人怎么这么笨?你看我经常看到的大量资讯,他们怎么会看不到同样的东西?”答案是:“他们真的看不到同样的东西。”。」

演算法下被操弄的人偶(人类)

「我担心自己开发的演算法反而造成社会的两极化,但从这个观点来看,两极化现象确实是让用户上线,非常有效率的方法。」

「大家以为演算法的设计是提供民众自己想要的东西,错了,演算法只是想找几个够棒的幻境,找个和用户兴趣最接近的幻境,如果你开始看这类,系统就会一直推荐下去。」

「麻省理工学院有项研究,推特上的假新闻传播速度,比真的新闻还快六倍。如果一个人的优势比另一个人强上六倍,这个世界会怎么样?」

「我们打造的系统让假消息更有优势,这不是我们故意的,只是因为假消息比真消息更能让公司获利,真相太无聊了。」

假新闻现在式

「所谓的第三人并不是以骇客手法操作选举,俄国人并没有骇掉脸书,他们只是利用脸书为合法广告主,并合法使用用户开发的工具。差别是:他们的用意非常邪恶。这就像遥控战争,一个国家操弄另一个国家,却不必真的侵犯实体国界。」

「重点不再是你要投票给谁,而是让社会彻底混乱、民众分裂,目的是让两派人马,再也听不到对方的声音,再也不想信任对方。」

「我们要把社会卖给出价最高的人吗?我们要把民主体制整个卖掉,让你潜入每个人的心理,让特定族群相信谎言,然后造成文化大战吗?我们要这样吗?」

「如果我们对于何者为真没有共识,或者认为世界上没有真相,那就完了。这是其他问题底下的根本问题,因为如果我们对何者为真没有共识,那就根本无法解决任何问题。」

「科技并不是人类的生存威胁,而是科技拥有把社会黑暗面激发出来的能力,社会最黑暗的一面,就是生存威胁。」

「会不会未来世代的孩子,再也不知道网路幻境出现前,这个世界原本的样貌?如果你不知道自己身在母体里,要怎么从母体里醒过来呢?」

经济至上的危机

「我们发明"赞"按钮时,动机是把正能量和爱散播到全世界,然而这个初衷现在反让青少年因按赞数太少而感到忧鬱,或者可能造成政治两极化。我们当时完全没有想到这些...」

「我认为很多人都被商业模式、经济诱因和股东压力给卡死了,几乎不可能有别的做法。」

「我觉得大家必须认同企业努力赚钱其实没有关係,有关係的是没有规范、没有规则、没有竞争...导致公司变成实质上的政府,然后他们说:"我们可以自律"这根本是胡说八道,离谱至极。」

#Netflix

网飞推出《智能社会:进退两难》这部记录片,请求人们思考社交媒体存在的问题,但同时间,我们在 Netflix 上看的每一部,也会成为一组数字,Netflix 的演算法会根据观看者的类型偏好,推荐特定的。好处是:使用者比较不会踩雷。缺点是片单会越来越偏,最后局限在特定的类型上。其实...我们已经深深陷入演算法的蜘蛛网中,很难从中逃离。

#该如何做

假新闻能够快速传播,一是煽动性,可以有效挑动他人的情绪(无论是攻击或是同仇敌忾),二是宣洩性,透过传播讯息来表达内心的不满。不论分享文章的大家是怎样的心情,我在分享一则新闻或是消息前,总希望自己可以先冷静想想:这消息是真的吗?有被证实吗?它可能造成的影响为何?对于釐清事情真相有什么帮助?我只是单纯在散佈一种激烈的情绪,引发更大的对立吗?

面对社群媒体能怎么做?当情绪过于激动时,不要第一时间回应与传播自己看不顺眼或觉得有爽度的文章,冷静过后,再来决定该如何面对。关掉脸书或IG或Line通知,我们不必要随传随到。当你发现自己的赞数变少时,不要一直问自己:「是不是我哪里不够好?」赞数的多寡不代表你这个人(或文章)的价值。多看新闻,并且注意出处。在网路上与人交谈时,不要自行脑补对方在想什么,不要贴标籤,也不要因为别人贴你标籤,而合理化去贴别人标籤这件事。不要时刻处于攻击与防备的姿态,尽量阐述自己的观点,并试着理解对方的观点,若是对方不愿深谈,不要穷追猛打,因为最后很可能会变成双方不在讨论事情,而只是各说各话。

THE END

发表评论