两年前,在第 49 届欧洲足球锦标赛(ECF Days) 筹备期间,Facebook 的安全系统在一张附有欧洲足球锦标赛 (ECF Days) 博客文本的图片中发现了裸露的身体部位,当时 Facebook 的安全系统还没有那么慢。该图片立即被删除。裸体就是裸体,无论它是否是一件艺术作品。 G.Rosen 证实,裸体和恐怖主义宣传图像很容易被人工智能检测到,从而可以迅速从网站上删除,而仇恨言论则更难被发现,因为算法无法检测到仇恨言论语言的细微差别[9]。事实上,表示另一个能指的主题的能指在算法中是不存在的。另一方面,我们在那里发现了一元特质的特征。与能指不同,一元特质与其自身相同[10]。因此,它允许编号和添加,但不会产生意义和主题的效果。无论信息真假,它都是信息,而当你将真信息与假信息相加时,你会得到总共两条信息,没有性质。关于非意图的论述加深了这种控制论语言。
这种通过一元特征对话语进行标准化是评价技术的条件,这种评价技术优先于言语判断。真正的假货就藏在这种标准化之中。通过忽视主体效果的多样性,无意图伦理所借用的控制论语言最终将象 阿尔及利亚 WhatsApp 手机号码 征与现实背对背,使得能指与享受之间的关联变得不可能。在已建立的液态连续性中,切断和去除享受的行为变得不可能。然后这一个就可以自行其是,毫无阻碍地肆意妄为。
网络算法的失败不仅限于无法检测引发仇恨和暴力的虚假信息。这些算法还通过其推荐功能参与了这些仇恨言论的放大。如果你在亚马逊上购买一本侦探小说,你将在同一类型其他小说的购买推荐。更令人不安的是,当你对唐纳德·特朗普支持小组的页面感兴趣时,你会被机械地推荐阅读由 QAnon 运动传播的有关恋童癖网络的阴谋论,而这种推荐并没有任何恶意。 Facebook 于 2020 年 10 月删除了其网站上发布的所有 QAnon 页面。考虑到这些有毒页面已经能够煽动暴力和犯罪行为,这次干预再次被认为非常晚[11]。
无论我们是否喜欢,Facebook、Twitter 和其他社交网络都传达和规范着当代话语。这个魔像的影响远超其创造者,它是我们这个时代的一个症状。虽然国会大厦遭袭击事件揭露了这一工具所支持的阴暗面,但不可否认这些网络在支持言论自由方面也发挥着作用。对网络感到愤怒,并仅仅从审查与否的角度来对待他们所释放的快感,这并不是很有效,而且可能是一种“转移自己对利害关系的注意力”的方式[12]。因此,对于我们来说,问题不是对网络生闷气,而是解读和解释这种文明的症状,这种文明任由锤子指挥,而没有任何技术意图。
正如我们所见,Facebook 的控制系统经常落后于行动一步。这种反复的拖延将会持续下去,直到社交网络用后果伦理取代意图伦理。分析治疗在这里是一个主要的启发。神经质是他幻想中的农奴,陷入了他自恋形象的虚假善意之中。因此,他的享受方式总是落后一步。这使他一次又一次地遭遇同样不幸的后果。除了洞察这种幻想的逻辑之外,没有什么可以阻止这种重复。事后看到后果这一事实并不妨碍主体预见其行为的后果。分析治疗可以被设想为从意图伦理到后果伦理的一次旅程。