我国的电影审查对色情无比严格,对暴力却特别宽容。最近用惯了“脸书”这类国外的社交网络,不时目睹暴力画面,却极少遇见色情图片。(图:马奈的《奥林匹亚》在1865 年的巴黎沙龙展出时惹怒了一大群眼光甚高的观众和责任感爆棚的评论家,要论画中女人身体各部分的姿态,与这些人一向欣赏的提香的名作《乌尔比诺的维纳斯》几乎一致,激怒他们的,是画中女人那“毫无羞耻地直视着观众的目光”)
谈论网络上被删的图片、影视剧里被剪的镜头,是我们当代生活的一大乐趣。去年与朋友同去影院看《白日焰火》,曾被问到为何我国的电影审查对色情无比严格,对暴力却特别宽容。最近用惯了“脸书”这类国外的社交网络,不时目睹暴力画面,却极少遇见色情图片,就拿同样的问题问一个美国同学。她的回答让我见了世面:高端社交网络的审查工作是由人工智能算法完成的,这些算法识别色情的本事先进到可以区分色情照片中的裸体和世界名画中的裸体,识别暴力的本事却还不够区分一团血肉模糊的人体和一块撂在货架上的鲜肉。
这同学点开一堆网上链接给我扫盲这种技术的发展。2010 年,莫斯科的17 岁少年安德烈·特诺夫斯基开发的陌生人视频聊天网站Chatroulette 迅速飙红,浩浩荡荡的“裸聊”大军也加入其中,爆发了所谓“阳具灾难”。网站只好发起大赛求贤问策,当时的冠军提出运用人脸识别算法和眼球追踪技术解决这个问题,若发现聊天视频中出现的不是一张人脸,就大致可以确定为一根阳具。
上述只是迂回策略,直接识别色情内容的技术大致分为三种,第一种通过评估肤色的浓度与分布位置来侦测色情图像。与肤色相近的东西很多,因此错报率很高,手中的小香肠,碗里的生肉丸,甚至云间的落日,都有被误判的可能。第二种称为图像综合分析,通过判断形状和纹理来辨识图中人物的身体姿态、面部表情、位置关系,这种技术也还停留在“too simple,sometimes naive”的阶段,对图像内部知识结构的认识非常单纯,如果图中主角采用某种高难的体位,就经常傻乎乎地安全放行。人能比机器做出更合理的判断,是由于可以借助日常经验在头脑中产生的大量图像积累,第三种技术“图像理解”运用这个原理,将大量色情图像存入一个数据库,按照身体部位分门别类(细到“单独出现的屁眼”和“与阴部同时出现的屁眼”各占一类),再基于这个数据库,通过人工智能算法生成一整套侦测器(比如,胸部侦测器、阳具侦测器等),随时准备全面出动警力,侦查那些迷人的画面中身体部位的微妙关系。
这简直是在模拟图像研究的发展历程!两人的学院癖一齐爆发,你一句我一句地把各路艺术史方法往这些技术上用,从沃尔夫林的“封闭的形式”与“开放的形式”,到潘诺夫斯基三段论式的“图像学分析”,再到贡布里希的《艺术与错觉》与阿恩海姆的《艺术与视知觉》。说到符号学时,我骄傲地炫起从罗兰·巴特的《萨德·傅立叶·罗犹拉》中译本里读来的萨德写作中由身体部位、姿态、社会关系和场所组成的“色情语法”。等到这同学从拉康的“凝视”与“欲望主体”扯到罗兰·巴特的《文之悦》,大谈文本如何与作为“源头”的作者“失联”而任由作为“终点”的读者阐释,摩拳擦掌地说要在这基础上发展出一门有无处不在的审查算法参与的未来图像学理论时,我开始不耐烦地打开“谷歌”搜来搜去,不料正好搜到一条2012 年的新闻,从这新闻上看“脸书”似乎还没那么先进,至少在2012 年还需要以每小时4 美元的工钱在第三世界国家大量雇人来干图像审查的活儿。
这条新闻还首度曝光了“脸书”审查员人手一份的敏感内容列表,细化到每一个物件的每一种状态,并对时下议得最欢的敏感话题拼命表现包容,比如,表现毒品的图片必须删除,但表现大麻的图片绝对不删;表现情侣亲热的图片限制奇多,但表现同性恋亲热的图片绝对不管。即便如此也还不能避免“误伤”,在2012 年就因把母乳喂奶的照片当成色情图片而惹怒了一大群喜欢变着花样“晒娃”的用户。艺术作品有时也不免中枪,2012 年法国蓬皮杜中心举办格哈德·里希特回顾展,在自家官方“脸书”页面上发布里希特的作品《爱玛(下楼梯的裸女)》就遭遇了同样的剪刀。大概审查员们只能接受文艺复兴作品中理想化的人体,当代作品的笔触多有新鲜的缺陷,暴露出太多不安全的真实感,就使他们觉得遇见了挑逗。这层意味是用各种身体部位侦测器全副武装的图像理解技术也难领会的,马奈的《奥林匹亚》在1865 年的巴黎沙龙展出时惹怒了一大群眼光甚高的观众和责任感爆棚的评论家,要论画中女人身体各部分的姿态,与这些人一向欣赏的提香的名作《乌尔比诺的维纳斯》几乎一致,激怒他们的,是画中女人那“毫无羞耻地直视着观众的目光”。
申舶良:1984年生,2008 年起在全球当代艺术领域从事批评、策展、翻译工作,2010 至2013 年任ARTINFO 中文站资深记者,现就读于纽约大学博物馆学系