机器人的性别

来自维基学院

机器人的性别旨在探讨当今机器人发展下,性别在其中的意涵。过去机器人经常被定义为无性别的、不具人性的,但愈来愈多机器人技术进入照护、服务、社交等范畴,加上人型外观、仿人的行为和言语能力等,机器人性别化的议题开始受到相关研究者的关注,包括机器人的外型、声音、形象、名字、行为、语气等,可能带有性别预设,以及其背后的设计逻辑隐含了现存的性别刻板印象,乃至强化性别分工的可能,受到科技与社会女性主义等专业领域关注。

当代对机器人的定义仍有争议,除了人型之外,有些电脑程式、机械也被视为机器人,通常指一个可用于移动、操作或定位,有一定自主性的程序化驱动机制[1]。机器人一开始最常被应用于工业,而后也进入服务业、应用程式、社交陪伴等。

现状[编辑 | 编辑源代码]

和人类大多可透过生殖器区分生物性别不同,机器人虽然拥有与人相近的外表,但并不具备生殖器官,因此根据诸多研究发现,机器人的性别化通常来自:男性化或女性化的名字、外观使用的色彩、外型(发型、长相、唇色等)、声音、个性、功能而有不同,动作或手势与性别化的关系则还待证实。

外型[编辑 | 编辑源代码]

日本软银集团 2014 年推出、鸿海精密制造的人型机器人 Pepper,即便推出时并无指定 Pepper 的性别,但其身型被设计为有腰身,且外型让人联想到穿著裙装,让 Pepper 经常被视为女性[2]

一些机器人在被设计时就定位为“女性人形机器人”(gynoid),相对于“人型机器人”(android),凸显其女性特质如外表、个性、声音,如日本的 HRP-4C、Actroid,以及英国牛津大学创造的女性机器人艺术家“爱达”[3]

声音[编辑 | 编辑源代码]

语音助理开始被各领域应用时,大多采用女性化的声音,如 Amazon 的虚拟购物帮手“Ask Alexa”、微软的 Cortana、Apple 的 Siri 等,呈现随时回应、帮忙用户的形象,却也都曾发生被用户“骚扰”、“搭讪”,让机器人声音与性别的关联受到关注[4]

联合国教科文组织在 2019 年出版《如果我能,我会脸红》(I’d blush if I could),标题来自 Siri 回应用户称其“贱人”时的回应,Siri 后来被修正为以“我不知道该如何回应”来回答用户针对性别的谩骂[5]。该出版品聚焦数位领域的男女性别落差,可能造成数位科技中隐含性别偏见、性别歧视,以及女性发展机会较少等问题,也带出机器人也可能遭受性暴力、羞辱的问题。

目前,Siri 不同的声音供用户选择设定,2019 年丹麦多个团队共同研发的声音“Q”,号称为“无性别的声音”,期待能改善人工智慧、机器人之中性别化声音的问题[6]

功能[编辑 | 编辑源代码]

美国史丹佛大学教授希宾格(Londa Schiebinger)在其针对性别化社交机器人的研究中指出,人类社会的性别分工,也经常影响对机器人的期待。例如家务劳动、照护工作,普遍使用女性机器人,以符合使用者的期待,但保全工作或数学领域,则可能更青睐男性机器人的表现[2]

争议[编辑 | 编辑源代码]

支持机器人应该有性别的论述,大多建立在人机互动(Human Robot Interaction, HRI)的基础上,此类论述主张辨识性别是社会互动的基本条件,因此当机器人有明确的性别时,也会影响人类对机器人的态度与互动关系。如 Mikey Siegel 等在 2009 年的研究即指出,当机器人具有性别时,将影响其行为的说服力,进而可以应用在照护、社交等功能上,例如给药、募款,提升机器人对人类的说服力[7]。对机器人的生产与消费端而言,具有性别的机器人有时也能提升和使用者之间的情感连结,而不是只被当作无生命的机械[8]

批评者大多以强化性别刻板印象、性别分工的立场出发,如希宾格的研究,同时,许多女性主义者也以批判的视角检视科技、科学,指出其中可能蕴藏的性别不平等和性别化色彩。珊卓・哈定(Sandra Harding)即指出科技领域从业者的性别差异,以及科学强调的理性、中立,可能建立在白人、男性、北方中心的判准上,忽视了不同族群的需求,在机器人的性别中可能导致强化男性为开发者,而女性为被开发者、服务的提供者等刻板印象。研究人机互动的美国学者 Julie Carpenter 曾针对机器人展现的性别刻板印象表示:“从全球的社会运动来看,我们正在向平等方向发展。那么为什么要倒退呢?为什么要回到上世纪60年代的性别规范?”[8]

性别化创新[编辑 | 编辑源代码]

现阶段关于机器人的性别化创新观点,多会以希宾格的几项案例讨论出发,他指出性别化创新能针对机器人科技探讨以下两个面向:

了解社会性别如何被体现于机器人设计上

社会性别线索可从许多方式体现在社交机器人身上,皆可引发人们对于机器人行为规范性的期待和社会性别的诠释,如家务劳动及医疗照顾常视为专属于女性的事物,在此“女性”机器人的形象较能符合人们期待。此时机器人的外表在现行社会中亦会影响人们是否愿意遵循机器人指示的意愿,以医疗为例,机器人与人互动时,在设计机器人的过程中,除考量其设计产品的目的需求外,考量病患的年龄、教育程度以及社会性别及多重面向及额外重要。

然而,倘若机器人的社会性别与刻板印象相吻合,亦强化人类社会中的社会性别分工及隔离。如将机器人“女性化”或者“男性化”,将会发现女性化机器人从事社会中认为女性的工作,通常亦为薪资较低的工作,可能加深社会不平等的现象;属于男性领域的保全工作,其以男性机器人较能符合社会期待的当下,此亦强化二元的社会性别对立。

机器人被设计来促进社会平等

设计者有机会引导使用者重新思考社会性别规范的方式,来挑战社会性别刻板印象。

社会性别规范和刻板印象的确会影响机器人设计者,然而当社会性别规范挑战既有的社会规范,打造有别以往的机器人,如男性化接待型或护理型的机器人,进而影响使用者——特别是孩童——间接影响人们对于机器人的期待表现,促使使用者重新思考社会性别规范,改变传统社会性别规范。[9]

根据希宾格的“性别化创新”研究,设计确保使用者能高度接受且有能推广性别平等机器人至少有以下六种选择:

  1. 挑战现存的社会性别刻板印象
  2. “客制化机器人”设计
  3. 设计无社会性别机器人
  4. 设计性别流动的机器人,优先考量性别平等
  5. 远离人类社交关系
  6. 设计专属机器人的认同,避免社会刻板印象

性爱机器人与性别[编辑 | 编辑源代码]

可以和人类进行性行为的性爱机器人,近年开始发展多种形象、模式,且性别有男有女,制造者多宣称性爱机器人的出现,可以满足不同性需求的使用者,甚至降低性犯罪的发生率。英国学者理查森(Kathleen Richardson)表示,女性外观的性爱机器人,可能带来物化女性的问题,同时也指出即便机器人产业同时研发男女两种性别的机器人,但市场仍以消费女性性爱机器人为主,购买男性性爱机器人的女性较少,背后牵涉的可能就是社会脉络中的性别关系[10]

而使用者是否可以“强暴”性爱机器人,以及儿童外观的性爱机器人能否被研发生产,都牵涉到机器人伦理议题,仍存在许多争议。

相关条目[编辑 | 编辑源代码]

参考文献[编辑 | 编辑源代码]

  1. International Federation of Robotics. IFR International Federation of Robotics (英语). 
  2. 2.0 2.1 社會型機器人 | 性別化創新. genderedinnovations.taiwan-gist.net. 
  3. 機器人藝術家「愛達」登英國國會 談新科技對創意產業影響[影] | 科技. 中央社 CNA (中文(台湾)). 
  4. 女機器人總是美麗性感、隨時恭候:這算性別偏見嗎?-風傳媒. www.storm.mg. 2016-12-13 (中文(台湾)). 
  5. https://plus.google.com/+UNESCO. I'd Blush If I Could. UNESCO. 2019-03-18 (英语). 
  6. Gender Less Voice. GenderLess Voice (美国英语). 
  7. Siegel, M., C. Breazeal, and M.I. Norton. “Persuasive Robotics: The influence of robot gender on human behavior.” Intelligent Robots and Systems, 2009. IROS 2009. IEEE/RSJ International Conference on. 2009. 2563-2568. © 2009, IEEE
  8. 8.0 8.1 Simon, Matt. It’s Time to Talk About Robot Gender Stereotypes. WIRED. 2018-10-03. 
  9. 性別化社交機器人 | 性別化創新. genderedinnovations.taiwan-gist.net. 
  10. 人類未來:性愛機器人是美女還是野獸. BBC News 中文 (中文(繁体)).