ChatGPT:科技飞速发展,我们更加追问“何以为人”

ChatGPT编程1年前 (2023)发布 一起用AI
488 0 0

ChatGPT:科技飞速发展,我们更加追问“何以为人”

导读

Foreword

2023年第一个引发全民热潮的科技创新已经出现:ChatGPT以其广博的知识库、惊艳的自然语言对话能力和广泛的应用场景引发了大众舆论的广泛关注,也引得科技巨头、投资机构纷纷下场。当ChatGPT的浪潮突然拍来,许多人可能震惊于新技术的发展速度,感到茫然、恐慌、甚至不知所措。但实际上,AIGC(AI Generated Content,即人工智能生成的内容)已经有很长时间的研究历史,此前也已经在不少场景中被成功(或失败地)应用。

科技进步和社会发展之间的动态关系一直是我们关注的重点内容。人工智能作为第四次工业革命中的核心技术之一,始终受到社会事业领域的工作者、变革者的广泛关注和讨论。我们盘点了从2018年至今发布的文章,推出由下述11篇文章组成的合集,聚焦三个问题:人工智能生成的内容会带来失业浪潮还是人的解放?人工智能如何应对其伦理道德上的争议?以及最重要的,这股浪潮与我们的社会创新事业有何关系?尽管这些文章多发布于ChatGPT引爆公共舆论之前,它们包含的许多“问题意识”在今天依然适用。

我们对技术进步论怀有审慎的态度。

或许,技术本身很难“自然而然地”推动世界朝某个方向行进,重要的是我们的态度、思考和实践。希望这些往期文章能带给读者新的思考与启发。

——by.尚未被ChatGPT完全取代的SSIR中文版编辑部

声明:除特别引用外,本文未使用ChatGPT。

看到文末,自有精彩。

造成失业VS.人的解放?

当投资方和科技企业们迫不及待追求新的风口,普通人或许首先关心与自身命运相关的问题:人工智能会取代我们的工作吗?我们要失业了吗?一个称不上好消息的好消息是,我们发现类似的讨论已有多年历史。

学界和业界对ChatGPT所代表的自然语言处理模型有长期的研究和应用。这类模型能在被大量投喂语料库的前提下,尝试拆解、“理解”人类语言中词语与词语之间的关联,并能输出符合逻辑的回答。但是,在现有阶段,这些基于语言前后关系的处理并不意味着它“真正懂得”人类情感,它也很难从0创造出突破其原有语料库的内容。ChatGPT的内容生成“是‘从有到有’的生成,而不是‘从无到有’的生成”1,它天然完美适配的应用场景可能是搜索引擎。如上海社会科学院哲学研究所成素梅研究员所指出的,“要么把ChatGPT看成是传统工具,忽视其功能的类人性…要么像许多科幻电影所描绘的那样,把ChatGPT设想成具有超人的本领,忽略其原本的工具性”,这种简单的“二分思维”、“两极对立”并不可取2。

另一方面,有人认为,ChatGPT这样的工具能够帮助我们从重复的、程序性的工作中解放出来。此言不假,但正如安德鲁·阿伯特(Andrew Abbott)在其演讲中尖锐地指出的:

“很大程度上,大部分我教的学生认为,知道一些东西就是知道一个网址。他们致知的主要模式是去‘寻找’(finding)。他们上网寻找知识的时间比在学校的时间要长得多。他们把阅读本身定义为一种寻找。也就是说,对他们来说,‘阅读亚当·斯密’意味着寻找每一章中真正重要的五六个句子。他们不明白,亚当·斯密其余的句子都包含着论点和论据,他用这些论点和论据来产生并捍卫这些学生划重点的部分。对学生们来说,阅读只不过是在网络以外的地方浏览。它是一种过滤掉无关紧要的闲散部分、并找出真正重要事情的练习。他们根本不相信「其他所有的东西」都是必要的。

他们实际上不相信思想。他们相信碎片化的内容。对他们而言,斯密的理论不是一个论证,而是固定的内容…他们关于致知的理解不包括任何真正的论证(argument)。如果你直接问这些学生亚当·斯密的论证,他们会给你一个要点列表(我几次重复过这个试验,结果大致相同)。清单上的所有项目都是亚当·斯密说过的。列表上甚至会是亚当·斯密说过的重要内容,但是它们之间没有逻辑联系,因为学生并不真正把论证看成复杂的逻辑句法,他们把它当作一个清单。Powerpoint 教会了他们这一点。”3

如果这一现象是存在的,那么当ChatGPT比任何人类都更能多快好省地找到“网址”、形成“列表”的时候,“致知”的模式将受到根本性的冲击。阿伯托如上所说的,将论点和论据联系起来,真正地思考等等都将成为致知的核心能力。但是,我们现有的劳动力、现有的教育系统做好准备了吗?我们真的有那么多渴望被解放的头脑吗?如何在易得、便宜、相对准确的AIGC中生存,转向更加不可替代的领域,可能是每个普通人都需要考虑的问题。

本文是《技术陷阱:从工业革命到AI时代,技术创新下的资本、劳动力与权力》的书评。这本书由牛津大学经济学家弗雷写作,在2019年被普林斯顿大学出版社出版。弗雷认为,取代劳动力的技术会带来进步,但这些进步可能会给劳动人口带来极具破坏性的后果。

他和同事们在一项2013年的研究中预测,由于人工智能和机器学习的进步,美国47%的劳动力在未来几十年可能被机器取代。而如果将我们目前正在经历的技术变革与历史上的“工业革命”做类比的话,那么其造成的贫富分化(制造商受益颇多,劳动者损失惨重)值得我们警惕。社会结构中谁失业,谁又因雇佣减少而获益?我们如何分配技术发展带来的利益?这些超出对“失业”的担忧的问题,同样需要严肃讨论。

弗雷观点中另一个有趣、令人耳目一新的地方是,他认为当技术在短期内造成痛苦时,它会促进对技术本身的怨恨,这可能导致深刻的社会和政治动荡。换句话说,AI会如何改变社会,这不仅取决于它的技术能做到什么,也取决于我们用何种态度去对待它。人类的态度可能是友好的,也可能是焦虑恐惧引发的强烈敌意,后者可能带来巨大的负面结果。

ChatGPT:科技飞速发展,我们更加追问“何以为人”

第三世界国家如何应对人工智能浪潮?新技术是否会进一步扩大发达经济体和欠发达经济体之间的差距?本文作者莱克斯·诺维斯基是Singularity Investments的首席投资顾问,这是一家针对撒哈拉以南非洲初创科技企业的投资公司。在文章中,作者指出,非洲不必畏惧机器人及自动化时代的到来。

非洲的许多国家充满创意,但受困于基础设施和生产力的匮乏。人工智能技术将会给卫生保健、金融等各个部门带来许多积极转变,比如为熟练工人节省更多的时间并提高劳动生产率、填补有形基础设施的缺口与消费者需求之间的鸿沟等。

非洲的政府、投资者以及非政府组织必须做好准备,为使非洲人民能够真正从中获益,工人们需要经过训练以胜任复杂的工作;在法律和教育领域也需要改革,以满足未来的经济需求,为第四次工业革命的现代工作场所改造做好充足的准备。

ChatGPT:科技飞速发展,我们更加追问“何以为人”

好消息是,还有许多行业是AI无法胜任的,甚至还是高速发展的朝阳行业。

本文摘自《今日简史:人类命运大议题》,作者尤瓦尔·赫拉利现任耶路撒冷希伯来大学的历史系教授。在本文中,赫拉利高度认可了人工智能在“专属于人的技能”上打败人的能力。即使在“理解心灵”这种抽象任务上,个人也无法与集成网络相抗衡。但是,他同时指出,人文关怀产业和创意产业将很难被自动化突破,因为这些工作充满变化、需要同时运用广泛技能组合、需要应对难以预见的情况,或要求新鲜的创意。

赫拉利畅想的2050年就业市场将以人类与人工智能的合作而非竞争为首要特点。人类与其想赢过人工智能,不如把重点放在人工智能的维护和运用上。实际上,我们已经看到许多利用ChatGPT提高工作效率的例子。在本书出版的2018年,赫拉利担忧于技术发展带来大规模系统性失业的可能性。今天,这种担忧具有前所未有的现实意义。或许我们是时候思考:如何选择一份不太容易被AI取代的工作,如何让AI成为我们工作的帮手,而不是对手?

ChatGPT:科技飞速发展,我们更加追问“何以为人”

我们有和人工智能合作的可能。本文是对2022年出版的《智能的非营利组织》一书的推荐。在本文中,作者推崇一种“AI+人类”的共同协作模式。作者认为,尽管人工智能能够出色地完成事务性工作,甚至承担聊天陪伴机器人这样重视情感联结的职责,但非营利组织的核心是“以人为本”的。人和人之间的联结无法被彻底取代。比如说,在面对青少年自杀的危机干预时,聊天机器人可以模拟处在危机中的青少年,帮助咨询顾问练习对话方式。但是,聊天机器人本身不能够被直接用于与一线的、真实面对自杀危机的青少年进行对话。

本文另一个特别具有启发性的部分是提供了许多以人为本的额外资源,包括设计工具包、合作活动、指导手册等的外部链接。如果这是你感兴趣的话题,相信对这些资源进行探索将帮助你拓展眼界,产生新的灵感。

伦理灾难VS.伦理正义?

另一个关于ChatGPT的核心讨论是关于其伦理道德风险。长期以来,社会科学领域的研究者们一直指出,依赖现有语料库进行学习的大语言模型很可能复刻现实世界中的结构性偏见。

由于模型总是以让人感到客观陈述的方式传达出信息,这些偏见性、歧视性的内容变得更加危险。在ChatGPT中,我们看到公司对AI的“道德敏感度”有许多训练,以保证模型不传达“不合适的内容”。

但紧接着,媒体报道指出,公司以极其低廉的价格在第三世界国家雇用工人,以对真实互联网世界中的极端信息进行分类打标,保证AI学会什么是“不合适的内容”4。更进一步说,ChatGPT目前正在实行一种被诺姆·乔姆斯基(Noam Chomsky)及合著者称为“道德冷漠”的立场:它不断重申自己是数据训练模型,因此不具有观点和立场,“最终提供了一种‘只是服从命令’的辩护,将责任推卸给它的创造者”5。这种避免任何“冒犯”、渴望维持“中立性”的努力,多大程度上是合适的?如果ChatGPT终归是种人造物,那么它背后的人们是否应该走出回避,为实现伦理正义做出更大的努力?

ChatGPT:科技飞速发展,我们更加追问“何以为人”

本文作者鲁本·曼查和夏士莲娜·阿里指出,算法可能不符合我们的社会伦理,其社会影响没有得到精准评估。在Twitter、Facebook等社交媒体APP中,个性化的内容推荐算法可能让人们被困在信息茧房当中。按照供给需求关系自动调整价格的动态定价算法,在大规模自然灾害发生时可能大幅涨价,挑战了我们对人道主义的追求。作者认为,算法应当要求符合伦理的结果优先,速度和效率在次。伦理指导原则在组织和编程项目中都应当得到体现。更多的利益相关者也应当参与进来,识别并解决道德差距。

深度学习算法是一个“黑箱”,机器无法真正理解人类社会的道德伦理准则,只能根据被提供的训练集习得不同内容间的映射关系。在建立有包容性的AI方面,当前或许还无法完全排除人的因素。人工智能在现实世界中的合理应用更要求商业组织们对自己的社会责任有完全的认知:暂时克制在利益上的绝对追求,贯彻道德伦理标准。

ChatGPT:科技飞速发展,我们更加追问“何以为人”

一个基本事实是,人工智能系统是有偏见的,因为它们是人类的创造物。

本文作者吉纳维芙·史密斯(Genevieve Smith)和石田·鲁斯塔吉(Ishita Rustagi)来自加州大学伯克利分校哈斯商学院公平、性别和领导力中心。在本文中,作者指出,人工智能和数据科学领域的专业人士是性别不平等的;女性的数据集在很多场景下是不足的;数据集被收集和标记的过程也可能引入偏见。一旦这些偏见成为了“智能系统”中的一部分,它们就可能会固化、恶化现有的性别歧视。

本文的作者们提出了一些解决方案。社会变革的领导者可以使用女权主义的数据实践、将性别知识融入人工智能系统,并且审慎地评估现有的人工智能系统背后的开发者、数据及算法是否平等。机器学习的开发者则可以尝试在团队中推动多样性、平等性和包容性,自我反思数据集和算法中的性别意识,并做出改变。

听说过利用AI推动职场多元、公平、包容和归属感吗?这可能对你是个陌生的领域,但实际上,至少已经有34款利用AI推动职场归属感的工具了。本文的两位作者吉纳维芙·史密斯和伊西塔·鲁斯塔吉对这些工具进行了测评。作者发现,现有的工具可分为衡量或评估归属感的数据分析工具、寻求增强归属感的行为改变工具和两者相结合的工具三种类型。这些工具可以监测员工的行为信息、了解员工的主观感受,并通过个性化的数字推送来推动员工行为的改变。

在认可此类工具的应用前景的同时,作者们也指出了它们可能存在的问题,包括隐私权、透明度、算法里的偏见、断章取义和滑坡谬误等。归根到底,技术不能解决所有问题。“以DEIB名义增强监控和人工智能是一场危险游戏……在某些情况下,首先需要慎重考虑的问题是:这个工具到底应不应该被开发?”

人工智能可以被用作因果推断吗?当我们要求ChatGPT简单介绍某个事物、概念或浪潮,它总能侃侃而谈。但是,要求ChatGPT推测因果可能太勉强它了。毕竟,它自己这样说:“作为语言模型,我可以从大量的数据中学习模式和关系,例如从文本中提取因果关系。我可以用来寻找某些变量之间的相关性,并推断它们之间的因果关系。但是,在进行因果推断时,需要考虑更多因素,例如因果推断的基础理论和数据收集的方式,这些超出了我的能力范围。”判断因果关系是很困难的。

举个例子,如果过往数据显示低收入和高犯罪率之间有显著的相关关系,这是否意味着低收入“会导致”犯罪?事实并非如此。

这并不意味着人工智能没有被应用于因果推断领域的可能性。本文作者塞玛•K•斯盖尔(Sema K. Sgaier)、文森•黄(Vincent Huang)和格雷斯•查理斯(Grace Charles)来自Surgo 基金会。他们认为,因果AI不仅可以帮助识别原因和结果间的精确关系,可以通过算法提出假设问题,来模拟能够改变这些结果的干预措施。作者们解释了潜在结果框架(potential outcomes framework)和因果图模型(causal graph models)两种方法,并介绍了这些方法在气候变化、医疗健康等领域的应用。作者们同时指出,因果AI的规模化应用要求更高质量的数据集、开源工具、对算法表现的有效评估体系,以及人类的认识和智慧。

科技向好:

本就如此VS.人的努力?

就像其他所有新技术一样,ChatGPT最先引发了商业领域的热潮:人们都在自问,人工智能和我的业务有什么关系?是否有可以结合的机会点?在社会变革的领域,心态开放的实践者们早已拥抱人工智能。从公司内部的组织文化建设到难民的重新安置问题,人们尝试在各领域应用AI,赋能社会事业,推动创新发生。科技发展并不自动等于“进步”,如何利用科技,仍然是人类需要去选择和应对的问题。延展开来,我们也许不光在问“科技如何助力社会事业”,我们更要问,社会需求和对美好社会的追求将如何影响科技的发展方向:如SSIR中文版专题学术顾问段伟文老师所说,我们应“为科技确立合乎人性的发展目标”。

本文作者杰夫·马尔根(Geoff Mulgan)爵士是伦敦大学学院集体智慧、公共政策和社会创新教授。在本文中,他认为,技术不一定会直接塑造社会;相反,社会可以形塑研发的方向,并决定技术的用处。人工智能很可能像其他技术变革一样首先带来军事和商业利益,但也有机会首先带来社会利益。马尔根教授举出了一系列利用人工智能赋能社会事业的实践项目。他提出,通过在数据共享、技能、实验和社群等方面开展战略性的变革,社会经济可能在技术发展中起到更积极、关键和引领性的作用。这要求民间、政府和商业组织的共识与合作。

马尔根教授的设想会变成现实吗?看起来,他在文章里的口气也不甚肯定。但是,这篇文章至少为读者拓宽了想象力,重新理解AI带来的变革——让我们暂时忘记激动人心的新财富一秒钟,想想人工智能将为贫困、气候和难民做些什么吧。

AIGC,特别是自然语言处理模型无疑成了这段时间舆论场上的明星。显然,机器学习的应用场景不仅限于此。本文作者塞马·K·斯盖尔(Sema K. Sgaier)是Surgo基金会的联合创始人和执行董事。他在文中梳理了机器学习的多个发展方向及其应用场景。除了自然语言处理外,还包括聚类分析、预测学习和因果学习。作者同时指出,我们在应用机器学习时需要注意数据质量、相关人才,也要注意技术应用和发展专家、伦理学家和政策专家等角色的联动。

或许特别有启发性的是,斯盖尔认为,“我们要成为机器学习方法的聪明用户”。没必要学会所有的算法,没必要追逐最先进、最火热的热点。重要的是从问题出发,思考技术与我的问题在何处联结,衡量技术能够为帮助解决问题带到多少增益。毕竟,是我们在使用技术,而不是技术在驱使我们。

继续看看机器学习的应用吧,本文提供了不少具体、鲜活、可落地的例子。本文作者吉迪恩·罗森布拉特(Gideon Rosenblatt)在微软管理着营销和产品开发团队,阿比沙克·古普塔(Abhishek Gupta)则是蒙特利尔人工智能伦理研究所(Montreal AI Ethics Institute)的创始人,也是加拿大麦吉尔大学(McGill University)和第三区(District 3)的人工智能伦理研究员。

他们认为,机器学习可以被用来为非营利组织、非政府组织和社会企业等服务,从而提升运营效率、改善项目质量。比如,非营利组织可以最先采用AI来进行组织能力建设——通过加强筹款、营销和行政管理等方面的技能,以及优化流程和资源配置,来提高机构的有效性和可持续性。人工智能还可以被应用于更有创意性的方面,比如模拟一段与虚构埃塞俄比亚女孩“Yeshi”的对话,以提高人们对获取干净水的认知。随着ChatGPT的走红,类似的对话模拟显然会变得更加真实、生动、打动人心且成本低廉。

不过,作者们也提出了四个需要克服的障碍:资金、机器学习系统开发的复杂性、大规模、高质量和结构化数据集的需求、低价、易获取的计算基础架构。公众愈发认识到OpenAI开发模型背后的成本。我们看到,克服这些困难似乎不可避免地指向与商业机构的合作。或许,使用AI赋能社会事业不仅关于非营利组织如何“全面拥抱”技术,也关于营利组织如何“全面拥抱”企业的社会责任。

彩蛋:

那么……ChatGPT如何看待这三组问题呢?

不论如何对ChatGPT态度审慎, ChatGPT必然会影响甚至改造“知识工作”。所以我们也拿着本文关注的三组主要问题,去询问了ChatGPT。

Q1:人工智能对我们未来的就业会带来哪些变化?是否会带来失业的浪潮?

ChatGPT:科技飞速发展,我们更加追问“何以为人”

Q2:自然语言处理模型依赖于现实世界的数据集,但经常面对“复刻甚至放大现实世界中的系统性歧视”的批评,你如何看待这个问题?如何应对?ChatGPT的数据打标过程是否使用廉价劳工?

Q3:AIGC能否推动社会创新事业?如何推动?

好吧,至少目前看来,ChatGPT还需要人来帮助它进一步“学习”——实际上,“从人的反馈中强化学习”(Reinforcement Learning from Human Feedback, RLHF)正是ChatGPT的强大特性之一。

而也许更为重要的是,当ChatGPT“回答”这些问题的时候,它从谁的角度出发?它是否带有对社会公平与正义的主张?在放之四海而皆准的“总-分-总”结构之外,它如何处理那些复杂的、抽象的、“哲学的”,关于世界是什么样的,又应该是什么样的问题?如资深业内人士所指出的,ChatGPT的存在也许可以给我们一些“无所不知”所带来的依靠感,尤其是在当下这样的“不确定时代”6。但是,这种无所不知可能只是一种幻象,最终,人类仍需要自己面对那些拷问我们存在的复杂问题。

1 肖峰,《何种生成?能否创造?——ChatGPT的附魅与祛魅》,中国社会科学网 2023-03-07,原链接:https://mp.weixin.qq.com/s/UrJ7DjPD362bRg8DQnZFxA

2 成素梅,《ChatGPT引发人机关系新思考》,中国社会科学网 2023-03-07,原链接:https://mp.weixin.qq.com/s/eYJAveJ1CEykEJtAe4XIyw

3 Andew Abbott, 《研究研究|安德鲁·阿伯特:智识主义和大学可能很快分手》,刘文楠、周忆粟 译,澎湃新闻 2021-05-19,原链接:https://m.thepaper.cn/newsDetail_forward_12749216

4 TIME, Exclusive: OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic,原链接:https://time.com/6247678/openai-chatgpt-kenya-workers/

5 Ian Roberts、Jeffrey Watmull、Noam Chomsky,《乔姆斯基:ChatGPT的虚假承诺》,澎湃思想市场 2023-03-10,原链接:https://mp.weixin.qq.com/s/yknwdKSJ1qkr0HcJcsSn6A

6 杨溟,《人机融合智能:一条通向未知的艰险征途》,中国社会科学网 2023-03-07,原链接:https://mp.weixin.qq.com/s/_UH34rIF8vlsAAdAaSoACw

其他参考文献

1. 腾讯研究院,《万字圆桌实录:ChatGPT背后的AIGC,将生成怎样的浪潮?》,原链接:https://mp.weixin.qq.com/s/H6ga9J887QdVRynQrK1XXw

2. 腾讯研究院,《一文读懂:有关ChatGPT的十个问题》,原链接:https://mp.weixin.qq.com/s/JuWvzlrt0mnaZZubt133OA

© 版权声明

相关文章