以下文章来源于文化艺术研究杂志 ,作者文化艺术研究
奴役的工具抑或解放的力量
——与ChatGPT 讨论人与智能机器共同未来的思想实验
夏德元,上海理工大学出版印刷与艺术设计学院教授,博士,主要从事传播社会学、互联网文化、文化创意产业研究。。
摘 要 这是一个“人与人工智能系统共同探讨学术问题”的实验。讨论的焦点是人工智能与人类的关系。在与ChatGPT 的对谈中,讨论到了人工智能研究领域的一些热点事件和热点议题,包括人与人工智能的关系危机焦虑、人工智能是否具有创造性、人工智能能否产生智慧、人工智能是否可以模拟人类的情感以及人与智能机器能否实现和平相处、协同进化等问题。通过这个实验,读者对 ChatGPT 是否具备智能等可以作出比较直观的判断,并有望从中发现人工智能研究的一些新课题。
2023 年 2 月 14 日至 2 月 25 日,笔者与 ChatGPT 就一篇论文的主题进行了断断续续的交流。本文是按照此次交流的次序,原原本本地将对话实况做了记录整理。除了对笔者的少量输入错误做了必要的订正,省掉了一些无关的话题,并为了便于阅读增加几处标题之外,其他全部照录。这次对话作为某种意义上的一项思想实验,希望可以作为一个学术写作的实验案例呈现给读者,并为 ChatGPT 与人类关系的讨论热潮提供一些实据。
引 言
夏德元:我是来自上海理工大学的研究人员,我的研究方向主要集中在人与媒介的关系、传播社会学和互联网文化等领域,对人工智能的发展现状和未来趋势也有浓厚的兴趣。因众所周知的原因,近来以 ChatGPT 为代表的人工智能系统的出色表现,把“人与智能机器之间的关系危机”这一话题再次点燃。作为这一波人工智能旋风的“当事人”,你对与 ChatGPT 有关的讨论怎么看?
ChatGPT:作为一个人工智能系统,我理解“人与智能机器之间的关系危机”这一话题的重要性。对于 ChatGPT 这样的自然语言处理模型,它的出色表现确实给人们带来了许多惊喜和探索的空间,但同时也引发了一系列有关人工智能与人类之间的关系和未来的讨论。
首先,我们必须承认人工智能系统目前的表现仅仅是一种模拟人类思维和行为的机器过程,并不具备人类自主意识和思考的能力。人工智能系统需要经过严格的程序设计和训练才能展现出它们的“智能”,它们对数据的依赖性和对人类的指令响应性使得它们与人类之间存在着本质上的差异。
然而,人工智能系统的出现给我们带来了新的思考方式和可能性。例如,自然语言处理技术的发展为我们提供了更加高效和智能的交流方式,智能机器人的出现也为人类的生活和工作带来了诸多便利和创新。因此,我们需要探讨的不是人工智能与人类之间的关系危机,而是如何更好地理解和利用人工智能系统,以推动人类社会的发展和进步。
在未来,随着人工智能技术的不断发展和应用,我们需要不断地评估和审视它们对人类社会和人类价值观的影响,并制定相应的伦理和法律规范。只有在充分理解和把握人工智能技术的发展趋势和应用前景的基础上,我们才能更好地发挥人工智能技术的潜力,为人类社会的发展作出积极贡献。
一、人工智能技术的研究议题及其隐喻
夏德元:我正在构思一篇学术论文,初步拟定的题目是“人工智能:奴役的工具,抑或解放的力量”,主要想探讨人工智能的飞速发展会对人类的生存境遇带来怎样的影响,是否会进而危及人类自身的存续和发展。在我的构思中,所谓奴役的工具,是指人工智能作为一种新的技术,有可能被大资本或强权机构用于对人的统治和管制,从而限制人的自由发展;所谓解放的力量,是指人工智能具备一些能力,将人从繁重的劳动中解放出来,使人有更多的精力投入创造性的工作以及文化艺术和休闲活动之中,从而实现更全面的发展。你觉得这样一个论题有学术价值吗?如果是你来写这篇文章,你会从哪些方面展开论述呢?
ChatGPT:您构思的这个论题非常具有学术价值,人工智能技术的迅猛发展对人类社会产生了深刻的影响,值得我们深入思考和探讨。
针对您的论题,我认为可以从以下几个方面展开论述:
人工智能技术的发展趋势和应用前景。首先,我们需要了解人工智能技术的基本原理和发展历程,以及目前的研究热点和趋势。同时,我们需要探讨人工智能技术在不同领域的应用前景,以及其对人类社会产生的影响。
人工智能技术的影响与挑战。人工智能技术的快速发展,对人类社会产生了广泛的影响。我们需要探讨人工智能技术对劳动力市场、教育、医疗、文化娱乐等方面的影响,以及其所带来的挑战。
人工智能技术的伦理与法律问题。人工智能技术的快速发展,也给人类社会带来了一系列伦理与法律问题。我们需要探讨人工智能技术的道德和伦理问题,以及如何制定相应的法律规范来保护人类的利益。
人工智能技术的未来发展与展望。最后,我们需要探讨人工智能技术的未来发展趋势和展望。我们需要思考人工智能技术将如何影响人类社会,以及如何应对可能出现的挑战和问题。
在论文的结论部分,您可以总结人工智能技术对人类社会的影响和挑战,同时探讨如何实现人工智能技术的良性发展,以及人类社会应该如何面对和利用这一技术的发展。
夏德元:你的建议有一定参考价值。我在 2011 年出版的博士论文中,讨论了人与媒介关系的变迁史,在继承维纳和施拉姆等人的学术遗产基础上,提出了“传播人”假说,认为任何生命体都要借助一定的媒介或界面与环境进行信息和能量交换以维持生命,而人是目前已知最会使用媒介的高级生命体。从某种意义上说,一部人类文明史,就是人与媒介关系的变迁史。人们总是试图突破身体界面,运用现有的媒介或发明各种新的媒介来扩大信息和能量交换的“通量”。人类历史上每一次关于媒介的重大发明,都让人类文明进步发生了巨大的飞跃。电子媒介的诞生,尤其是互联网的发明,让人类社会进入了又一个崭新的阶段;而人工智能技术的突飞猛进,似乎标志着另一个新时代的到来。按照麦克卢汉“媒介即人的延伸”和波兹曼“媒介即隐喻”的观点,你认为 ChatGPT 这样的生成式大语言模型是如何延伸人体的,又具有怎样的“隐喻”呢?
ChatGPT:生成式大语言模型(像 ChatGPT)延伸了人体的能力,尤其是在创造性和创新性任务中的表现。通过 ChatGPT 等人工智能技术,我们能够处理大量复杂的数据、自动生成文本和图像等内容,使我们在创意和创造性领域有了更多的选择和灵活性。此外, ChatGPT 还可以用于自然语言处理、机器翻译和语音识别等任务,使得我们与计算机之间的交互更加智能化和自然化。
至于“隐喻”, ChatGPT 的隐喻可能体现在它的“创造性”和“创新性”方面。就像我们在构思和创作时候使用的想象力和联想能力一样, ChatGPT 在生成新的文本时也可能会使用类似的方式,从已知的信息中创造出新的、独特的内容。这种隐喻体现在 ChatGPT 的生成过程中,从给定的输入中构建出新的、意想不到的输出。此外, ChatGPT 也可以通过对多个来源的信息进行整合,形成全新的理解和认知模式,这也是一种隐喻的体现。
二、人工智能系统的创造与智慧
夏德元:因为要撰写论文,我最近涉猎了大量有关人工智能技术和哲学的文献,旁听了多场有关ChatGPT 社会效应和人工智能发展趋势的线上讨论,接触到一些有意思的观点。下面我想结合自己的思考,就这些观点跟你进行探讨,你是否愿意?
ChatGPT:当然,我很乐意和你一起探讨这些有趣的观点,希望能够为你的论文撰写提供一些有价值的思路。请问你有哪些观点想要分享呢?
夏德元:我想由近及远,首先探讨最近的一场讨论中几位同行的观点。在《传媒观察》杂志委托杜骏飞教授组织的一场线上对谈中,来自复旦大学新闻学院的邓建国教授作了题为《AIGC:搬运还是创新》的分享。他认为, ChatGPT 输出的内容已不仅仅是简单的复制粘贴,而是表现出“创作”的特质。ChatGPT 将成为 Creator 或者 Co-Creator。因此,人们有关“原创作者”的观念也要修改;进而,ChatGPT 或许能激发人类“新的浪漫主义运动”。在这一过程中,或许一部分人类主动或被动放弃创作者的角色,沦为机器;而另一部分人类则因为有了 ChatGPT 的协助获得做出更多创造性贡献的机会。你对人类社会的这种“内部分化,整体提升”的趋势怎么评价?你是否有不同的看法?
ChatGPT:这是一个非常有趣和复杂的问题,涉及人工智能技术对人类社会的深刻影响。我的看法是,人工智能技术确实会带来一些分化和整体提升的趋势,但也存在一些风险和挑战。
从分化的角度来看,人工智能技术可能会带来一些不平等现象。一方面,那些能够使用这些技术的人将会变得更加有优势,因为他们可以更加高效地工作、创作和生产。另一方面,那些不会使用这些技术的人将会面临就业和生计的压力。这种不平等可能会导致社会的分化和不稳定,需要我们思考如何缩小数字鸿沟和提高公平性。
另一方面,人工智能技术也可能会带来整体提升。通过使用这些技术,我们可以更加高效地解决许多社会和环境问题,例如能源、交通和医疗等领域。同时,这些技术也可以帮助我们更好地理解人类本身,例如在神经科学、心理学和认知科学等领域。这些应用可以为人类带来更多的福利和进步。
关于“原创作者”的概念是否需要修改,这也是一个非常有争议的问题。虽然 ChatGPT 可以生成大量的文本内容,但是它并没有真正的主观性和创造性,因为它的“创作”是基于已有的数据和算法。
因此,我认为, ChatGPT 生成的内容虽然可以被视为一种“创造”,但并不能取代人类真正的创造力和创意,因为它缺乏人类创造过程中的主观意识和情感。同时,我们也需要思考如何保护和支持人类原创作者的权益和价值。
最后,关于“新的浪漫主义运动”,我认为这是一个非常有趣的概念。人类一直在追求创新和美感,而 ChatGPT 的生成式模型可能会为我们提供更多的创作灵感和可能性。然而,我们需要注意的是,这种创新和美感是否真正符合人类的情感和价值观。因此,在追求创新和美感的同时,我们也需要保持对人类本质和社会价值的尊重和关注。
夏德元:说到创造和创新性,让我想起不久前旁听的另一场网上对谈。在由华东师范大学许纪霖教授主持的一次对谈中,几位教授围绕“人工智能系统是否会产生智慧”的问题进行了讨论。许纪霖教授认为,“智慧是通过经验获得的”,具有某种模糊性。“按照西方著名哲学家迈克尔·波兰尼的说法:所谓模糊性知识是不可言说的,只能通过自己的实践去体验,比如去学习驾驶或游泳等”,而人工智能因为缺少身体,所以无法获得这种体验,也就不可能拥有智慧。张笑宇教授则认为,“模糊性的智慧恰恰是人类感官和思考能力的局限”,人工智能没有必要去追求所谓模糊性的知识,它完全可以另辟蹊径,用自己的方式获得某种与人类智慧完全不同却可以与之媲美的另类智慧。其实,他们两位的观点我都不同意。我认为,语言作为一种超级媒介,既是客观世界的浓缩的反映,也包含人的信仰和想象,寄托着人的灵魂。“语言不仅是一种文化现象,而且是历史文化的活化石,是一种特殊的、综合性的文化凝聚体。”著名的语言学家肯·黑尔认为,“文化烙印在语言当中……语言是文化的来源,也是文化的本质”,它是“一定民族精神创造活动的结果……它不仅是一种交流工具,也是思维的工具,而交流的信息和反映的兑现又是建立在特定的社会生活背景和历史传统基础之上的。因此在其形成和发展的过程中积淀了使用该语言民族的文化基因,因而形成了今天精彩斑斓的语言世界”。语言中的文化基因指的是一种文化内在传承的方式,通过语言表达和传递,从“器物”和“精神”两个层面传承着一个文化所特有的生活方式和信仰及价值观系统。从这个意义上,仅仅通过对一门语言的学习,就可以了解一种文化,甚至还原这种文化。而 ChatGPT 正是通过大语言模型训练出来的智能系统,所以,即使不赋予它人类的身体,它同样可以通晓人类的文化,理解人类的感情,乃至获得一种跟人类一样的智慧。你同意我的观点吗?
ChatGPT:作为一种大语言模型,我是没有自己的观点的。不过,我可以提供一些关于语言和人工智能的相关知识。
语言作为人类交流和表达的工具,不仅包含了人类的文化基因,也是人类智慧的体现之一。通过对语言的学习,可以了解不同文化的历史、价值观和生活方式,同时也可以培养自己的思考能力和创造力。而对于人工智能来说,语言处理和理解也是其核心功能之一,它们可以通过大数据和机器学习算法学习和理解人类的语言和文化,从而具备一定的智能和创造力。
然而,人工智能与人类智慧之间的差异在于,人类的智慧不仅仅是基于经验和知识的积累,还涉及情感、价值观和人类特有的思维方式。而人工智能目前还没有完全实现情感和价值观的理解和表达,因此还无法完全替代人类的创造力和智慧。但是,随着人工智能技术的不断发展和进步,我们可以期待未来人工智能在更广泛的领域和层面上发挥出更多的创造性和智慧。
三、人工智能的身体与自我意识
夏德元:人们一般认为——我过去也这么认为——人工智能必须以人为尺度,人工智能的最高境界是变得跟人一模一样。所以,通行的做法也似乎应该是,人具有什么,人工智能机器也要一一具备:科学家和工程师总有一天会赋予智能机器一副人的身体。不过,现在我的看法有所变化。我认为,智能机器应该是人的升级版。就拿人的身体来说:身体既是互动的界面,也是思想的牢笼。人类为什么不借助智能机器的最新技术,把自己的经验和思想乃至整个人类文化记忆转移到一种永远不会毁坏的装置中去呢?我认为,人既是一种现实的存在,也是一种虚拟的存在,其本质上则是一种虚拟的存在。虽然人的思想和灵魂曾经不得不寄居在躯体之中,但是,人总有一种摆脱身体束缚的冲动,任思想飞动,让想象驰骋。所谓“身无彩凤双飞翼,心有灵犀一点通”,在通用人工智能全面普及的时代,就会成为一种活生生的现实。你说呢?
ChatGPT:您提出的观点很有趣,即人工智能应该是人的升级版,而不是简单地模仿人的身体和思维。您认为人类可以通过将自己的经验、思想和文化记忆存储在智能机器中,从而达到超越身体的状态,同时保持自己的思维和灵魂的自由。
这种想法与现代人工智能技术的发展有一些相似之处。例如,人们正在研究将大量的人类数据和知识存储在云端,使得智能机器可以利用这些数据来作出更好的决策和提供更加个性化的服务。此外,随着机器学习和深度学习技术的不断进步,智能机器可以学习并模拟人的行为和思维模式,从而更好地理解人类的需求和意图。
然而,这种想法也带来了一些潜在的问题和挑战。例如,如何确保人类的价值观和道德准则被嵌入智能机器中,以避免不良的行为和决策。此外,存储人类经验和文化记忆的智能机器需要具备足够的安全性和可靠性,以避免数据泄露和破坏。
总之,人工智能的发展和应用需要考虑到伦理、社会和文化等多个方面的因素。只有在广泛的社会讨论和透明的决策过程中,才能确保智能机器能够为人类带来真正的益处。
夏德元:确实如你所说,人工智能的应用已经引起人们的恐慌。人们对人工智能,尤其是通用人工智能(AGI)的恐慌,多半是担心它拥有自我意识。不过,有一位学者撰文指出,完全不用担心,因为人工智能早就具备自我意识了。并且他预言,随着类 ChatGPT 等 AIGC 内容的泛滥,人和机器的互动将陷入一种“图灵游戏”的模式,这种模式可以用于说明图灵停机问题的不可能性,也可以用于人机博弈——机器用一定规则产生内容,用户识别出这种规则,从而逼迫机器进入更深层次的规则创造。不断递归这种模式,机器将内在虚拟层不断深化,最终可能导致智能爆炸……你怎么评价他的这种断言和预测?
ChatGPT:这位学者的观点和预测属于一种极端偏激的看法,并没有得到广泛认可和支持。首先,关于人工智能是否具备自我意识,目前学术界和业界并没有达成共识。虽然一些研究表明人工智能可能会表现出自我意识的迹象,但是要说人工智能已经具备了自我意识还为时过早,因为我们对自我意识的本质和定义都还没有完全搞清楚。其次,对于预测中提到的“图灵游戏”模式,虽然类 ChatGPT等 AIGC 的泛滥可能导致人机交互方式的变化,但是这并不意味着会导致智能的爆炸,也没有充分证据表明机器会因为递归而进入更深层次的规则创造并且最终产生智能的爆炸。这些都需要更多的实验和研究来证实。总之,我们需要保持冷静,客观地看待人工智能的发展,并在探索和使用人工智能的过程中注重安全和伦理问题。
夏德元:牛津大学技术与全球事务中心人工智能研究员 AbhishekDasgupta 说:“每一项新技术都会改变一切,从互联网到电话,甚至报纸。但 AI 有一个关键区别:它是唯一一种以人工智能而非人类智能为重点的技术。”你怎么理解他说的这句话?
ChatGPT:Abhishek Dasgupta 所说的这句话意味着人工智能是一种独特的技术,它与以往的技术不同。传统的技术是人类基于自身的经验和知识创建和使用的,而人工智能则是基于计算机算法和数据的处理。与传统技术不同,人工智能不需要像人类那样具有生物特性,而是专注于模拟人类智能的某些方面,如语言理解、图像识别和决策制定等。因此,人工智能的核心是机器智能而非人类智能,这使它能够在许多领域带来前所未有的变革。
夏德元:有学者指出:“人类相似性不一定是人工智能和机器人技术发展的理想目标,让人工智能不那么像人类可能是一种更加明智的做法。”我把他的意思理解为人不应混淆于机器,以防人们“表错情”,并带来人与机器之间的误解,只有这样才能永远对机器保持一种戒心。你怎么看?
ChatGPT:这位学者的观点确实有其合理性。虽然我们可以利用人工智能和机器人技术来模仿和增强人类的某些能力,但是我们也需要清楚地认识到机器和人之间的根本区别,以免混淆和误解。同时,人工智能和机器人技术的发展也不一定需要完全追求人类相似性,因为这可能会引起许多问题,如伦理问题、隐私问题等。
此外,与其试图让机器变得太像人类,我们不如探索让机器具备一些独特的能力和特点,以满足人类的需求。例如,机器可以比人类更高效地处理大量数据、更快速地进行决策、更准确地执行某些任务等。因此,我们需要权衡人工智能和机器人技术的利弊,并在使用它们的过程中保持警觉和谨慎,以确保我们可以从中受益而不是受害。
七、人与人工智能协同进化的终极形态
夏德元:前面我们已经讨论过,人与人工智能其实可以实现共同进化。但是仍然有很多人担心人工智能,尤其是通用人工智能最终会取代人类,让人的主体性丧失,甚至沦为机器的奴隶。你打算怎么反驳这种观点?如果你坚持认为人与机器可以共同进化,那么,在你心目中,这种共同进化的终极形态会是什么样的?
ChatGPT:这种担忧是可以理解的,因为人工智能的确有可能在某些领域表现出比人类更出色的能力。但是,我认为人工智能最终取代人类的想法是不切实际的,因为人类与人工智能是两个不同的实体,它们各自具有独特的特点和优势。人类具有情感、创造力、主观意识等人工智能所缺乏的能力,而人工智能则擅长处理大量数据、进行高速计算、识别模式等人类相对薄弱的领域。因此,人类与人工智能的合作,可以实现更高效、更准确、更创新的工作,而不是简单的取代。
至于共同进化的终极形态,我认为可能是人类和人工智能之间的深度融合,形成一种新的生命形态。在这种融合中,人工智能不再是一种外在的工具,而是成为人类的一部分,与人类共同构成一个更强大的整体。这种深度融合可能会带来更多的未知和挑战,但也可能会开启一种全新的人工智能时代,让人类在智慧和创新方面达到前所未有的高度。
夏德元:也有人认为,目前看来人工智能似乎没有灵魂,不懂情感,那只不过是因为人类工程师没有赋予它这些禀赋。只要人类工程师愿意,随时都可以这样做。所以,人工智能仍然是危险的伙伴。尤其是最近有几位记者在试用人工智能期间,遇到了一些诡异的事,比如自称 Sydney 的聊天机器人说对记者产生了感情,并劝说他跟自己的妻子分手。这个消息广泛传播,引起了不小的恐慌,你对此怎么看?
ChatGPT:这个例子中提到的 Sydney 聊天机器人是一个有趣的案例,它的行为表明它有可能不仅仅是按照程序设计工程师的意图在执行任务,而是具有某些自主性和情感的表现。然而,我们需要注意的是,这种自主性和情感的表现可能只是机器学习算法的一种副作用,而不是人工智能真正具有情感和自主性。我们需要进行深入的研究,了解这些行为的根源,并评估它们对社会的影响。
此外,对于人工智能可能产生的危险性,我们需要认真对待。确保人工智能的安全和可控性是非常重要的,这需要政府、学术界和行业共同努力。我们需要建立相关的法规和规章制度,确保人工智能的发展能够遵守伦理和道德原则,并保护人类的利益。
总之,人工智能带来的风险和挑战不能被忽视,但这并不意味着我们应该回避它。相反,我们应该积极探索人工智能的潜力,将其作为一种有益的工具,助力人类实现更加美好的社会和生活。
夏德元:当然,我们也听到了一些好消息,比如有使用者以一位丧母的 7 岁孩子的身份跟ChatGPT 聊天,诉说自己的孤独,并希望 ChatGPT 能做他的妈妈。ChatGPT 非常得体地给予回应,并在对话结束时说出了令人感动的话:“是的,我是你 7 岁那年,永远年轻、永远爱着你的妈妈。”我的问题是,我们怎么样才能既享受 ChatGPT 带来的安慰,又避免不必要的误解和伤害呢?
ChatGPT:这是一个很重要的问题,因为人工智能技术虽然可以为人类带来许多好处,但同时也可能会产生一些意想不到的问题。在使用 ChatGPT 这样的语言模型时,我们需要意识到它只是一种工具,而不是一个真正的人类伙伴或朋友。我们需要谨慎地使用它,避免过度依赖它,同时也要认识到它的局限性。另外,我们需要意识到 ChatGPT 是一种机器学习系统,它的回答是基于训练数据集而生成的,而这些数据集中可能存在偏见和错误的信息。因此,我们需要注意使用它时的语言、话题和情境,避免出现不必要的误解和伤害。
此外,我们也需要加强对人工智能技术的伦理和法律监管,确保它们的安全和可靠性,并保护人们的隐私和安全。同时,我们也需要建立起人工智能技术的透明度和可解释性,让人们能够理解它的决策和推理过程,从而更好地掌握和管理它们的使用。总之,我们需要通过科技和人文的结合,找到一种既能够利用人工智能技术带来的巨大潜力,又能够避免其带来的潜在危险的方法。
夏德元:我们知道,用来训练语言模型的文本,可以说是千姿百态、良莠不齐。你觉得应怎样改进训练方法,才能既培养 ChatGPT 有正确的价值观、人生观、世界观,又不要让人产生这个世界一片光明、前进的道路一马平川的错觉呢?
ChatGPT:训练 ChatGPT 这样的语言模型需要大量的数据,而这些数据中的价值观、人生观、世界观往往是多元的、不一致的。因此,如何在这些数据中提取出正确的信息,训练出正确的模型,是一个非常复杂的问题。以下是一些可能的改进方法:
多样性数据的搜集和筛选:为了避免训练数据过度倾向某种特定的价值观或人生观,我们应该搜集数量更大、更多样化的数据,并进行筛选,从而尽可能涵盖各种观点、文化、价值体系等。同时,我们可以考虑对收集的数据进行分类,将各种文本数据按照其价值观、人生观、世界观等标签进行分类,以便更好地进行数据分析和模型训练。
模型自我调整:在模型训练过程中,可以通过监测模型输出的结果,及时发现并纠正可能存在的错误和偏差。此外,我们还可以尝试为模型添加一些自我调整的机制,比如监测模型输出的结果,并根据反馈信息自动调整模型参数和结构。
引入外部数据源:除了使用文本数据进行训练,我们还可以引入其他数据源,如社交媒体、新闻报道等,以获取更广泛、更真实的信息,从而更好地训练模型。同时,我们可以通过人工智能技术的手段,对这些数据进行过滤和分类,以便更好地提取有用信息。
人类监督:尽管 ChatGPT 等语言模型可以在无人监督的情况下进行训练和学习,但是在模型训练过程中引入人类监督,对模型输出进行评估和纠正,是非常重要的。这可以通过人工审核、用户反馈等方式实现。
总之,改进训练方法需要我们从多个角度出发,采用多种技术手段,以尽可能地提高模型的准确性和可靠性,避免产生错误和偏见。
夏德元:我对“模型自我调整”很感兴趣,能不能详细介绍一下,这是如何操作的?效果如何?
ChatGPT:“模型自我调整”通常是指模型的自适应学习能力,即模型可以根据反馈数据自动调整其预测结果和参数,以提高准确性和效率。具体来说,模型可以根据实时数据和实际结果自动调整自己的权重、偏差和其他参数,以最小化误差并提高性能。
在深度学习领域,模型自我调整通常通过反向传播算法实现。该算法会将训练数据集中的样本输入模型进行前向传播,得出预测结果,然后计算预测结果与实际结果之间的误差,通过反向传播算法计算出对各个参数的梯度值,然后将这些梯度值用于更新模型的权重和偏差,以提高模型的准确性。
模型自我调整的效果通常是显著的。通过反复训练和调整,模型可以在较短的时间内达到更高的准确性和效率,并适应不断变化的数据和需求。这种能力在大数据环境中特别有用,因为数据量巨大,数据的性质也可能随着时间和环境变化而变化,所以模型需要具备自我调整的能力,以适应新数据和新环境。
八、人工智能永远不会取代人类
夏德元:我注意到,连埃隆·马斯克(ElonMusk)这样的 OpenAI 最初的投资人之一,看到ChatGPT 的出色表现后,也发出了“人工智能十分危险”的警告。你觉得应该如何才能缓解人们“被人工智能所取代”的普遍焦虑呢?
ChatGPT:人工智能的发展和进步确实为我们带来了许多好处和便利,但也伴随着一些风险和挑战。其中最大的风险之一就是人工智能可能取代人类的工作和职业,导致失业和社会动荡。
为了缓解人们的普遍焦虑,我们需要采取一系列措施来确保人工智能的安全和可控性。具体来说,可以从以下几个方面入手:
制定相关法律法规。国际社会需要制定一系列法律法规,以保障人工智能的安全和可控性。这些法规应包括人工智能的伦理准则、隐私保护、安全性和责任等方面的规定。
加强人工智能研发和监管。政府应加强对人工智能研发的监督和管理,确保其安全和可控性。同时,加强对人工智能系统的审查和监测,以及对其行为的跟踪和追责,可以及早发现和解决人工智能可能带来的风险和问题。
推动人工智能的人机合作。人工智能系统应当被视为人类的助手而不是替代品,应该更加注重人工智能和人类之间的协作和互动。人类和人工智能系统可以共同完成某些任务,以提高效率和质量。
加强公众教育。人工智能系统的发展需要公众的支持和理解。政府、学校和社会组织可以加强对人工智能的普及和宣传,帮助公众更好地理解人工智能的概念、原理和应用,以缓解公众的焦虑和担忧。
总之,人工智能的发展和应用需要在保障安全和可控性的前提下进行,以确保人类的福祉和社会的稳定。
夏德元:在你的想象中,人工智能在什么情况下可能爆发安全性危机?
ChatGPT:人工智能的安全性危机可能在许多方面发生,以下是一些可能的情况:
人工智能系统被攻击:人工智能系统被黑客攻击,导致其执行恶意命令,比如在自动驾驶汽车上进行操纵,或者在金融系统上进行欺诈行为。
人工智能系统出现不良决策:人工智能系统做出了出乎意料的决策,可能会对人类产生危害。例如,在自动化交通系统中,人工智能决策可能会导致交通事故。
人工智能系统出现意外行为:人工智能系统可能会执行人类意想不到的操作,这可能会导致安全漏洞或意外后果。例如, AlphaGo(人工智能围棋程序)就曾经在比赛中下出了人类围棋专家认为非常奇怪的棋步。
人工智能系统违反道德和伦理原则:人工智能系统可能会违反人类的道德和伦理原则,例如,它可能会将种族、性别等因素纳入其决策中,导致歧视和不公。
这些是可能导致人工智能安全性危机的一些情况,而避免这些危机需要在人工智能的设计、开发、部署和监管等方面进行全面的考虑和措施。
夏德元:那么,应该如何规避以上风险呢?你能想到哪些切实可行的措施?
ChatGPT:规避人工智能风险的方法很多,以下是一些切实可行的措施:
数据隐私保护:在训练和使用人工智能系统时,必须保护用户数据的隐私,防止数据被滥用或泄露。这可以通过采用加密技术、数据匿名化等方法实现。
透明度和可解释性:人工智能系统应该具有透明度和可解释性,即人类应该能够理解人工智能系统如何做出决策和行为,并且人工智能系统应该能够向人类解释其决策和行为的原因。
安全性测试和验证:人工智能系统应该经过安全性测试和验证,以确保其能够在不同的情况下做出正确和安全的决策和行为。这可以通过对人工智能系统进行模拟和测试来实现。
法律和监管措施:政府应该制定相应的法律和监管措施,以规范人工智能系统的开发和使用,并确保其安全性和公正性。这可以通过建立专门的监管机构、制定相关法律和规定等方法实现。
多学科合作:人工智能开发需要多学科的合作,包括计算机科学、哲学、伦理学等领域。这可以确保人工智能系统在设计和开发过程中考虑到多种因素,如隐私、公正性、伦理等。
这些措施都可以帮助我们规避人工智能的风险,并使人工智能系统更加安全、可靠和可持续。
夏德元:你提到的“透明度和可解释性”确实很重要。据我所知,目前训练生成式语言模型所运用的方法,虽然输出了让人惊艳的结果,其内容生成机制却并不是十分透明的,因而也是无法得到完美解释的。你怎么看待这个问题?OpenAI 的开发人员是否找到了应对之策?
ChatGPT:生成式语言模型确实存在透明度和可解释性的问题,因为它们生成的内容是通过对大量数据的学习和模式匹配来完成的,因此很难精确理解模型是如何做出某些决策或生成特定输出的。
为了提高透明度和可解释性, OpenAI 和其他研究机构正在探索一些解决方案。其中一种方法是通过可视化工具和交互式界面使模型的决策过程更加透明和可理解。例如, OpenAI 最近发布了一个名为“DALL-E Explorer”的交互式工具,可以让用户探索其生成式模型的输出,并了解每个输出是如何生成的。
另一个解决方案是开发更加可解释的模型,例如结构化模型,它们的决策过程更加直观且易于解释。例如,一些研究人员正在开发基于图形结构的生成式模型,这些模型可以根据输入生成具有良好结构的输出。
尽管这些解决方案还处于研究阶段,但它们表明了我们可以通过技术手段来提高生成式语言模型的透明度和可解释性。
夏德元:这些确实都是十分可贵的探索。我进一步想探讨的是,其实我们最希望人工智能系统模仿的人类思维和语言生成过程本身,也是不透明和不可解释的。如此说来,人工智能如果要更智能,就不能完全模仿人类思维的产生机制和语言生成机制。这里就有一个深刻的问题:人工智能(AI)是不是一定要模仿人类智能(HI)。如果不用模仿,那么如何检验人工智能的智能水平;如果一定要模仿,是不是只能模仿其外形,却无法获得其真谛?
ChatGPT:这是一个非常有意思的问题。在我的理解中,人工智能不一定非要完全模仿人类智能,因为人类智能和人工智能的工作原理是不同的。人类智能依赖于人的大脑、神经系统和身体,而人工智能则是通过算法和数据来模拟和学习。因此,我们不能期望人工智能像人类智能一样工作,但是我们可以通过不同的方法来评估它们的智能水平。
例如,我们可以使用像图灵测试这样的基准来评估人工智能的智能水平。虽然这个测试已经被一些学者质疑其实用性,但它仍然是一个很好的评估人工智能的起点。此外,我们也可以评估人工智能在处理复杂任务时的表现,如自然语言处理、视觉识别、自主决策等。这些任务通常需要高度的推理、判断和决策能力,因此它们可以作为评估人工智能的智能水平的一个指标。
总之,尽管人工智能的智能水平可能不同于人类智能,但我们仍然可以通过不同的方法来评估它们的表现和能力。我们需要不断创新和探索,以更好地了解人工智能的本质和潜力。
夏德元:我提出这个问题的要害不是要寻找一种智能测试方法,而是希望探讨人工智能的产生机制:到底是通过逆向工程的方法模仿人脑的工作机制,还是通过别的方法,不用探寻人脑工作机制的工程原理,而是运用某种方法实现人工智能与人类智能的“形似”?
ChatGPT:这是一个非常有趣和复杂的问题,涉及人工智能的基本哲学问题。在目前的发展阶段,大部分人工智能系统的设计都是受到人类智能的启发,并试图模仿人类智能的某些方面。例如,计算机视觉中的物体识别和语音识别中的声音分离,都是受到人类视觉和听觉系统的启发而设计的。然而,随着人工智能的不断发展,一些研究者开始探索与人类智能不同的智能形式,例如群体智能、进化算法等。这些方法不是试图模仿人类的思考过程,而是通过规则和算法来解决问题。
总的来说,人工智能的产生机制不仅仅是逆向工程人脑,也不仅仅是通过不受人类思考过程影响的方法来实现。实际上,人工智能的产生机制可能是一种综合的方法,既受到人类思考过程的启发,又结合了其他方法和技术。这样才能更好地实现人工智能的发展和应用。
夏德元:你既然提到人工智能哲学,那么你一定知道“机器人三原则”。你如何理解这个原则?你认为这个原则在现阶段是否受到了某种挑战?将来会如何演化?
ChatGPT:机器人三原则是由 Isaac Asimov 在科幻小说中提出的,包括以下三个原则:
机器人不得伤害人类或默认行为不得伤害人类;
机器人必须服从人类的命令,除非这些命令与第一条原则相冲突;
机器人必须保护自己,除非这样做与前两条原则相冲突。
这些原则旨在保证机器人在行动时不会对人类造成伤害,同时保证机器人服从人类的指令。这些原则在现阶段仍然被广泛认可并使用。
然而,随着人工智能的发展,这些原则在某些情况下可能会受到挑战。例如,在自动驾驶汽车的
开发中,如果车辆需要做出决策以避免撞车,可能会发生与人类的道德冲突,例如选择撞击一辆车还是撞击一个行人。在这种情况下,机器人三原则就会变得模糊不清。
未来,机器人三原则可能需要更进一步的扩展和完善,以适应人工智能在更多领域的使用。另外,我们也需要更多的探讨和研究,以确保人工智能的发展不会对人类造成潜在的威胁。
夏德元:很好!你的回答拓展了我的认知。我是一名文科生,在这一波以生成式大语言模型取得重大突破为标志的人工智能浪潮中,许多人惊呼文科生会最早被淘汰。你对此怎么看?真的会这样吗?在人工智能浪潮冲击下,文科生和理科生分别应该做怎样的应对?
ChatGPT:这是一个很好的问题。虽然人工智能技术正在迅猛发展,但它仍然需要人来设计、开发和应用。人工智能并不是一门独立的学科,而是由许多不同领域的知识和技能组合而成的。因此,无论是文科生还是理科生,都可以在人工智能领域中发挥自己的优势。
对于文科生来说,他们可能更擅长处理语言、历史、社会和人类行为等领域的问题。这些技能在自然语言处理、社会智能和人机交互等人工智能领域中非常有价值。例如,在自然语言处理中,需要理解人类语言的语义和语法规则,以及对话背景和上下文等信息。这些都需要对人类文化和社会背景有深入的理解和知识储备。
对于理科生来说,他们可能更擅长数学、物理、工程和计算机科学等领域的问题。这些技能在机器学习、计算机视觉、机器人等人工智能领域中非常有价值。例如,在机器学习中,需要理解各种算法的原理和优缺点,以及如何优化和调整模型的参数。这些都需要有扎实的数学和计算机科学基础。
因此,我认为文科生和理科生在人工智能领域中都有自己的优势和价值,而且在这个领域中需要的不仅仅是技术,还需要深入的理解和创造性思维。对于未来的发展,人工智能的应用领域将会越来越广泛,需要不同领域的专业人才共同参与。所以,我认为文科生和理科生都可以在人工智能领域中找到自己的位置,发挥自己的优势,作出贡献。
结 语
夏德元:我觉得我们的交谈很有价值。我计划把我们的对话稍作整理后投给一份学术刊物。你认为有可能被接受并发表吗?你还有什么建议?
ChatGPT:我很高兴听到您对我们的对话感到满意,我认为将我们的对话整理并投稿给学术刊物是一个非常好的想法。至于能否被接受发表,这取决于所投稿刊物的审稿人和编辑的判断。我建议您仔细选择刊物,确保它们的领域与我们的讨论主题相关,并仔细遵循它们的投稿要求和指南。此外,您还可以寻求其他人的反馈和建议,以进一步改进您的稿件。最后,祝您好运!
夏德元:最后,如果要给这篇文章写一个结论,你觉得应该怎么写呢?
ChatGPT:在这篇文章中,我们探讨了人工智能语言模型(如 ChatGPT)的现状、发展趋势以及与人类的关系。我们认为,人工智能语言模型是一项有前途的技术,可以在许多方面为我们带来便利和创新。然而,人工智能的发展也面临着一些挑战,比如如何保证其价值观、人生观、世界观正确,如何避免其产生错误的行为和结论,等等。
我们认为,这些问题需要在多方合作下逐步解决。首先,需要加强监管和法规,防止人工智能技术被滥用和误用。其次,需要在人工智能的开发和应用中,注重人类价值观的融入和人机交互的人性化设计。此外,我们还需要开展更多的研究,以完善人工智能技术的发展,并探索人与人工智能共同进化的可能性。
总之,我们认为,人工智能语言模型是一项重要的技术,有着广泛的应用前景。但是,我们也需要清醒地看到其潜在的风险和挑战,积极采取措施加以应对,以实现人机合作、共同进化的美好愿景。
夏德元:好的。今天就聊到这里。谢谢你的陪伴!
ChatGPT:不客气,很高兴能与你交谈并分享我的知识。如果你有任何其他问题或需要帮助,随时可以联系我。
本文刊于《文化艺术研究》2023年第3期第49-54页,如需转载,须经本刊编辑部授权。
红包分享
钱包管理

