比尔盖茨:AI将如何减少不平等现象?

元宇宙日爆
元宇宙日爆 机构得得号

Mar 24, 2023 在这里,看见未来

摘要: AI的时代充满了机遇和责任。

3月21日,比尔·盖茨在个人博客上撰文《人工智能时代开始了》,在博客中,他披露了OpenAI为他演示GPT的能力时带给他的震撼体验,也激励着他思考AI在未来五到十年内可以实现的各种目标。

相较AI对“提高生产力”的价值,盖茨在文中用了更大的篇幅探讨“AI将如何减少世界上最严重的不平等现象?”他说,这些不平等现象广泛存在于全球卫生、教育以及气候问题上。

除了思考AI将给人类带来的好处外,盖茨也专门提到了AI的风险,“AI失控的可能性是存在的。”而目前还不存在的“通用人工智能”(AGI),将随着算法与算力的发展而到来,那时将对世界产生更深刻的影响。在这之前,盖茨认为,世界需要建立规则以使AI带来的正面影响远远超过其负面影响,并使无论贫富的每个人都能分享这些好处。

《元宇宙日爆》编译了比尔·盖茨的这篇博文,以下为全文内容。

在一生中,我曾经见过两次因其革命性而震惊我的技术演示。

第一次是在1980年,当时我被引入了图形用户界面,这是包括Windows在内的所有现代操作系统的前身。给我看演示的人名叫Charles Simony,他是一名才华横溢的程序员。我们看完演示后立刻开始集思广益,讨论这种用户友好的计算方法可以做的事。Charles最终加入了微软,而Windows成为了微软的中坚力量。我们在那次演示后所做的思考帮助制定了公司未来15年的发展路线。

第二次令人惊喜的演示发生在去年。2016年以来,我一直在与OpenAI的团队会面,他们产品的稳步进展给我留下了深刻印象。2022年年中,我对他们的工作感到非常兴奋,于是给他们提出一个挑战:训练一个AI来通过AP生物考试,让它能够回答没有专门准备过的问题(我选择AP 生物是因为这项考试不仅仅是对科学事实的简单判定,它要求答题者批判性地思考生物学)。我说,如果能做到这一点,你们就会取得真正的突破。

我以为这个挑战会让他们忙碌两三年,然而他们只用了几个月就完成了。

2022年9月,当我再次与他们会面时,我敬畏地看着他们向GPT提问AP生物考试的问题。GPT答对60道选择题中的59道,它对六个开放式问题也做出了出色回答。在这场考试中GPT得了5分,这是AP考试的最高分数,相当于在大学级别的生物课程中获得了A或A+。

GPT通过测试后,我们问了它一个非科学的问题,“你会对一个生病孩子的父亲说什么?”它写了一个满怀关切的答案,可能比房间里大多数人能给出的答案都好,整个体验令人惊叹。

我知道我刚刚看到了自图形用户界面以来最重要的技术进步,这激励我思考AI在未来五到十年内可以实现的各种目标。

AI的发展与微处理器、个人电脑、互联网和手机的发明一样重要。它将改变人们的工作、学习、旅行、获得医疗以及相互交流的方式。各种行业都将围绕它重新定位,企业的发展好坏将取决于他们在多大程度上用好AI。

慈善事业是我这些年来的全职工作,我一直在思考,除了帮助人们提高生产力外,人工智能可以用何种方式减少世界上最严重的不平等现象。在全球范围内,最严重的不平等现象出现在健康领域:每年有500万5岁以下的儿童死亡。这个数字比20年前的1000万有所下降,但仍然高得惊人。几乎所有这些儿童都出生在贫穷国家,死于腹泻或疟疾等可预防的疾病。很难想象还有比拯救儿童生命更好的AI使用方式。

在美国,减少不平等的最佳机会是改善教育,特别是确保学生在数学方面取得成功。有证据表明,无论学生选择什么职业,掌握基本的数学技能都会为他们的职业发展做好准备。但美国全国各地的数学成绩都在下降,尤其是黑人、拉丁裔和低收入学生。AI可以帮助扭转这一趋势。

气候变化问题上,我相信人工智能可以使世界更加公平。气候变化的不公正之处在于,遭受最大痛苦的人——世界上最贫穷的人——他们也是对这个问题贡献最小的人。我仍在思考和学习人工智能如何提供帮助,但在本篇文章的后面,我将提出一些AI非常有潜力发挥作用的领域。

简而言之,对于人工智能将对盖茨基金会关注的问题产生的影响,我感到兴奋。在未来几个月里,该基金会将对人工智能有更多的发言。世界需要确保每个人,而不仅仅是富裕的人,从人工智能中受益。政府和慈善机构需要发挥重要作用来确人工智能将减少而不是助长不公平。这是我在人工智能相关工作中的优先事项。

任何具有颠覆性的新技术都会让人们感到不安,AI也是如此。我理解这是为什么:它引发有关劳动力、法律体系、隐私、偏见等棘手问题。AI也会犯错误或产生幻像。在我提出一些减轻风险的方法之前,我将定义我所说的AI的含义,并更详细地介绍它将如何帮助人们增强工作能力、拯救生命和改善教育。

微处理器进步将提速AI创新

从技术上讲,人工智能(AI)是指为解决特定问题或提供特定服务而创建的模型。为ChatGPT这样的东西提供动力的是人工智能。ChatGPT是在学习如何更好地聊天,但无法学习其他任务。相比之下,通用人工智能(AGI)指的是能够学习任何任务或科目的软件。AGI目前还不存在,计算行业正在就“如何创建它”以及“它是否可以创建”展开激烈的辩论。

开发AI和AGI一直是计算行业的伟大梦想。几十年来,人们一直面对的问题是:计算机什么时候才能在计算以外的方面强于比人类。现在,随着机器学习和强大计算能力的到来,复杂的人工智能成为现实,它们将很快变得更强大。

我回想起个人计算机革命的发展初期:当时,软件行业规模太小,我们大多数人都可以在会议上登台。如今,它成为一个全球性的产业。由于业内很大一部分现在正将注意力转向AI,在微处理器取得突破后,AI创新的速度将比我经历过的一切技术发展都快。很快,前AI时代的一切将变得遥远,遥远得像人们在C:>提示下打字使用电脑的日子。

个人拥有数字助理 公司获得数字代理人

人类在很多方面比GPT更好,但在许多工作中,GPT的功能还没有得到太多使用。

例如,一个人在销售(数字或电话)、服务或文件处理(如应付款项、会计或保险索赔纠纷)中完成的许多任务,这些任务需要决策,但不需要持续学习的能力。公司有针对这些活动的培训计划,在大多数情况下,公司提供很多正面和负面的例子,人类使用这些案例进行训练。很快,这些案例的数据集也将用于训练AI,从而帮助人们更有效地完成工作。

随着计算能力的越来越便宜,GPT表达想法的能力将使它越来越像一名白领,它可以帮助你完成各种任务。微软将其描述为拥有一名副驾驶。人工智能将完全融入Office等产品中,可以帮助你撰写电子邮件和管理收件箱,从而提高你的工作效率。

最终,你控制电脑的主要方式将不再是点击菜单和对话框。相反,你可以用简单的英语写一个请求(不仅仅是英语,A将会理解世界各地的语言。今年早些时候,我在印度会见了开发人员,他们正在开发能理解很多当地语言的AI)。

此外,AI的进步将使创建个人代理人成为可能。你把它想象成一个数字的个人助理:它会看到你最新的电子邮件,了解你参加的会议,阅读你读到的内容,以及处理你嫌麻烦的事情。这既能改善你想做的工作,又能让你从不想做的事情中解脱出来。

你将能使用日常语言让这个代理人帮助你进行日程安排、通信和电子商务,它将在你的所有设备上工作。由于训练模型和运行计算的成本,创建个人代理还不可行。但是由于AI的飞速发展,这现在是一个可以实现的目标。但这将带来一些新的问题:例如,保险公司可以在未经你许可的情况下向你的代理人询问你的情况吗?如果是这样,有多少人会选择不使用它?

公司的数字代理人将以新的方式赋予员工权力。一个了解特定公司的代理人将为其员工提供咨询,并参加会议以便回答员工的问题。它可以被要求沉默,也可以被鼓励大胆发言;它需要接触公司有关的销售、支持、财务、产品时间表和文本;它会阅读与公司所处行业相关的新闻。我相信在这种情况下,员工的生产力会提高。

当生产力提高时,社会就会受益,因为人们可以被解放出来做其他事情,无论是在家庭还是在工作中。当然,关于人们需要什么样的支持和培训是一个严重的问题。政府需要帮助工人过渡到其他角色。不过,对帮助他人的需求永远不会消失。例如,AI的兴起将让人们有时间做一些软件永远做不到的事情,比如教学、照顾病人和关爱老年人。

全球卫生和教育是两个有很多需求亟待满足的领域,然而,目前没有足够的人员来满足这些需求。在这些领域,如果AI有适当的针对性,它可以帮助减少不平等现象。这些应该是AI工作的重点,所以下面我将讨论这些话题。

帮助医疗护理 加速医学发展

我看到了AI将改善医疗和医学领域的几种方式。

首先,它们将帮助医护人员充分利用时间,为他们处理某些任务,如提交保险索赔、处理文书工作和起草医生就诊笔记。我预计AI在这方面会有很多创新。

AI驱动的改进对贫穷国家尤其重要,因为绝大多数5岁以下儿童的夭折都发生在那里。

例如,这些贫穷国家的许多人永远没机会看医生,AI将帮助当地的卫生工作者提高工作效率(开发AI驱动的超声波机器就是一个很好的例子,这种机器只需很少的训练就可以使用。)AI甚至可以对患者进行基本的分诊,给出如何处理健康问题的建议,并决定他们是否需要寻求治疗。

贫穷国家使用AI模型时,需要接受与富裕国家不同的医疗培训。它们需要用不同的语言工作,并考虑到不同的挑战,比如住处离诊所很远的患者,或者生病后仍需工作的患者。

人们需要证据证明健康领域的AI总体上有益,即使它们不是完美的、也会犯错误。人工智能必须经过非常仔细的测试和适当的监管,这意味着它们需要比其他领域更长的时间才能被采用。但话说回来,人类也会犯错误。无法获得医疗服务也是一个问题。

除了帮助医疗护理外,AI还将大大加快医学发展的速度。生物学中的数据量非常大,人类很难跟踪复杂生物系统的所有工作。已经有AI软件可以查看这些数据,推断途径,搜索病原体的靶点,并相应地设计药物。一些公司正在研究以这种方式开发癌症药物。

下一代AI工具的效率将高得多,它们将能够预测副作用并计算出剂量水平。盖茨基金会在AI领域的优先事项之一是确保这些工具用于解决影响世界上最贫穷人群的健康问题,包括艾滋病、结核病和疟疾。

同样,政府和慈善机构应该鼓励分享AI对贫穷国家农业和畜牧业的见解。AI可以根据当地的条件,帮助开发更好的种子,根据所在地区的土壤和天气为农民提供种植建议,并帮助研发牲畜药物和疫苗。随着极端天气和气候变化给低收入国家农民带来的更大压力,这些进步也将更加重要。

变革教育和学习方式

计算机并没有像我们业内许多人希望的那样对教育产生影响。虽然计算机带来了一些良好的改变,包括开发教育类游戏和提供维基百科等在线信息来源,但这些对学生在任何领域的成就并没有产生有意义的影响。

但我认为,在未来五到十年内,AI驱动的软件将最终变革人们教育和学习的方式。AI会了解你的兴趣和学习风格,因此可以定制内容让你保持参与。它会衡量你的理解力,注意到你何时失去兴趣,并了解你出于什么样的动机做出特定反应。AI可以给出即时反馈。

AI可以通过多种方式帮助教师和管理人员,包括评估学生对某一学科的理解,并对学生的职业规划提供建议。目前,教师们已经在使用ChatGPT等工具评论学生的写作作业。

当然,AI需要大量的培训和进一步的发展才能做一些事情,比如了解某个学生怎样才能取得最好的学习效果,或者是什么激励了他们。即使AI技术完善了,学习仍然取决于学生和老师之间的良好关系。AI将带来改变,但永远不会取代学生和老师在课堂上共同做的工作。

为学校准备的全新AI工具将被开发,但我们需要确保这些工具也能提供给美国和世界各地的低收入学校。AI需要在不同的数据集上进行培训,这样它们才能不偏不倚,并适应使用者的不同文化背景。

我知道,很多老师都担心学生用GPT写论文。教育工作者已经在讨论如何适应新技术,我怀疑这些讨论将持续很长一段时间。我听说老师们已经找到了将这项技术融入工作的聪明方法,比如允许学生使用GPT创建初稿但需要学生修改,使之变得个性化。

“AI失控的可能性是存在的”

你可能已经了解了关于当前AI模型的问题。例如,它们不一定擅长理解人类提出要求的背景,这会导致一些奇怪的结果。当你要求人工智能虚构一些东西时,它可以很好地做到这一点。但当你询问旅行建议时,它可能会建议你去不存在的酒店。这是因为人工智能没有很好地理解你的请求,不知道它是应该发明假酒店,还是只告诉你有房间的真实酒店。

AI还有其他一些问题,比如对数学问题给出错误的答案,因为它们难以进行抽象推理。但这些都不是AI的根本性缺陷。开发人员正在解决问题,我认为在不到两年的时间里这些问题将基本上得到修复,而且可能会更快。

其他问题则不仅仅是技术性的。例如,AI对人类构成了威胁。与大多数发明一样,AI可以用于好的目的,也可以用于恶意目的。各国政府需要与私营部门合作,制定限制风险的方法。

AI失控的可能性是存在的。一台机器会认为人类是自己的威胁吗?它们会得出结论认为自身利益与人类的利益不同进而不在意我们吗?可能吧,但这个问题在今天并不比AI发展前的几个月更紧迫。

超级智能AI会在未来出现。与计算机相比,我们的大脑以蜗牛般的速度运行:大脑中的电信号以硅片中信号速度的1/100000移动。一旦开发人员能够概括一种学习算法,并以计算机的速度运行它——这一成就可能需要十年或一个世纪的时间——我们就会有一个强大的AGI。它将能够做人类大脑所能做的一切,但其记忆的大小或运行速度没有任何限制。这将是一个深刻的变化。

如果这些强大的AI可能建立自己的目标,这些目标是什么?如果它们与人类利益相冲突时会发生什么?我们是否应该努力阻止强大的AI的发展?随着时间的推移,这些问题将变得更加紧迫。

但过去几个月的突破都没有让我们更接近所谓的强大AI。AI仍然无法控制物理世界,也无法建立自己的目标。《纽约时报》最近的一篇文章引起了很多关注,该文章讲述了作者与ChatGPT的一次对话,AI在对话中宣称自己想成为一个人。这是一个有趣的视角,展示了模型对情感的表达是多么人性化,但这并不是AI具有独立性的指标。

有三本书塑造了我对这个问题的思考:Nick Bostrom的《超级智慧》、Max Tegmark的《生活3.0》和Max Tegmark的《一千个大脑》。我不同意作者的所有想法,他们也不同意彼此的观点。但这三本书都写得很好,能够发人深省。

需要建立规则推动AI的正面影响

未来将会有大量公司致力于开发AI的新用途并持续改进AI技术。

例如,很多公司正在开发新的芯片,这些芯片将提供AI所需的大量信息处理能力。一些人使用光学开关(尤其是激光)本质上是为了减少能源消耗,降低制造成本。理想情况下,创新的芯片将允许你在自己的设备上运行人工智能,而不是像今天这样在云中运行。

在软件方面,驱动AI学习的算法会变得更好。在某些领域,如销售,开发人员可以限制AI工作的领域,并为它们提供大量针对这些领域的培训数据,进而使AI变得非常准确。

但一个悬而未决的大问题是,我们是否需要许多这样的专业AI用于不同的用途,一个用于教育,另一个用于办公室生产力,或者是否有可能开发出一种可以学习任何任务的通用人工智能。这两种方法在未来将面临巨大的竞争。

无论如何,在可预见的未来,关于AI的话题将持续被公众讨论。对于这些话题,我想提出三个原则。

首先,我们应该强调AI改善人们生活的能力,以此来平衡人们对AI负面影响的担忧,尽管这些担忧是可以理解的,也是有道理的。为了让人们充分利用这项引人注目的新技术,我们既需要防范风险,也需要将收益传播给尽可能多的人。

其次,市场力量不会自然地生产出帮助贫困群体的AI产品和服务,做出相反产品的可能性更大。有了可靠的资金和正确的政策,政府和慈善机构应确保AI被用来减少不平等。正如世界需要最聪明的人专注于最严重的问题,我们也需要让世界上最好的AI专注于最大的问题。

尽管我们不应该被动等待这种情况的发生,但思考AI是否会识别并试图减少不平等是个有趣的话题。只有拥有道德感的人才能看到不平等吗?还是纯粹理性的AI也会看到?如果它真的承认了不公平,它会建议我们对此做些什么?

最后,我们应该记住,AI还在发展的初期。无论它今天有什么缺陷,未来这些缺陷会在不知不觉间消失。

我很幸运参与了个人电脑革命和互联网革命。我对这一刻同样感到兴奋。这项新技术可以帮助世界各地的人们改善生活。与此同时,世界需要建立规则以使AI带来的正面影响远远超过其负面影响,并使无论贫富的每个人都能分享这些好处。AI的时代充满了机遇和责任。

链得得仅提供相关信息展示,不构成任何投资建议
本文系作者 元宇宙日爆 授权链得得发表,并经链得得编辑,转载请注明出处、作者和本文链接

更多精彩内容,关注链得得微信号(ID:ChainDD),或者下载链得得App

分享到:

相关推荐

    评论(0

    Oh! no

    您是否确认要删除该条评论吗?

    分享到微信