全国服务热线:363050.com
当前位置: 首页 > PG电子PG电子

Y CombinPG电子-PG电子平台-官方网站ator和Gmail之父谈AGI大模型

发布时间:2025-08-06 14:37:40点击量:

  Pocket Games Soft 是世界一流的手机游戏开发商。[永久网址:wdhash.com]致力于在iOS,Android和HTML5平台上提供前所未有,身临其境的移动游戏解决方案,为提供玩家安全优质的pg电子,PG游戏试玩,PG电子官方网站,pg电子游戏,pg游戏,pg电子app,PG APP下载,pg电子平台,PG模拟器,pg娱乐,欢迎注册体验!

Y CombinPG电子-PG电子平台-PG电子官方网站ator和Gmail之父谈AGI大模型

  在这次YC最新的圆桌访谈中,Y Combinator团队与Gmail之父Paul Buchheit探讨了AI的现状、未来发展轨迹,以及其中的挑战和机遇。作为谷歌早期员工之一,Paul Buchheit提供了关于谷歌早期人工智能愿景的独特视角,并分享了他对当前AI生态系统的看法,以及未来可能实现通用人工智能(AGI)的途径。

  Paul认为谷歌从一开始就具备成为全球主导AI公司的条件,但由于内部风险厌恶和商业模式的保护,谷歌未能在AI领域保持领先。他还回顾了OpenAI的起源,阐述了开源和自由在AI发展中的重要性,以及大公司在AI技术上的错失良机。Paul还讨论了AI在地缘政治中的作用,以及他对AGI的乐观预测。

  访谈先回顾了谷歌早期作为一家人工智能公司的愿景,指出谷歌从一开始就致力于利用大规模计算集群和机器学习技术来处理大量数据。然而,谷歌最终未能在AI领域保持领先,主要原因在于公司逐渐变得更加保守,尤其是在保护搜索业务的垄断地位上。AI技术的颠覆性潜力与搜索商业模式之间的矛盾,以及公司内部的风险厌恶,使得谷歌错失了主导AI的机会。

  Paul分享了他在谷歌开发拼写校正器的经历,强调了数据在AI应用中的重要性。他详细讲述了如何通过网络和查询日志的数据训练拼写校正模型,以及如何解决早期拼写校正器所面临的挑战。这段经历不仅展示了早期AI技术在谷歌的应用,还揭示了AI如何通过不断改进和优化,最终成为谷歌搜索引擎的一部分。

  作为历史的亲历者,Paul深入回顾了OpenAI的创立背景,解释了它如何从YC Research中分离出来,并吸引了大量顶尖人才。OpenAI的成功在于其开放的使命,即不将AI技术锁在公司内部,而是将其公之于众,从而激励研究人员和初创公司在此基础上进行创新。Paul认为,这种开放性是OpenAI吸引人才和推动AI发展的关键因素。

  Paul强调了在AI发展中保持开源和自由的重要性。他担心,如果AI技术被少数大公司或政府所垄断,可能会导致个人自主权的丧失。他主张建立一个支持开源和自由的联盟,以确保AI技术的力量能够惠及所有人,而不仅仅是集中在少数权力机构手中。大家讨论了Meta在推动开源AI方面的作用,Paul认为虽然Meta的开源战略具有一定的偶然性,但它有助于削弱竞争对手。然而,他也警告不要完全依赖Meta,主张建立更广泛的支持自由和开源的联盟,确保AI技术的发展方向有利于人类整体利益。

  对于AGI的未来,Paul表示乐观。他认为,AI技术已经从研究阶段进入实际应用阶段,随着更多资金和资源的投入,AI技术将不断改进和增强。尽管目前AGI的所有部分还不齐全,但他相信随着时间的推移,我们将逐步接近AGI的实现。

  B站传送:【精校】和Gmail之父谈AGI和大模型 YC创业圆桌 2024.8.11 【中英】-哔哩哔哩】

  谷歌似乎具备成为全球主导人工智能公司的所有条件,为什么事实并非如此?您认为2016年的OpenAI与您加入时的1999年谷歌相比如何?

  这是我们发明的最强大的技术,那么问题是这种力量将流向何处?我认为我们必须建立一个支持自由和开源的联盟,而不是把一切都押注于Facebook拯救我们。

  我是Garry,这是Jared、Harj和Diana,我们是Y Combinator的合伙人,我们为价值数千亿美元的公司提供了资金。我们还有一位特别嘉宾,他也是最初的外部合伙人之一,YC的非创始合伙人,Paul Buchheit。他创建了Gmail,并创造了“不作恶”这个词。PB,感谢您今天加入我们。

  我认为人们通常没有意识到的一件事是,您一直在思考人工智能,谷歌本身也是一家人工智能公司。您能告诉我们更多有关这方面的情况吗?谷歌内部对人工智能的看法是什么?

  是的,我认为谷歌从一开始就应该是一家人工智能公司。拉里和谢尔盖着手构建这些非常大的计算集群,并对他们收集的所有数据进行大量机器学习。实际上,可以说,使命宣言非常简单。谷歌的使命是收集世界上所有的训练数据,并将其输入一台巨大的人工智能超级计算机。他们说得不那么直接。他们说,收集世界上所有的信息,使其普遍有用和可访问,或者诸如此类。但本质上,这在实践中真正意味着将其输入一台巨大的人工智能超级计算机。

  甚至Google的起源故事都是基于他们关于PageRank的博士学位论文,这在今天的许多机器学习课程中都被广泛教授。它是历史人工智能算法中基础的一种,人们会教授它。

  是的,很早就有人认识到,如果你有足够的数据,这实际上是让事情变得智能的途径,而不是试图永远迭代小算法。

  您加入谷歌的时间有多早,Paul Buchheit,您能谈谈您加入谷歌时的情况吗?

  那是1999年6月。25年前,再早一点。所以,那是一家非常小的初创公司。当时我们在帕洛阿尔托的大学大道上,上面有一家茶馆。那是电动的。真的很酷。实际上,我在那里待了大约一周后,试图获得更多股权。但事实证明,你必须在接受之前进行谈判。所以,是的,它有一种非常不真实的感觉,就像兴奋一样。我很高兴能去上班,因为我们正在做大事。

  当您在谷歌早期员工队伍中时,你们是如何设想人工智能的发展以及谷歌人工智能的未来会是什么样子的?有什么事发生过吗?

  对。人工智能显然是人们长期以来一直在思考的事情。我制作了我的第一个神经网络。我不久前挖出了代码。我想那是在1995年。我有,它就像那些三层神经网络之一。

  是的,我做了。我做了一个不完全是数字分类的项目,但有这些叫做figlets的东西,就像ASCII字母一样。所以我让它基本上像OCR那样处理这些。但是,它就像一百个权重。所以它比今天的模型小得多。现在的权重有数万亿。

  神经网络的历史有点奇怪。第一件事是他们发明了感知器,它就像一个神经元。它在很短的时间内非常流行,直到一些研究人员证明感知器无法计算XOR。然后它就死了一段时间,直到有人想到使用多个神经元。所以它进展非常缓慢。然后它又死了一段时间。然后在我看来,它在十几岁的时候真的开始流行起来,当深度学习变得流行时。那是我们第一次看到令人印象深刻的结果,那是我们开始在内部感觉到,在YC的讨论中,人工智能已经从不确定的未来的东西转变为更确定的未来的东西。这也是导致OpenAI诞生的原因。

  有没有关于人工智能的力量和影响的讨论,特别是AGI以及对社会的影响?还是感觉太遥远了?

  是的,我认为它还太遥远了。那时它非常科幻。我们处理的更多是近期的问题,我们如何让搜索变得更好?但搜索在某种程度上是人工智能的问题。你必须弄清楚用户在寻找什么。它非常好。如果你真的看看谷歌搜索,你会发现幕后有很多事情发生。实际上,我们添加的最早的神奇功能之一是拼写纠正。

  所以这实际上最初只是因为我的拼写能力不佳。我的拼写从来都不是很好。我的大脑不喜欢任意的模式。比如,当我在学校的时候,数学很容易,因为它是可以预测的,但拼写总是让我很吃力。所以当我开始在谷歌工作时,我添加的第一个功能就是拼写校正器,因为我正在查看查询日志。我发现我不是唯一一个有这个问题的人,比如三分之一的查询都是拼写错误的,或者类似这样的问题。所以,最简单的质量胜利就是修正拼写。

  我做了第一个,你是指功能吗?所以,我只是基于现有的拼写校正器库来构建它。我曾经开发过一个拼写校正器,但它经常给出非常愚蠢的修正。例如,如果你输入“TurboTax”,它会尝试将其更正为“Turbot Axe”,而“Turbot”是一种鱼。为了避免这种情况,我做了一些基本的统计过滤,判断出这是一个愚蠢的修正,不会展示它。我只想过滤结果。

  后来,我开始着手开发一个更好的拼写校正器,因为我知道我们可以利用所有的数据。我们有一份网络副本和数十亿次搜索查询,那里有很多信息。我努力做一些更好的事情,并将其作为一个面试问题。当我面试工程师时,我会问他们如何开发一个拼写校正器。大约80%的工程师根本不知道如何回答,而另外20%给出的答案也很平庸。但有一个人给出了非常好的答案,甚至比我想得更深入。我决定必须雇用他。

  他的第一个项目开始于2000年底,大概是12月。我给了他一个介绍项目,把我所有的代码交给他,并向他展示了如何在集群上运行项目。然后我离开了几个星期去过圣诞节。当我回来时,他已经发明了我们现在所知道的“你的意思是”功能。他在谷歌工作的头两周内就完成了所有这些工作。这真是一个不可思议的成就,可以纠正我的姓氏拼写。以前从来没有人做过可以纠正专有名词拼写的校正器。

  这个人就是Noam Shazier,他后来也成为了人工智能领域的发明者之一。他是《Attention is All You Need》一文的关键人物之一,现在开始研究角色人工智能。

  我从来没有把这些点联系起来,但我记得在2000年,当最初的谷歌拼写校正器推出时,这是一件大事,因为它是第一批被大众广泛使用的人工智能实例之一。早期的拼写校正器都是非常简单的,基于字典单词列表和编辑距离,无法处理专有名词,并且提出各种愚蠢的建议。谷歌的拼写校正器是第一个在真实数据上进行训练的,所以它确实有效。

  谷歌的拼写校正器没有词典,它只是基于查看网络和查询日志,然后预测最有可能的校正是什么。

  谷歌似乎已经研究人工智能很长时间了。它有数据、计算资源和人员,拥有成为全球主导人工智能公司的所有要素。那么,为什么它没有成为主导呢?你认为发生了什么?似乎它卡在了某个地方。

  对此,我也不清楚具体情况。我想澄清一下,我不在谷歌工作,我于2006年离开。但作为一名局外人,我的看法是,很多事情都发生了,尤其是在向Alphabet过渡期间,公司不再由创始人真正经营,尤其是在他们离开之后。我认为,这更多地是为了保护和维护搜索垄断地位。如果从这个角度考虑,搜索引擎是一座金矿,具有极高的商业价值,而人工智能则是一种天生具有颠覆性的技术。无论是从打破搜索商业模式的角度来看,还是从提供更准确答案的角度来看,人工智能都有可能改变现有的搜索引擎格局。如果你真的给人们正确的答案,他们就不需要点击整页的广告。

  早在1998年,谷歌最初的论文就指出,作为一家搜索公司,在盈利能力和给出正确答案之间存在内在的矛盾。因为总有一种诱惑,如果你让搜索结果变得更糟,人们实际上会点击更多的广告。因此,人工智能有可能颠覆这一点。

  更甚的是,人工智能有可能完全激怒监管机构。谷歌的很多业务就是与监管机构打交道。我们知道,如果推出一个人工智能,它肯定会说一些冒犯性的话。所以我认为他们对此有些害怕。

  即使在内部开发时,谷歌也有一些限制。比如,Gnome开发了一个聊天机器人版本,这个版本被举报人称为Lambda。它最初有一个不同的名字,但因为原来的名字是人类的名字,他们被迫更改了名字。因此,原来的名字必须改成Lambda。即使在公司内部,对可以发布的内容也有限制。例如,他们有一个名为ImageGen的DALL-E版本,它被禁止制作人类形状的图像。所以即使在内部,研究人员也不允许生成人类图像。他们非常厌恶风险,我认为这就是答案。

  我认为他们可以克服风险、规避风险,但需要有这种可信度的人才能真正押注公司或坚持下去。是的,我们要做这件事,它会带来很多问题。但我认为,如果有机会,谷歌永远不会推出人工智能。他们推出它的唯一原因是因为OpenAI推出了ChatGPT,突然间他们被迫做出回应。这也对他们有帮助,因为OpenAI承受了很多负面影响,比如说出疯狂和冒犯的话。所以在那个时候,谷歌可以推出一个更净化的版本,禁止某些内容的存在。

  OpenAI是从YC分离出来的,你当时就在那儿。最初是YC Research。

  回到十几岁的时候,我们只是在追踪这项技术的进展。从那时起,我们开始看到深度学习做一些令人印象深刻的事情,比如玩电子游戏、赢得胜利并擅长做某事。你可以说我们终于看到人工智能是真实存在的。几十年来,人工智能一直都是科幻小说中的东西,而且都是象征性的人工智能,我认为这有点像垃圾。最终,人工智能取得了一些真正令人印象深刻的成就,因此进入了我们的视线。山姆与许多人进行了讨论,我认为他曾经参加过其中一次活动。埃隆本质上敲响了警钟,认为人工智能会杀死我们所有人,并提议也许应该进行监管。

  在这些讨论中,Sam 问道:“你认为我们应该推动人工智能监管吗?”我回答说:“是的,但我认为这只会让事情变得更糟,因为我对我们的民选代表没有太大信心,他们并不是超级明智和有远见的人。”我的论点是,更好的做法是我们真正构建人工智能,这样我们就能影响它的发展方向。

  当时,人工智能仍然是一种我们不知道什么时候才能真正获得收入的技术,因为它基本上还是一个研究项目,并且需要大量的资金,因为研究人员的薪水很高。

  我们担心的是,这一切都被锁在谷歌内部开发。因此,我们的想法是,希望它成为一种对世界更开放的东西,对我们的创业生态系统开放。我们有 YC 研究的概念,希望找到某种方式来资助它,然后希望我们的初创公司能够从中受益,并在此基础上发展。这实际上已经发生了,现在我们有一半的初创公司都在它的基础上发展。

  我完全支持它们。当我们思考人工智能的长期发展轨迹时,它是我们发明的最强大的技术。问题是,这种力量会去哪里?我认为基本上有两个方向,要么走向集中化,所有权力都集中在政府或少数大型科技公司或类似机构手中。我的感觉是,这对人类来说是灾难性的,因为你基本上将个人的能动性和权力降到最低限度。

  相反的方向是走向自由。我们应该尽可能地赋予每个人这种权力和能力,让他们成为最好的自己。你可以这样想,如果每个人的智商都是200,那会是什么样子,而不是把所有的权力都集中在一个地方。开源非常重要,因为它是这方面的试金石。这是真正的自由,是,是第一修正案。如果你的模型都被锁在某种封锁系统下,那里有很多关于什么可以说、什么样的想法是可以接受的规则,那么我们基本上就失去了所有的自由。如果我没有思想自由,甚至没有构思我要传达的想法,就毫无意义。

  回到OpenAI的历史,OpenAI的真正起源实际上并不为人所知。就像许多公司一样,随着创始故事被一遍又一遍地复述,它就变成了一种为公众消费而净化的东西。你坐在前排,采访了许多早期的研究人员,他们基本上成为了建立OpenAI的核心人物。你能告诉我们真正的创始故事吗?

  当然,我不会说很多,但我面试了Ilya。是的,这又回到了这些讨论,比如,也许前进的道路不是试图取缔人工智能,而是我们应该尽可能地为公众利益而构建它。Sam是一个了不起的组织者。我从来没有见过一个能把这么多不同兴趣和这么多不同人聚集在一起的人。他能够筹集到Elon和其他一些人的捐款。我知道PG和Jessica也为最初的OpenAI非营利组织做出了贡献。我想我们甚至投入了一些YC的资源。我们做到了。

  所以这就是事情的根源。然后他招募了最初的团队,Greg和Ilya,基本上开始了整个事情。当时他还在管理YC。

  我认为,最初的概念实际上是我们称之为YC研究的一部分。随着Elon的参与度越来越高,它就变成了自己的Open AI,Elon更像是它的代言人。没有人真正了解YC的根源。实际上,如果你回顾他们最近的诉讼,你会发现他们公布了一些电子邮件,其中Elon就说,摆脱YC的东西。

  就像我记得在21世纪初,我看着谷歌,觉得这家公司有朝一日会发明AGI。然后它的发展方式并不是我所预料的那样。再次重申,Open AI的想法和诱惑的一部分,比如对研究人员的宣传,是当你来到这里时,你的东西不会被锁起来。我们会把它公之于众,因此,研究人员受到这种激励,也受到让这种东西不仅仅锁在谷歌内部的使命的激励。所以我认为这吸引了许多人才。

  这与初创公司的情况相同。你想进入一家大公司吗?比如谷歌,谷歌的研究人员甚至无法制作出可以生成人体图像的ImageGen版本。所以他们就像被内部封锁了一样,如果你是一个喜欢快速行动的人,OpenAI就是人工智能的初创版本。但是,是的,我认为如果谷歌处于最佳状态,它就不可能成功。初创公司通常就是这样,如果你面对一个真正强大的竞争对手,你就没有机会了。初创公司之所以成功,很多时候是因为你正在与内部有错误激励的大公司竞争。

  你认为2016年的OpenAI与1999年你加入谷歌时的情况相当吗?我认为这实际上更像是一个疯狂的远射。看起来确实如此。

  如果你看看作为诉讼的一部分发布的这些电子邮件,你会发现其中一封来自Elon,他说:“你们成功的几率为0%。”看起来确实如此。因此,成功的可能性还远未可知。

  在那个地方,他们很长一段时间里仍然在做电子游戏之类的事情。而LLM(大型语言模型)才是真正起到巨大作用的。所以,GPT-2有点像,我记得Sam非常兴奋地想向我展示这个东西,它可以预测下一个单词。下一个单词预测看似简单,但你仍然会听到人们不屑一顾,比如说:“哦,它不是真的很智能,它只是预测下一个单词。”但实际上,如果你尝试预测下一个单词,那就没那么容易了。

  事实上,如果你仔细想想,如果你能预测下一个单词,你就能预测任何东西。这就是提示。你说,无论你想预测什么,这就是你的提示,然后下一个单词就是预测。因此,为了进行下一个单词预测并能够做到这一点,它必须建立某种现实模型或对现实的感知。在这种情况下,它受到文本输入的限制,这是一种奇怪的成长方式。

  在控制与自由的问题上,我们有点押注开源会给我们自由。扎克伯格有趣地成为了开源的英雄。一方面,我觉得你可以说这是偶然的,比如权重是非正式发布的,他只有GPU,因为他们试图与TikTok算法竞争。你和他合作过,这是偶然吗?或者他只是那种总是处于世界上所有大事中心的人?

  显然,这其中有投机取巧的成分,因为他们在很多方面都落后了,所以这是他们差异化的一种方式,可以削弱他们的竞争对手。这没什么错。这对他们有好处,这是一件好事。

  但是,当他是一个相当有战略眼光的人时,我们是否应该担心我们依赖Meta来推动开源向前发展?

  哦,是的,我们不应该完全依赖他们。我认为我们应该感谢他们站在正确的一边,但我们不能指望他们是唯一的。我认为我们必须建立一个支持自由和开源的联盟,而不是把一切都押在Facebook能拯救我们身上。

  基于刚才的问题,Meta并没有从中赚钱。他们从巨大的广告垄断中获取利润。他们只是出于某些原因使用它们来构建开源AI模型,但不是为了赚钱。

  他们会赚钱。他们也在内部使用这些模型,因此,你可以用这些模型做很多有趣的事情,比如改进广告定位建议,推动他们业务的所有因素都将通过这些算法得到改进。当然,这也是一个机会,他们存在于这个竞争激烈的生态系统中,与Facebook、谷歌和苹果相比,它们在各个方面都是竞争对手。他们都在相互竞争,因此削弱竞争对手的能力也是一件重要的事情。

  -是的,我认为他们处于一个相当独特的位置来做这件事。如果扎克伯格改变主意并决定停止开源,而大型开源模型的训练成本高达10亿美元,而且不清楚如何从中赚到10亿美元,我们还能如何获得这些模型?这是一个悬而未决的问题。

  这是我最根本的担忧之一。由于构建这些模型的成本非常高,这就像一个固有的集中化问题。如果你需要一个价值万亿美元的集群来构建你的AGI,那么很难做到这一点。但至少,我们可以有立法基础,表明我们有权这样做。同时,我们也有很多初创公司正在研究如何使这一切变得更有效率。

  虽然现在成本很高,但我们也在开发能够完成这些事情的新硬件,也许效率会高几个数量级。目前我们的算法可能不是那么好,但我愿意打赌,10年后,实际的基本学习算法会更好,希望效率更高。我们将拥有更好的硬件和更好的算法。

  -如果你只考虑训练人类所需的计算能力与训练GPT-4等模型的计算能力,我们显然效率更高。

  -Garry,你能分享一些关于扎克伯格可能受到激励继续向开源投入资金的原因吗?

  -这只是我个人的猜测,但我认为下一代LLM的资金可能只有10亿美元。如果你看看Meta的资金,比如Meta真的改名为Meta,因为他们试图创造元宇宙,这取决于你从外部来源使用的估计,大约在200到500亿美元,相当于阿波罗计划的很多倍。所以我认为10亿美元并不多。

  当你看到像OpenAI或Anthropic这样拥有前沿模型的公司时,我认为Meta应该考虑,能否降低这些公司的毛利率?发布一个开源模型,然后允许你在自己的硬件上运行它,这可能是最具通货紧缩的事情。如果一个前沿模型可以让你获得90%到98%的最佳前沿模型的性能,那么在一个封闭的API后面,你可能会蒸发数十亿美元的纯毛利率,然后用于研发。

  -这和谷歌免费发布Gmail并免费提供存储空间的策略并不遥远。谷歌和Facebook都有多种赚钱方式,因此可以提供免费服务。Facebook还可以发布开源AI,确保没有其他人拥有独特的领先优势。这也有助于招聘。

  如果我是人工智能研究人员,在Meta和闭源公司之间犹豫不决,我肯定会选择开源公司。

  -Garry,关于你提到的Meta的变化,如果我们对Meta进行更多的奥卡姆剃刀式的猜测,他们如果真的想创造元宇宙的未来,那么构建人工智能和AGI只是一个基石。建立LLM和FairLab就像是一个组件,因为Meta对此非常认真。他们今天刚刚宣布再次花费了数十亿美元,不仅仅是为了模型,还购买了Luxottica的大量股份,Luxottica是拥有世界上许多眼镜的主要品牌。这是他们推出的Meta眼镜。

  Ray-Ban显然是他们两个月内实际销售的最新产品,比前几代产品卖得更多。人们喜欢这些东西。因此,如果我们进行推测并直接进行分析,那么扎克伯格可能非常认真地想要实现元宇宙。而人工智能是让AR和VR发挥作用的组成部分,因为为了增强数字世界,你真的需要理解它。语言和视觉都是其中的一部分,所以这些都是构建模块。十亿只是很小的一部分。

  -我要说的是,我对元宇宙的消费者执行力并不满意,他们只是将人工智能融入产品中。比如最近,我一直在使用Facebook蓝色应用程序,自从它问世以来,我只想拍下5年、10年前发生的事情的照片。我上次来这里是什么时候?我的朋友是谁?这些是最明显的事情,如果你使用Facebook,你就会希望得到这些。

  他们降价到700亿,我认为在某些地方,你可以在WhatsApp上获得4050亿。但关于我的东西没有任何贬义,所以这似乎是一个明显的乌龙球。另一方面,这些东西似乎相当昂贵,这在某种程度上是使用这些前沿模型在消费者领域工作的任何人的困境。

  -我确实想知道它们是否在某种程度上,蓝色应用程序已经逐渐被弃用,因为实际上Instagram上的人工智能比蓝色应用程序上的人工智能要好得多。

  我玩了一会儿,得到了很多,计划我在日本的旅行,并拍了很多照片。哦,我没想到你会用它。是的,我玩过其中的几个。

  展望未来,您认为未来几年会有哪些突破?哪些领域会有突破?我认为是人工智能。我们目前正在帮助一批初创企业,但我们还没有深入讨论的是,我们是否正在趋向于通用人工智能(AGI),就像我们所知的一切事物的所有定律一样。

  世界会结束吗?是的。会有创业公司吗?会有钱吗?我不知道。会有人类吗?钱还会存在吗?是的。这些问题我们都不知道。

  同样,这是 OpenAI 的一个有趣问题,因为它们都是用这种后 AGI IOU 资助的。一旦 AGI 发生,我们就会还钱。你会想,好吧,我们还有钱,也许。老实说,我们真的不知道。

  是的,我想我们已经走上正轨。我认为关键点在于我们跨越了人工智能从研究走向实践的界限。一个项目,你投入了很多钱,但实际上并没有得到太多回报,而另一个项目,你投入了钱,然后你得到了更多。这就像当一个反应达到临界状态时,比如如果你有一个钚球,它们有点热,然后你把它们放在一起,它就爆炸了。或者当 DARPANet 成为互联网时的那个时刻。

  互联网在 90 年代中期跨越了这一阶段,突然间更多的投资产生了更令人印象深刻的结果,从而带来了更多的投资。这就是我们现在所处的境地,人们似乎无法快速地投入资金。我们实际上在谈论的是一个国家问题,我们需要增加电力供应来训练人工智能。这已经成为一个国家安全问题。所以我认为一旦发生这种情况,你就会进入这个周期,它会不断增长。我们只是不断投入更多,这只会让人工智能不断变得更好。这显然解决了很多问题。我们知道这一点,因为我们有所有的公司在开发它。所以我认为它会不断改进。

  为什么聪明人不同意这个观点?比如 Meta 的 Yann LeCun,他一直在争论这不是通往 AGI 的道路,他是一位非常聪明的领域专家。

  我不知道,我不是他。这是他要问的问题。我喜欢他说的很多话,因为他支持开源,但他说的其他一些东西,我无法解释。我确实认为有些部分缺失了,所以我们并不是拥有 AGI 的所有部分,但我认为这是一个渐进的过程,我们不断地添加一些东西,让它变得越来越好。

  在 NeurIPS 这个大型人工智能学术会议上,实际上所有关注的论文都在这里发表,所有顶级研究都在这里发表。去年,热门话题围绕着一些事情展开,我们正在用Daniel Kahneman的框架弄清楚系统一型思维。系统一型思维非常擅长处理非常有计划的任务,但不像人类用系统二进行的高级、较慢的思考。

  有很多研究试图弄清楚系统二和系统一,并试图弥合它们之间的差距。当我们解开这个谜团时,我认为我们就向AGI(通用人工智能)迈进了一步。

  重要的是要记住,现在当你与ChatGPT交谈时,它只是在运行意识流。那么,什么人可以在不停下来思考一段时间的情况下回答这些问题呢?因此,人们正在研究的下一个显而易见的步骤之一是,如何给它时间去思考和计划,考虑各种选择,探索想法,就像人类一样。

  -在公司内部,我们也看到了这一点。他们花了很多时间在工作流程、思维链、多智能体系统上。你有不同的步骤。人类做什么?然后他们逐步地制作工作流程,例如阅读本段,返回与提示相关的从零到九的一个标记。然后总体而言,创建一个关于它的元数据结构,将其放入嵌入中,并在最终生成步骤中发挥作用。这就像是对人类知识工作者在不同领域会做什么的量身定制的时间和动作研究。

  -这正是我们在系统二中思考时发生的事情。你提到的所有这些创始人都在围绕这一点制定硬编码规则,但我认为我们知道这不是AGI的最终路径。现在这是一种黑客行为,这就是它的工作原理。这完全是一种黑客行为。但随着时间的推移,随着系统变得更加智能,它会越来越多地承担这种责任。

  我相信这一切都归结为模式。这就是我相信这一代人工智能的部分原因,因为神经网络基本上是这些巨大的模式识别和生成引擎。我认为这也是我们自己的智慧。

  为了再多推测一下你对未来的看法,在你发表的这篇文章中,你举了一个非常具体的例子,未来我们将无法区分知识型员工。

  因此,作为对未来走向的思考实验,我当时的预测是,到2033年,你可以取代很多今天的Zoom员工。有人坐在笔记本电脑前,拿着摄像头、键盘和鼠标。而人工智能基本上可以观察这个人的工作,因为这一切都是虚拟的。然后很快了解他们的模式,并基本上深度伪造那个员工。所以你可能会遇到这样的情况:你正在和某人进行Zoom通话,而那个人实际上是一个人工智能。

  很明显,我们现在看到所有这些部分都聚集在一起,就我们进行深度伪造的能力和所有这些不同的事情而言。我以此为例,并不是因为事情必然会这样发展,而是因为我们将拥有这种能力。例如,如果你从事一项基于Zoom的工作,我认为在10年内,其中大部分工作都可以被人工智能透明地取代。

  -天哪,我们正在走在一条数据全面数字化的道路上。你的摄像头信号、音频、键盘和鼠标输入等数据,可能现在就有一家公司在记录和构建这些数据。

  -这个社区的薄弱环节是r/反工作。如果你能制造一个可以深度伪造的人工智能代理,并且r/反工作决定这是重点,那就是一家价值10亿美元的公司。

  当然,问题是,这些人会发生什么?所以我认为,这就是我们需要真正开始制定长期愿景的地方,比如,我们的目标是什么?我们为什么要开发所有这些技术?

  对我来说,这又回到了权力如何分配的问题。这是控制吗?是一切都集中化还是每个人都可以自由地行动?因为我认为,就像在封锁的情况下,我们很快就会发现,人们会说,我们甚至不需要所有这些人。这也让那些希望封锁的人往往是末日论者,他们希望通过中央银行、数字货币等各种限制个人自由的方式以许多其他方式封锁人类。

  相反的方向显然是我所赞成的,即我们实际上朝着赋予每个人更大自主权的方向发展。想想所有这些工具,比如艺术工具,假设一个孩子能够制作自己的动画系列,其质量与皮克斯电影或类似的东西相同。这真的很棒。想想所有可以讲述的故事和所有可以实现的创造力。我们只是坐在那里为彼此制作成人机器人游戏。

  但同样,我认为中央计划思维模式的一个错误是认为我们可以规划好这一切,但实际上我们做不到。我们所做的一切就是朝着正确的方向前进,为人们提供正确的工具。我认为,当我们让每个人都变得更聪明,让每个人都能做出更好的决策时,我们就可以共同推动整个世界朝着更好的方向发展。但我们还不够聪明。认为我们能够说出世界将会是什么样子,这是一个错误。这就是一切将如何运作。这就是人们最终被关在舱室里的原因。

  你一直在思考的另一件事是地缘政治。随着人工智能开始成为现实,它将如何与地缘政治和我们现在看到的大国竞争联系起来?

  这也是我们想在这里建造它的原因之一,因为如果其他国家拥有超级人工智能,那对我们来说就不是好事。尤其是希望让人工智能远离这种专制控制系统。因为最糟糕的情况是我们最终会被永久封锁,因为人工智能可以创建一个无法逃脱的系统。我认为这有点像我们这个物种的灾难场景。如果我们走上控制的道路,人类最终会变成动物园里的动物。我真的不想这样。

  最有趣的事情之一是一些正在出台的试图控制人工智能的立法,我们一直在反对这些立法,比如SB 1047。他们实际上有一些法规。他们对这一问题进行了淡化处理,但最终,他们的目标是让模型建造者对其模型可能参与的事情承担个人责任,甚至是刑事责任。这有点像因为有人醉酒驾车撞人而将汽车设计师关进监狱,极其阴险。

  如果附加这种责任,模型就会变得有毒,我不想碰那些有无限责任的东西。因此,这必然是他们施加完全控制的一种方式。如果对事物施加这种责任,没有人会想靠近它。如果我们不能理解世界上最重要的事情,那么我们就无法理解任何事情。

  是的,这是我们的一大优势,就是自由。这就是我们领先的原因,因为你不能在那种环境下建立模型。

  实际上,我喜欢 XAI 的一件事是,他们还没有真正发布一款出色的产品,但他们有一个伟大的使命宣言,即最大限度地寻求真相。我认为这真的很重要。因此他们把自己置于不利地位。希望他们能一直处于不利地位。所以这取决于我们。

  我们必须参与其中,实际上必须为开源人工智能而战,并保持开放。并努力确保人工智能能够增强个人能动性,而不是削弱个人能动性。

  对于那些对末日论者或乐观主义者持相对中立态度的人来说,是什么让他们倾向于一个方向而不是另一个方向?

  我确实认为有些人天生就倾向于一个方向或另一个方向,因为末日论者已经存在很长时间了。它不是现在才出现的。很多同样的末日论者可以追溯到 50 年代、60 年代,甚至更早。工业革命、打字机。特别是,有一本非常有影响力的书,《增长的极限》,罗马俱乐部或类似的东西。还有一本书名为《人炸》,让每个人都相信 70 年代和 80 年代将会发生大规模饥荒。事实上,我从小就非常清楚这一点,因为我是 70 年代出生的五个孩子中的第四个。显然,当我母亲去商店时,人们会用恶狠狠的眼神看着她,说她正在毁灭这个地球,诸如此类的事情。因为人们真的相信我们现在都会遭遇饥荒等一连串的厄运。所以末日论者是反对增长的,他们封锁,他们控制自由、增长和开源。

  -我们之前谈过这个。我刚刚看了理查德·汉明的讲座,他是一位传奇数学家,创造了许多有趣的东西,比如编码距离等。他还获得了诺贝尔奖。他在90年代或80年代早期有一场非常酷的演讲。实际上,他从很久以前就开始撰写有关人工智能的文章。他在演讲开始时说,阻碍人工智能进步的将是人类的自我意识,这让我想起了想要控制人工智能的想法。而阻碍人工智能进步的正是人类的自我意识,这句话现在仍然适用。是的,人类的自我意识总是阻碍着人工智能的发展。

  -我认为YC可以发挥巨大作用。就整个创业社区而言,因为我觉得有越多酷炫的工具向大家展示AI有多棒,让我们都变得更好,这个愿景就越鼓舞人心。

  是的,绝对如此。而且,我认为这也是ChatGPT推出的重要原因之一。即使OpenAI明天就消失了,我认为他们已经完成了他们使命中最重要的部分,那就是真正让公众意识到这一点,现在我们所有人都在研究它,所有人都在思考它。它不是锁在谷歌内部的东西,也不是末日论者内部的东西,他们说这需要在秘密的政府实验室里完成。这就是天网的由来。天网就是在秘密的政府实验室里建造的。我认为,在开放的环境中、从各种角度进行开发,让每个人都参与其中,是我们获得乐观结果的最佳机会。

  -是的,顺便说一句,这些都不是理论上的东西。已经有证据表明,像联合健康集团这样的大公司已经在阻止使用人工智能电话,例如,只是为了解决索赔问题。这非常符合他们的利益。他们检测到人工智能,他们决定不与那个东西交谈。另一方面,你也可以想象人类淹没在无限的电话树中,从法律上讲,这些电话树是完全坚如磐石的,但你永远不会得到你的索赔报销。这真的是我脑海中最极端的卡夫卡式的情况。我们不希望一两家大公司的最佳前沿模型被锁在基本上是回形针最大化的企业泥潭后面。这是一个真实的例子,我没有想到会用到这个例子。

  -这很有趣,因为这对联合健康来说完全是错误的做法。他们应该开发自己的人工智能语音系统,这样才能更好地说服对方,让他们相信不应处理索赔或其他事情。

  -如果我们默认有一种锁定一切最安全事物的国家主义观点,那么猜猜会发生什么?联合健康保险集团将成为唯一一家被委托使用前沿200 IQ模型的公司,因为它就在国家旁边。这不可避免地会导致权力集中。

  我认为Y Combinator作为一个组织的优点之一是,我们致力于赋予所有这些人权力。我们找到一些19岁的年轻人,帮助他们建立一些巨大的东西。Sam自己就是最初的19岁孩子之一,他是PG在人群中随机挑选的19岁孩子。

  从定义上来说,如果你20多岁,懂得编程,想为人们创造东西,那么还有另一种选择。你不必去为Moloch工作。

  这是AI的一大优点,因为你做这些事情的能力正在增强。我认为我们将会看到非常成功的初创公司,它们实际上甚至不再需要庞大的团队。这正是真正实现这一点的部分原因。再说一遍,YC成立的最初理念是因为技术,现在几个孩子就可以创办一家真正的公司。这种趋势只会加速。

  我觉得这是我们迄今为止制作的最好的一集。PB,非常感谢你加入我们。我们希望你能多次回来。

地址:PG电子永久网址【363050.com】  电话:363050.com  手机:363050.com
Copyright © 2012-2025 PG电子官方网站 版权所有 非商用版本  ICP备案编号: