AI教父:「类人类」5年内问世

0
15
OpenAI正在为其最终目标——创造人工通用智能(Artificial general intelligence,AGI)而努力。(图片来源:adobe stock)

【看中国2024年3月3日讯】(看中国记者杨天资编译/综合报导)OpenAI正在为其最终目标——创造人工通用智能(AGI)而努力。AI教父、晶片大厂辉达(Nvidia)执行长黄仁勋(Jensen Huang)3月1日受访时指出,在某些定义下,通用人工智慧(Artificial general intelligence,AGI)有可能在短短5年内出现。

AI教父谈AGI:「类人类」有望5年内出现

AGI是一种可以在各种领域超越人类的智能系统。OpenAI认为,AGI有可能改变社会,带来巨大的利益,但也可能带来严重的风险。

美东时间3月1日,辉达CEO黄仁勋在美国加州参加史丹佛经济政策研究所高峰会时表示,他预计通用人工智慧(AGI)最快将在五年内面世。通用人工智能(AGI)又称强人工智慧(Strong AI),是AI的一种理论形式,指的是AI可以像人类一样学习和推理,有可能解决复杂的问题并独立做出决策。

他指出,答案主要取决于要如何定义这个目标。如果定义是能够通过人类测试,那AGI应该很快就会出现。

「如果你制作一项测试清单,放在电脑科学业界前,我猜大约5年,我们就能在每项测验取得好成绩」

AI目前能通过律师资格考试等测试,但是面对胃肠学等专业医学测试时仍相当吃力。但黄仁勋认为5年后,AI就能通过所有测试。

黄仁勋还在高峰会上回答了另一个问题,需要多少晶片代工厂来支持AI产业的扩张。有媒体报导称,OpenAI 执行长奥特曼(Sam Altman)认为需要更多的晶圆厂,而黄仁勋显然认为此举「大可不必」。他指出,虽然目前市场上对更多晶片有所需求,但随着时间的推移,晶片性能也会提高,这会限制所需晶片的数量。

「我们将需要更多的晶圆厂。但请记住,随着时间的推移,我们也在极大地改进(人工智慧)的演算法和处理。」黄仁勋表示,「运算效率并不会停留在现今的水平。在10 年内,我将会把计算能力提高一百万倍。」

黄仁勋也问起需要增加多少晶圆厂,才得以支持AI产业扩张。OPEN AI执行长奥特曼(Sam Altman)认为需要更多晶圆厂。黄仁勋表示,虽然确实需要更多晶圆厂,但晶片的演算法和处理能力正在取得极大改善,这将有助于减少晶片的需要量。

AGI和AI有什么不同?

综合资料显示,AI是指能够执行特定任务或解决特定问题的智能系统,而AGI是指能够在任何任务或问题上达到或超越人类水平的智能系统。AGI具有通用的学习、推理、创造、沟通等能力。

由于目前仍没有公认的人类智慧定义,不同领域科学家对通用人工智慧的定义和标准也各不相同。通用人工智慧的概念是相对于目前我们已经广泛实现的「弱人工智慧」来说的,后者指的是擅长执行单一任务、解决特定问题、但没有自主意识的人工智能,其应用包括智能客服、无人驾驶、算法推荐等。

实现AGI一直是矽谷长期以来追求的目标之一。OpenAI认为AGI是可以实现的,并且可能会在不久的将来出现。因此,OpenAI正在积极地探索如何建造AGI,并且已经取得了一些重要的进展。

然而,AGI的发展也面临着许多风险和担忧。首先,AGI可能会对人类社会造成巨大的冲击和变革,例如改变就业结构、经济分配、法律制度、伦理道德等。这些变化可能会带来正面或负面的影响,也可能会引发社会不稳定和冲突。

其次,AGI可能会对人类安全造成威胁,例如被恶意使用、发生意外、失控或反叛等。这些威胁可能会危及人类的生存和尊严,甚至导致人类的灭绝。

根据媒体报导,OpenAI正在与多个投资者进行新一轮的融资谈判,其估值可能高达1000亿美元或更高。微软的投资不仅为OpenAI提供了资金,还为其提供了在微软Azure云平台上开发和部署AGI的硬件和软件平台。

马斯克起诉OpenAI及其CEO奥特曼 :违背技术造福人类的初衷

人工智慧的无限制发展已威胁到人类的安全,这已经不是将来时,而是现在进行时。全球科技巨头、特斯拉CEO埃隆.马斯克(Elon Musk)于当地时间2月29日晚间,向旧金山高等法院提起诉讼,由洛杉矶的律师事务所Irell&Manella代表,以违反合同为由起诉OpenAI及其CEO萨姆.奥特曼(Sam Altman)。

埃隆.马斯克(Elon Musk)在诉讼中表示,奥特曼和OpenAI违背了这家人工智慧研究公司成立时达成的一项协议,即开发技术以造福人类而不是利润。

马斯克声称OpenAI最近与科技巨头微软的关系损害了该公司致力于公共、开源的通用人工智慧的初衷。

法院文件显示,马斯克对OpenAI提出了包括违约、违反信托义务和不公平商业行为在内的指控,并要求该公司恢复开源。马斯克还要求法院下达禁令,禁止OpenAI、其总裁格雷戈里.布罗克曼和奥特曼(Sam Altman)(此案的共同被告)以及微软从该公司的人工通用智能技术中获利。

马斯克说:「OpenAI已经转变为世界上最大的科技公司微软事实上的闭源子公司。在新董事会的领导下,它不仅是在开发,而且实际上是在完善AGI,以实现微软的利润最大化,而不是造福人类。」

马斯克表示,AGI是一种被开发用于自主展现与人类相当认知水平的AI类型,其在OpenAI的GPT-4模型中得到了体现。马斯克指出,于2023年3月发布的GPT-4与之前的版本相比仍是一个封闭模型,而这一举措是出于商业考虑,而不是人类利益。

马斯克在诉讼中写道:「GPT-4的内部细节只有OpenAI知道,在信息和信念上,微软也知道。因此,GPT-4是『开放式AI』的对立面,它的封闭是出于正当的商业原因:微软希望通过向公众出售GPT-4来赚钱,如果OpenAI——它被要求这样做——让公众免费使用这项技术,这将是不可能的……与创始协议相反,被告选择使用GPT-4不是为了人类的利益,而是作为专利技术,为世界上最大的公司实现利润最大化。」

马斯克还在诉讼中提及了2023年OpenAI的「政变」风波。马斯克称,奥特曼的短暂离职促使微软介入,并迫使试图罢免他的董事会成员辞职,OpenAI目前的董事会成员不再是支持和了解该技术的科学家和研究人员。

马斯克是OpenAI的联合创始人之一,但于2018年离开董事会。他表示,董事会与奥特曼之间的冲突源于GPT-4的开发和AGI技术可能出现的下一次迭代,马斯克担心这可能会危及公共安全。

奥特曼因激进研究恐致「AI灭绝人类」

去年11月,OpenAI人事大地震成为这个周末科技业界的大新闻,ChatGPT之父奥特曼(Sam Altman)于11月17日被董事会解雇的消息震惊全球,并引起外界无限猜想。有消息披露奥特曼在开展AI研究时可能过于激进,这可能导致AI人工智慧「终有一天会导致人类灭绝」。

当时外界分析,奥特曼的突然遭炒鱿鱼确实暗示了未来业界将出现的一场争论,发展AI与安全的矛盾——有如一些科学研究、如基因改造的禁忌一样,AI的发展今后也会被设置道德的界限。

自前年,OpenAI建造的ChatGPT在科技业界引起革命,推动生成式AI的快速发展。在今天所有文字的生成式AI,包括微软所使用的AI软件,都是建立自ChatGPT上。

ChatGPT在2022年11月发布,短短一年全球使用者突破1亿,有200万人正参与开发,发展速度之快让人惊讶。

一些安全倡导者指出,OpenAI和其他公司发展AI的速度过快,忽视了提倡谨慎行事的声音。这争论在OpenAI的员工中已持续了多年,2020年一群OpenAI的员工因为担心公司过于商业化,把利益放置在安全之上而辞职,部份员工后来成立了Anthropic,他们认为奥特曼(Sam Altman)在开展AI研究时可能过于激进。

OpenAI在2015年成立,当时是一间非牟利研究机构,至2019年才成立一家有限盈利的子公司。OpenAI声称这是一种创新安排,投资者的回报受到限制,目的是让公司保留非营利组织的使命。公司赋予了董事会管理有限利润实体的权力。这与其它一般企业不同,奥特曼作为公司的领导者,不直接持有OpenAI的任何股份,而董事会有权投票直接开除他。

董事会成员中最少有两人、即是麦考利(Tasha McCauley)和托纳(Helen Toner)与有效利他主义(Effective Altruism)运动有关联,这是一个伦理运动,运动的成员推动了对AI的安全研究,他们认为失控的强大的AI终有一天会导致人类灭绝。

从英国著名理论物理学家史蒂芬.霍金(Stephen Hawking)到特斯拉创始人伊隆.马斯克(Elon Musk)等世界顶尖人工智慧(AI)专家,都曾表示过人工智慧对人类生存的威胁。

已经去世的史蒂芬.霍金于2015年8月在美国Reddit网站上,首次提出对人工智慧的“威胁论”,他确信「优异的AI绝对会实现它的目标,因此当人类与它道不同时,绝对有间接或直接铲除人类的可能」。

后来又不断地警告:「人工智能系统会自行启动,并以前所未有的速度不断的重新设计、自我改良。」

「研究人工智慧如同在召唤恶魔」

「全面性的开发人工智慧有一天可能会导致人类灭亡!」。

马斯克(2002年创建私人太空发射公司SpaceX)于2017年7月,一次由美国各州、领地及联邦组成的「国家管理者协会」(National Governors Association)的会议上,再次重申了他对AI发展的远期担忧——「我接触过最先进的人工智能,我认为人类的确应该对它感到担心。」

他还说:「这是人类文明所面对过的最大挑战。」

马斯克海表示没人听他的警:「我试图说服人们降低AI的发展速度、监管AI,但是无效。我试了很多年,没有人听。」、「AI的发展似乎不受人类控制」

「人工智能比核能武器更危险」!

来源:看中国