首页>>人工智能->窄人工智能是什么(2023年最新解答)

窄人工智能是什么(2023年最新解答)

时间:2023-12-08 本站 点击:0

导读:今天首席CTO笔记来给各位分享关于窄人工智能是什么的相关内容,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

人工智能有什么实际作用?

对人工智能的理解,不同领域的人看法不尽相同,为了博采各家之所长,我和大家交流下现在科技界中不同人士对人工智能的一些看法。

第一种思想。AI就是让人觉得不可思议的计算机程序,人工智能就是机器可以完成人们不认为机器能胜任的事。这个定义虽说很主观,但也非常有趣。这一定义反映了,一个时代里大多数的普通人对人工智能的认知方式:每当一个新的人工智能热点出现时,新闻媒体和大众总是用自己的经验来判定人工智能技术的价值高低,而不管这种技术在本质上究竟有没有“智能”。

第二种思想,AI就是与人类思考方式相似的计算机程序。这是人工智能早期流行的一种定义方式。另一种类似的,同样从思考方式出发的定义是:AI就是能遵照思维里的逻辑规律进行思考的程序。这种思潮最本质的问题是,人类至今对大脑如何实现学习、记忆、归纳、推理等思维过程的机理还缺乏认识,况且,我们并不知道,到底要在哪一个层面(大脑各功能区相互作用的层面?细胞之间交换化学物质和电信号的层面?还是分子和原子运动的层面?)真实模拟人脑的运作,才能制造出可以匹敌人类智慧的智能机器。

第三种思想,AI就是与人类行为相似的计算机程序。与第二种思想,既强调对人脑的研究与模仿不同。第三种思想的支持者认为人工智能的实现不必遵循什么规则或理论框架。无论低级程序,还是高级程序,能够解决问题的的就是程序才是好程序。也就是说,无论计算机以何种方式实现某一功能,只要该功能表现得与人在类似环境下的行为相似,就可以说,这个计算机程序拥有了在该领域内的人工智能。这一定义从近似于人类行为的最终结果出发,忽视达到这一结果的手段。另一种对人工智能的近似定义则更强调人工智能的实用特点:AI就是可以解决问题并获得最大收益的计算机程序。

第四种思想,AI就是会学习的计算机程序。无学习,不AI”,这几乎成了人工智能研究在今天的核心指导思想。许多研究者更愿意将自己称为机器学习专家,而非泛泛的人工智能专家。

第五种思想,AI就是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序。针对人工智能,不同的定义将人们导向不同的研究或认知方向,不同的理解分别适用于不同的人群和语境。如果非要调和所有看上去合理的定义,我们得到的也许就只是一个全面但过于笼统、模糊的概念。

以上五种思想,就是我在人工智能领域长期学习和探索而得到的收获,在文章的最后,我想引用一句话,这也是我对人工智能长期以来的看法。扬·勒丘恩说,“对人工智能,我最不喜欢的描述是‘它像大脑一样工作’,我不喜欢人们这样说的原因是,虽然深度学习从生命的生物机理中获得灵感,但它与大脑的实际工作原理差别非常非常巨大。将它与大脑进行类比给它赋予了一些神奇的光环,这种描述是危险的。这将导致天花乱坠的宣传,大家在要求一些不切实际的事情。人工智能之前经历了几次寒冬就是因为人们要求了一些人工智能无法给予的东西。”

人工智能作为一种技术也有具有等级之分的。不同等级的人工智能可以进行的操作也不尽相同。

弱人工智能(Weak AI)

也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴。对于弱人工智能技术,人类现有的科研和工程管理、安全监管方面的经验,大多是适用的。一台可以自动控制汽车行驶的计算机和一台可以将重物吊起的起重机,二者都需要严格的质量控制流程与安全监管策略。自动驾驶程序中的错误可能导致车祸,起重机结构设计上的错误也可能导致起重机的倾覆,二者都会造成人员伤亡。

也就是说,弱人工智能在总体上只是一种技术工具,如果说弱人工智能存在风险,那也和人类已大规模使用的其他技术没有本质的不同。只要严格控制,严密监管,人类完全可以像使用其他工具那样,放心地使用今天的所有AI技术。

强人工智能(Strong AI)

强人工智能又称通用人工智能(Artificial general intelligence)或完全人工智能(Full AI),指的是可以胜任人类所有工作的人工智能。 人可以做什么,强人工智能就可以做什么。这种定义过于宽泛,缺乏一个量化的标准来评估什么样的计算机程序才是强人工智能。为此,不同的研究者提出了许多不同的建议。最为流行、被广为接受的标准是图灵测试。但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性。

一般认为,一个可以称得上强人工智能的程序,大概需要具备以下几方面的能力:

存在不确定因素时进行推理,使用策略,解决问题,制定决策的能 力;

知识表示的能力,包括常识性知识的表示能力;

规划能力;

学习能力;

使用自然语言进行交流沟通的能力;

将上述能力整合起来实现既定目标的能力。

基于上面几种能力的描述,我们大概可以想象,一个具备强人工智能的计算机程序会表现出什么样的行为特征。一旦实现了符合这一描述的强人工智能,那我们几乎可以肯定地说,所有人类工作都可以由人工智能来取代。从乐观主义的角度讲,人类到时就可以坐享其成,让机器人为我们服务,每部机器人也许可以一对一地替换每个人类个体的具体工作,人类则获得完全意义上的自由,只负责享乐,不再需要劳动。

强人工智能的定义里,存在一个关键的争议性问题:强人工智能是否有必要具备人类的“意识”(Consciousness)。有些研究者认为,只有具备人类意识的人工智能才可以叫强人工智能。另一些研究者则说,强人工智能只需要具备胜任人类所有工作的能力就可以了,未必需要人类的意识。 有关意识的争议性话题极其复杂。本质上,这首先会牵扯出“人类的意识到底是什么”这样的难解问题,从而让讨论变得无的放矢。以人类今天对感情、自我认知、记忆、态度等概念的理解,类似的讨论会牵涉哲学、伦理学、人类学、社会学、神经科学、计算机科学等方方面面,短期内还看不出有完美解决这一问题的可能。

也就是说,一旦牵涉“意识”,强人工智能的定义和评估标准就会变得异常复杂。而人们对于强人工智能的担忧也主要来源于此。不难设想,一旦强人工智能程序具备人类的意识,那我们就必然需要像对待一个有健全人格的人那样对待一台机器。那时,人与机器的关系就绝非工具使用者与工具本身这么简单。拥有意识的机器会不会甘愿为人类服务?机器会不会因为某种共同诉求而联合起来站在人类的对立面?一旦拥有意识的强人工智能得以实现,这些问题将直接成为人类面临的现实挑战。

超人工智能(Superintelligence)

假设计算机程序通过不断发展,可以比世界上最聪明、最有天赋的人类还聪明,那么,由此产生的人工智能系统就可以被称为超人工智能。 牛津大学哲学家、未来学家尼克·波斯特洛姆(Nick Bostrom)在他的《超级智能》一书中,将超人工智能定义为“在科学创造力、智慧和社交能力等每一方面都比最强的人类大脑聪明很多的智能”。显然,对今天的人来说,这是一种只存在于科幻电影中的想象场景。

与弱人工智能、强人工智能相比,超人工智能的定义最为模糊,因为没人知道,超越人类最高水平的智慧到底会表现为何种能力。如果说对于强人工智能,我们还存在从技术角度进行探讨的可能性的话,那么,对于超人工智能,今天的人类大多就只能从哲学或科幻的角度加以解析了。

首先,我们不知道强于人类的智慧形式将是怎样的一种存在。现在去谈论超人工智能和人类的关系,不仅仅是为时过早,而是根本不存在可以清晰界定的讨论对象。

其次,我们没有方法,也没有经验去预测超人工智能到底是一种不现实的幻想,还是一种在未来(不管这个未来是一百年还是一千年、一万年)必然会降临的结局。事实上,我们根本无法准确推断,到底计算机程序有没有能力达到这一目标。

显然,如果公众对人工智能会不会挑战人类、威胁人类有担忧的话,那么公众心目中所担心的那个人工智能,基本上属于这里所说的“强人工智能”和“超人工智能”。

人类现在所处的时代是窄领域弱人工智能时代。人工智能的作用范围还是在某一小领域的莫一个范围。值得一提的是现已经有人工智能可以帮助人类写作了。

2011年,一个名叫罗比·艾伦(Robbie Allen)的思科公司工程师将自己创办的一家小公司改名为Automated Insights,这个新名字大有深意——罗比·艾伦立志研发人工智能自动写作程序,而公司新名字的首字母缩写恰好就是人工智能的英文缩写——AI。

借助一套名为“作家”(Wordsmith)的人工智能技术平台,Automated Insights公司首先与美联社等新闻机构合作,用机器自动撰写新闻稿件。2013年,机器自动撰写的新闻稿件数量已达3亿篇,超过了所有主要新闻机构的稿件产出数量;2014年,Automated Insights的人工智能程序已撰写出超过10亿篇的新闻稿。

世界三大通讯社之一的美联社于2014年宣布,将使用Automated Insights公司的技术为所有美国和加拿大上市公司撰写营收业绩报告。目前,每季度美联社使用人工智能程序自动撰写的营收报告数量接近3700篇,这个数量是同时段美联社记者和编辑手工撰写的相关报告数量的12倍。2016年,美联社将自动新闻撰写扩展到体育领域,从美国职业棒球联盟的赛事报道入手,大幅减轻人类记者和编辑的劳动强度。

想看看机器自动撰写的新闻报道是否表达清晰,语句通畅?下面是从美联社职业棒球联盟新闻稿中节选出来的几段:

宾夕法尼亚州立学院(美联社):第十一局,一二三垒有人,一人出局的情况下,迪伦·蒂斯被触身球击中,保送上垒。这是本周三州立学院鹿角队9︰8战胜布鲁克林旋风队的比赛中的一幕。

丹尼·哈茨纳通过牺牲打获得制胜一分。击球后,他成功跑上二垒但在跑向三垒时出局。

基恩·科恩在第一局中打出双杀,使旋风队以1︰0领先。但在第一局的随后时间内,鹿角队连得5分,其中,迪伦·蒂斯的触身球就直接送两人跑回本垒。

自动撰写新闻稿件的好处不言而喻,这不但可以节省记者和编辑的大量劳动,而且可以在应对突发事件时充分体现出计算机的“闪电速度”。

2014年3月17日清晨,仍在梦乡的洛杉矶市居民被轻微的地面晃动惊醒。这是一次震级不大的地震,但因为震源较浅,市民的感受比较明显。地震发生后不到三分钟,《洛杉矶时报》就在网上发布了一则有关这次地震的详细报道,报道不但提及了地震台网观测到的详细数据,还回顾了旧金山区域最近十天的地震观测情况。

人们在新闻报道的网页上看到了《洛杉矶时报》记者的姓名,但该新闻之所以能够在如此快的时间里发出,完全要归功于可以不眠不休工作的人工智能新闻撰写程序。地震发生的瞬间,计算机就从地震台网的数据接口中获得了有关地震的所有数据,然后飞速生成英文报道全文。刚刚从睡梦中惊醒的记者一睁眼就看到了屏幕上的报道文稿,他快速审阅后用鼠标点击了“发布”按钮。一篇自动生成并由人工复核的新闻稿就这样在第一时间快速面世。

现在的科技应用领域处于弱人工智能时代,也就是窄应用人工智能。这种人工智能程序在特定的小领域里已经越来越向着深层发展。

2.什么是窄宽人工智能,强弱人工智能?

具备创造创新与社交技能的人工智能,但我觉得这太科幻了,不再讨论范围内... 也就是说,他是根据这三个函数来找出最佳动作,而不是真的理解了甚么是围... 并没有多出什么思考机制。 我也看到一些报导乱说AlphaGo是个通用性的网络,

如何分辨ai是否进化

分为三类:狭窄人工智能(Artificial Narrow Intelligence)、普遍人工智能(Artificial General Intelligence)和超级人工智能(Artificial SuperIntelligence)。

针对人工智能的分类已有不少,我个人认同将人工智能分为以下三类:狭窄人工智能、普遍人工智能和超级人工智能,这三种类型从时间顺序上也对应了人工智能发展的三个阶段。

● 第一阶段:狭窄人工智能

狭窄人工智能以目标为导向,完成的是人类指定的一个明确的任务,并随着算法、算力和数据的演进,做得越来越好。

目前绝大部分市场上已有的人工智能产品,都是狭窄人工智能。

我们前面谈到的陪伴机器人、人工智能背心、谷歌的AlphaGo,以及智能无人机、自动驾驶汽车、语音助理、音乐创作机器人等,均属于狭窄人工智能。它们的主要目标是辅助人类延伸各类能力。

打开网易新闻 查看精彩图片

迄今为止,全球落地最多的狭窄人工智能项目,均与人机交互有关。随着人工智能技术的发展,人类与机器的关系也在重构。机器不再只是人类做事的助手,开始升级为可以与人类交流的伙伴。这不仅会改变人类生活、学习和思维的方式,也会不断提高机器的智能程度。

我记得在国际数据公司(International Data Corporation)的一个大会上,曾播放过一个孩子和机器人玩耍的场景,它提醒我们,人类的下一代和机器的关系已经开始变得不同。

● 第二阶段:普遍人工智能

当人工智能到达普遍人工智能阶段时,智能机器人表面上几乎与人类全无二致,且有着与人类一样的思维,可以进行包括抽象思维、快速学习、制订计划和解决问题等脑力活动。

或许很多人看过2014年上映的一部电影,叫《机械姬》(Ex Machina),这部电影代表了人类对机器人的另一种理解。剧中,天才纳森研制出智能机器人“伊娃”,为确认她是否具有独立思考能力,他邀请程序员加利为伊娃进行“图灵测试”。在一系列的测试和交流中,加利被有着姣好容颜的机器人所吸引,感觉自己面对的不是冷冰冰的机器,而是一名被无辜囚禁起来的可怜少女。最终,机器人伊娃利用加利的好感,成功逃出囚禁她的别墅。

另一部相同类型的电影是2001年上映的《人工智能》(Artificial Intelligence)。主人公“大卫”是一名有着人类能力的机器人,被一名人类母亲领养,并对人类母亲产生了依恋,最终却因为某些原因被人类家庭抛弃。在躲过机器屠宰场的追杀后,大卫开始寻找自己存在的价值,渴望变成真正的小孩,重回人类母亲的身边。

电影中的机器人伊娃和大卫,都属于普遍人工智能。这些机器人有自己独立的思考能力,当然目前“他们”还只能存在于电影中。

打开网易新闻 查看精彩图片

现在,全球有DeepMind、OpenAI等组织在探索普遍人工智能。麻省理工学院物理系终身教授迈克斯·泰格马克(Max Tegmark)在其著作《生命3.0》中提出,对于普遍人工智能,只要给予足够的时间和资源,它们就可以具备完成任何目标的能力,且完成得和其他任何智能体不相上下;如果普遍人工智能认为自己需要更好的社交技能、预测技能或设计人工智能的技能,它们就会努力去获得这些技能。

普遍人工智能的目标是使

AI人工智能目前能实际解决企业什么问题?

什么是AI?

从SIRI到自动驾驶汽车,人工智能(AI)正在迅速发展。虽然科幻小说经常将AI描绘成具有类似人类特征的机器人,但AI可以涵盖从谷歌的搜索算法到IBM的沃森到自动武器的任何东西。

今天的人工智能被恰当地称为窄AI(或弱AI),因为它被设计用于执行狭窄的任务(例如,仅面部识别或仅互联网搜索或仅驾驶汽车)。然而,许多研究人员的长期目标是创建 通用AI(AGI或强AI)。虽然狭窄的人工智能在任何特定任务中都可能胜过人类,比如下棋或解决方程式,但AGI在几乎所有认知任务中都会胜过人类。

为何研究AI安全性?

在短期内,保持AI对社会影响的目标有助于研究许多领域的研究,从经济学和法律到技术主题,如验证,有效性,安全性和控制。如果你的笔记本电脑崩溃或遭到黑客攻击,它可能只是一个小麻烦,如果它控制你的汽车,你的飞机,你的心脏起搏器,你的自动交易,人工智能系统做你想要它做的事情变得更加重要系统或您的电网。另一个短期挑战是防止在致命的自主武器中进行毁灭性的军备竞赛。

从长远来看,一个重要的问题是如果追求强大的AI成功并且AI系统在所有认知任务中变得比人类更好,会发生什么。正如IJ Good在1965年指出的那样,设计更智能的AI系统本身就是一项认知任务。这样的系统可能会经历递归的自我改善,引发智能爆炸,使人类的智力远远落后。通过发明革命性的新技术,这种超级智能可以帮助我们 消除战争,疾病和贫困,因此创建强大的人工智能可能是人类历史上最大的事件。然而,一些专家表示担心,它可能也是最后一个,除非我们在成为超级智能之前学会将人工智能的目标与我们的目标保持一致。

有人质疑是否会实现强大的人工智能,而其他人则坚持认为创造超智能人工智能是有益的。在FLI,我们认识到这两种可能性,但也认识到人工智能系统有意或无意地造成巨大伤害的可能性。我们相信今天的研究将有助于我们更好地准备和预防未来可能产生的负面影响,从而在避免陷阱的同时享受人工智能带来的好处。

人工智能如何危险?

大多数研究人员认为,超级智能人工智能不太可能表现出像爱情或仇恨这样的人类情感,并且没有理由期望人工智能成为故意的仁慈或恶意。 相反,在考虑人工智能如何成为风险时,专家认为最有可能出现两种情况:

人工智能被编程为做一些毁灭性的事情: 自主武器是人工智能系统,可编程杀死。在错误的人手中,这些武器很容易造成大规模伤亡。此外,人工智能军备竞赛可能无意中导致人工智能战争,也导致大规模伤亡。为了避免被敌人挫败,这些武器的设计极难“简单地”关闭,因此人类可能会失去对这种情况的控制。即使人工智能狭窄,这种风险也会出现,但随着人工智能和自主性水平的提高而增加。AI被编程为做一些有益的事情,但它开发了一种实现其目标的破坏性方法: 只要我们未能完全将AI的目标与我们的目标完全一致,就会发生这种情况,这非常困难。如果你要求一辆听话的智能汽车尽可能快地带你去机场,它可能会让你在那里被直升机追赶并被呕吐物覆盖,不是你想要的,而是字面意思你所要求的。如果一个超级智能系统的任务是一个雄心勃勃的地球工程项目,它可能会对我们的生态系统造成严重破坏,并将人类企图阻止它作为一种威胁来实现。

正如这些例子所示,对高级AI的关注不是恶意,而是能力。 超级聪明的AI将非常善于实现其目标,如果这些目标与我们的目标不一致,我们就会遇到问题。你可能不是一个邪恶的蚂蚁憎恨蚂蚁出于恶意,但如果你负责一个水电绿色能源项目,并且该地区有一个蚁丘被淹,对蚂蚁来说太糟糕了。人工智能安全研究的一个关键目标是永远不要将人类置于这些蚂蚁的位置。

为什么最近对AI安全感兴趣

史蒂芬霍金,伊隆马斯克,史蒂夫沃兹尼亚克,比尔盖茨以及许多其他科技界知名人士最近都在媒体和关于人工智能所带来的风险的公开信中表达了关注,并由许多领先的人工智能研究人员加入。为什么主题突然成为头条新闻?

追求强大的人工智能最终会成功的想法长期被认为是科学小说,几个世纪或更远。然而,由于最近的突破,许多人工智能的里程碑,专家们在五年前就已经看到了几十年之后,现在已经达成,使许多专家认真考虑了我们一生中超级智能的可能性。 虽然一些专家仍然认为人类人工智能已经过了几个世纪,但2015年波多黎各会议上的大多数人工智能研究都猜测它会在2060年之前发生。由于完成所需的安全研究可能需要数十年的时间,因此现在开始审慎。

因为AI有可能变得比任何人都更聪明,我们没有可靠的方法来预测它的表现。我们不能将过去的技术发展作为基础,因为我们从来没有创造出任何有能力,无意或无意地超越我们的能力。我们可能面临的最好例子可能是我们自己的进化。人们现在控制着这个星球,不是因为我们是最强大,最快或最大的星球,而是因为我们是最聪明的。如果我们不再是最聪明的,我们是否有信心保持控制?

FLI的立场是,只要我们赢得不断增长的技术力量和我们管理它的智慧之间的竞争,我们的文明就会蓬勃发展。在人工智能技术的情况下,FLI的立场是,赢得该种族的最佳方式不是阻碍前者,而是通过支持人工智能安全研究来加速后者。

关于高级AI的最高神话

关于人工智能的未来以及它对人类应该/应该意味着什么,正在进行一场引人入胜的对话。世界领先的专家不同意这些引人入胜的争议,例如:AI未来对就业市场的影响; if /何时开发人类AI?这是否会导致情报爆炸; 以及这是否是我们应该欢迎或担心的事情。但是,也有许多由人们误解和相互交谈引起的无聊伪争议的例子。为了帮助我们专注于有趣的争议和悬而未决的问题 - 而不是误解 - 让我们清楚一些最常见的神话。

时间线神话

第一个神话是关于时间表:在机器大大取代人类智能之前需要多长时间?一个常见的误解是我们非常确定地知道答案。

一个流行的神话是,我们知道本世纪我们将获得超人类AI。事实上,历史充满了技术上的过度膨胀。那些聚变发电厂和飞行汽车在哪里我们承诺我们现在已经拥有?人工智能在过去也曾多次被大肆宣传,甚至还有一些该领域的创始人。例如,约翰麦卡锡(创造“人工智能”一词),马文明斯基,纳撒尼尔罗切斯特和克劳德香农写了这个过于乐观的预测,关于在两个月内用石器时代计算机可以完成什么: “我们建议2个月,1956年夏天在达特茅斯学院进行了10人的人工智能研究[...] 将尝试找到如何使机器使用语言,形成抽象和概念,解决现在为人类保留的各种问题,并改进自己。我们认为,如果一个精心挑选的科学家团队在一起度过一个夏天,就可以在一个或多个这些问题上取得重大进展。“

另一方面,一个流行的反神话是我们知道本世纪我们不会得到超人的AI。研究人员已经对我们与超人AI的距离进行了广泛的估计,但鉴于这种技术怀疑预测的惨淡记录,我们当然不能非常自信地说本世纪的概率为零。例如,欧内斯特卢瑟福,可以说是他那个时代最伟大的核物理学家,在1933年 - 在西拉德发明核链反应之前不到24小时 - 说核能是“月光”。天文学家皇家理查德伍利称行星际旅行“完全是这个神话中最极端的形式是超人AI永远不会到来,因为它在身体上是不可能的。然而,

有许多调查要求人工智能研究人员从现在起多少年后他们认为我们将拥有至少50%概率的人类AI。所有这些调查都有相同的结论:世界领先的专家不同意,所以我们根本不知道。例如,在2015年波多黎各人工智能会议的人工智能研究人员调查中,平均(中位数)答案是在2045年,但一些研究人员猜测数百年或更长时间。

还有一个相关的神话,担心人工智能的人认为只有几年之后。事实上,大多数记录在案的超人类人工智能的人都认为它至少还需要几十年的时间。但他们认为,只要我们不能100%确定本世纪不会发生这种情况,现在就开始进行安全研究以准备应对可能性是明智之举。与人类AI相关的许多安全问题非常困难,可能需要数十年才能解决。所以现在开始研究它们是谨慎的,而不是在一些喝红牛的程序员决定开启之前的那个晚上。

争议神话

另一个常见的误解是,唯一关心人工智能和提倡人工智能安全研究的人是对人工智能知之甚少的人。当标准人工智能教科书的作者斯图尔特罗素在他的波多黎各谈话中提到这一点时,观众大声笑了起来。一个相关的误解是,支持人工智能安全研究存在巨大争议。事实上,为了支持对人工智能安全研究的适度投资,人们不需要确信风险很高,只是不可忽视 - 正如家庭保险的适度投资可以通过不可忽视的房屋概率来证明烧毁。

可能是媒体使人工智能安全辩论似乎比实际上更具争议性。毕竟,恐惧销售,使用不合情理的引用来宣告即将到来的厄运的文章可以产生比细微差别和平衡的更多的点击。结果,两个只从媒体报价中了解彼此立场的人可能会认为他们不同意他们的不同意见。例如,一位只阅读比尔盖茨在英国小报中的立场的技术怀疑论者可能错误地认为盖茨认为超级智能即将来临。同样地,除了他关于火星人口过剩的引言之外,有益于人工智能运动的人对安德鲁·吴的立场一无所知可能会错误地认为他并不关心人工智能的安全性,而事实上,他确实如此。问题的关键在于,因为Ng的时间表估计更长,

关于超人AI风险的误区

许多人工智能研究人员在看到这个标题时翻了个白眼:“ 斯蒂芬霍金警告说,机器人的崛起对人类来说可能是灾难性的。”而且许多人已经忘记了他们看过多少类似的文章。通常情况下,这些文章伴随着一个携带武器的邪恶机器人,他们建议我们应该担心机器人上升并杀死我们,因为他们已经变得有意识和/或邪恶。更轻松的是,这些文章实际上相当令人印象深刻,因为它们简洁地总结了AI研究人员不 担心的情景。这种情况结合了多达三种不同的误解:对意识,邪恶和 机器人的关注。

如果你在路上开车,你会有一种主观的色彩,声音等体验。但是自动驾驶汽车是否有主观体验?是否有任何想成为自动驾驶汽车的感觉?虽然这种意识之谜本身就很有趣,但它与AI风险无关。如果你受到无人驾驶汽车的打击,那么它是否主观上是否有意识对你没有任何影响。同样地,影响我们人类的是超智能AI 所做的事情 ,而不是主观感受。

机器变坏的恐惧是另一个红鲱鱼。真正的担忧不是恶意,而是能力。根据定义,超级智能AI非常擅长实现其目标,无论它们是什么,因此我们需要确保其目标与我们的目标一致。人类通常不讨厌蚂蚁,但我们比他们更聪明 - 所以如果我们想要建造一座水电大坝并且那里有一个蚁丘,对蚂蚁来说太糟糕了。有益的人工智能运动希望避免将人类置于那些蚂蚁的位置。

意识误解与机器无法实现目标的神话有关。机器显然可以在狭义上展现出目标导向的行为目标:寻求热量导弹的行为在经济上被解释为达到目标的目标。如果您感觉受到与您的目标不对齐的机器的威胁,那么正是这种狭隘意义上的目标让您感到麻烦,而不是机器是否有意识并且体验到目的感。如果那个寻热导弹追你,你可能不会惊呼:“我并不担心,因为机器没有目标!”

我同情罗德尼布鲁克斯和其他机器人先驱者,他们被恐吓小报感到不公平,因为有些记者似乎过分注重机器人,并用红色闪亮的眼睛用邪恶的金属怪物装饰他们的许多文章。事实上,有益的人工智能运动的主要关注点不在于机器人,而在于智能本身:特别是智力,其目标与我们的目标不一致。为了给我们带来麻烦,这种错位的超人情报不需要机器人的身体,只需要一个互联网连接 - 这可能使智能金融市场超越,发明人类研究人员,操纵人类领导者,开发我们甚至无法理解的武器。即使建造机器人在物理上是不可能的,

机器人误解与机器无法控制人类的神话有关。智能使控制:人类控制老虎不是因为我们更强壮,而是因为我们更聪明。这意味着如果我们在地球上放弃我们最聪明的地位,我们也有可能放弃控制权。

什么是人工智能?发展过程中经历了哪些阶段

1、人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

2、一开始是图灵提出的概念:机器人是否会思考

然后就被搁在一边了,直到神经网络结构的提出,又火了一段时间,然后因为隐层训练规则不明所以又被搁一边了;

在接下来有人解决了隐层训练问题,又一下子活跃起来了,大概活跃到了上世纪70年代,划时代的SVM提出来了,至此机器学习从以仿生为主正式转为以统计学为主;

接下来是1995年AdaBoost算法提出,实现了多分类器的级联,又把分类效果提升了一个等级;

最后就是06年深度学习概念提出,现在看来效果很不错,接近甚至超过人分类效果了;

总的来说就是一开始人们想用计算机做一个大脑出来,经过几十年摸索发现不现实,最后发现可以用统计学大数据来解决。

结语:以上就是首席CTO笔记为大家介绍的关于窄人工智能是什么的全部内容了,希望对大家有所帮助,如果你还想了解更多这方面的信息,记得收藏关注本站。


本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若转载,请注明出处:/AI/20081.html