当前位置: 首页 精选范文 人工智能带来的思考

人工智能带来的思考范文

发布时间:2023-09-25 11:51:34

导语:想要提升您的写作水平,创作出令人难忘的文章?我们精心为您整理的5篇人工智能带来的思考范例,将为您的写作提供有力的支持和灵感!

人工智能带来的思考

篇1

1、人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新技术科学。

2、人工智能是计算机科学的一个分支,它企图了解智能的实质,可以产出一种新的可以和人类智能相似的方式做出反应的智能机器,该领域的研究主要有机器人、语言识别、图像识别、自然语言处理和专家系统等。

3、自从人工智能诞生以来,理论和技术越来越成熟,应用领域在不断的扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以把人的意识、思维的信息过程的模拟。虽然人工智能不是人的智能,但可以像人那样思考、最终可能超过人的智能。

(来源:文章屋网 )

篇2

人工智能,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。

(来源:文章屋网 )

篇3

实际上,人工智能早已渗透到我们的生活。比如,银行的ATM机实际上已经代替了银行工作人员的部分职能。就会计、审计、税务工作而言,目前只是人工智能的第一步应用,即使用财务软件、审计软件、税务软件等类似于机器人的软件来实现高效率工作。

的确,人工智能可以很方便地应用于会计领域。比如,根据中国注册会计师审计准则第1312号的要求,注册会计师需要评估相关科目及交易的重大错报风险,确定有必要实施函证程序,根据风险评估判断并选定函证样本及内容,生成相关的询证函。而通过“智能”系统能避免手工编制询证函可能出现的错误,在更短的时间内全面分析相关的科目和交易,评估风险并挑选函证样本。这样会计师就可以有更多的时间去处理更复杂的工作事项,比如会计估计等,从而大大提升工作的效率及效益。

人工智能使得财务决策更加智能化和理想化,原来受限于分析数据量大、信息获取难度大的问题将彻底改变,人工智能将在多重约束条件下进行各种组合分析,为企业投资决策、风险防范打下基础。

财会人不会“被消失”

在享受人工智能带来的诸多便利的同时,财会人也应清醒地认识到人工智能带来的冲击。《经济学人》杂志2014年曾通过调查罗列了未来20年最有可能被机器人抢走饭碗的岗位,排名靠前的包括低端制造业的生产、销售、会计等。

业内专家分析,总体的趋势是普通核算型工作,如财务、审计、税务等财务基础人员会逐步减少。但财会人不会被人工智能完全取代,更不会“被消失”。以应收账款为例,每家公司都会制定针对应收账款坏账准备的计提政策。会计师执行的相关审计工作看似简单,实际上需要考虑多个方面,比如导致个别长账龄余额的原因、相关欠款机构的客观经济情况、与该欠款相关的业务实际、同行业所通用的会计政策等多项因素,而这些方面都需要会计师根据过往的工作经验,行使专业的职业判断。目前的人工智能技术可以实现按设定的规则执行工序,即根据“指令”去学习审计准则的要求,让机器去获取所需要的财务和业务信息,甚至通过大数据获取同行业的信息进行分析,可是要做到灵活思考,按照实际情况判断应收账款坏账准备计提是否恰当,还是需要依赖专业会计师的经验。

顺应财务职能的转变

篇4

人工智能的发展包括哪些阶段?

人工智能的发展可分为三个阶段:弱人工智能、强人工智能和超人工智能。弱人工智能是擅长于单个方面的人工智能,比如“阿法狗”,只会下围棋。

强人工智能,达到了人类级别的人工智能,也就是在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多,我们现在还做不到。

超人工智能,即超级智能。牛津哲学家,知名人工智能思想家尼克・博斯特罗姆把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。超人工智能也正是为什么人工智能这个话题这么火热的缘故。

为什么说我们正在越来越快地接近超人工智能?

通过观察历史,我们可以发现一个规律,即人类出现以来所有技术发展都是以指数增长。也就是说,一开始技术发展是小的,但是一旦信息和经验积累到一定的基础,发展开始快速增长,以指数的形式,然后是以指数的指数形式增长。

未来学家瑞・库兹韦尔把这种人类的加速发展称作加速回报定律。之所以会存在这种规律,是因为一个更加发达的社会,能够继续发展的能力也更强,发展的速度也更快。

李四光也曾经写道:“人类的发展不是等速度运动,而是类似一种加速度运动,即愈到后来前进的速度愈是成倍地增加。”

人工智能技术的关键难点是什么?

用计算机科学家高德纳的说法,“人工智能已经在几乎所有需要思考的领域超过了人类,但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远。”一些我们觉得困难的事情――微积分、金融市场策略、翻译等,对于电脑来说都太简单了。我们觉得容易的事情――视觉、动态、移动、直觉――对电脑来说则太难了。

摩尔定律真的那么有效吗?

摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持,这同样表明电脑硬件的发展和人类发展一样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps(每秒运算次数)。现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合。瑞・库茨维尔提出的加速回报定理,也就是摩尔定律的扩展定理。

我们什么时候能用上和人脑一样聪明的电脑?

现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平。1985年的时候,同样的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一,2005年是百万分之一,而2015年已经是千分之一了。按照这个速度,我们到2025年就能花1000美元买到可以和人脑运算速度抗衡的电脑了。

我们如何造出超人工智能?

第一步:增加电脑处理速度。这步比较简单。

第二步:让电脑变得智能。这步比较难,有三种可能的途径:一是模拟人脑,二是模拟生物演化过程,让计算机演化出智能,三是建造一个能进行两项任务的电脑――研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了,我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务。

为什么说强人工智能可能比我们预期的更早降临?

因为,一,指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快。二,软件的发展可能看起来很缓慢,但是一次顿悟,就能永远改变进步的速度。就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式,但是日心说的发现让一切变得容易很多。创造一个能自我改进的电脑来说,对我们来说还很远,但是可能一个无意的变动,就能让现在的系统变得强大千倍,从而开启朝人类级别智能的冲刺。

超人工智能为什么会导致智能爆炸?

这里我们要引出一个概念――递归的自我改进。这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平,有自我改进的机制。当它完成一次自我改进后,它比原来更加聪明了,我们假设它到了爱因斯坦水平。而这个时候它继续进行自我改进,然而现在它有了爱因斯坦水平的智能,所以这次改进会比上面一次更加容易,效果也更好。第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改进进步更加明显。如此反复,这个强人工智能的智能水平越长越快,直到它达到了超人工智能的水平――这就是智能爆炸,也是加速回报定律的终极表现。

我们还要多久才能迎来超人工智能?

著名人工智能专家、谷歌公司的技术总监瑞・库兹韦尔相信电脑会在2029年达成强人工智能,而等到2045年,我们不但会造出超人工智能,还会迎来一个完全不同的世界――奇点时代。

什么是奇点时代?

所谓奇点时代,指的是超人工智能的出现将世界带入的一个新的时代。在这个时代中,人类将无法预测技术如何发展,因为超人工智能的行为将超出人类的理解能力。

超人工智能可能给人类带来的最大益处是什么?

永生。在理论上,死亡并非是不可克服的,只不过这需要超人工智能在纳米技术和生物技术方面取得我们难以想象的突破。超人工智能可以建造一个“年轻机器”,当一个60岁的人走进去后,再出来时就拥有了年轻30岁的身体。就算是逐渐糊涂的大脑也可能年轻化,只要超人工智能足够聪明,能够发现不影响大脑数据的方法来改造大脑就好了。一个90岁的失忆症患者可以走进“年轻机器”,再出来时就拥有了年轻的大脑。这些听起来很离谱,但是身体只是一堆原子罢了,只要超人工智能可以操纵各种原子结构的话,这就完全不离谱。

篇5

中图分类号:TP18

文献标识码:A

一、人工智能技术的发展及其影响

人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。

随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。

二、人工智能技术发展面临的问题及其原因

随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。

调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。

第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。

第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。

第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。

三、人工智能技术的发展转向

人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。

1.技术层面

(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。

(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。

(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。

2.人类自身层面

(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。

(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。

(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。

3.道德法律用

(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。

(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。

此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。

四、结语

科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。

参考文献:

[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.

[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.

[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.

[4]王志良.人工情感[M].北京:机械工业出版社,2009.

[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).

[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.

[7]田金萍.人工智能发展综述[J].科技广场,2007(1).

[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.

友情链接