霍金对人工智能的观点,霍金对人工智能的观点是

这篇文章给大家聊聊关于霍金对人工智能的观点,以及霍金对人工智能的观点是对应的知识点,希望对各位有所帮助,不要忘了收藏本站哦。

本文目录

  1. 霍金认为人类无法与人工智能竞争,最终被超越。你是否认可这个观点?
  2. 霍金对人工智能领域做出过哪些贡献?
  3. 霍金对于人工智能的预言是否会实现?
  4. 霍金说人工智能可能会终结人类文明,你认为有这种可能吗?为什么?

霍金认为人类无法与人工智能竞争,最终被超越。你是否认可这个观点?

个人认为很多人工智能所相关的问题一直有一个最大的误区:大部分人工智能始终在使用某种算法,在一定环境下,得出某种设计中想要得出的结果。也就是说,一直在试图解决:f(x)=y,求f的问题。但是实际上,人类是这样思考的吗?从来不是。人类的思考是不需要逻辑的!

一个小学生会告诉你,1+1等于3,因为爸爸加妈妈在一起爱爱以后会多出一个小孩。再看看知乎众多的问答吵架中,毫无逻辑的东西占到了多大的比例?这当中有任何逻辑可言吗?

一旦涉及到看到不足和更好方向的改变,人类的理性和超越能力是人工智能永远无法获得的。像语言,就涉及到灵活性,符号主义就不灵光了。像科学的发展,还是依赖于科学家的有智慧的心灵,计算机科学家还是个遥远的科幻。

霍金对人工智能领域做出过哪些贡献?

霍金对人工智能的发展没有任何贡献。霍金的研究领域是理论物理学,与计算机科学、互联网技术、通信技术等没有直接联系。

但是,霍金除了是一位物理学家,还是一位科普作家,它关心宇宙的过去和未来,进而也关心人类的未来。他和爱因斯坦一样,饱含人文关怀。

爱因斯坦曾经担心核武器会毁灭这个世界;霍金也屡次警告世人,人工智能的发展可能让人类面临灾难。

但是,正如爱因斯坦的担忧没有阻止核能和核武器的发展一样,霍金对人工智能的担忧,也没有影响人工智能的快速发展。

但是,无论爱因斯坦还是霍金,他们作为世界科学界的领袖人物,客观上促进了人们对核能和人工智能的反思和警醒。爱因斯坦的警告,促使人们思考如何控制核武器扩散、安全利用核能;霍金等人的警告,则让世人在享受人工智能带来的好处时,也开始思考如何规制人工智能的发展,防止其负面效应。

不过,霍金担心的是人工智能发展失控,甚至进化为能够自我升级、自我运行、自我决策的“新物种”。当然,作为一位理论物理学家,霍金的思维动辄以亿光年计,其思考人类未来时,也会以百年或百万年计,其担忧的“未来人工智能”,与当今的人工智能相比,也许比今天的人类和百万年前的人类差距还要大。

因此,霍金的担忧其实是相当遥远的担忧。他关于人工智能的预言,也许在未来会得到更大程度的重视。

霍金对于人工智能的预言是否会实现?

我认为不会实现,首先,人工智能是人类创造出来的,我们现在已经有了人工智能摧毁人类的担忧,自然会在创造是考虑到这个威胁,并且想出办法来避免,如果没有办法避免,科学家当然不会轻易的制造出来。其次,人工智能很聪明,但只是知识上的,它们拥有海量的知识,却没有思维,说到思维,这个就是生物特有的,我不认为机器能够产生思维,毕竟细胞真的太完美了,电子元件无法代替

霍金说人工智能可能会终结人类文明,你认为有这种可能吗?为什么?

人类社会发展史:一,原始文明。二,农耕文明。三,科技文明。现农耕文明象午后2~3点太阳,科技文明象早晨6~7点太阳。原始文明社会基本架构族群、部落。农耕文明社会基本架构家庭、国家。科技文明基本架构是信息平台与连接方式。原始文明与农耕文明相似度相对高,族群极大削弱,部落的消失,原始文明的结束。家庭,国家等结构出现就是进入农耕文明。家庭,国家消失进入科技文明,无需惊讶,随科技进步,未来人是不知道父母,批量化生产,即使知道,父母在其成长过程中无需付出等而建立情感纽带,等等。科技文明是以信息平台,信息为架构,信息连接方式为纽带,也可能是人,和现称“机器人”的高级品种。原始文明、农耕文明人体的能量及营养取之地球大地自然合成,科技文明时期取之科技合成,科技文明独统期的来到还需500年左右。现行哲学,文化,思想,制度等是农耕文明的结晶。为什么是农耕文明非农工文明,由其基本特征:人体的能量及营养取之大地的自然合成,由农耕决定。工是科技的初象。

将来机器人可造机器人,进步就要淘汰,社会进步速度加快,淘汰同速加快。人类社会的近期主要淘汰人的体力方面,也在少量淘汰智力(电脑的计算能力淘汰人的计算能力,电脑的贮存记忆能力是人的记忆能力无可比拟的。),再往前发展就是淘汰智力,进而淘汰生命…

关于本次霍金对人工智能的观点和霍金对人工智能的观点是的问题分享到这里就结束了,如果解决了您的问题,我们非常高兴。

霍金对人工智能的观点,霍金对人工智能的观点是文档下载: PDF DOC TXT