人工智能研发瓶颈,人工智能研究瓶颈

各位老铁们,大家好,今天由我来为大家分享人工智能研发瓶颈,以及人工智能研究瓶颈的相关问题知识,希望对大家有所帮助。如果可以帮助到大家,还望关注收藏下本站,您的支持是我们最大的动力,谢谢大家了哈,下面我们开始吧!

本文目录

  1. 现在的人工智能陷入瓶颈了吗?
  2. 目前人工智能的发展遇到了瓶颈,未来人工智能发展出路在哪里?
  3. 人工智能在2050年会到达瓶颈吗?
  4. 人工智能开发的瓶颈是什么?

现在的人工智能陷入瓶颈了吗?

目前,AI发展的瓶颈主要有以下三点:

1.对数据的极度贪婪和依赖;

2.运行机制和模型的不透明;

3.脆弱性,错误不可控。

这三点缺陷导致了想象中的AI与真实落地的AI之间形成了几重落差。

Gap1:(想象的)大数据VS(现实的)小数据、脏数据、假数据、违规数据、孤岛数据

在数据行业摸爬滚打多年、最近转行到AI创业公司的数据分析师“小J”颇有感悟:“这些年,媒体和各行各业言必称大数据,客户看到自己数据库存了多少TB甚至PB了,就以为自己有大数据;问客户某某数据有没有,客户满口说有。等实际入场后才发现,数据根本不可用,有些字段错得离谱,有些字段又太稀疏,等你做完清理后,剩下的数据可能跑个逻辑回归都够呛,根本没法上深度学习。

有些数据需要手工生成,质量也不可靠。有一次做浙江某轮胎厂的故障检测项目,故障样本是工厂每月被客户退回来的问题轮胎,几百上千个在露天的空场上堆成小山,落满了灰,只好雇人爬上去把灰擦一擦看清楚型号批次,再把信息和故障记下来。大热天的,又脏又累,后来就有人学会了偷懒,假造数据。

还有数据孤岛,比如A、B企业的数据维度都比较单一,但可以互补,需要放到一起才有价值,而A和B出于监管考虑又不能交换数据。一些大企业内部也有数据孤岛,实质是部门竞争、不愿配合,非要闹到大老板那儿去。即使老板拍板下来要打通,也有各种手段让你的效果大打折扣,脱敏、二次加工、延时等等。

数据来源有时打打擦边球也是公开的秘密了。在一些信息安全措施不那么严格的行业,找内部人员用硬盘拷数据是最经济有效的。几乎所有公司都在用爬虫,前不久有公司刚被抓,爬简历上的个人隐私牟利,算是行业反面教材了。”

Gap2:AI训练测试数据VS实际运行环境数据

如果把训练好的模型作为软件模块来集成,模块的输出受输入数据分布变化的影响,不能按模块之间的合约(contract)“办事”,造成其他模块无法正常工作。

更难受的是,何时、何种情况下会“违约”,无法预先界定。所以当系统给AI软件模块一个任务时,它能不能完成,能完成到什么程度,没准。

这就好比一个公司告诉你,在我司测试环境下,行人检测模型准确率为99.99999%;但在您的实际驾驶环境中,预计准确率在97%~99%之间,且我司既不确保准确率有多少,也无法判断何时准确率会异常。这车您还敢开吗?

如果把训练算法作为软件模块来集成呢?也有新问题。

训练算法的输出依赖训练数据,而生产环境中的数据受太多因素干扰:隐藏的信息反馈循环、未声明的调用模块,都会让数据相互影响,不可控、不好追查。此外,在给真实客户做AI项目时,不同项目、项目不同阶段,都会带来不同的数据,从而影响算法网络结构设计和模型参数设定。

有多年工程及算法经验、待过互联网大厂也做过toB项目的“老P”说:“做AI项目,客户第一次会给一小撮数据样本让你理解业务数据,等你入场做PoC(ProofofConcept,可行性验证)时会拿到批量的真实历史数据,等项目上生产环境你会碰到更实时的数据,等运行一段时间后又必然会遇到各种新情况,例如客户的用户定位调整了、政策有变导致业务环境变了等等。

这四个不同阶段,你所认知的客户数据的特点和分布都会变,而变化就意味着可能要重调超参数,重设网络结构,甚至重新取舍算法……折腾啊,但没办法,这就是做AI项目的命。”

更要命的是,这是长期的“折腾”;是时间、地点、人物不定的折腾;得去客户现场折腾,而不能远程云折腾;得派很贵的、掌握炼金经验和调参玄学的算法工程师去折腾,而不能让普通软件工程师去折腾。

这就引出了AI落地时的第三个落差,也是最现实的挑战:

Gap3:AItoB项目对高级算法人才长期驻场的强需求VS此类人才的驻场成本和意愿

为什么toB项目通常都要驻场?现阶段,大中型企业才有足够的数据、业务场景和钱做AI,而大公司对数据又有超强保护意识,数据不出门、不落地。要碰数据可以,请到客户现场来,有时还要求用客户提供的电脑干活。

为什么要长期驻场?

典型的AItoB项目有以下几个流程:

1.初步理解客户业务场景和需求;

2.初步调研客户数据情况;

3.可行性判断和初步方案设计;

4.深度理解客户业务,细化或调整AI算法目标和达到目标的路径;

5.深度理解客户数据构成、语义、质量和分布等细节,细化或调整算法方案和模型结构;

6.数据清洗和特征工程;

7.部署测试环境,训练并调参模型(效果不好的话要回到步骤4、5、6进行优化);

8.生产环境部署上线,调试生产bug(如数据泄露);

9.持续监控生产环境输入输出数据变化,并随时回到步骤4、5、6。

这里的4、5、6、7、8、9必须在客户现场完成,1、2可远程完成但也需要与客户交互,只有步骤3完全不涉及客户环境。

先说步骤4、5、6、7、8,短则两三月,长则大半年,跟客户配合程度有关,跟数据质量有关,跟问题复杂度、成熟度有关。更重要的,跟炼金运气有关。

最头疼的是9,前面的步骤即使周期再长,也有结束的一天,但步骤9(生产环境监控优化)却永无宁日,因为业务环境和数据变化是不可避免的,而算法模型不一定能自动适应到最佳状态。

为什么要高级算法人才长期驻场?

正如Rahimi所说,深度学习的理论不完备,算法模型的运行机制不可知,因此,各种调试优化能不能成功,靠的是经验加运气,能力难以快速复制。

这就像学中医一样,初级医师要成长为高级人才,需要做过很多项目,遇过很多情况,成功、失败经验都丰富的老中医手把手带,靠项目和悟性不断积累“望闻问切”的经验。

然而,行业的另一面现实却是,想让高级算法工程师长期驻场,太难了。

首先,驻场意味着人员很难复用,没法一人同时干N个项目,薪资成本是个问题。

其次,搞技术的通常不喜欢驻场,尤其是有经验的高级人才,一般岁数不小、有家有娃,长期出差有困难。

最后,公司里许多高级算法人才可能是在基础研究或底层架构部门,项目工程团队未必请得动。

BAT某云行业销售负责人“阿K”,一度对AI项目满怀憧憬,但后来宁可去卖CDN:“我们今年中了一个千万级的标,其中的AI模块很关键。中标之后项目组都很兴奋,但是要干活时,麻烦了。

客户很看重数据信息安全,对外部驻场人员管得很严,每天上班要指纹打卡,封闭会议室办公,桌面必须保持清洁,否则罚款甚至通报批评。

客户给的IT支持比较少,我们工程师都说,驻场的SDE(SoftwareDevelopeEngineer)其实是SomeoneDoEverything,跟在自家公司时比,驻场干的事太杂了,还没有延续性,不利于他们的技术发展。

现场跟客户沟通遇到些技术分歧时,人家好歹是甲方,我不提醒吧,有些工程师能让客户下不来台;我说他两句吧,人就说驻场要看客户脸色,不想干了。

结果这项目还没做到一半,比较资深的两个AI工程师就回去了,只好换了几个毕业没多久的顶着,项目进展很慢,客户很不爽。别给我搞烂尾了,哎。”

BAT另一朵云的行业售前总监、最近绞尽脑汁往自己行业里集成AI元素的“老W”说:“有一次客户让我们做AI项目PoC,要比较高级的人驻场。我好说歹说,找AI研究部门借了几个人,出差去客户那儿干了一个半月,结果项目没成。以后再找,他们就再也不搭理了。

人家本来就不爱参与客户项目,又发不了paper,这么贵的人工成本花出去,又不一定能成为年终绩效上的业绩。”

驻场需求强烈,且得不到高效满足,是AI公司无法做到真正产品化(从业务运营角度的产品化)的重要原因。困于客户项目的PoC、交付和维护,脱身无门,也就无法大规模扩张。

吴恩达曾说:“如果普通人能在不到一秒的时间内完成某项脑力工作,那么我们很可能可以在现在或不远的将来用AI将其自动化。”

或许更符合事实的情况是这样:如果普通人能在不到一秒的时间内完成某项脑力工作,那么我们很可能可以在现在或不远的将来用AI将其自动化,如果不行,至少可以找到一个符合条件的客户,把我们最贵的算法科学家砸进去,做一个demo出来。

目前人工智能的发展遇到了瓶颈,未来人工智能发展出路在哪里?

这是一个非常好的问题,作为一名科技从业者,我来说说我的看法。

首先,从当前人工智能的技术体系来看,虽然人工智能技术尚处在“弱人工智能”时代,但是随着大型科技公司纷纷开放自身的人工智能平台,人工智能技术与行业领域的结合将为人工智能的发展打开一个巨大的价值空间,在模式的推动下,技术的发展也会获得巨大的资源支撑,包括行业场景资源和人才资源等等,这会全面推动人工智能领域的可持续发展。

人工智能技术的发展历史虽然经历了半个多世纪,但是由于人工智能本身的复杂性和多学科交叉性,人工智能领域的研发进展一直与人们的预期有较大的差距,所以人工智能领域的发展也经历了多次起伏,当前随着互联网、云计算和大数据的发展,人工智能又成为了新的科技热点,人们似乎又燃起了智能体大面积落地应用的希望。

但是,不可否认的是,当前人工智能领域的研发依然困难重重,智能由于对于应用场景有较高的要求,这在很大程度上降低了产业领域应用人工智能产品的热情,毕竟人工智能的应用不仅仅是上一套设备那么简单,还需要管理模式、运营模式和人才结构的全面调整,这对于资源整合能力比较强的大型企业来说,也存在巨大的挑战。

虽然困难重重,但是当前人工智能的发展前景还是非常广阔的,原因有三方面,其一是当前的基础场景已经有了巨大的改观,这个基础场景涉及到5G通信、云计算、大数据和物联网,随着5G通信的落地应用,人工智能技术会获得更多的支撑,所以说5G时代将全面开启智能化时代。从这个角度来看,5G就是人工智能发展的重要出路之一。

其二是产业结构升级和新基建计划的推动,当前整个产业领域都处在产业结构升级的大背景下,人工智能作为产业结构升级的重要方式之一,比如会获得更多产业企业的关注,这会全面促进人工智能技术在行业领域的落地应用。

从当前人工智能行业的发展趋势来看,人工智能与行业领域的结合是未来一个重要的发展方向,也是人工智能技术的一个重要出路。从当前人工智能技术与行业领域的结合情况来看,智慧城市、智慧医疗、智慧出现、智慧教育、智能家居等一系列产业已经形成了一定的规模,未来这些领域的发展潜力还是非常大的,也会在一定程度上撑起人工智能的价值空间。另外,当前的新基建计划也把人工智能放在了一个非常重要的位置上,这是一个重要的风向标,会指引更多的行业资源和社会资源进入人工智能领域。

其三是当前人工智能领域的人才培养规模正在不断扩大,而且在人才层次方面也在不断完善,这为人工智能行业的发展提供了扎实的支撑。早期的人工智能人才培养主要以研究生教育为主,当前一部分资源整合能力比较强的高校,也陆续在本科阶段开设了人工智能专业,这会全面促进人工智能技术的落地应用。

我从事互联网行业多年,目前也在带计算机专业的研究生,主要的研究方向集中在大数据和人工智能领域,我会陆续写一些关于互联网技术方面的文章,感兴趣的朋友可以关注我,相信一定会有所收获。

如果有互联网、大数据、人工智能等方面的问题,或者是考研方面的问题,都可以在评论区留言,或者私信我!

人工智能在2050年会到达瓶颈吗?

人工智能到2050年会到达瓶颈吗?

这个问题就看你怎么去分析。2050年不过离现在也就是30多年,从以往高科技发展趋势来看,随着高科技的不断更新,科技含量越高的电子产品淘汰率越高,似乎每年约有百分之十的淘汰率,十年后,我们现在所用的一些高科技产品可能都会被淘汰,它们将会以新的面目出现在我们面前。也就是说,我们现在所认为的人工智能只不过是一个概念,十年之后的人工智能将以全新的面目出现在人们面前。我们现在所认为的所谓瓶颈,实际上是人类认识的新阶段,到那时,人工智能可能与现在的我们理解完全不一样,而是一个新型的、全新的人类助手。

到那时,人工智能的概念可能已经扩展到人类能够触及的领域,电子大脑会复制人类机体的所有信息密码,并协助人类破解生命的秘密,人类所认识的物质通过电子大脑进一步解密,人类由此发现了生命只不过是物质发展的一个阶段,人类的智慧、以及一切生物生命状态,不过是物质的固有属性通过生命显示出来,在我们认识的这个宇宙中,物质可能是通过不同方式提现生命状态的,地球生命只不过是其中的一个形态,我们人类也不过是物质生命发展趋势中一个阶段,在以后漫长的岁月中,人类自身可能会发生重大变化,人类自身对生命的意义的认识也会发生重大变化。

现在,我们从人类对基因工程认识和研究,以及对信息技术深度认识,不难看到,未来的人工智能可能让我们难以理解和想象。

人工智能开发的瓶颈是什么?

蟹妖~~关注极迭代,和小伙伴们一起慢慢看↗↗↗

其实人工智能技术目前的确突飞猛进,是因为刚刚突破了一个巨大的瓶颈。

早期的人工智能是想要模拟人的生物结构

早期人工智能的研究停留在仿真阶段。一个直观的思路就是,既然人是人工智能想要达到的对象,则让人工智能模拟人的生物结构,和思维结构,就能达到人工智能。

所以之前的人工智能一直在模拟神经元,构造模拟生物神经反应,当然也取得了一些成果。但这就遥遥无期了,很长时间都无法取得大的进展。

现代的人工智能是基于统计学的

直到基于统计学的算法的出现,人们发现,我们不用管鸡是如何生蛋的,我们只要能在鹌鹑蛋里挑出鸡蛋就行。

所以大数据和人工智能变得密不可分。就以人脸识别为例,我们需要1000張、10000張甚至更多的图片,让人工智能去训练去学习,总结规律,验证出有效规律。这样,人工智能看到一个新的脸,就能够分析出这是否是一张脸、是否人类的脸、男人的还是女人的、是不是你、是TFBoy还是翠花。

而相关技术如Python、大数据、强化学习之类的知识也是我们所需要掌握的,这是后话,就不在这展开了。

人工智能受限于存储与计算能力

从上面我们知道,历史数据越多,就越能够分析总结出可重复的有效规律;而计算能力越强,就越能够快速的总结分析出来。

在大数据时期,我们已经通过分布式存储解决了海量存储与查询的瓶颈,计算能力也通过分布式计算得到了解决。而更新技术,提供更大更快的存储、更高速的计算能力,也是迫在眉睫的。

高密度存储:据前几年的统计,每150万个原子才能存储一个比特(bit)的数据,而当时就已有技术可实现在单个原子上存储1比特数据。直观量化来说就是一枚硬币大小的硬盘可以存下iTunes里的2600万首歌曲。当然进入商用还需要时间。

量子计算机:人们相信,量子计算机能够解决人工智能的计算问题。量子计算机提供了无与伦比的计算能力,能够在最短的时间内完成统计和分析计算,对于人们而言,人工智能也就更智能了。

人工智能受限于算法

目前基于人工智能的机器人研究、无人机研究、自动驾驶研究、情感计算、社会计算等等都已经在不断的强化各种算法,而每次的算法的升级,都为人工智能的智能水平进行了一次快速推动。

随着算法的完善和人造计算能力的不断加强,量变引起质变,实现能够有自我意识和自主思考的人工智能只是时间问题而已。

?????请任性点赞,谢谢关注--我是极迭代,我为自己带盐:)

好了,文章到此结束,希望可以帮助到大家。

人工智能研发瓶颈,人工智能研究瓶颈文档下载: PDF DOC TXT