浅谈人工智能分类 人工智能的类别

很多朋友对于浅谈人工智能分类和人工智能的类别不太懂,今天就由小编来为大家分享,希望可以帮助到大家,下面一起来看看吧!

本文目录

  1. 人工智能七大危害
  2. 人工智能的三个性质
  3. 人工智能的四大关键原则
  4. 北邮人工智能学院由哪些专业组成

人工智能七大危害

一、安全隐患:人工智能系统有可能被恶意软件病毒攻击,使系统失控,引发灾难。

二、没有社会责任感:人工智能系统没有道德意识和社会责任感,有可能处理相关决策时缺乏人性,产生不合理的结果。

三、缺乏主观思考和创新能力:全自动的人工智能系统没有主观思考和创新能力,也就无法发现潜在的威胁,从而容易面临新的潜在风险。

四、价值导向偏差:人工智能系统通常缺乏价值导向,不能很好区分人们所定义的价值,从而导致偏差出现。

五、技术依赖性:人工智能系统的运行依赖于计算机硬件,如果出现计算机硬件故障,则可能影响系统运行,降低其可靠性。

六、就业冲击:人工智能的大量发展对传统的劳动力市场造成冲击,大量的低技能岗位可能被取代,导致大量人失去就业机会。

七、侵犯隐私:随着大数据和云计算的大规模使用,人工智能可以大量收集用户信息,从而侵犯用户隐私。

人工智能的三个性质

第一,可塑性非常强。人工智能是由人类使用高科技模仿人类大脑制作而成,因此具有很强的模仿和学习能力。

第二,主要通过互联网来进行服务。人工智能毕竟不是人,是高科技的合成品,它的知识储备大多源自于互联网。

第三,永远无法超越人类的大脑。人工智能是人类制造,所以永远无法超越人类。

人工智能的四大关键原则

这四项原则是:合理利用;可解释;保护隐私;安全且可靠。

1.解释原则(Explanation)

解释原则要求AI系统为所有输出提供相应证据和理由,但不要求证据是正确的、信息丰富的或可理解的,只要表明AI系统能够提供解释即可。解释原则不强加任何的质量评价指标。

2.有意义原则(Meaningful)

有意义原则要求AI系统提供单个用户可理解的解释。也就说,只要一个用户可以理解AI系统所提供的解释即符合该原则,不要求解释为所有用户所理解。有意义原则允许基于不同用户群体或个人的定制化和动态解释。不同用户群体对AI系统的解释需求不同,如系统开发者与系统使用者需求不同,律师和陪审团需求不同。此外,每个人知识、经验、心理等方面存在差异导致其对AI解释的理解不同。

3.解释准确性原则(ExplanationAccuracy)

解释准确性原则要求相应解释正确反映AI系统产生输出的过程,不要求AI系统做出的判断准确。与有意义原则类似,解释准确性原则也允许用户差异性。有的用户(如专家)需要解释产生输出的算法细节,有的用户可能仅需要关键问题的解释。对算法细节要求的差异性恰恰反映了解释准确性原则与有意义原则的不同,详细解释可以加强准确性但却牺牲了部分用户的理解性。基于不同的用户群体定制化解释准确性测量指标。AI系统可以提供多类型、多层次的解释,因此解释准确性测量指标不是通用或绝对的。

4.知识局限性原则(KnowledgeLimits)

知识局限性原则要求AI系统仅可以在其所设定的条件下运行,以保证系统输出。知识局限性原则要求AI系统能识别出未经设计或批准以及响应错误的情况。知识局限性原则可以防止错误、危险、不公正的决策和输出,从而增加AI系统的可信度。AI系统有两类知识局限性,一是所需判断不属于AI系统本身设定,如鸟分类AI系统无法分类苹果,二是所需判断超越内部置信度阈值,如鸟分类AI系统无法对模糊图像上的鸟类进行归类。

北邮人工智能学院由哪些专业组成

北邮人工智能学院包含信息工程、人工智能、自动化、智能医学工程专业。

北京邮电大学是国内最早从事人工智能人才培养和科学研究的单位之一,是中国人工智能学会(CAAI)的挂靠单位,汇聚相关领域的100多名优秀师资,于2020年1月7日成立了国内规模最大的人工智能学院。

关于浅谈人工智能分类的内容到此结束,希望对大家有所帮助。

浅谈人工智能分类 人工智能的类别文档下载: PDF DOC TXT