热门文章> 人工智能算法是什么? >

人工智能算法是什么?

36氪企服点评小编
2021-05-06 10:40
2022次阅读

   你知道人工智能算法是什么吗?在信息领域应用以深度学习为代表的人工智能技术,大大提高了信息的利用效率和挖掘价值,深刻影响了各个领域的商业形态,同时也引起了监管机构和用户对使用这一新技术所产生的“算法黑箱”问题的关注和怀疑。怎样合理地解释相关的算法、模型和它们给出的结果,是数据科学家迫切需要解决的问题。接下来小编就给大家介绍一下人工智能算法是什么,一起来学习吧。

人工智能算法是什么?人工智能算法是什么?

一、人工智能算法是什么?

人工智能AI算法主要是机器学习。主动学习是一种通过数据优化模型的方法,模型的精确度达到了可以使用的程度,那么他就可以完成一些预判任务,许多现实问题都可以转化为预判型。人工智能算法,特别是深度学习,需要大量的数据,算法就是模型。

二、人工智能算法可解释吗?

   近年来,人工智能相关的伦理问题、算法歧视、算法正确性、算法安全等一直备受关注,其中之一就是深度学习算法的可解释性问题,这是人工智能领域备受关注的问题。人的理性的发展过程使我们相信,如果一项判断或决策可以被解释,我们就会更容易理解它的优点和缺点,更容易评估它的风险,知道它在何种情况下能被信赖,以及我们能从哪些方面对它加以改进,从而尽可能地增进共识,减少风险,并促进相应领域的持续发展。

   这种思维模式也许是一种稍微过时的思维模式,诞生于人工智能时代之前。也许,随着科技和社会的发展,未来会进化出新的思维范式,但它在目前仍是我们最成熟、最一致、最可信的思维模式。

   在ICML会议上,谷歌科学家对可解释性给出了一个定义。很多模型和应用无法解释的原因主要来自于对问题和任务理解不够。因此,只要在使用模型的过程中能够向我们提供有关数据或模型的可理解的信息,并帮助我们更全面地发现知识,理解并解决问题,这些信息就可以被归为解释性方法。与此同时,本文将可解释性方法按其进行的过程分为三类:可解释性方法先于建模,可解释性模型先于建立,可解释性模型先于建模,可解释性模型先于建模,可解释性模型先于建模后。

   建立模型前:建立模型前的可解释性方法。

   建立模型前的解释性方法主要包括一些数据预处理或者数据显示的方法机器学习,它解决的是从数据中发现知识和规律的问题,如果我们对想要处理的数据特征知之甚少,那么期望对要解决的问题本身有很好的理解是不现实的,而建立模型前的可解解释性方法的关键就在于帮助我们快速、全面地了解数据分布的特征,从而帮助我们考虑建模过程中可能遇到的问题,并选择一个最合理的模型来逼近问题能够达到的最优解。

 “数据可视化”是建模前可解释性研究的一种重要方法。许多对数据挖掘有些许了解的人可能会认为数据可视化是数据挖掘工作的最后一步,或许是通过设计一些漂亮的、令人作呕的图表,或者展示您的分析挖掘结果。但是,在真正开始研究数据问题之前,我们必须建立对数据的直观的理解,建立一系列的多方面的可视化方法,尤其是在数据量很大或数据维度很高的情况下,例如一些时空的高维数据,如果能够建立一些交互的可视化方法,将会大大有助于我们从各个层面理解数据的分布。

   建立一个模型,模型本身具有可解释性。

   构建具有自身可解释性的模型是最关键的可解释性方法的一类,同时也是具有非常严格的要求和限定的一类,具有可解释性的模型大致可分为以下几种模型[6]。
以规则为基础的模型,如我们提到的经典决策树模型。在这种模型中,任何一项决定都可以用逻辑规则来表示。但是,如果规则表示过多或原始特性本身并不能很好地解释,那么基于规则的方法有时就不那么适用了。

   以个体特征为基础的回归方法主要是一些非常经典的回归模型,如线性回归,逻辑回归,广义线性回归,广义加性回归等。除了结构上的简化外,更重要的是,回归模型和它的某些变种有着非常坚实的统计基础,数百年来,无数统计学家探索了各种不同情况下的模型参数估计和修正、假设检验和边界条件等问题,使之具有很好的可解释性。

   以实例为基础的方法主要是通过一些有代表性的样本来解释聚类结果。例如,代表样本和重要的子空间可以在每个聚类簇中选择。

   该方法主要是利用信息的稀疏特性,尽可能简化模型的表示,使模型简单化。例如LDA方法,它基于单词的分层信息,来形成分层的主题表达,这样一些小的主题可以被更广泛的主题所概括,从而使我们更容易理解具体主题所代表的意思。

   在许多机器学习问题中,基于单调性的方法都存在着输入与输出之间的正相关/负相关关系,如果在模型训练中能找到这种单调性关系,那么模型就能具有较高的可解释性。例如,医生对特定疾病发生可能性的评估主要取决于与该病相关的高风险因素,而确定单调的性行为有助于我们识别这些高风险因素。

   建立模型之后:使用可解释性方法对模型进行解释。

   可解释性建模后的主要对象是深度学习模型,深度学习具有黑箱特性,深度学习的黑箱特性主要来自于其高度非线性的特性,每一个神经元都是由上层建筑的线性组合和一个非线性函数组成的,人们不可能通过统计学基础假设来理解神经网络中参数的意义,以及它们的重要性,也不可能通过线性回归的参数范围来理解。但是事实上,我们已经知道了这些参数的具体值,也了解了整个训练过程。

   所以,神经网络模型本身并不是一个黑箱,它的黑箱性质在于我们无法以人能理解的方式理解模型的具体意义和行为,而神经网络的一个很好的特性就是神经元的层次组合形式,这使得我们能够从物质构成的角度来理解神经网络如何工作。本文将其划分为以下几类工作:隐层分析方法,模拟/代理模型,敏感性分析方法。

   隐层次分析法:通过对隐层次的可视化处理,将其转化为人可以理解的、具有实际意义的图像,从而展示了神经网络中每一层所学习的概念。众所周知,一个典型CNN模型的完整卷积过程是一个卷积-激活-池化(pooling)过程,也可以通过反池化-反激活-反卷积这一逆过程来实现,而特征可视化则有助于我们理解CNN每一层到底学到了什么。另外,文献提出了一种网络切割法来提取CNN的语义概念。

   仿真/代理模型:此类方法针对黑箱模型,使用精馏技术生成新的可解释模型,通过对两种模型进行训练,可以近似地得到结果。但是,这种算法也有很大的局限性,比如模型本身无法“蒸馏”,或者是原始模型和经过蒸馏的模型之间差异很大,导致可解释模型的意义消失。

   灵敏度分析法:是一种用来定量描述模型输入变量对输出变量重要性的方法。它允许每一个属性在可能的范围内变化,并研究和预测其变化对模型输出值的影响程度。这一影响程度的大小称为属性的灵敏度系数,灵敏度系数越大,说明属性对模型输出的影响越大。

   神经网络敏感性分析一般可分为变量敏感性分析法和样本敏感性分析法,变量敏感性分析法用于检测输入属性变量对模型的影响程度,样本敏感性分析法用于研究特定样本对模型的重要程度,也是敏感性分析的一个新的发展方向。将敏感性分析与局部特征研究方法(主要是树模型)结合起来,可以有效地解决金融领域中普遍存在的先验知识不足问题。

   有一部分人认为“人工智能就是研究理性的主体,这里的理性主体指任何能做出决策的主体,它可以是一个人,一个公司,也可以是一台机器或者一台软件”。经过对过去和现在的感觉经验和背景信息(即主体在特定环境中的感觉输入)进行分析后,理性的主体可以选择实施能产生最佳效果的行为。另外,还有一些关于人工智能的定义,但是他们主要是从哲学的角度探讨了人的智能和机器智能的分界问题。以上就是小编为大家带来的人工智能算法是什么的介绍,希望对您有帮助。

[免责声明]

文章标题: 人工智能算法是什么?

文章内容为网站编辑整理发布,仅供学习与参考,不代表本网站赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请及时沟通。发送邮件至36dianping@36kr.com,我们会在3个工作日内处理。

消息通知
咨询入驻
商务合作