机器学习
机器学习(英文名:Machine Learning,简称:ML)是一门多领域的交叉学科,涉及概率论、统计学、微积分、代数、算法复杂度理论等学科门类。机器学习是用来实现人工智慧的主要方法,通过让机器通过学习数据中的内在规律性信息,获得新的经验和知识,以提高改善系统自身的性能,使计算机能够像人那样去决策。
机器学习的本质在于利用合适的特征和正确的方法来构建特定模型,以完成特定任务。根据预期的输出和输入类型,机器学习算法可以分为多个学习风格,例如有监督学习、无监督学习、半监督学习、强化学习、元学习等。而根据构建原理的不同,机器学习模型可以分为几何模型、概率模型和逻辑模型三个基本类别。几何模型是通过数学和几何方法来理解和描述机器学习算法中数据的特征、模式和关系。支持向量机、K均值聚类等算法就属于几何模型。概率模型是一种用于建模和预测数据的方法,它基于概率理论和统计学原理。典型的概率模型包括朴素贝叶斯模型、隐马尔可夫模型等。逻辑模型是机器学习中基于特定推理方法的模型,例如决策树、关联规则挖掘和人工神经网络,它们是最常见的逻辑模型。机器学习致力于通过选择合适的学习方法和构建适当的模型来解决具体问题,以实现预测、分类、聚类等特定任务。
随着互联网的迅速发展,机器学习已经广泛应用于各个行业,包括制造业、医疗保健和生命科学、金融服务、零售及媒体与娱乐等领域。
定义
机器学习是人工智能的核心方法,通过分析数据中的隐藏规律,从中获取新的经验和知识,并以此来不断提升和改善系统的性能。这使得计算机能够像人一样根据所学到的知识来做出决策。汤姆·米切尔(Tom M. Mitchell )在其1997年出版的著作机器学习(Machine Learning)中给出了一个更为形式化的定义:“假设用P来评估一个计算机程序在某个特定任务T上的表现。如果一个程序通过利用经验E来提升在任务T上的性能,那么就可以说这个程序正在对经验E进行学习。”
历史沿革
一些人认为机器学习的起源可以追溯到早期数学领域的研究,比如贝叶斯定理和最小二乘法;同时也有人认为艾伦·麦席森·图灵(Alan Mathison Turing)的《Computing Machinery and Intelligence》论文对机器学习的发展产生了重要影响。
贝叶斯定理,亦称贝叶斯公式或贝叶斯规则,是由英国数学家托马斯·贝叶斯(Thomas Bayes)在18世纪提出的概率统计方法。该定理用于修正先验概率,并基于观察到的现象进行概率分布的推断。在机器学习的分类问题中,贝叶斯定理主要用于预测样本的类别标签选择,利用训练样本集中已知的先验概率和条件概率进行计算,选取最大概率的类别标签作为预测结果。贝叶斯定理在分类任务中表现良好且广泛应用。在实际应用中,先验概率并非总是已知的,因此需要使用各种方法计算先验概率。例如,朴素贝叶斯方法中常常假设所有类别的先验概率相等。另一方面,最小二乘法最初被称为回归分析法,由英国统计学家约翰·道尔顿(John Dalton)在1806年创立。最小二乘法是一种在误差估计、不确定度、系统辨识、预测和预报等数据处理领域广泛应用的数学工具。由于其回归模型的特性,它后来被应用于机器学习的逻辑模型中。因此,有人认为机器学习源于早期对数学问题的研究。
在1950年,艾伦·麦席森·图灵(Alan Mathison Turing)提出了图灵测试来判断计算机是否具有智能。这个测试为人工智能和机器学习的发展提供了重要的理论基础。随后的一年,马文·明斯基(Marvin Minsky)发明了第一台神经网络机SNARC,这标志着神经网络的进一步发展。1957年,康奈尔大学的教授罗森布拉特(Rosenblatt)提出了一种简单的前向人工神经网络——感知器。感知器开创了有监督学习的先河,其最大特点是能够通过迭代试错来解决二元线性分类问题。这一特性弥补了无监督学习在处理大量有标签分类问题时的局限性。同时,感知器的提出也引发了相关的求解算法的研究,包括感知器学习法、梯度下降法和最小二乘法(Delta学习规则)等。
1967年Cover和 Hart提出了KNN算法,该算法是数据挖掘中最常用和最简单的算法之一。KNN代表k-Nearest Neighbor,即k近邻算法。k近邻的意思是每个样本可以用其k个最近邻居来代表。KNN算法通过测量不同样本特征之间的距离,并进行迭代,根据测试数据的特征与训练集中相应特征的比较,找到训练集中与之最为相似的前k个数据。然后,通过统计这k个数据中出现次数最多的分类,将其作为测试数据的类别。KNN算法可以用于回归和分类任务。在分类任务中,KNN算法将测试集分配给最近的k个邻居中出现最频繁的类别。而在回归模型中,KNN算法采用最近k个邻居的平均值作为预测结果。
1969年,马文·明斯基(Marvin Minsky)和西摩·帕特(Seymour Papert)开始研究线性不可分问题,并出版了《Perceptron》一书。尽管XOR问题对感知器研究带来了困难,但他们的研究对解决问题的算法能力和计算复杂性提出了重要观点。此外,Minsky还结合了人工智能和机器人技术,开发了名为RobotC的机器人,从而推动了机器人技术的发展。
1982年,萨拉塔·萨塔西瓦姆(Saratha Sathasivam)首次提出了Hopfield网络,这可看作循环神经网络(Recurrent Neural Network,RNN)的起源。RNN是一种特殊的神经网络结构,用于处理序列数据,其节点(循环单元)以链式连接的方式进行递归。该网络的设计概念基于“人类的认知依赖于过去的经验与记忆”的观点。相较于只考虑当前输入的神经网络,RNN考虑到了前一时刻的输入,并赋予网络一种“记忆”的能力,使得当前输出与之前输出密切相关。RNN具备记忆性、参数共享和图灵完备(Turing Completeness)的特点,在学习序列的非线性特征时有一定优势。该网络在自然语言处理(Natural Language Processing, NLP)领域,如语音识别、语言建模和机器翻译等方面广泛应用,同时也被用于各种时间序列预测任务。将卷积神经网络结构引入循环神经网络可以解决包含序列输入的计算机视觉问题。
1984年,日本学者福岛邦彦(Kunihiko Fukushima)首次提出了神经认知机(neocognitron)的概念,这可以被视为卷积神经网络的首个实际应用,并且也是感受野概念在人工神经网络领域的首次运用。神经认知机将视觉模式分解为多个子模式(特征),并通过多层连接的特征平面进行处理。其目标是模拟视觉系统,以便在物体出现位移或轻微变形的情况下仍能进行准确识别。
1986年,米切尔(Mitchell)、凯勒(Keller)和凯达卡贝利(Kedarcabelli)提出了基于解释的概括化(Explanation-Based Generalization)的统一框架。这一方法将基于解释的学习过程分为两步:首先,通过解决一个具体问题来生成解释结构;其次,对该解释结构进行概括化,以获取普遍的控制规则。该方法通过利用单个问题的解决案例,根据领域知识构建问题求解过程的因果解释结构,并获取控制知识,以便指导未来解决类似问题。基于解释的学习本质上属于演绎学习,它根据给定的领域知识进行准确的演绎推理,存储有用的结论,并经过知识的精炼和编辑,产生适用于以后解决类似问题的控制知识。
在1987年,罗森伯格(Sejnowski)与罗森堡(Rosenberg)合作开发了一款名为NETtalk的基于神经网络的程序。这个程序具备字母识别和语音合成的功能,可以将输入的字母转换为相应的音素并进行朗读。NETtalk由数百个神经元和数千个连接组成,通过加权连接输入和输出神经元的隐藏神经元来实现字母到音素的转换。经过多次试验,这个程序的朗读效果非常理想,并且字母发音的准确率接近92%。
1989年,美国贝尔实验室的学者杨立昆(Yann LeCun)教授提出了广受欢迎的卷积神经网络(CNN)计算模型。他推导出了一种基于反向传播(BP)算法的高效训练方法,并成功地将其应用于英文手写体的识别。CNN被证明是第一个成功训练的人工神经网络,也是后来深度学习领域最成功且应用最广泛的模型之一。
1995年,弗洛伊德(Freund)和夏皮雷(Schapire)共同开发了AdaBoost算法。该算法无需先验知识,并且与Boosting算法具有相同的效果。与此同时,Vapnik和Cortes提出了支持向量机,将机器学习分为神经网络和支持向量机两个主要领域。支持向量机在解决多个任务方面表现出出色的效果,并利用先验知识进行凸优化选择。
1996年,利奥·布雷曼(Leo Breiman)提出了一种名为Bagging的集成学习算法,该算法基于聚合和自助采样的概念。其核心思想是通过重复抽样来构建多个模型。随后,于2001年,Breiman进一步提出了集成决策树模型,该模型能够组合多个决策树。每棵决策树都是由实例的随机子集构建而成,且每个节点都来源于一个随机子集的参数。因此,该模型被称为随机森林(random forests,RF)。研究理论和实证都证明了RF对于过度拟合具有较强的抵抗力。当面临过度拟合和数据中的异常实例时,传统的AdaBoost算法面临一定挑战,而RF则能够更有效地应对这类问题。
LSTM是一种深度学习模型,于1997年被提出。其核心思想在于长时间之前的信息对于当前任务可能具有重要意义,因此需要被保留下来。然而,传统神经网络的记忆是有限的,就像杯子装满了水会溢出一样。为了记住过去的重要信息,LSTM会进一步判断新信息的重要性。对于重要的信息,LSTM会将其存入长期记忆中,持久地保留下来;而对于不重要的信息,则属于短期记忆,很快就会被丢弃。
2006年,计算机硬件技术的突飞猛进引发了学术界和产业界对于更高级的学习模型的迫切需求。此背景下,杰弗里·辛顿(Geoffrey Hinton)和鲁斯兰·萨拉胡迪诺夫(Ruslan Salakhutdinov)提出了一种新的模型,名为深度学习,重新引领了“连接主义学习”的发展潮流。他们的主要观点是,通过多个隐藏层的人工神经网络,可以显著提高特征学习的能力。另外,通过逐层初始化来简化训练过程,从而实现整个网络的优化。这一模型的诞生标志着深度神经网络机器学习的新纪元的到来。Hinton的学生Yann LeCun发展了LeNets深度学习网络,并广泛应用于全球的ATM机和银行系统中。同时,除了LeCun之外,吴恩达等学者还认为卷积神经网络之所以可以高效训练人工神经网络,是因为其内存占用较小,不需要为每个图像位置单独存储滤镜,因此非常适合构建可扩展的深度学习网络,特别适用于模式识别任务。
2012年,杰弗里·辛顿(Geoffrey Hinton)的研究团队在ImageNet比赛中获得冠军,标志着深度学习进入应用阶段。近年来,深度学习在多个领域取得了显著进展,如谷歌翻译、苹果公司的Siri、微软的Cortana以及蚂蚁集团的SmiletoPay扫脸技术。贝叶斯定理和深度学习都是机器学习领域的重要组成部分,它们的发展为人工智能的进步奠定了基础。
类型
监督学习
监督学习(supervised learning)是一种机器学习方法,通过已有的训练样本来训练一个最优模型,该模型能将所有的输入映射为相应的输出。训练样本包括有限个特征值和输出标签。当模型结果为连续值时,属于回归问题;当模型结果是离散值时,则属于分类问题。监督学习的本质是学习已知样本数据中的规律,并利用这些规律来预测新样本的输出结果。监督学习的优点在于设计简单易行,特别适用于预测可能的有限结果集、将数据划分为类别,或者组合其他机器学习算法的结果。在监督学习中,预测结果可以是连续值或离散值,根据这些属性将监督学习问题分为回归(regression)问题和分类(classification)问题。朴素贝叶斯、决策树等都是监督学习的应用算法。
回归问题
回归问题的目标是根据输入的样本特征值预测输出结果。例如,在房价预测问题中,根据给定房屋的面积等特征来预测该房屋的价格。在这个问题中,房屋的面积、地理位置等特征是输入值,而房屋的价格是输出结果。为了完成房价预测,就需要收集大量的房产数据,每条数据都包含房屋的特征值(如面积)以及对应的价格。通过这些训练数据,就可以依照房屋的特征值来预测房屋的价格,这是一个典型的监督学习问题。
分类问题
分类问题的训练目标是对样本进行分类。例如医疗机构收集了乳腺癌相关的医学数据,包括肿瘤大小和肿瘤的良性或恶性类别。这个问题的训练目标是根据肿瘤的大小来预测其分类,其中良性肿瘤被标记为0,恶性肿瘤标记为1。由于预测结果是离散值,因此这是一个分类问题。在其他分类问题中,离散值可能会有多个类别选项,例如在这个例子中可以设定{0,1,2,3}四种输出,分别表示{良性,第一类肿瘤,第二类肿瘤,第三类肿瘤}。
半监督学习
半监督学习方法介于监督学习和无监督学习之间,既利用大量未标记数据进行无监督学习,又使用少量预先标记的数据进行有监督学习。这些方法包括生成方法、基于图的方法和基于启发式的方法。一种简单的方法是使用有限的标记数据建立监督模型,然后将相同方法应用于大量未标记数据,以获得更多标记样本,并在这些样本上训练模型,反复迭代这个过程。另一种方法是使用无监督算法对相似的数据样本进行聚类,手动对这些群组进行注释或标记,然后将这些信息组合在未来使用。这种方法在许多图像标记系统中广泛应用。具体应用算法包括生成模型算法、协同训练(Co-Training)算法等。
生成式模型算法
这种类型的算法是基于聚类假设的,它利用生成式模型作为分类器。该算法通过对样本的标签和输入特征之间的条件概率进行建模,使用期望最大化(EM)算法来进行标签和模型参数的估计。与建模和求解边缘概率或联合概率不同,半监督学习的思路是直接关注于条件概率问题,从而回避了这一复杂性。这类算法可以被视为在少量标签样本周围进行聚类的方法,类似于O.Chapelle等人提出的基于核的半监督学习方法。
协同训练(Co-Training)算法
通过在不同视角下的数据集上进行学习,利用两个或多个学习器之间的交互来提升分类器的准确性。在这个过程中,未标记的样本会逐步被标记,然后选取置信度最高的样本添加到训练集中,并反复进行该步骤,直到所有未标记的样本都被标记完毕,从而使得模型得以更新。
无监督学习
无监督特征学习(unsupervised feature learning),也称为无监督学习,是通过分析无标签训练数据来发现有用的特征或表示。这种技术经常被用于降低数据维度、数据可视化以及在监督学习之前对数据进行预处理等任务。当监督学习任务的标注数据较少时,可以利用大规模的无标注数据学习到有效的数据表示,从而有效地提高监督学习性能。主要的无监督学习方法包括主成分分析和稀疏编码等。Apriori算法和FP-Growth算法等是无监督学习在实际应用中的算法示例。
主成分分析
主成分分析(Principal Component Analysis, PCA)是一种常用的数据降维方法。它通过优化投影后数据的方差,将数据映射到一个新的空间中。当我们将数据投影到一维空间时,选择投影方向使得数据方差最大化,可以最大程度地保留原始数据的差异性,并且保留更多的原始数据信息。
稀疏编码
稀疏编码(sparse coding)是一种模型,受到动物视觉系统中简单细胞感受野的启发而建立。在哺乳动物的初级视觉皮层中,每个神经元仅对特定刺激信号做出响应,例如特定方向的边缘、条纹等特征,这可以被描述为具有空间局部性、方向性和带通性的局部感受野(即对不同尺度下空间结构的敏感性)。因此,稀疏编码通过仅激活一小部分神经元,对外界信息进行编码,使得视觉神经系统在表示外界刺激时具有高度的稀疏性。这种编码方式符合生物学的低能耗特性。
密度估计
密度估计是基于一组训练样本来估计样本空间的概率密度函数。根据实现方式的不同,可以将密度估计分为参数密度估计和非参数密度估计两种方法。参数密度估计假设数据服从已知概率密度函数(例如正态分布),然后根据训练样本来估计概率密度函数的参数。相比之下,非参数密度估计不对数据的分布做任何先验假设,而是仅利用训练样本来估计密度函数,并且可以适用于任意形状的密度函数。常用的非参数密度估计方法包括直方图和核密度估计等。
聚类
聚类是一种无监督学习方法,它通过一定的规则将一组样本划分到不同的群组(也称为簇)。一个常用的规则是确保同一簇内的样本之间的相似性高于不同簇之间的相似性。常见的聚类算法包括K-Means算法、谱聚类等。与监督学习相似,无监督学习也有三个基本要素:模型、学习准则和优化算法。无监督学习的准则有很多,例如最大似然估计、最小化重构错误等。在无监督特征学习中,常用的准则是最小化重构错误,并且通常会对特征施加一些约束,比如独立性、非负性或稀疏性等。在密度估计中,常常使用最大似然估计进行学习。
Apriori 算法
Apriori算法是由Agrawal等学者在1993年提出的一种数据挖掘算法。该算法通过采用逐层搜索的策略,提高了寻找频繁项集的效率。该算法的第一步是寻找频繁项集,其基本思路是利用迭代的层次搜索算法,逐个判断k-项集是否为频繁k-项集。第二步是根据频繁项集生成强关联规则。
FP-Growth算法
Apriori算法在挖掘频繁项集时需要多次扫描数据库,导致算法效率较低。为了解决这个问题,JiaweiHan于2000年提出了FP-Growth算法。FP-Growth算法是在Apriori算法的基础上引入了高级的数据结构,在寻找频繁项集的过程中只需要对数据库进行两次扫描,极大地减少了扫描次数,有效提高了算法的效率。不过需要注意的是,FP-Growth算法只适用于挖掘单维的布尔关联规则。
强化学习
强化学习(Reinforcement Learning,RL)是一种机器学习的方法,通过智能体与环境的交互,学习如何制定策略以最大化回报或达到特定目标。在强化学习中,智能体通过奖赏机制进行自我学习。系统根据智能体与环境的互动表现,给予奖励或惩罚。通过这个学习过程,智能体努力获取更多的奖励并避免受到惩罚。强化学习能够使训练模型通过完全自主学习的方式掌握某种技能,使其能够在特定场景下做出最优的决策。强化学习类似于培养孩子掌握某种技能的过程,根据模型的决策结果给予奖励或惩罚,直到完全掌握该技能,这在算法层面意味着算法已经收敛。强化学习模型由智能体(Agent)、动作(Action)、状态(State)、奖励(Reward)和环境(Environment)组成。在完成某个任务时,智能体首先与环境进行交互,产生新的状态,并且环境会给予奖励,在此过程中,智能体和环境不断交互生成更多的数据。强化学习算法通过一系列动作策略与环境的交互,生成新的数据,并利用这些新数据来修改自身的动作策略。经过多次迭代,智能体将学习到完成任务所需的最优动作策略。
智能体:智能体的结构可以是简单的算法,或者是神经网络算法。智能体的输入通常是状态,输出通常是策略。
动作:也称动作空间。例如游戏手柄,上、下、左、右四个方向可移动,那么Actions 就是上、下、左、右。
状态:指强化学习模型的当前局面状态。
奖励:进入某个状态时,能带来正奖励或者负奖励。
环境:接收Action,返回State 和 Reward。
元学习
元学习(Meta-Learning)是一种机器学习的方法,旨在使机器学习算法能够自动学习学习的策略。换句话说,元学习的关注点是学习算法本身的学习过程,而不仅限于特定任务或数据集。通过从已有任务中学习学习方法或元知识,元学习的目标是加速新任务的学习过程。从这个角度来看,元学习与归纳迁移学习有一定的相似之处,但元学习更加侧重于从多个不同(甚至是不相关)的任务中归纳出一种学习方法。
迁移学习
迁移学习是一种将已有知识从一个问题领域迁移到另一个问题领域的学习方法。它通过分析数据、任务和模型之间的相似性,将在一个领域中获取的知识应用到另一个领域的问题中。迁移学习是机器学习中重要的模型之一,它专注于挖掘已有数据中的相关知识,并将其应用于新的问题上。以网页文档分类为例,该任务旨在将给定的网页文档分类到事先定义的几个类别中。在网页文档中,标记的样本可能是通过手动标注与各类别相关的大学网页获得的。对于新的网站分类任务,数据特征或数据分布可能不同,导致缺乏标记的训练样本。因此,直接将之前学习到的大学网页分类器应用于新的网站可能会遇到问题。在这种情况下,如果能够将已有的分类知识迁移到新的领域问题中,将会对解决新问题提供很大帮助。
特征学习
特征学习是指机器学习模型通过自动学习数据中最关键的特征或属性。它是一种自动化的特征提取方法,帮助机器学习模型更好地理解数据并做出准确的预测。
集成学习
在面对具体问题时,需要因地制宜地调整传统方法,并依据特定的规律,融合各类常见的机器学习算法,以提升研究结果的精确度。当需要将多类或多种学习器结合,这种技术被称为集成学习。
集成学习最初广泛应用于分类问题,后来扩展到求解回归和聚类问题。这种学习方式采用群体学习器来补偿误差、增强泛化能力,具有鲁棒性。然而,不同子学习器的设计复杂性和解的可靠性存在矛盾,通常通过改变子学习器参数和融合权数来解决。进化方法如遗传算法、粒子群和差分进化算法也具有广泛适用性、高鲁棒性和全局优化特性。
机器学习基本模型
按照构建原理的不同,机器学习模型可分为几何模型、概率模型和逻辑模型三个基本的大类。
几何模型
机器学习的几何模型是指通过数学和几何的方法来理解和描述机器学习算法中数据的特征、模式和关系。在机器学习的特定任务中,首先需要抽取样本实例的特征。每个样本可以被视为特征空间中的一个向量,其每个特征分量都有特定的取值。以二维平面上的点为例,横坐标x1和纵坐标x2可以表示一个具体的样本。在这个例子中,每个点可以用一个向量(x1,x2)T表示,称为特征向量。为了在研究样本的特征时进行度量和运算,如加法定律、数乘定律、点积操作、距离计算等,就需要将样本集的特征集合拓展到定义在数域上的特征空间。在笛卡尔坐标系中,通过以点集展示具有几何特征的分布。举个例子,圆周上的点以圆心为中心呈环形分布。除了这些平面上的点集,还应考虑到,无论是哪个空间,其特征通常都具有一定的几何结构。如果只考虑数值型的特征,那么每一个样本都可以被视作是笛卡尔坐标系中的一个点。比如在研究肿瘤患者的数据时,发现肿瘤的恶性概率与患者的年龄和肿瘤尺寸有着密切的关系。这时便可以用一个以年龄和肿瘤尺寸为坐标轴的平面上的点来表示一个样本。几何特征,如直线、曲线、平面、距离等,有助于区分样本的分布特征。利用几何特征构建的机器学习模型,被称为几何模型。几何模型主要包括支持向量机、K均值聚类等。
支持向量机
支持向量机算法是监督学习模型中的一种,它以统计学习理论为基础,并基于VC(Vapnik-Cher-vonenkis)维理论和结构风险最小原理。该算法利用有限的数据信息,在模型复杂度和能力范围内进行,以实现最佳的决策过程。
支持向量机(SVM)可用于解决受约束的二次型规划问题,这些问题可采用标准方法进行解决。训练算法包括块算法、分解算法和增量算法。新型的支持向量机有粒度支持向量机、模糊支持向量机、孪生支持向量机和排序支持向量机。SVM可有效地解决线性可分问题,通过优化计算实现分类间隔。当处理非线性问题时,它会引用相应的核函数,将输入空间映射到高维空间结构,从而使原来的不确定性问题变为线性可分问题,达到有效区分样本的目的。SVM的核心内容包括两个方面:一方面是研究线性可分解的情况;另一方面是利用非线性变换的算法完成采样之间的转换,从一个低维的输入空间转换到高的维度,从而达到一个线性的可分解。然后,基于最优结构的风险最少原理,在属性空间内建立最优的划分面,从而达到整体的最优。SVM方法具有较好的基础支持,能够确保所发现的所有确界值都为全局最优预测解而不是在部分最低位上。这也就确定了SVM方法对未知数据具有很强的泛化功能。正是由于上述特性,SVM能够良好地应用于模式识别、概率密度函数预测、时间序列预测、回归估计等方面,并被广泛应用于模式识别领域的诸多应用领域,如手写数据辨识、文字分析、图形分类和辨识等。
K-Means算法
K-Means算法是一种聚类分析技术,它可以有效地提取数据集中的特征,并具有无监督学习的特点。该算法能够将相似的数据归为一类,不相似的数据归为另一类,以方便后续的分析和处理。K均值算法使用欧式距离来衡量数据之间的相似性和差异性,相似度越高,距离越短;反之,差异度越大。该算法在运行时需要预先设定聚类的数量k和k个初始聚类中心。通过不断更新数据对象与聚类中心之间的相似度,该算法会不断调整聚类中心的位置,以降低类簇中数据对象的平方误差和。直到算法达到稳定状态或目标函数收敛时,最终得到的结果即为聚类结果。
概率模型
机器学习的概率模型是用于建模和预测数据的一种方法,它基于概率理论和统计学原理。概率模型(probabilistic model)是通过计算变量的概率分布来简化学习任务。这些变量可能包括观察变量(observable variable)和隐藏变量(latentvariable)。在这个框架中,分类问题通常被分为两个阶段:推断(inference)和决策(decision)。推断是指通过观察变量来推测未知变量的条件分布,而决策则是在给定概率的情况下,根据类别的可能取值进行判断。
概率模型可以分为生成式概率模型和判别式概率模型。通过建立后验概率模型来预测分类结果的方法称为判别式概率模型。一些典型的判别式概率模型包括感知器、决策树、K近邻法、逻辑回归模型、最大模型、支持向量机、提升法和条件随机场等。这些方法从训练数据中直接学习决策函数或后验概率作为预测模型,即所谓的判别模型。在决策阶段,贝叶斯决策理论被用来对新的输入进行分类。另一方面,对联合概率分布进行建模以得到后验概率的方法称为生成式概率模型。一些典型的生成式概率模型包括朴素模型和隐马尔可夫模型。在这些模型中,可以直接对联合概率分布进行建模并归一化得到后验概率。在决策阶段,可以利用后验概率来确定每个新输入的类别。
朴素贝叶斯分类器
朴素贝叶斯分类器(Naive Bayes Classifier)是一种基于贝叶斯定理的监督学习算法。它被称为“朴素”,是因为它假设各个特征之间相互独立,不会互相影响。朴素贝叶斯分类器的模型构建简单,不需要复杂的迭代运算进行参数估计,因此特别适用于处理大规模的数据集。利用贝叶斯公式计算样本的后验概率,即属于某一个类别的概率,然后选择具有最大后验概率的类别作为样本的类别。若已知P(C)、P(A)和P(AIC),求后验概率P(CIA)的贝叶斯公式为P(CIA)=。
隐马尔可夫模型
在深度神经网络之前,隐马尔可夫模型(Hidden Markov Model,HMM)是常用的方法。自然语言是序列数据,与图像、向量和矩阵有着重要的区别。我们不能假设语句具有固定的长度,因此自然语言模型必须能够处理长度不确定的序列。隐马尔可夫模型能够描述任意长度的状态转移序列,因此我们可以使用它来处理语言。隐马尔可夫模型是一种马尔可夫链,其状态无法直接观察,但可以通过观测向量序列来观察到。每个观测向量都是由某些概率密度分布表示的不同状态产生的,每个观测向量都是由相应概率密度分布的状态序列生成的。因此,隐马尔可夫模型是一个双重随机过程。简而言之,隐马尔可夫模型由一组有限的状态组成,其中除了终止状态外,每个状态都可以以一定的概率转移到其他状态,并在转移时产生输出。可以产生的输出也是有限的,并且输出的产生也是以一定的概率发生的。
逻辑模型
逻辑模型是机器学习中基于特定推理方法的模型,如决策树和关联规则挖掘、人工神经网络等。与人工神经网络等难以解释的模型相比,逻辑模型使用的推理规则更容易对应到人们可以理解的规则。
决策树
决策树(decision tree)是一种重要的分类和回归方法。在分类问题中,决策树表示基于特征对实例进行分类的过程,可以被视为一系列的if-then规则的集合,也可以被视为定义在特征空间和类别空间上的条件概率分布。这种规则能够轻易地用树形结构来表示,如图决策树所示。在部分文献中,决策树中的特征也被称为属性。
决策树是一种以叶子结点被标记为类别的特征树,其非叶子结点表示对一个特征分量的测试,该结点的分支代表可能的测试结果。每个非叶子结点可以有两个分支(二叉树)或多分支。叶子结点则代表一个分类。当样本按照决策树的规则被分配到叶子结点时,样本的分类就确定为该叶子结点对应的分类。
在决策过程中,小明会考虑两个天气特征:“是否晴天”和“是否刮风”。根据这些特征的取值,他从决策树的根结点开始,经过一系列的测试结点,最终到达一个叶子结点,从而确定当天是外出游玩还是宅在家中。
决策树算法通常包括训练和测试两个阶段。在训练阶段,算法会使用一定的规则将训练样本集分割为几个子集,然后再使用相同的规则对每个子集进行分割。这个过程会一直递归下去,直到每个子集中只包含属于同一类别的样本为止。在测试阶段,算法会将测试样本从根结点开始进行判别,根据样本的特征值将其分配到相应的叶子结点。如果样本无法被分配到叶子结点,则算法会递归地执行判别过程,直到样本被正确分配为止。
关联规则挖掘
关联规则挖掘是一种强大的数据分析工具,可以帮助使用者发现数据之间的隐藏关系和规则。通过对大量数据的挖掘和分析,可以揭示出一些看似无关的数据之间的关联性,从而为使用者提供新的视角和洞察力。“尿布和啤酒”是一个广为人知的关联规则挖掘的经典案例。在这个案例中,数据来自于一个大型超市的交易记录。通过分析这些交易记录,研究人员发现了一个有趣的现象:很多顾客在购买尿布的同时也会购买啤酒。进一步的分析表明,这种现象并非偶然,而是有一定规律可循。比如,年轻的父亲在购买尿布时,往往也会购买啤酒。这个发现揭示了尿布和啤酒之间的关联性,也为销售商提供了一种新的营销策略:将尿布和啤酒放在一起销售,方便顾客购买。
人工神经网络
神经网络,模拟人脑构造设计的算法,能识别模式;认知技术解析信息,完成对原始信息的识别或聚类;一切所能确定的信息都是数据形式,可将图、声、形、时序,乃至全真实世界的信息转成数据形式;神经网络是复杂的计算模式,由许多神经元组成,神经元间相互联系;每个神经元代表一种特定的信息,能解决复杂问题;每个节点代表一种特定的输出函数,称为激励函数;节点之间的连接给出一个权重值,代表相互间的关系;权重值、连接和激励参数影响网络系统的输入输出模式,从而影响最终结果。
机器学习算法的主要方式
数据并行算法
由于数据处理算法无法满足的需求,其原因在于机器学习算法难以处理数据,单台数据处理设备难以独立完成大数据处理。为满足大数据处理需求,需要联合各数据处理机构,实施平行化运行,方可实现大数据的整体处理。这是因为任何机器学习算法都无法实现平行运算。单台数据处理设备无法单独处理海量数据,必须将不同的数据处理器连接起来,使之能够实施平行运行,以实现全面分析海量数据。其核心理念是将海量资料“碎片化”,分解为各种不同数据,交由进行简单分析,从而获得完整信息。例如,在图像分析系统中,采用基于平行计算的算法,可以极大减轻各种数据的工作负担,提高计算效率。将聚类算法和分治算法结合起来,可以使的运算更加简洁、简单,同时提高机器学习的精度。
聚类算法
聚类算法是数据挖掘与处理的得力助手,尤其适用于大规模数据。首先,利用聚类算法对大量数据进行分类,并形成多个子节点。此时,通过机器学习,能更有效地处理各节点数据。聚类算法在机器学习中的应用可分为三类:1. 使用不重复资料进行扩展,采用FCM的平均聚类算法,对不同样本进行聚类,实现数据的快速、精确分治;2. 系列子集技术;3. 平均采样估算算法。这三种算法都能有效处理。
分治算法
在大数据的深度解析中,分治算法的优秀性能得以展现,可应用于并行和分布式计算。通过大数据进行机器学习,由于各样本间的数据存在差异,计算量因此增加,限制了机器学习的速度,提升了数据的精准度。利用参考分治法,预处理原始数据,剔除冗余和无效信息,提升原始数据的质量。此算法下,机器学习的对象清晰可见,降低了学习难度,帮助电脑做出正确判断。在挑选数据集时,通常采用缩减和缩小的邻近算法,以最少的数据实现优化。此时,电脑检索的数据可代表整体数据,科学性较高,为决策提供参考。在引入分治算法前,必须有足够的可信度,在一定范围内进行数据筛选和剔除,减少样本误差,提高数据的准确性。
机器学习的软硬件
硬件方面
CPU在机器学习中的主要作用是处理序列化任务,即逐个处理一连串的任务,这包括数据准备、模型训练和验证等。CPU拥有较强的通用计算能力,能够处理各种任务和操作系统。早期的机器学习通常运行在单个节点上,其主要流程是不断迭代两种类型的操作,一种是梯度计算操作,另外一种是误差的聚合操作。以分布式机器学习为例,在初期时,主要采用CPU 集群来进行,针对一批训练数据,计算框架把数据分成很多个片段,然后根据集群节点上 CPU 的数量,将每一个片段作为一个单独的任务分配到计算节点的不同CPU上,进行局部梯度计算。当所有的任务完成计算后,参数服务器收集各个任务的梯度误差进行汇总,然后发送新的参数用于下一次迭代。GPU在机器学习中的作用是加速并行计算。GPU代表图形处理单元,其最初目的是用于游戏中每秒显示更多帧以获得更好的游戏分辨率,这也使得GPU能够同时处理大规模数据和复杂的计算。深度学习网络对前向传递和反向传播过程使用大量矩阵乘法,尤其是卷积。CPU擅长矩阵到矩阵的乘法;因此,利用数千个GPU核心来并行处理数据。这加速了深度学习的训练。例如2012年,来自多伦多大学的Krizhevsky,Sutskever和Hinton就地结合了几个现有概念,即卷积神经网络(Convolutional Neural Networks,CNN)和最大池化(Max Pooling),并添加了修正线性单元(Rectified Linear Units,ReLUs),在GPU快速运算力的支持下,构造了具有多“层”结构的神经网络。这些额外添加的网络层也导致了“深度学习”这一术语形成。在机器学习过程中,CPU和GPU派上了不同用场。GPU用于训练大型深度学习模型,而CPU则有利于数据准备、特征爬取和小型模型训练。两者相辅相成,共同支持机器学习的运行和发展。
软件方面
在软件领域,机器学习的应用非常广泛。它可以用于数据分析、预测建模、自然语言处理、图像识别、推荐系统等各个方面。许多软件套件都集成了机器学习算法,使开发人员能够快速构建和部署机器学习模型。此外,开源软件如Scikit-learn、TensorFlow等提供了丰富的机器学习工具。商业化的软件套件如IBM Watson、Microsoft Azure Machine Learning、谷歌 Cloud AI Platform等则提供了更加全面的机器学习解决方案,包括自动化建模、模型监控与管理、部署与推理等功能,帮助企业更好地应用机器学习技术。
机器学习的局限性
传统的机器学习算法往往是浅层结构算法,它们在处理复杂函数问题时在样本较少的情况下能力较弱,并且在对复杂分类问题的泛化能力上有一定的局限性。尽管这些浅层学习算法在简单计算过程中非常有效,并在广泛的应用中被广泛使用,但对于复杂的函数处理却无法达到人脑信息处理的能力。相反,深度学习算法通过学习深层非线性网络结构,模拟人脑机制,在解决复杂函数问题时能够近似表示,并且能够在少样本的情况下获取数据集的本质特征(即特征值)。
许多传统机器学习算法得到的学习器通常是局部估计算子。尽管我们可以根据问题进行合理假设,但一旦目标函数变得复杂,使用参数描述区域数量的增加导致算法模型的泛化能力变差。与此相反,数据的分布式表示不仅可以准确描述数据间的相似程度,而且在少样本情况下具有更好的泛化性能。
相关法律与伦理
《新一代人工智能伦理规范》
中国新一代人工智能治理专业委员会于2021年9月25日发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),意在将伦理道德原则贯穿于人工智能的整个生命周期,为涉及人工智能活动的自然人、法人和其他相关机构提供伦理指引。该《伦理规范》着重强调人工智能系统应尊重每个个体的尊严和人权,遵守相关法律和道德准则。同时,也应尊重个人隐私,采取必要措施保护个人数据的安全,防止未经授权的访问或滥用。此外,人工智能系统的设计和运行应在安全可靠的环境中进行,以减少误导、滥用和潜在的损害。
《人工智能法案》
欧盟的《人工智能法案》是一项综合性法律,将成为人工智能监管的核心框架。在修订和修改之后,该法案将正在进入欧盟委员会、议会和成员国之间的三方谈判,以确定最终版本。这是欧盟首个涉及人工智能的综合法律,以人工智能的概念为基础,以风险分级管理为基础,以不同责任主体为规范对象,并通过合格评估和问责机制来管理人工智能的开发和使用。该法案全面规定了人工智能市场参与者的义务,包括监管人工智能的开发和使用方面的人工智能、隐私、透明度、安全、非歧视和环境友好。
在伦理治理方面,该法案强调人工智能应该以人为中心,而不应取代人类的自主性或剥夺个人的自由。它应主要服务社会需求和共同利益,并提供保护措施,以确保开发和使用的人工智能尊重欧盟价值观和《欧洲联盟基本权利宪章》的伦理内嵌。在AI系统的风险分级标准方面,《人工智能法案》将伦理风险视为考量因素,并将某些类型的AI系统确定为“存在不可接受风险的AI系统“,在欧盟成员国内将完全禁止这些AI系统上市或使用。
《2022年算法问责法案》
《2022年算法问责法案》(Algorithmic Accountability Act of 2022)于2022年2月在美国众议院获得通过,要求企业在使用自动化决策系统做出关键决策时进行研究并向众议院报告这些系统对消费者的影响。该法案要求评估这些系统是否对消费者产生偏见或歧视,比如基于种族、性别、年龄等因素做出不公平的自动决策。法案确定了一套信息披露机制,包括评估报告、评估简报和公开信息。此外,联邦贸易委员会还计划建立一个可公开访问的信息存储库,发布有关自动化决策系统的有限信息。
《美国数据隐私和保护法案》
在2022年6月,美国参众两院公布了《美国数据隐私和保护法案》(Artificial Intelligence 数据 Privacy and Protection Act),该法案规定,如果人工智能所使用的数据集包含个人信息、数据和隐私,则被视为“覆盖算法”。若持有大数据的机构使用“覆盖算法”,可能导致对个人或群体造成风险,且使用该算法来收集、处理或传输覆盖数据的,应遵循ADPPA所规定的隐私影响评估标准。此外,《美国数据隐私和保护法案》还明确了关于隐私政策告知和退出机制、反对偏见等方面的规定。依据ADPPA,企业或代表企业的xSP需要向个人告知其拥有“选择退出”的权利,即拒绝企业对其个人数据的收集、处理或传输。
《自动决策系统的伦理、透明度与责任框架》
在2021年5月,英国中央数字与数据办公室、人工智能办公室与内阁办公室合作发布了《自动化决策系统的伦理、透明度与责任框架》(Ethics, Transparency and Accountability Framework for Automated Decision-Making,“ETAF”),旨在规定人工智能涉及的算法和自动化决策的伦理治理要求。ETAF强调,在算法和自动化决策上线之前必须经过严格、受控和分阶段的测试。在整个原型和测试过程中,需要人类的专业知识和监督来确保技术上的弹性和安全,以及确保系统的准确和可靠。在测试过程中,必须考虑自动决策系统的准确性、安全性、可靠性、公平性和可解释性。ETAF规定,企业必须对算法或自动决策系统进行一个平等影响评估,使用高质量和多样化的数据集,以发现和抵制所使用数据中的明显偏见和歧视。ETAF指出,算法或计算机系统应该被设计为完全可以负责和可审计的,算法和自动化的责任和问责制度应该明确规定。
研究现状
机器学习是人工智能和模式识别领域的共同研究热点,其理论和方法已被广泛应用于解决复杂问题,包括工程应用和科学领域。在21世纪,机器学习领域的研究工作迅速发展,它已成为人工智能的重要课题之一。全球最大的专业技术组织IEEE(电气电子工程师学会)发布的《IEEE全球调研:科技在2022年及未来的影响》显示,人工智能和机器学习、云计算和5G技术将成为2022年最重要的技术影响之一。在互联网快速发展的背景下,数智化技术正在重塑人们的生活和工作方式。据调研结果显示,人工智能和机器学习(21%)、云计算(20%)和5G(17%)三项技术在2021年得到了快速发展和广泛应用,在2021年以后将继续对人们的工作和生活产生重要影响。调研结果还显示,全球95%的受访者认为在未来5年内,人工智能技术将被广泛应用于各个领域,推动各行各业的创新进步。机器学习的最新进展主要受到新的学习算法和理论的推动,以及在线数据和低成本计算能力的不断提升的影响。其中一个主要趋势是关于机器学习算法运行环境的发展,即计算体系结构。传统的机器学习系统通常在一台机器上运行单个程序,而现在的机器学习系统通常部署在包含数千甚至上万个处理器的体系结构中。并行和分布式技术以及通讯限制成为了当前的重点技术难题。例如,在语言建模方面,2020年,人工智能公司OpenAI发布了第三代语言预测模型GPT-3,该模型是最先进且规模最大的语言模型,包含大约1750亿个参数,这些参数是机器用于处理语言的变量和数据点。在自动驾驶交通工具方面,非营利组织ProMare和IBM合作打造的自动驾驶船舶“五月花”号已于2020年正式启航。IBM表示,该船具备侦测、思考和决策能力,可以扫描地平线以发现潜在的危险,并根据实时数据来调整航线。
大数据环境下机器学习的研究现状
随着各行业对数据分析的持续需求,机器学习在大数据时代扮演着重要角色,成为高效获取知识的主要推动力。在这个时代,机器学习强调学习本身是一种手段,它为各行业提供了支持和服务技术。主要的研究方向是基于机器学习对复杂多样的数据进行深入分析,以更高效地利用信息。因此,机器学习正朝着智能数据分析的方向不断发展,并成为智能数据分析技术的重要来源。而在大数据的加持下,量子计算的也得到了快速发展。基于量子计算的机器学习正在逐渐兴起。量子计算将为机器学习提供更强大的数据处理能力。充分利用量子计算的优势,提升机器学习对大数据的处理、分析和挖掘能力已成为机器学习领域的研究热点。已经存在的量子机器学习算法主要分为三类。第一类是将机器学习中复杂度较高的部分替换为量子计算来提高算法效率。这类算法采用经典机器学习算法的框架,不同之处在于使用量子计算机进行复杂计算,代表算法有量子主成分分析(QPCA)、量子支持向量机(QSVM)、量子最近邻算法等。第二类算法是寻求量子系统的动力学特性和力学效应与传统机器学习算法处理步骤的相似之处,将这些物理过程应用于经典机器学习算法上,提出新的量子机器学习算法。与第一类算法不同的是,这些算法的所有过程可以在经典计算机上实现,代表算法有基于量子力学的DBSCAN、量子退火算法、量子蚁群算法、量子遗传算法等。第三类算法是借助于经典机器学习算法强大的数据分析能力,作为物理学家对量子世界研究的有效辅助。这些算法帮助物理学家更好地研究量子系统,更有效地分析量子效应。该类算法的研究将促进我们对微观世界的进一步了解,并解释量子世界的奇特现象。其中,基于量子断层分析算法是一项重要的研究成果。
应用
制造业
机器学习技术在制造业中具有广泛应用,包括预测性维护、质量控制和创新研究等方面提供了支持。此外,机器学习还可以帮助企业改善物流解决方案,包括资产、供应链和库存管理等方面。
医护及生命科学
随着可穿戴传感器和设备的增多,大量健康数据被产生。通过机器学习程序对这些信息进行分析,可以为医生的实时诊断和治疗提供支持。研究人员正在开发使用机器学习发现癌症肿瘤和诊断眼睛疾病的解决方案,这将对人类健康产生重大影响。
金融服务
金融领域的机器学习解决方案已经改进了风险分析和监管流程。通过机器学习技术,投资者能够更好地分析股市走势、评估对冲基金或调整金融服务产品组合,从而发现新的投资机会。此外,机器学习还有助于识别高风险贷款客户,减少欺诈问题的发生。
零售
机器学习在零售业中可以应用于改进客户服务、库存管理、追加销售和跨渠道营销等方面。
媒体和娱乐
娱乐公司正朝着机器学习的方向转变,以更好地了解他们的目标受众,并根据受众需求提供沉浸式的个性化内容。通过部署机器学习算法,他们可以设计预告片和其他广告,为消费者提供个性化的内容建议,甚至简化内容生产过程。
数据分析与挖掘
数据分析挖掘技术是机器学习算法和数据存取技术的完美结合,它利用机器学习提供的统计分析、知识发现等手段深入剖析,同时凭借数据存取机制实现数据的高效读写。机器学习在数据分析挖掘领域中占据着无可替代的地位,例如2012年进军机器学习领域的创举。2012年,Cloudera收购Myrrix,共同开拓了Big Learning领域,此后,机器学习界迎来了新成员。Hadoop和廉价硬件使得大数据分析变得更加容易。随着HDD和CPU的价格日益便宜,以及开源数据库和计算框架的成熟,创业公司甚至个人都可以轻松进行TB级以上的复杂计算。Mydrrix是从Apache Mahout项目演变而来的,它是一个基于机器学习的实时可扩展的集群和推荐系统。Myrrix创始人Owen在其文章中提到:机器学习已经发展成为拥有数十年历史的领域,如今为何受到大家的热烈追捧。因为大数据环境下,更多的数据使机器学习算法表现得更好,机器学习算法能从数据海洋中提取更多有用的信息;降低了收集和分析数据的成本,提高了学习的价值。Myrrix与Hadoop的结合是机器学习、分布式计算和数据分析挖掘的完美联姻。这三大技术的结合让机器学习应用场景呈爆炸式的增长,开拓了无限可能。
模式识别
模式识别的应用领域广泛,包括计算机视觉、医学图像分析、光学文字识别、自然语言处理语音、识别、手写识别、生物特征识别、文件分类、搜索引擎等,而这些领域也正是机器学习大展身手的舞台,因此模式识别与机器学习的关系越来越密切。例如人脸识别技术的发展。随着互联网技术的发展,人脸识别已经有了很多发展。人脸检测技术的提出是研究发展的需要。人机交互方式,经过第一代的单一文本形式到第二代的图形用户界面的发展,正在向以人为本的方向发展。人们提出了智能人机接口的概念,希望具有或部分具有人的某些智能,人同计算机的交流变得像人与人之间的交流一样轻松自如。用户是中的主体,计算机作为一种“智能体”参与了人类的通信活动。人脸检测技术已经用于很多领域。在现代社会中,传统的身份鉴定方式(例如口令、信用卡、身份卡等),存在携带不便、容易遗失,或者由于使用过多或不当而损坏、不可读和密码易被破解等诸多问题,已不能很好地满足各种安全需要并显得越来越不适应现代科技的发展和社会的进步。因此,人们希望有一种更加可靠的办法来进行身份鉴定。生物特征识别技术给这一切带来可能。生物特征识别技术(Biometrics)是通过利用个体特有的生理和行为特征来达到身份识别和(或)个体验证目的的一门科学。尽管人们可能会遗忘或丢失他们的卡片或忘记密码,但是却不可能遗忘或者丢失他们的生物特征如人脸、指纹、虹膜、掌纹等的特征或声音等。在模式识别技术中,近年来以人脸为特征的识别技术发展十分迅速。相对而言,人脸识别是一种更直接、更方便、更友好、更容易被人们接受的非侵犯性识别方法。作为人脸自动识别系统的第一步,人脸检测技术有着十分重要的作用。
生物信息学
随着基因组等测序项目的发展,的研究重心正在向解读数据转移。未来,的新发现将极度依赖于多个维度和不同尺度下对多样化数据的组合分析能力,而不仅仅是传统领域的持续关注。序列数据将与一系列数据相互集成,包括结构与功能数据、基因表达数据、生化反应通路数据、表现型与临床数据等。如此大量的数据,对的存储、获取、处理、浏览及可视化等方面,都提出了对理论、算法和软件发展的迫切需求。另外,基因组数据的复杂性同样对理论、算法和软件的发展提出了迫切的需求。而机器学习方法如神经网络、遗传算法、决策树和支持向量机等非常适合处理这种数据量大、含有噪声并且缺乏统一理论的领域。
机器学习在中的应用已经非常广泛且成果显著,涵盖了诸如序列比对、基因及其功能预测、蛋白质结构预测等。神经网络在生物序列分析领域中早已得到应用,早在1982年,Stormo等就利用感知器对大肠杆菌核糖体结合位点进行了预测。1988年,Qian等发表了一篇使用神经网络模型预测蛋白质二级结构的论文,使神经网络得到了广泛的重视和实际应用。1993年,Borodovsky等利用马尔科夫模型构建了基因发现和基因分析程序GeneMark,这是统计学习理论在基因预测领域的一个应用实例。进入21世纪后,机器学习在中的应用依然丰富多样,例如Cheng等运用双聚类方法对微阵列数据进行分析,Long等运用方差分析和统计框架方法对大肠杆菌中的基因表达进行分析等。
人工智能领域
2012年,推出了一款具有划时代意义的人脑模拟软件,它具有自我学习能力,模拟脑细胞的交流方式,通过观看视频来识别猫、人和其他事物。当数据传入神经网络时,不同神经元之间的关系会发生变化,使神经网络能够获得对某些特定数据的反应机制。据悉,这个网络已经掌握了一些知识,Google有望在多个领域应用这一新技术,其中最早受益的可能是语音识别技术。同时,研制的无人驾驶汽车在2012年5月获得了首个自动驾驶车辆许可证。该汽车依靠人工智慧、视觉计算、雷达、监控装置和全球定位系统协同合作,让计算机可以在没有任何人类主动操作的情况下,自动安全地操作机动车辆。谷歌认为:这将是一种“比人更聪明”的汽车,不仅能预防交通事故,还能节省行驶时间、降低碳排放量。
军事领域
机器学习在军事领域的应用日益广泛,智能无人机、智能无人规艇、智能等相继问世或投入战场。此外,机器学习也在其他军事领域得到应用,例如国防部高级研究计划局的电子战专家正在尝试利用机器学习技术对抗敌方的无线自适应通信威胁,推出“自适应电子战行为学习”计划(BLADE),以研发确保美国电子战系统能够在战场上学习自动干扰新式射频威胁的算法和技术。
参考资料
什么是机器学习?.aws.2023-11-24
CPU与GPU:哪个更适合机器学习,为什么?.Data Application Lab.2023-12-01
Amazon Deep Learning AMI.re:invent.2023-12-01
TensorFlow 简介.TensorFlow.2023-12-01
IBM Watson.IBM.2023-12-07
Azure 机器学习.Azure .2023-12-07
What is Caffe2?.Facebook Open Source.2023-12-07
Cloud.Google for Developers.2023-12-01
scikit-learn.scikit-learn.2023-12-07
RapidMiner .RapidMiner .2023-12-07
KNIME.Open for Innavation KNIME.2023-12-07
DataRobot.DataRobot.2023-12-07
《新一代人工智能伦理规范》发布.中华人民共和国科学技术部.2023-11-24
人工智能(AI):科技伦理治理走起.前沿观察.2023-11-24
机器学习研究最新进展 2022机器学习行业发展现状及前景分析.中研网.2023-11-23
2022年人工智能领域发展七大趋势.新华网.2023-11-23