您好, 访客   登录/注册

未来人工智能自主学习网络的构建路径

来源:用户上传      作者:

  [摘 要]人类在探索人工智能自主学习网络构建方案的最优解过程中,由NorbertWiener创立的控制论,其目的是为了对人类的思考过程进行模仿,而后GeoffreyHinton提出了人工智能的自主学习应建立在人类神经网络之上再到近年来深度学习与强化学习的热潮,再到当下世界范围内对人工智能研究已经进入到了一个瓶颈阶段,在此基础上,本文主要对对人工智能如何在未来实现自主学习网络的构建进行分析。
  [关键词]强化学习;神经网络深度学习;人工智能;Capsule理论
  中图分类号:P58 文献标识码:A 文章编号:1009-914X(2019)13-0019-01
  随着科技技术的发展,人类对人工智能的研究也在不断的深化,但人工智能领域似乎也已经进入到的一个瓶颈期,所谓的人工智能,只不过是对人类的语言习惯进行模仿,但始终无法实现其自主学习的能力,对此,本文希望对人工智能如何在未来实现自主学习网络的构建加以浅析。
  1传统人工智能深度学习方式的困局
  1957年的时候,FrankRosenblatt是首个提出神经网络Perceptron,并由此打开了人类研究仿生人类机器智能的先河,但其在这方面的研究还存在一定的局限性,仅体现在输入层与输出层两个神经元,对于多个神经元的层数的加入以及神经网络的训练方法上,还无法在实际问题中进行应用,此后GeoffreyHinton利用BP误差反向算法与最优化方法的组合使用,为人们进行人工智能训练提供重要的手段,但是BP还建立并不完全,存在一定的局限性,如学习速度较慢且存在一定的不稳定现象,容错率较低。在此基础上,径向基网络:RBF网络应运而生,与BP多层单元相比,RBF层数较少,最低可压缩至3层,并通过不同的激活函数使RBF网络有着显著的“局部映射”特性,降低了各个神经元间的影响,可以将其视为有多个不同的“职能”的神经元进行组合,但RBF网络也并不完美,其缺陷体现在只是一个运算网络的执行者,只能去执行命令而无法解释命令背后的逻辑。如我们现常见的智能助手,他们虽然很智能化,但多是模仿人类的语言习惯,更像人类对话交流语言数据提取库,通过大量的归纳重复,从中选择一些看似标准的语句作为应答,无法进行连续的对话。我们所带给智能助手的只能是使具有有明确任务的指令式对话,虽然识别率很较高,但还无法实现自主学习的能力,他们连最基础的“异或”逻辑都无法达到,正如了未来人工智能自主学习网络的构建,我们在摸索人工智能自主学习网络构建方案的最优解过程中,由NorbertWiener创立的控制论,其目的在于对人类思考过程进行模仿,提出人工智能的自主学习应构建在类人神经网络之上。摘要解某一件事的名称,并不等于对这个名称真正的理解了一样,在1997年赢了人类国际象棋冠军的IBM的“深蓝”以及2016年击败人类国际围棋冠军的DeepMind的AlphaGo,“深蓝”的胜利依靠的是其每秒高达几亿次的暴力运算穷举,可以看作“只知其名”,而后者可以“会其意”但是“不明其理”虽然依靠的是深度学习体系与价值网络和策略网络的结合,基于模拟的数百万数千万次自我独立博弈,使其强大的效力得以发挥,借由蒙特卡洛树搜索在与动态环境的“交互反馈”中寻求最优解,但是在处理R.Bellman提出的“维数诅咒”即现实世界中,强化学习要纳入数百甚至数千个变量进行考虑,并且强化学习会消耗大量数据同时,自身依靠对于能够进行模拟的案例,成功率更高,进而现实中均陷入一定的困局。
  2未来人工智能神经网络的构建方向
  机器要怎样才能实现“自我学习”这个问题,之前的BP构架就好比是粗铂金中进行提纯,使其能够变成到精铂金,而深度学习与强化学习就好比是从原矿石中对铂金进行提取,不可避免的是需要大量的原矿石,这是深度学习与强化学习所需要的大量的数据,虽然二者都可以得到许多的在大数据分析基础上所获得的“经验公式”,执行“化繁为简”的工作而不能做到“举一反三”等。因此对人脑行为的模仿也仅仅模仿到表面,但不可置否的是深度学习信息处理技术中有着人脑无法企及的水平,但这也并不等同于我们认知人工智能自主学习网络的本质,如GeoffreyHinton所言:目前人工智能局限性在于搭建“一个连接计算机科学和生物学的桥梁”,受大脑皮层中的微柱体(minicolumn)的启发,他在论文中也提出了一种看似成熟化的理论为Capsule理论,每一个Capsule都是所测得的多维实体的存在及实例化参数,作为一组神经元向量替代现在神经网络的layer中作为简单的标量neuron。Capsule其向量长度表征了某个实例,所出现的概率及今后的发展方向,进而更好地将物体的属性展现出现,每一个capsule由对应一个layer中向量neuron构成,其可以通过大量运算,多个活跃同一层级预测一致的capsule输出一个经过「squashing」的非线性函数“压缩”进而获取到更高级的capsule的预测向量,简单的capsule系统已经可以在分割重叠数字任务中展现出强大的性能,在识别高度重叠数字上比卷积神经网络(CNN)的性能优越很多,更趋近于利用高维度向量neuron来进行多模态机器学習。灵感同样来自于对人类大脑视觉皮层对于物体的轮廓(contour)和表面(surface)的识别思考,递归皮层网络的诞生将实验神经科学结论的概率以及生成模型进行很好的整合,RCN在多个CAPTCHA数据库中,获得了极佳的成绩,整体上以300倍的数据有效性(dataefficiency)将深度学习的卷积网络模型远远甩开。其中,在reCAPTCHA上,对于每个字母,RCN仅通过5个训练样本,而CNN模型达到相似的成绩使用了二百三十万个训练样本。此外,RCN在多个任务(如单样本和小样本识别、手写数字生成等)中,均取得了优异的结果,RCN进一步融合了系统神经科学(systemsneuroscience)研究的启发,特别是视皮层中的侧连接把物体表示为边缘和面的组合,生成式组成模型的进步,此外,RCN还可以将中低层的语义表达“具体图形化”的基本概念单元通过侧向连接来分享给不同高层语义,并且可以被不同的物体边缘轮廓所共有,使计算效率得到极大的提升,算法的可解释性为其铺平道路,更是实现了某种意义上的“举一反三”。
  3 结语
  Capsule理论的提出和RCN的共同点在于都是希望能够将人工智能的发展蓝图寄托于对人类自我大脑的认知能力的深度模仿,而不是单纯的对人类行为的“归纳总结”,无论是高维度的模拟还是由对人类大脑皮层识别算法的解析,或许未来人工智能自主学习网络构建的“第一性原理”基于大脑的深度解读。
  参考文献
  [1]林泽宇.计算机网络技术中人工智能的实践[J].电子技术与软件工程,2018(15):7.
  [2]董鑫.未来人工智能自主学习网络的构建[J].电子技术与软件工程,2018(03):252.
  [3]刘予峰,蒋觐阳.基于人工智能技术(AI)的智能网络优化方法分析[J].电子世界,2012(10):14-15.
  [4]孙妍姑,吴海波.《人工智能》课程中网络学习共同体的构建研究[J].淮南师范学院学报,2009,11(03):108-110.
转载注明来源:https://www.xzbu.com/1/view-15325764.htm