卷积神经网络设计原则(收集3篇)
卷积神经网络设计原则范文篇1
在工作运行中,还存在一些不可忽视的问题,主要表现在:
(一)网络建设整体运行水平和质量不高,如信息反馈不及时、四员互控能力不强、特别是在线扣款落实力度不大,处于全市落后名次,有待进一步提高。
(二)卷烟结构不够优化,一、二类烟、省外烟需要进一步加大促销力度,在不同程度上制约了太康卷烟销售工作有效开展。
(三)思想认识存在问题。有安于现状、干劲不够足、眼光狭隘、胸怀不够宽,束手无策、办法不够多等落后思想观念。
二、造成工作被动的原因:
一是思想认识问题没有真正解决,主观努力不够,存在被动应付问题;二是工作中谋划、组织不力,推动工作的力度不够,积极应对、克服困难的办法欠缺;三是从职工队伍素质看,有的精神状态不佳,没有进取意识,有的作风不扎实,没有创新意识。个别营销人员的工作积极性、主动性不高,货源向商户公开不及时,个别品牌宣传不到位,服务不完善,在品牌的市场培育工作方面欠缺。
三、推进卷烟上水平具体工作措施
针对存在问题,在下一步工作中我们将采取切实有效的措施,认真加以克服和解决,重点抓好以下工作:
一是狠抓作风建设。按照国家局提出的“四要”作风要求和市局提出的“六个反对、六个提倡”的工作要求,结合正在开展的机关作风建设活动,在干部职工中认真开展思想作风纪律大整顿,切实解决干部职工满足现状、标准不高,精神不佳、状态不好的问题,力求思想观念更新,纪律意识增强,工作作风改观,以更高的目标、更实的作风和更加良好的精神状态,促进“卷烟上水平”各项工作顺利开展。
二是稳增卷烟销量。继续把销量稳定增长作为经济运行调控的首要指标,摆在突出位置,量化分解任务,加大考核奖惩,增强全员责任感、压力感。认真研究和分析我县卷烟市场状况和客户资源,及时把握市场需求和消费潜力,密切关注市场走势,适时研究制订并实施应对措施,全力以赴确保卷烟销量稳步增长。把农村市场扩销为重点,提高服务市场、营销水平,深挖市场潜力,努力扩增销量。认真做好零售客户业态分类,精心培育有效客户,发展提升核心客户,为销量增长提供保证
三是注重结构转型。把品牌培育作为实现卷烟销售结构优化上水平的重要措施,完善品牌培育规划和推进计划,发挥市场经理和客户经理职能,做好客户宣传引导工作,使重点品牌培育有实质性进展。继续推进“两转一扩”,狠抓城区高档消费场所和乡镇集贸市场的销售,专卖部门加大对这些场所的管理,与公安部门配合,搞好宣传检查,对符合办证条件的尽快办证入网。充分调动一切积极因素,努力扩销一、二类烟,着力提升销售结构。
四是提升网建水平。针对我们网建基础薄弱的实际,借鉴先进单位经验,大力推进网上订货、在线代扣工作,加大宣传力度,积极与邮政部门搞好协调,实行“责任到人、服务到户”的工作原则,充分调动客户经理工作积极性、主动性,提高办事效率和服务质量,切实提高卷烟货款在线代扣率。同时,保质保量完成村村通网络工程任务,认真抓好按订单组织货源工作,切实增强网络建设软实力。
卷积神经网络设计原则范文篇2
关键词:卷积神经网络;图像分类;空间变换;可变形卷积
DOIDOI:10.11907/rjdk.171863
中图分类号:TP317.4
文献标识码:A文章编号:1672-7800(2017)006-0198-04
0引言
图像分类一直是计算机视觉领域的一个基础而重要的核心问题,具有大量的实际应用场景和案例。很多典型的计算机视觉问题(如物体检测、图像分割)都可以演化为图像分类问题。图像分类问题有很多难点需要解决,观测角度、光照条件的变化、物体自身形变、部分遮挡、背景杂波影响、类内差异等问题都会导致被观测物体的计算机表示(二维或三维数值数组)发生剧烈变化。一个良好的图像分类模型应当对上述情况(以及不同情况的组合)不敏感。使用深度学习尤其是深度卷积神经网络,用大量图像数据进行训练后可以处理十分复杂的分类问题。
卷积神经网络是为识别二维形状而专门设计的一个多层感知器,这种网络结构对平移、缩放、倾斜等扰动具有高度不变性,并且具有强大的特征学习与抽象表达能力,可以通过网络训练获得图像特征,避免了复杂的特征提取与数据重建过程。通过网络层的堆叠,集成了低、中、高层特征表示。AlexNet等网络模型的出F,也推动了卷积网络在海量图像分类领域的蓬勃发展。
1卷积神经网络
卷积神经网络是人工神经网络的一种,其“局部感知”“权值共享”[1]等特性使之更类似于生物神经网络,网络模型复杂度大大降低,网络训练更容易,多层的网络结构有更好的抽象表达能力,可以直接将图像作为网络输入,通过网络训练自动学习图像特征,从而避免了复杂的特征提取过程。
YannLeCun等[2]设计的LeNet-5是当前广泛使用的卷积网络结构原型,它包含了卷积层、下采样层(池化层)、全连接层以及输出层,构成了现代卷积神经网络的基本组件,后续复杂的模型都离不开这些基本组件。LeNet-5对手写数字识别率较高,但在大数据量、复杂的物体图片分类方面不足,过拟合也导致其泛化能力较弱。网络训练开销大且受制于计算机性能。
2012年,在ILSVRC竞赛中AlexNet模型[3]赢得冠军,将错误率降低了10个百分点。拥有5层卷积结构的AlexNet模型证明了卷积神经网络在复杂模型下的有效性,并将GPU训练引入研究领域,使得大数据训练时间缩短,具有里程碑意义。AlexNet还有如下创新点:①采用局部响应归一化算法(LocalResponseNormalization,LRN),增强了模型的泛化能力,有效降低了分类错误率;②使用Dropout技术,降低了神经元复杂的互适应关系,有效避免了过拟合;③为了获得更快的收敛速度,AlexNet使用非线性激活函数ReLU(RectifiedLinearUnits)来代替传统的Sigmoid激活函数。
Karen等[4]在AlexNet的基础上使用更小尺寸的卷积核级联替代大卷积核,提出了VGG网络。虽然VGG网络层数和参数都比AlexNet多,但得益于更深的网络和较小的卷积核尺寸,使之具有隐式规则作用,只需很少的迭代次数就能达到收敛目的。
复杂的网络结构能表达更高维的抽象特征。然而,随着网络层数增加,参数量也急剧增加,导致过拟合及计算量大增,解决这两个缺陷的根本办法是将全连接甚至一般的卷积转化为稀疏连接。为此,Google团队提出了Inception结构[5],以将稀疏矩阵聚类为较为密集的子矩阵来提高计算性能。以Inception结构构造的22层网络GoogLeNet,用均值池化代替后端的全连接层,使得参数量只有7M,极大增强了泛化能力,并增加了两个辅助的Softmax用于向前传导梯度,避免梯度消失。GoogLeNet在2014年的ILSVRC竞赛中以Top-5错误率仅6.66%的成绩摘得桂冠。
网络层数的增加并非永无止境。随着网络层数的增加,将导致训练误差增大等所谓退化问题。为此,微软提出了一种深度残差学习框架[6],利用多层网络拟合一个残差映射,成功构造出152层的ResNet-152,并在2015年的ILSVRC分类问题竞赛中取得Top-5错误率仅5.71%的成绩。随后,对现有的瓶颈式残差结构进行改进,提出了一种直通结构[7],并基于此搭建出惊人的1001层网络,在CIFAR-10分类错误率仅4.92%。至此,卷积神经网络在越来越“深”的道路上一往直前。
2可变形的卷积神经网络
2.1空间变换网络
空间变换网络(SpatialTransformerNetwork,STN)[8]主要由定位网络(Localisationnet)、网格生成器(Gridgenerator)和可微图像采样(DifferentiableImageSampling)3部分构成,如图1所示。
定位网络将输入的特征图U放入一个子网络(由卷积、全连接等构成的若干层子网络),生成空间变换参数θ。θ的形式可以多样,如需要实现2D仿射变换,那么θ就是一个2×3的向量。
2.3本文模型
本文以自建的3层卷积网络C3K5(如图6所示)和VGG-16作为基准网络,分别引入空间变换网络、可变形卷积和可变形池化,构造出8个卷积神经网络,用以验证可变形模块对浅层网络和深层网络的影响,如表1所示。
图6中C3K5网络模型包含3个带有ReLU层、LRN层和池化层的卷积模块,卷积层采用步长为1的5×5卷积核,输出保持原大小,池化层采用步长为2核为2×2的最大值池化,即每经过一个卷积模块,特征图缩小为原来的一半。
3实验与分析
3.1实验设置
本文实验环境:CPU为Inteli5-7400,8G内存,显卡为GTX1060,采用Cuda8+CuDNN6.0加速。
实验数据集包括公共图像数据集mnist、cifar-10、cifar-100和自建图像数据集pen-7。公共数据集分别有50000张训练样本图像和10000张测试样本图像。自建数据集pen-7为京东商城的七类笔图像库,每类有600张图片,图像分辨率为200×200,总计训练样本数3360,测试样本数840,图7为其中的14个样本。
3.2结果与分析
分别将表1中的10个卷积网络应用到mnist、cifar-10、cifar-100和pen-7四个数据集进行训练,batch-size设置100,即每次传入100张图片进行训练,每训练100次测试一次(记为一次迭代),总共迭代100次,取最后10次迭代的准确率计算平均值,得各网络应用在不同数据集的分类结果,如表2所示。
实验结果表明,在卷积网络中引入空间变换网络、用可变形的卷积层和可变形的池化层替换传统的卷积层和池化层,不管是在浅层网络还是在深层网络,都能获得更高的分类准确率,这验证了空间变换网络和可变形卷积(池化)结构,丰富了卷积神经网络的空间特征表达能力,提升了卷积网络对样本的空间多样性变化的鲁棒性。包含3种模块的网络获得了最高的分类精度,使空间变换网络、可变形卷积层和可变形池化层在更多应用场景中并驾齐驱成为可能。
4结语
通过在现有卷积神经网络中引入空间变换网络、可变形的卷积层和可变形的池化层,使得卷积网络在mnist、cifar-10、cifar-100及自建的pen-7数据集中获得了更高的分类精度,包含3种模块的网络获得了最高分类精度,证明了空间变换网络、可变形的卷积层和可变形池化层都能丰富网络的空间特征表达能力,协同应用于图像分类工作,这为后续研究打下了坚实的基础。
参考文献:
[1]BOUVRIEJ.Notesonconvolutionalneuralnetworks[J].NeuralNets,2006(1):159-164.
[2]YLECUN,LBOTTOU,YBENGIO,etal.Gradient-basedlearningappliedtodocumentrecognition[J].ProceedingsoftheIEEE,1998,86(11):2278-2324.
[3]KRIZHEVSKYA,SUTSKEVERI,HINTONGE.ImageNetclassificationwithdeepconvolutionalneuralnetworks[C].InternationalConferenceonNeuralInformationProcessingSystems.CurranAssociatesInc,2012:1097-1105.
[4]SIMONYANK,ZISSERMANA.Verydeepconvolutionalnetworksforlarge-scaleimagerecognition[J].ComputerScience,2014(6):1211-1220.
[5]SZEGEDYC,LIUW,JIAY,etal.Goingdeeperwithconvolutions[J].CVPR,2015(3):1-9.
[6]HEK,ZHANGX,RENS,etal.Deepresiduallearningforimagerecognition[C].ComputerVisionandPatternRecognition.IEEE,2015:770-778.
[7]HEK,ZHANGX,RENS,etal.Identitymappingsindeepresidualnetworks[J].arXiv,2016(1603):5-27.
[8]JADERBERGM,SIMONYANK,ZISSERMANA,etal.Spatialtransformernetworks[J].ComputerScience,2015(5):1041-1050.
[9]DAIJ,QIH,XIONGY,etal.Deformableconvolutionalnetworks[J].arXiv:2017(1703):62-111.
卷积神经网络设计原则范文篇3
【关键词】微表情识别卷积神经网络长短时记忆
1引言
人们的内心想法通常都会表现在面部表情上,然而在一些极端环境下,人们为了压抑自己的真实内心情感时,他们的面部变化十分微小,我们通常称之为微表情。在刑侦、医学、教育、心理和国防等领域上,微表情的应用前景十分远大,不过即便是经过训练的人也很难用肉眼来准确的检测和识别微表情。其主要原因就是它的持续时间短,仅为1/5~1/25s,而且动作幅度很小。
人脸表情识别技术早已发展到一定程度了,甚至不少研究团队提出的方法针对6种基本表情的识别率已经达到90%。然而微表情识别技术的研究在近几年来才刚刚开始,如Pfister等提出了一种结合时域插值模型和多核学习的方法来识别微表情;Wu等设计了一种使用Gabor特征和支持向量机的微表情识别系统;唐红梅等在LTP做出改进而提出的MG-LTP算法,然后采用极限学习机对微表情进行训练和分类;Wang等提出了基于判别式张量子空间分析的特征提取方法,并利用极限学习机训练和分类微表情。
上述的识别技术都是基于传统机器学习的方法,而近几年来,利用深度学习技术来解决图像识别问题是当前的研究热点。在ILSVRC-2012图像识别竞赛中,Krizhevsky等利用深度卷积神经网络的自适应特征提取方法,其性能远远超过使用人工提取特征的方法,并且在近几年内的ImageNet大规模视觉识别挑战比赛中连续刷新了世界纪录。
本文决定使用卷积神经网络(CNN)来提取人脸微表情特征,它能让机器自主地从样本数据中学习到表示这些微表情的本质特征,而这些特征更具有一般性。由于微表情的特性,要充分利用微表情的上下文信息才能更为精确的识别微表情,这里我们采用长短时记忆网络(LSTM),它是递归神经网络(RNN)中的一种变换形式,它能够充分的利用数据的上下文信息,在对序列的识别任务中表现优异,近几年来它被充分的利用到自然语言处理、语音识别机器翻译等领域。综上所述,本文提出一种CNN和LSTM结合的微表情识别方法。
2相关工作
2.1卷积神经网络模型
卷积神经网络模型(CNN)最早是由LeCun等在1990年首次提出,现已在图像识别领域取得巨大成功,它能够发现隐藏在图片中的特征,相比人工提取的特征更具有区分度,而且不需要对原始数据做过多的预处理。
卷积神经网络(CNN)通过三种方式来让网络所学习到的特征更具有鲁棒性:局部感受野、权值共享和降采样。局部感受野是指每一个卷积层的神经元只能和上一层的一部分神经元连接,而不是一般神经网络里所要求的全连接,这样每一个神经元能够感受到局部的视觉特征,然后在更高层将局部信息进行整合,进而得到整个图片的描述信息。权值共享是指每一个神经元和上一层的部分神经元所连接的每一条边的权值,和当前层其他神经元和上一层连接的每一条边的权值是一样的,首先@样减少了需要训练的参数个数,其次我们可以把这种模式作为提取整个图片特征的一种方式。降采样是指通过将一定范围内的像素点压缩为一个像素点,使图像缩放,减少特征的维度,通常在卷积层之后用来让各层所得到的特征具有平移、缩放不变形,从而使特征具有更强的泛化性。
2.2长短时记忆型递归神经网络模型
长短时记忆(LSTM)模型是由Hochreiter提出,它解决了传统RNN在处理长序列数据时存在的梯度消失问题,这一切都要归结于LSTM结构的精心设计。一个常规的LSTM结构如图1所示。
每一个LSTM结构都有一个记忆单元Ct(t表示当前时刻),它保存着这个时刻LSTM结构的内部状态,同时里面还有三个门来控制整个结构的变化,它们分别是输入门(xt),忘记门(ft)和输出门(ht),它们的定义如下所示:
(1)
(2)
(3)
(4)
(5)
(6)
其中σ是一个sigmod函数,而则表示输入数据的非线性变化,W和b是模型需要训练得到的参数。等式5展示了当前的记忆单元是由忘记门和上一时刻的内部状态所控制的,ft决定了上一时刻的内部状态对当前时刻的内部状态的影响程度,而it则确定了输入数据的非线性变换得到的状态对当前时刻记忆单元的影响程度。等式6展示了输出门和当前时刻的内部状态决定了该LSTM的输出。正因为这个巧妙的设计,LSTM就能处理长序列的数据,并且能够从输入序列中获取时间上的关联性,这一特性对于微表情的识别尤为重要。
3网络结构调优和改进
3.1卷积神经网络设计
本文针对输入大小为96×96的灰度图,构建了4个卷积层(C1,C2,C3,C4),4个池化层(S1,S2,S3,S4),1个全连接层(FC1)和1个Softmax层组成的卷积神经网络结构,如图2所示。卷积核(C1,C2,C3,C4)的大小分别为3×3,3×3,5×5,5×5,分别有32,32,32,64个。池化层的降采样核大小均为2×2,并且全部采用的是最大采样,每一个池化层都在对应的卷积层之后,而在所有的卷积层之后,连接了一个包含256个神经元的全连接层,为了尽可能的避免过拟合问题,本文在全连接层后加入一个p=0.75的Dropout层,除了softmax层,其余层的激活函数全部是采用ReLU,CNN的参数训练都是采用随机梯度下降算法,每一批次包含100张图片,并设置冲量为0.9,学习速率为0.001。
3.2长短时记忆型递归神经网络设计
尽管CNN已经从人脸微表情图片从学习到了特征,但是单一的CNN模型忽略了微表情在时域上的信息。于是我们提出通过LSTM来学习不同人脸表情在时域上的关联特征。我们构建了多个LSTM层,以及一个softmax层。
我们首先先训练好CNN的参数,然后把训练好的CNN模型,作为一个提取人脸微表情的工具,对于每一帧图片,我们把最后一个全连接层的256维的向量输出作为提取的特征。那么给定一个时间点t,我们取之前的W帧图片([t-W+1,t])。然后将这些图片传入到训练好的CNN模型中,然后提取出W帧图片的特征,如果某一个序列的特征数目不足,那么用0向量补全,每一个特征的维度为256,接着将这些图片的特征依次输入到LSTM的节点中去,只有t时刻,LSTM才会输出它的特征到softmax层。同样LSTM网络的参数训练还是采用随机梯度下降算法,每一批次为50个序列,冲量为0.85,学习速率为0.01。
4实验
4.1微表情数据集
该实验的训练数据和测试数据均来自于中国科学院心理研究所傅小兰团队的第2代改进数据库CASMEII。该数据库从26名受试者中捕捉到近3000个面部动作中选取的247个带有微表情的视频,并且给出了微表情的起始和结束时间以及表情标签,由于其中悲伤和害怕表情的数据量并不多,因此本文选取了里面的5类表情(高兴,恶心,惊讶,其他,中性),由于数据库中的图片尺寸不一样并且是彩色图片,因此先将图片进行灰度处理,并归一化到大小作为网络的输入。本实验采用5折交叉验证的方法,选取245个微表情序列等分成5份,每个序列的图片有10张到70张不等,每份均包含5类表情。
4.2CNN+LSTM和CNN的对比实验
从图2中可以看出不同策略在五类表情里的识别率。当我们采用单一的CNN模型来对人脸微表情进行分类时,我们采取了dropout策略和数据集扩增策略来防止CNN过拟合。CNN+D表示采取了dropout策略的CNN模型,CNN+A表示采取了数据扩增策略的CNN模型,即对每一张图片进行了以下四种变换:旋转、水平平移、垂直平移、水平翻转。从而能将数据集扩增至4倍。CNN+AD表示采取了两种策略的CNN模型。CNN+LSTM表示结合了CNN和LSTM的网络模型。
从表1中我们可以看出,添加了策略的CNN,在人微表情识别上的表现要好于没有添加策略的CNN,这可能是因为训练图片较少,而CNN网络层次较深,导致没有添加策略的CNN在训练参数的过程中很容易就过拟合了。而对于CNN+LSTM的表现要好于单一的CNN模型,这说明LSTM的确能够充分利用时域上的特征信息,从而能够更好识别序列数据,这证明了CNN+LSTM的模型可以用于识别人脸微表情的可行性。从表1中,我们还可以看出高兴和惊讶的表情识别率较高,而其他的则相对较低,这可能是因为高兴和惊讶的区分度较大,并且样本较多。
4.3LSTM的参数调整
下面我们逐一的研究不同参数对CNN+LSTM模型的微表情识别率的影响程度。
图4显示输入的序列个数为100左右能够拥有相对较高的准确率,这说明只有充分利用每一个微表情序列的时域信息,这样,训练出的模型才更加具有一般性。
图5显示出当LSTM隐层的神经元个数为128时,此时的微表情平均识别率最高,这说明隐层需要足够多的神经元才能保留更长的时域信息,对于微表情识别来说,能够拥有更高的精度。
图6显示了LSTM隐层的个数为5时,该模型拥有最好的识别率,这说明较深的LSTM网络才能充分挖掘特征的时域信息。因此经过以上实验,我们得到了一个由5层LSTM,每一层包含128个神经元,并能够处理长度为100的特征序列的模型。
4.4和非深度学习算法的实验对比
为了比较传统机器学习算法和深度学习算法孰优孰劣,我们使用传统机器学习算法在Casme2进行了一样的实验,从表2中可以看出,本文所提出的CNN+LSTM模型相对于这些传统机器学习模型,有着较为优异的表现。
本文中的实验均是基于Google的开源机器学习库TensorFlow上进行的,硬件平台是dell工作站:Intel(R)Core(TM)i7-5820KCPU、主频3.3GHZ,内存64GB、NvidaGeForceGTXTITANXGPU、显存12GB。
5结束语
本文针对传统方法对微表情识别率低,图片预处理复杂的情况,提出了采用卷积神经网络和递归神经网络(LSTM)结合的方式,通过前面的卷积网络层来提取微表情的静态特征,省去了传统机器学习方法,需要人工提取特征的过程,简化了特征提取的工作。然后再通过后面的递归神经网路,充分利用表情特征序列的上下文信息,从而在序列数据中发现隐藏在其中的时域信息,从实验结果中可以看出,利用了时域信息的CNN+LSTM比单纯使用CNN的识别率更高,而且相对于传统机器学习方法也更为优秀。但是当数据量越大时,如果网络的层次比较深的话,模型的训练时间就会很长,并且极度依赖硬件设备,这算是深度学习通有的弊病。为了进一步投入到应用中去,接下来还得提高微表情的识别率,以及在实时环境下,如何能够动态和准确的识别微表情,这些都将会是以后研究的重点。
参考文献
[1]PORTERS,TENBRINKEL.ReadingbetweentheLiesIdentifyingConcealedandFalsifiedEmotionsinUniversalFacialExpressions[J].PsychologicalScience,2008,19(05):508-514.
[2]PfisterT,LiX,ZhaoG,PietikainenM(2011)Recognisingspontaneousfacialmicro-expressions.2011ProcIEEEIntConfComputVis(ICCV):IEEE.pp.1449-1456.
[3]WuQ,ShenX,FuX(2011)TheMachineKnowsWhatYouAreHiding:AnAutomaticMicro-expressionRecognitionSystem.In:D’MelloS,GraesserA,SchullerB,MartinJ-C,editors.AffectComputIntellInteract.SpringerBerlin/Heidelberg.pp.152-162.
[4]唐红梅,石京力,郭迎春,韩力英,王霞.基于MG-LTP与ELM的微表情识别[J].电视技术,2015,39(03):123-126.
[5]WANGSJ,CHENHL,YANWJ,etal.FaceRecognitionandMicro-ExpressionRecognitionBasedonDiscriminantTensorSubspaceAnalysisPlusExtremeLearningMachine[J].NeuralProcessingLetters,2014,39(01):25-43.
[6]KrizhevskyA,SutskeverI,HintonGE.ImageNetclassificationwithdeepconvolutionalneuralnetworks.In:AdvancesinNeuralInformationProcessingSystems25.LakeTahoe,Nevada,USA:CurranAssociates,Inc.,2012.1097?1105
[7]DENGJ,DONGW,SOCHERR,etal.Imagenet:Alarge-scalehierarchicalimagedatabase[C]//IEEEConferenceonComputerVisionandPatternRecognition.Piscataway,NJ:IEEE,2009:248-255.
[8]BENGIOY,DELALLEAUO.Ontheexpressivepowerofdeeparchi-tectures[C]//Procofthe14thInternationalConferenceonDiscoveryScience.Berlin:Springer-Verlag,2011:18-36.
[9]LeCunY,BoserB,DenkerJS,HowardRE,HubbardW,JackelLD,HendersonD.Handwrittendigitrecogni-tionwithaback-propagationnetwork.In:ProceedingsofAdvancesinNeuralInformationProcessingSystems2.SanFrancisco,CA,USA:MorganKaufmannPublishersInc.,1990.396-404.
[10]S可.卷积神经网络在图像识别上的应用研究[D].杭州:浙江大学[学位论文],2012.
[11]HochreiterS,SehmidhuberJ.LongShort-TermMemory.NeuralComputation,1997,9(08):1735-1780
[12]LUCEYP,COHNJF,KANADET,etal.TheExtendedCohn-KanadeDataset(CK+):Acompletedatasetforac-tionunitandemotion-specifiedexpression[C]//IEEEComputerSocietyConferenceonComputerVisionandPatternRecognitionWorkshops(CVPRW).NewYork:IEEE,2010:94-101.
[13]DayanP,AbottLF.TheoreticalNeuroscience.Cambridge:MITPress,2001.
[14]YANWJ,LIX,WANGSJ,etal.CASMEII:AnImprovedSpontaneousMicro-ExpressionDatabaseandtheBaselineEvaluation[J].PlosOne,2014,9(01):1-8.
[15]YandanWang,JohnSee,RaphaelC-WPhan,Yee-HuiOh.EfficientSpatio-TemporalLocalBinaryPatternsforSpontaneousFacialMicro-ExpressionRecognition[J].PLOSONE,2013,10(05):11-12
[16]张轩阁,田彦涛,郭艳君,王美茜.基于光流与LBP-TOP特征结合的微表情识别[J].吉林大学学报:信息科学版,2015,33(05):521-522.
[17]MartínAbadi,PaulBarhamJianmin,Chenel.TensorFlow:Large-ScaleMachineLearningonHeterogeneousDistributedSystems[EB/OL].https:///abs/1605.08695.