公务员期刊网 精选范文 卷积神经网络的训练方法范文

卷积神经网络的训练方法精选(九篇)

卷积神经网络的训练方法

第1篇:卷积神经网络的训练方法范文

[关键词]卷积网络,mnist,深度学习;

中图分类号:TP391 文献标识码:A 文章编号:1009-914X(2017)02-0168-01

1 概述

几年来,深度卷积网络技术飞速发展,在图像,语音,自然语言处理等多个人工智能领域纷纷取得领先。深度卷积网络作为深度神经网络的一种,其具有独特的类似于人眼局部感受野的卷积核,以及类似于生物神经的层次级联结构。由于权值共享的特性,网络的参数大大减少,同时降低了对训练数据过拟合的风险,具有比其他种类的深度网络更加易于训练的好处。

2 深度卷积网络

2.1 深度卷积层的结构

一个典型的深度卷积网络结构如图2-1所示。

深度卷积网络的第一层是输入层,接下来是若干个卷基层和下采样层,最后是一个分类器,如softmax分类器,由分类器输出相应的分类结果。通常,每一个卷基层后面都紧跟一个下采样层。在卷基层,利用局部连接和权值共享可以减少网络的训练参数,降低计算的复杂性。通过卷积运算,得到的卷积结果通过sigmoid等激活函数的输出得到这一层的特征图,然后作为下一层(下采样层)的输入。在下采样层。将前一层对应的特征图中相邻若干个特征通过池化操作合并成一个特征。输入的图像数据可以直接传送到第一个卷积层,进行逐层特征学习,最后利用有标签样本数据输入到softmax分类器,通过后向反馈微调整个网络的参数。

2.2 深度卷积网络的学习算法

2.2.1 卷积层的学习

卷积层是利用局部连接和权值共享,减少网络的自由参数个数,降低网络参数选取复杂度。在每一个卷积层中,用一个可学习的卷积核与上一层若干个特征图进行卷积,再通过一个激活函数f,如sigmoid利用式2-1就可以得到相应的输入特征。

这里l表示层数,k是卷积核,*表示二维卷积,表示偏置,是输入特征图集合。

2.2.2 下采样层的学习

下采样层利用图像局部相关性原理,对图像进行子抽样,在减少数据处理量的同时保留有用信息。这里通常是对前一层对应的特征图中的向量特征进行池化操作。池化分为平均池化和最大池化等,池化后特征图数量不变,但特征图变小,输出的特征可用式2-2计算。

其中对应权值,b表示相应偏置,dowm表示下采样函数。

深度卷积网络,输入端直接输入图像像素,采用由前向后的逐层学习方式,计算损失函数,再通过bp算法对整个训练参数进行调整。

3 深度学习中常用方法

3.1 线性校正单元

线性校正单元(ReLU)是当前最普遍使用的非线性激活函数,其函数形式为f(x)=max(x,0)。在过去神经网络通常使用Tanh或Sigmoid函数作为激活函数。研究表明,生理神经元编码可能是以稀疏分布的形式表示,因为神经元的活动电位和突出后效应消耗了绝大部分能量,同时能激活的神经元数量预测在1%至4%之间,所以大部分神经元处在静息状态。尽管ReLU非线性,并且在零点处不可微分,但是它可以生成真正的零来进行稀疏表示,所以对生理神经元激活的拟合更好。实验表明,ReLU作为激活函数,在网络中学习的更快。

3.2 Dropoup

在网络的训练过程中,过拟合是个常见的问题,尤其是在训练大规模网络的时候,Dropout 是处理这个问题的一种方法。Dropout 是指在训练的时候,以随机概率抛弃神经元的连接,进而增加网络的健壮性。若在训练中使用了 Dropout,则会导致网络连接数变少,所以测试的时候需要通过对该层的所有权值等比例缩小,以平均近似训练时的网络。神经元与Dropout 随机挑选的单元进行训练,会使得每个单元不依赖于特定单元从而变得更加健壮,进而产生有用的特征信息。

4 仿真实验

本文采用matlab仿真环境,网络采用五层结构,前两层为卷积层,卷积核分别为3和5。中间两层为全连接,最后一层是softmax分类器。实验结果如图4-1所示。结果可以看到,错误率大约为0.48%左右,此网络拥有很高的识别率。

参考文献

[1] 段宝彬,韩立新. 改进的深度卷积网络及在碎纸片拼接中的应用[J].计算机工程与应用,2014,50(9):176-181.

[2] 郑昌艳,梅卫,王刚. 基于深度卷积神经网络的蛇形机动航迹图像识别[J].火力与指挥控制,2016.05.

[3] 张宏毅. 基于深度卷e网络的同款商品图像检索研究[J].图形图像,2016.04.

[4] 刘畅. MRI脑影像的深度卷积网络分割和三维可视化[D].

[5] Glorot X, Bordes A, Bengio Y.Deep sparse rectifier neural networks;International Conferenc e on Artificial Intelligence and Statistics[C], 2011.

[6] Lennie P.The cost of cortical computation [J].Current biology,2003,13(6):493-497.

第2篇:卷积神经网络的训练方法范文

关键词:手写数字识别;卷积神经网络;应用

手写体数字识别在邮政、金融等领域应用广泛。对于数字识别,人们往往要求识别器有很高的识别可靠性,数字识别的错误所带来的影响比文字识别等其他识别所带来的影响更大,特别是有关金融方面的数字识别错误所带来的后果是无法想象的,识别错一个数字,这其中的差距可能是几的差距,也可能是几十、几百的差距,这些都还是小问题;但更有可能这一个数字代表的差距是几万、几千万甚至几亿乃至更多,那么这个错误造成的损失就无法估量了。因此,O计出有着高可靠性与高识别率的数字识别系统已经成为了字符识别领域一个非常重要的环节。

1 网络模型和数据库及学习算法的选择

1.1 关于Mnist数据库的介绍

首先,Mnist是NIST数据库的一个优化子集。它是一个有着60000个训练样本集与10000个测试样本集的手写体数字数据库。此数字库一共有4个文件。

此数字库的所有样本集都有图像文件以及标签文件。标签文件的作用是用来储存样本集中的每个样本的数值标签,而每一个样本的图像数据信息则是由图像文件存储着。此数据库的图像数据均保存在二进制文件之中,且每个样本图像的大小均为28*28。

1.2 数字识别的模型选择

手写体数字虽然只有0~9十个数字,但由于写法因人而异,不同地域同样一个数字有多种不同的写法,每个人都有自己的书写习惯。且一些纸质差异、笔画粗细、光线问题、位置、尺度大小等等多种因素都能对输入产生影响。考虑到这些因素,为让网络有良好的识别能力,我们这里采用在图像识别领域有着优秀表现的卷积神经网络作为此数字识别系统的训练模型。

1.3 学习算法的选择

一个优秀的网络模型必须具备良好的学习算法,每个学习网络都有着相对来说较为合适自己的学习算法,而并不是说越高端的算法就越好。在此文中,我选择的学习算法是较为成熟的BP算法。此算法在文字前面有些许介绍,此处不再多做说明。

2 基于卷积神经网络的数字识别系统的设计

2.1 输入层以及输出层设定

根据样本的特征与此网络的网络结构,可以大概判断出输入层与输出层该如何设置。隐含层的个数可以是一个,也可以是多个,这与要分类的问题有关。

前文提及到在mnist数据库中,所有的图像都是28*28大小的,且以整个图片的像素形式存储在数据文件之中。每张图像大小为28*28,故一个图片像素点个数为784个。这里,卷积神经网络的输入即为这784个像素点。

因为数字识别需要识别的是0~9这十个数字,即需要识别十种字符类别,所以将这个神经网络输出层的神经元节点数设置为10。

2.2 网络的中间层设置

卷积神经网络的中间层有两个部分,即卷积层(特征提取层)与下采样层(特征映射层),由第二章中图2-1所示,C1、C3为卷积层,S2、S4为降采样层。

1)激活函数选择

激活函数选择sigmoid函数。同样,在第二章有所提及。Sigmoid函数是严格递增函数,能较好的平衡线性与非线性之间的行为,比较贴近生物神经元的工作。相比于其他函数,sigmoid函数还存在着许多优势,比如光滑性、鲁棒性以及它的导数可以用它自身来表示。

sigmoid函数为:

(1)

其中,x为神经元净输入。

激活函数导数为:

(2)

2)卷积层设计

图像经过卷积核对特征图进行卷积,之后再经过sigmoid函数处理在卷积层得到特征映射图。特征映射图相比于原图像,其特征更为明显突出。

卷积运算其实就是一个加权求和的过程。离散卷积是本文所选取的方法,规定卷积核在水平和竖直两个方向每次都是移动一个像素,即卷积的步长为1。

3)下采样层的设计

根据图像局部相关性这一原理,为了降低网络的学习维度、减少需要处理的数据量且保留图像的有用信息,可以对卷积后的图像进行下采样。这里,我们采取的是取卷积层4个像素点平均值为下采样层的一个像素点的方法。这样可以降低网络规模。

2.3 网络总体结构CNN-0

根据LeNet-5结构,再结合上文中的对输入层、输出层、中间层的设计,完成了如图3-1所示的基本网络结构:

相比于LeNet-5,CNN-0做了一些修改,并非完全按照LeNet-5网络结构模型。Sigmoid函数是本网络中的激活函数,选择这个函数的好处在于可以让所有层得到的输出都在区间[-1,1]之内。网络训练的学习率固定值为1或者是衰减的学习速率。经过卷积后的一维向量与输出层没有沿用LeNet-5的径向基函数网络,而是采取全连接方式,省去了F6层。

3.3 卷积神经网络训练过程

在模式识别中,学习网络有无指导学习网络与有指导学习网络两个类别。无指导学习网络一般是用来进行聚类分析,本文采取的是有指导学习网络。

卷积神经网络其实就是从输入到输出的一种映射,它可以学量的映射关系,只需要用现有的模式对网络进行训练,网络就能具备映射能力。而不需要输入与输出之间的精确的关系。

训练算法与传统的BP算法相差无几(BP算法在第二章有做概述),主要可分为四个步骤,而这四个步骤可以归为向前传播阶段与向后传播阶段:相前传播:

1)随机的从样本集中获取一个样本(A, ),然后将A输入至网络中;

2)根据公式(3)计算出实际输出:

(3)

向后传播:

1)计算和理想输出之间的差;

2)根据极小化误差方法调整权值矩阵。

结语

在手写数字识别这一块,相对来说比较有难度的应该就是脱机自由手写字符识别了,不过本文所研究的并不是这一系统,本设计是一个基于卷积神经网络的手写数字识别系统,因卷积神经网络的局部感受野和降采样以及权值共享、隐性特征提取等优点,它在图像识别领域得到了非常广泛的应用。此程序是在Caffe这个框架上进行运行的,操作系统为Linux系统ubuntu14.04版本。Caffe是一个开源的深度学习框架,也可以说是一个编程框架或者模板框架,它提供一套编程机制。因此,本文所需要实际的卷积神经网络就可以根据这个框架来进行构建。

参考文献:

[1]张伟,王克俭,秦臻.基于神经网络的数字识别的研究[J].微电子学与计算,2006年第23卷第8期.

第3篇:卷积神经网络的训练方法范文

关键词:无人机;STM32;道路检测;神经网络;模型训练

传统的道路巡检和保养主要由人工来完成,需要投入大量的人力物力来保证道路的相对安全,这种方式存在着低效率、高成本且难以保证道路的决定安全[1]。固定式交通检测设备大量设置在道路的主干路上,也存在着一些缺陷:(1)监控摄像头不能做到全覆盖且具有一定的探测盲区。(2)监控系统采用多屏幕方式,工作人员进行道路故障判断时受限。(3)不能灵活的通知有关部门对事故的快速应急处理。为了克服上述的缺点,本文设计了一种基于卷积神经网络的无人机道路巡检系统,对发生故障和需要保养的道路能快速响应,及时的通知有关部门,避免事故的发生。

1系统的总体设计

在无人机道路巡检系统中,我们主要考虑了以下几个要求[3]:(1)无人机系统能满足正常的工作;(2)无人机系统能适应各种天气和气候变化等;(3)无人机系统应充分考虑控制的安全性;(4)视频流的传输应避免较长的延时。无人机道路巡检系统主要由无人机系统设计、远程控制系统、PC端系统三大部分组成,系统的总体结构框图如图1所示。系统的具体工作原理为:无人机将道路环境检测的结果,将处理后的视频流通过远程传输的方式,发送到PC端进行实时监控道路状况。远程控制系统以STM32作为主控芯片,主要包括在无人机端和遥控端两个部分,遥控端将控制指令通过2.4G通信发送到无人机端,此时无人机的做出相应的位姿变化,完成遥控端对无人机位姿的控制。无人机系统的图像采集模块芯片为树莓派,完成图像的采集并采用TCP通信实现远程视频的传输,将获取的视频流传输到PC端。PC端上使用OpenCV对图像进行处理[4],利用深度学习模块对设计的神经网络进行数据训练,从而得到检测模型,最后在PC上接收处理过的数据并实时监测道路状况。上述工作原理可实现无人机道路巡检系统,下文将对其包括的三大模块进行说明介绍。

2无人机系统设计

本次使用的是RaspberryPi3(modelB+)作为无人机的主控制板[7],无人机的飞行控制算法和图像采集模块集成在树莓派中。远程控制系统通过2.4G无线通信模块连接,通过控制器实现对无人机飞行和图像采集的控制。无人机系统总体结构如图2所示。

3PC端系统设计

在PC端系统设计主要分为图像预处理、模型训练和视频监控三大部分,通过TCP通信协议进行通信,TCP通信是一种面向连接的通信,可完成客户端(树莓派)和服务端(PC)的信息传递[9]。下面主要对前两部分详细介绍。

3.1图像预处理

本系统对地面裂缝检测的图像预处理流程如图3所示具体工作原理为:(1)采用加权平均灰度化对获取的无人机影像进行灰度化处理;(2)对灰度化处理后的影像进行直方图均衡化,使得影像具有高对比度和多元的灰度色调变化,为后续的滤波降噪奠定基础;(3)对处理后的影像进行滤波降噪,消除孤立的噪声点,采用方法的是中值滤波降噪;(4)使用迭代二值化处理将影像的灰度值设置合适的阈值,使得图像更简单,目标更突出,然后对图像进行分割,计算迭代的阈值,判断迭代的阈值是否收敛到某一值或者达到限定的迭代次数,如果是的话,将完成二值化处理和滤波,否则将初始二值化阈值;(5)最终完成道路故障的识别与标记。

3.2模型检测

3.2.1卷积神经网络原理使用卷积神经网络进行模型训练,首先使用卷积层实现特征的提取,原理如图4所示。如图5所示,卷积操作是模仿神经元的机制。不同的输入在权重的影响下会有不同的输出,根据损失函数的计算来不断的更新权重,直到获得合理的权重参数。初始传递的信号为x,中间通过权重w,再经过偏置b后连接在末端,最后输出信号变成wx+b。fun(•)表示激活函数,最终f(z为输出的结果,如式(1)所示。3.2.2卷积神经网络训练流程通过相机采集到的缺陷和问题图像作为训练样本,这部分是检测道路安全的关键一步,(1)训练标记数据:首先使用图像预处理中标记好的道路故障提取出来,通过卷积神经网络对标记框内的目标数据进行训练;(2)提取特征数据:将道路故障的类型统计并归纳;(3)误差反馈学习:对测试样本进行误差反馈学习,并进行测试;(4)优化训练数据:根据实际应用场景增加图像的种类和数量,不断训练模型。3.2.3故障的基本分类道路故障主要路面缺陷(例如裂缝、残缺等)和路面增加(例如长时间静止的车辆和路人),各自训练集数量为1000张。如表1所示。3.2.4实验测试为实现故障的检测,测试数据集为100张,不同类型故障数据50张,均采集自新道路且与训练样本一致,实验结果如表2所示。由表2可知,检测路面增加(例如长时间静止的车辆和路人)的准确率高达96%,但是地面缺陷的准确率相比较而言略低,可能造成的原因是:①硬件原因导致采集的图像清晰度比较低;②地面缺陷太小,无人机难以识别;③训练的数据集较少,特征学习误差大;但是满足了设计需求,还需进一步改进。

4总结与展望

第4篇:卷积神经网络的训练方法范文

关键词:深度学习;行为识别;神经网络

1 概述

动作行为识别是计算机视觉领域中的一个研究热点,已经广泛应用于智能监控、人机交互、视频检索等领域中[1]。动作行为识别技术是通过对视频或者图像中人体动作行为做出有意义的判断。有效表达图像(视频)中的实际目标和场景内容是最基本,最核心的问题。因此,对于特征的构建和选择得到广泛关注,例如STIP、SIFT、MSER等。但是,能通过无监督方式让机器自动从样本中学习到表征样本的特征,会让人们更好地利用计算机来实现人的视觉功能。而深度学习作为神经网络的延伸和发展,是通过逐层构建一个多层网络来使得机器自动学习到隐含在数据内部的关系,从而让学习到的特征更加准确性。

文章旨在探讨深度学习与机器学习(神经网络)之间的关系,并且介绍深度学习的由来、概念和原理;同时介绍目前深度学习在计算机视觉中的应用。最后提出深度学习目前发展所面临的问题,以及对未来的展望。

2 深度学习

2.1 深度学习概述

深度学习源于人工神经网络的研究,是机器学习的拓展。深度学习是经过组合低层特征来形成更加抽象的属性类别和特征,从中发现原始数据的特征表征[2]。现在用于动作行为识别的技术是通过“动作表征”+“动作分类器”的框架来进行行为识别的。其中“动作表征”是人们手动设计特征获取到的,也就是在目前识别框架内存在一个对动作图像(视频)的预处理过程。

深度学习和浅层学习相对。目前许多学习算法是浅层网络学习方法,具有一定的局限性,例如在样本有限的状况下,表示复杂函数的能力有限制,且对复杂分类问题的泛化能力也会受到一定约束[3]。而深度学习通过学习深层非线性网络结构,达到复杂函数逼近,又能在样本少的情况下学习原始数据的特征。BP算法作为传统神经网络的典型算法,虽然训练多层网络,但仅含几层网络,训练方法很不理想[3]。因为其输入和输出间非线性映射让网络误差函数形成含多个极小点的非线性空间,因而经常收敛到局部最小,且随着网络层数的增加,容易过拟合。而深度学习可以获得分布式表示,通过逐层学习算法来得到原始输入数据的主要变量。通过深度学习的非监督训练完成,同时利用生成性训练避免因函数表达能力过强而出现过拟合情况。

2.2 深度学习原理

传统机器学习仅含单层非线性变换的浅层网络结构,而且浅层模型单一。这对于深度网络来说易造成陷入最优或产生梯度分散等问题。因此,Hinton等人在基于深度置信网(DBNs)的情况下提出非监督贪婪逐层训练算法,随后提出了多层次自动编码器深层结构,这给解决深层网络结构相关的优化难题带来了希望。此外Lecun等人提出的卷积神经网络是第一个多层次结构的学习算法。同时深度学习还出现了许多结构:多层感知机、去噪自动编码器、稀疏编码等。

卷积神经网络是第一个真正采用多层次网络结构,具有鲁棒性的深度学习算法,通过探究数据在空间上的相关性,减少训练参数的数量。而且卷积神经网络(CNN)适应性强,善于发现数据的局部特征。它的权重共享结构降低了网络模型的复杂度,减少了权值的数量,使得卷积神经网络在模式识别中取得了很好的结果。

自动编码器的核心关键是将原始图像(视频)输入信号进行编码,使用编码后的信号来重建原始信号,使得两者之间的重建误差最小。通过将原始信号编码成另一形式,能够有效地提取信号中的主要信息,能够简洁地表达原始图像(视频)的特征。

3 深度学习的应用

3.1 语音识别

从2009年开始,微软研究院语音识别专家通过与Hinton合作,首先将RBM和DBN引入到语音识别声学模型训练中,使得语音识别的错误率相对减低30%,这彻底改变了语音识别原有的技术框架。在国际上,IBM、google等公司都快速进行了DNN语音识别的研究,并且速度飞快。国内方面,阿里巴巴,科大讯飞、百度、中科院自动化所等公司或研究单位,也在进行深度学习在语音识别上的研究。

3.2 视频中的动作行为识别

准确迅速识别视频中人的动作行为对于视频搜索和视频监控具有划时代的意义。最近几年,深度学习技术被应用于视频动作行为识别中。如Ji等人[4]提出多层网络的3D卷积神经网络来学习视频中的时空特征,并通过卷积来实现对整个视频特征的学习,从而代替之前的时空兴趣点检测和特征描述提取。在TRECVID数据库上进行的实验取得了不错效果。

4 结束语

文章对深度学习的主要概念进行了全面阐述,包括其由来、原理、研究进展和相应的应用等。在很多领域中,深度学习都表现了潜在的巨大价值,但深度学习作为浅层学习的延伸,仍处于发展阶段,还有很多问题值得我们深入探讨:

(1)我们需要了解深度学习的样本复杂度,需要多少训练样本才能学习到足够的深度模型。

(2)在推进深度学习的学习理论和计算理论的同时,我们是否可以建立一个通用的深度学习网络模型,作为统一的框架来处理语音、图像和语言。

(3)神经网络具有前馈性连接和反馈性连接,可是我们研究的深度网络中还没有加入反馈连接,这些都给深度学习的研究带来了严峻的挑战。

参考文献

[1]王亮,胡卫明,谭铁牛.人运动的视觉分析综述[J].计算机学报,2002,25(3):225-237.

[2]余凯,贾磊,陈雨强.深度学习的昨天、今天和明天[J].计算机研究与发展,2013,50(9):1799-1804.

第5篇:卷积神经网络的训练方法范文

关键词:卷积神经网络;点击率预测;搜索广告

中图分类号:TP391.41 文献标识号:A 文章编号:2095-2163(2015)04-

Click-Through Rate Prediction for Search Advertising based on Convolution Neural Network

LI Siqin, LIN Lei, SUN Chengjie

(School of Computer Science and Technology, Harbin Institute of Technology, Harbin 150001, China)

Abstract: Click-Through Rate (CTR) prediction is the foundation of search advertising. Nowadays, lots of researches have been explored to predict CTR, and most of those researches either rely on liner model or employ method of recommendation system. However, the relations between different features in CTR predication have not been fully explored in previous works, and the relations between different features also cannot be fully embodied. In this paper, CTR prediction for search advertising based on convolution neural network is proposed, and process of convolution neural network simulating the process of human thought on feature learning is explained. Furthermore, the performance of different features have been analyzed in the task of predicting CTR. Experiments are conducted on the dataset of KDD Cup 2012 Track2 and the proposed method achieves 0.7925 in AUC, demonstrating the effectiveness of the proposed approach.

Keywords: Convolution Neural Network; Click-Through Rate Prediction; Search Advertising

0 引 言

随着Web搜索技术的成熟,搜索广告已经成为互联网行业的主要收入来源之一,其根据用户输入的查询词,在搜索的结果页面呈现出相应的广告信息。广告媒介的收益通过每次点击费用(CostPerClick,CPC)与广告点击率(Click-Through Rate,CTR)预测共同影响而得到,即CPC*CTR。由于用户点击广告的概率随着广告位的排放顺序呈递减趋势,因此对CTR进行准确高效的预测,并将CTR高的广告投放在搜索结果页面靠前的位置,不仅能增加广告媒介的收益,还能提高用户对搜索结果的满意程度。

广告点击率预测是广告算法中最核心的技术,近年来被学术界广泛关注。部分学者使用基于推荐方法的模型来解决CTR预测问题。霍晓骏等人[1]采用协同过滤算法,为页面找到与其相似的其他邻居页面,实现CTR的预测,以此作为基础进行广告推荐,但当相似页面的数量增加时,该方法的结果质量会严重下滑。Kanagal等人[2]提出了一种聚焦矩阵分解模型,针对用户对具体的产品的喜好以及相关产品的信息进行学习,解决因用户-产品交互活动少而造成的数据稀疏问题。在文献[2]的基础上,Shan等人[3]提出了一种立方矩阵分解模型,通过对用户、广告和网页三者之间关系的立方矩阵进行分解,利用拟合矩阵的值来预测CTR,虽然立方矩阵分解模型增加了一维交互关系,但所刻画的交互关系仍然十分局限,不能在CTR预测中充分挖掘广告所有特征之间的联系。

作为典型的预测问题,很多研究中通过将CTR预测问题看作分类或者回归问题来解决,其中最常见的是应用线性模型来预测CTR。Chapelle等人[4]使用动态贝叶斯网络,通过对用户产生的点击过程建立模型,考虑级联位置的信息模拟出特定位置与相近位置的相关性,以判断该位置上的广告是否满足用户搜索要求。Chakrabarti等人[5]利用点击反馈的相关性,通过在网页和广告词等特征上使用逻辑回归模型提高广告检索和预测的效果。Wu等人[6]基于融合的思想,将不同线性模型的实验效果相结合,来提高搜索广告CTR预测的结果。真实的场景中CTR的预测并非简单的线性问题,因此,一些学者开始使用非线性模型来解决CTR的预测。Dave等人[7]在搜索广告点击信息以及广告商账户信息上提取语义特征,使用基于投票思想的梯度提升决策树模型,提高了CTR预测的效果。Zhang等人[8]利用神经网络模型对影响搜索广告点击率的因素进行的探索,从特征因素方面提高CTR预测的结果,但是资源单一,数据交互的关系没有获得良好的利用。

本文对基于卷积神经网络(Convolution Neural Network,CNN)的CTR预测进行研究,通过卷积与亚采样操作的结合,能更好地学习出数据特征之间的关系,不仅解决了线性模型无法模拟真实广告数据场景的问题,也解决了浅层学习模型无法深入挖掘特征间相互关系的问题,并且较之于传统的神经网络,CNN能更好地理解特征之间的关系。在真实的数据集上的实验验证了本文的方法能够提高搜索广告中CTR预测的AUC值。

1卷积神经网络模型

1.1 卷积神经网络基本模型

卷积神经网络作为人工神经网络之一,目前已成为深度学习领域中研究的热点,权值共享以及局部窗口滑动的特点使之能更好地模拟出生物神经网络。卷积神经网络在结构上有两个重要的组成部分:卷积层和亚采样层。如图1所示。

图1 卷积层与亚采样层结构

Fig.1 Convolution layer and sub-sampling layer structure

在卷积层中,原始特征通过卷积核进行卷积得到输出的特征,使用不同的卷积核就可以得到一系列不同的输出特征。对卷积层的计算,有如下公式:

(1)

这里, 是sigmoid 函数, , ; 代表输入特征上选定的窗口,即在卷积过程中当前卷积核在计算时所对应在输入特征上的位置; 和 分别是第 层输入特征和第 层输出特征上相应的值; 是卷积核的权重值; 是特征的偏置,每一层对应一个。

卷积过程,一个卷积核通过滑动会重复作用在整个输入特征上,构建出新的特征。同一个卷积核进行卷积时,共享相同的参数,包括同样的权重和偏置,这也使要学习的卷积神经网络参数数量大大降低了。而当我们使用不同的卷积核进行卷积时,可以得到相应的不同的输出特征,这些输出特征组合到一起,构成卷积层的输出。

在亚采样层,前一个卷积层的输出将作为该层的输入特征,首先设定大小的窗口,然后通过滑动,用窗口区域中最大(或平均)的特征值来表示该窗口中的特征值,最后组合这些特征值得到降维后的特征。亚采样过程可表示如下:

(2)

这里,类似于卷积层, 和 分别是第 层输入特征和第 层输出特征上相应的值, 是特征的偏置; 表示取最大值 或者平均值 的函数。

典型的卷积神经网络通常由n(n>=1)个卷积层和亚采样层以及最末尾的m(m>=1)全连接层组合而成。一个亚采样层跟随在一个卷积层后出现,通过这若干卷积层和亚采样层后得到的特征,将经过全连接层与输出层相连。全连接层公式如下:

(3)

这里, 是sigmoid函数, 是计算第 层到第 层时的权重值。

1.2基于卷积神经网络的CTR预测模型

研究中使用卷积神经网络对搜索广告的CTR进行预测,网络结构如图2所示。

图2 卷积神经网络在搜索广告点击率预估中的应用

Fig.2 Convolution neural network in search ad click rate through prediction

实验中一共设置了两个卷积层、两个亚采样层以及一个全连接层。首先从历史日志中提取相应的特征构建出输入(Feature_Input),设置好卷积的窗口大小后根据公式(1)对输入特征进行卷积,每一次卷积是对窗口内所有值的组合,因此卷积过程相当于特征融合过程。对卷积后得到的特征,设置亚采样的窗口并根据公式(2)进行最大值-采样,选取出窗口中的最有表达能力的特征值(最大特征值)表示整个窗口的特征,因此亚采样过程相当于特征的萃取过程。整个卷积和亚采样过程的结合,模拟出了人对事物的理解和总结的过程。最后将特征经过一层全连接后连接到输出,得到最终的预测结果。

在一次特定的卷积(或亚采样)全过程中即训练的一次迭代过程中,权值并不会随着窗口的滑动而改变,即在计算中,所有窗口滑过的特征享受同样的权值。这也是CNN区别于其他神经网络的特点――权值共享。如此即使得CNN更方便训练,更能多角度地对特征进行学习。

2特征构建

本文所采用的实验数据集为KDD Cup 2012中Track 2提供的数据集。该数据由腾讯公司下的搜索品牌搜搜(SOSO)搜索引擎提供,因为涉及公司商业信息,数据经过哈希处理。实验数据集中,每条记录包含12个属性,各属性详解如表1所示。

研究按照实际含义将这12个属性构造了四大类特征:历史点击率特征、相似度特征、位置特征和高影响力特征。

2.1基于卷积神经网络的CTR预测模型

历史点击率特征是不同类别ID在历史数据中的点击率,虽然比较简单但十分有效,因为历史点击率在一定程度上代表了类别ID对某个广告感兴趣程度的高低,当一个ID对某个广告的历史点击率高时,意味着其对这个广告更感兴趣,后续点击的概率也更大。

历史点击率( )是点击数( )与展示数( )之比,在统计计算过程发现有很多情况下有些类别信息没有点击实例,因此研究采用了平滑方法解决零值问题,根据公式(4)来计算平均点击率。计算公式如下:

(4)

公式中的 和 是调节参数,根据公式(4)计算出AdID,AdvertiserID,QueryID,KeywordID,TitleID,DescriptiomID,UserID的历史点击率。

2.2相似度特征

相似度特征用来刻画属性两两之间的相似程度,用户搜索的内容与被投放的广告属性相似度高时,广告被点击的概率更大。例如当搜索内容Query与广告关键字属性Keyword相似度高时,意味着网页投放的广告与用户期望搜索的广告结果相似度高,更符合用户点击广告的动作。

通过对Query、Keyword、Title、Description的属性描述文件构造出相关的TF-IDF向量,Query为用户搜索内容,Keyword,Title,Description是广告的相关属性,数据集提供的属性信息都是经过哈希后的数字形式,但是属性之间的相对含义不变,然后计算相互之间的余弦相似度作为特征。

2.3位置特征

该特征描述的是指定广告在搜索结果页面中的位置信息。用户搜索时需求的多样化要求在对广告进行排序和投放时,在结果页面靠前的位置中尽可能地投放满足用户需求的广告,从而最大化用户的满意度、提高用户点击的兴趣[9]。因此,研究即用当前预测广告的相对位置Pos来刻画该广告在结果页面中排序靠前的程度,其定义如下:

(5)

这里, 指页面投放的广告总数, 指当前所预测广告的位置。

2.4位置特征

在预测模型中,ID属性信息通常采用one-hot形式的特征编码方式,在将不同的属性经过one-hot编码后的特征向量组合在一起,这样方式简单直观,却使得特征的维度巨大并且非常稀疏。然而在这庞大且稀疏的特征中,绝大部分维度上的特征值对整个模型的预测结果贡献非常小甚至为零,只有少数维度上的特征值对预测结果有较高的影响力。因此研究采用L1范数正则化的方式,在逻辑回归模型的代价函数中加入L1范数[10],使得模型学习得到的结果满足稀疏化,在学习参数中按大小顺序取出前N维权重较大的,将这N维权重对应位置上的特征值构建新的特征,称为高影响力特征,考虑到实验硬件,取N=180。

3 实验结果与结论分析

3.1数据准备

实验目标是通过给定的信息预测搜索网页的广告点击率,由于数据量过大并且正负样本不平衡,实验中从训练集随机采样10%作为本文实验中模型训练的训练集,既缩小了样本空间,同时随机采样也保持了原始数据的分布信息。实验中随机抽取部分样本作为验证集用于参数的调节。本文所用测试集为 KDD Cup 2012中track 2的全部测试数据,因此本文的结果与KDD Cup 2012中track 2比赛的结果具有可比性。数据的统计信息如表2所示。

这里, 、 分别表示结果中预测对的正样本数和负样本数, 、 分别表示结果中预测错的正样本数和负样本数。对于广告点击率预测问题,较大的AUC值代表了较好的性能。

3.2实验设置和结果分析

实验的操作系统为Ubuntu 12.04 LTS OS,卷积神经网络在4G RAM 的NVIDIA GeForce GT 610 GPU条件下运行。过程中选用了Dense Gaussian对卷积层、亚采样层的边和节点进行初始化,用常数初始化输出层,学习卷积神经网络各边权值时的优化函数使用梯度下降算法,其中学习率为0.01、动量项为0.9,训练步数为100,设置公式(4)中参数α=0.05,β=75。实验时使用逻辑回归模型(LR)、支持向量回归模型(SVR)和深度神经网络(DNN)作为对比方法,所有方法都使用相同的特征,其中DNN的层数以及每层的节点数与卷积神经网络相同。

具体地,首先探究了卷积神经网络中节点的设置,因为在CNN中后续层的节点数根据第一个卷积层和每层卷积(或亚采样)滑动窗口的大小计算得到,并以第一个卷积层节点的设置为实验变量,同时控制DNN中每层的节点数均与CNN相同,在验证集上的实验结果如图3所示。

从图3可以看出,随着节点的增加,AUC的值也在不断增长,在一定范围内,节点数越多,实验的结果越好。但随着节点数的增大,模型的训练时间也在延长,对设备的开销需求也在升高,综合上述因素,最终将第一层的节点数设为9 216。

CNN与各对比实验的实验结果如表3所示,可以看出CNN的效果最佳,此外在表中还列出了KDD Cup 2012 track 2比赛中第一名的结果。DNN的AUC值优于LR和SVR,验证了深度学习模型比浅层学习模型更适合解决CTR预估问题,同时CNN的结果高于DNN,说明CNN中卷积层的特征融合和亚采样层的特征萃取过程是有效的。本文中CNN目前的实验结果略低于KDD Cup 2012 track 2中第一名的结果,原因是比赛队伍使用了多模型融合并提取了庞大的(千万维)输入特征。

进一步地,实验探索了每一类特征对搜索广告点击率预测的贡献。在所有特征的情况下,去掉某一类特征来进行预测,实验结果如表4所示。实验结果表明,去掉任意一类特征都将使得实验效果有所下降。其中去掉历史点击率特征效果下降得最明显,说明用户是否点击广告,与其之前的点击行为非常相关。而去掉位置特征时,效果下降得最为不明显,因为在实验使用的数据集中,每个页面最多仅呈现三个广告,页面中的广告数少时,位置对用户点击的影响小。

4 结束语

对搜索广告点击率的有效预测不但能够更好的提高在线广告投放的性能,增加广告商的收益,还能增强用户的体验。研究使用卷积神经网络CNN对搜索广告点击率进行预测,对特征因素的分析之后,在真实数据的环境下对搜索广告点击率进行预测的实验本文的方法的效果相对于其他方法有明显的提高。本文的主要贡献有:(1)本文提出了基于卷积神经网络的搜索广告点击率预测的方法。(2)针对高维特征,提出了一种特征选择策略,可以在计算能力受限的情况下使用CNN模型来解决广告点击预测问题,并取得较好效果。在未来的工作中,一方面要继续研究更有效的特征来提高对点击率的预测效果,另一方面也将尝试对CNN模型的内部细节进行改进,使之更适合我们的预测场景。

参考文献:

[1] 霍晓骏,贺牛杨燕. 一种无位置偏见的广告协同推荐算法[J]. 计算机工程, 2014, 40(12): 39-44.

[2] BHARGAV K, AHMED A, PANDEY S, et al. Focused matrix factorization for audience selection in display advertising[C]// Data Engineering (ICDE), 2013 IEEE 29th International Conference on, Brisbane , Australia: IEEE, 2013:386-397.

[3] SHAN Lili, LEI Lin, DI Shao, et al. CTR Prediction for DSP with Improved Cube Factorization Model from Historical Bidding Log[M]// C K Loo, et al(Eds.): Neural Information Processing. Switzerland:Springer,2014,8836:17-24.

[4] OLIVIER C, ZHANG Ya. A dynamic bayesian network click model for web search ranking[C]//Proceedings of the 18th international conference on World wide web. Madrid: ACM,2009:1-10.

[5] DEEPAYAN C, AGARWAL D, JOSIFOVSKI V. Contextual advertising by combining relevance with click feedback[C]//Proceedings of the 17th international conference on World Wide Web. Beijing: ACM,2008:417-426.

[6] WU Kuanwei, FERNG C S, HO C H, et al., A two-stage ensemble of diverse models for advertisement ranking in KDD Cup 2012[J]. KDDCup, 2012.

[7] DAVE K S, VARMA V. Learning the click-through rate for rare/new ads from similar ads[C]// Proceedings of the 33rd international ACM SIGIR conference on Research and development in information retrieval, Geneva, Switzerland:ACM,2010.

[8] ZHANG Ying, JANSEN B J , SPINK A. Identification of factors predicting clickthrough in Web searching using neural network analysis[J]. Journal of the American Society for Information Science and Technology, 2009, 60(3): 557-570.

[9] 林古立.互联网信息检索中的多样化排序研究及应用[D].华南理工大学,2011.

第6篇:卷积神经网络的训练方法范文

【关键词】 素质拓展训练 网瘾综合症 网瘾大学生 湖南农业大学

在这个高度信息化的时代,“网瘾综合症”这种新的精神疾病已经严重的在青少年这个群体中滋生蔓延开来,尤其是网瘾大学生这一特殊群体,因为对网络的需求性和依赖性尤为强烈,由此引起的一系列问题已经严重影响到了大学生的正常学习和生活,甚至对学校的教学和学风建设造成了许多负面影响,所以解决大学生网瘾问题已迫在眉睫!

本研究以素质拓展训练为手段,将网瘾大学生各项构成因素作为自变量,将网瘾大学生的健康指数、学习指数、情感指数和生活满意度等指标作为因变量,拟通过对湖南农业大学1200名大学生进行抽样调查及个体调查进一步得出相关的数据与结论。

1. 问卷调查的对象、方法、构成与结果分析

1.1 问卷调查的对象选取标准

1.1.1 网瘾大学生调查对象选取标准。网瘾大学生纳入标准:(1)按照网瘾的形成与网络使用者的性别、上网频率、上网目的、心理变化、与外界的交流、学习情况等的标准来选取;(2)依据网瘾大学生的心理咨询室得出的结果对各网瘾大学生生进行区分;(3)为全国高考统招生;(4)问卷中设置不同层次的年级学生在情感诉说方面学生可以自主填写辅助筛选。

1.1.2 非网瘾大学生调查对象选取标准。为形成对照组,调查网瘾大学生与非网瘾大学生幸福感之间的差异,故在同一群体里选取一定数量的非网瘾同时进行问卷调查。

1.2 调查方法。采用群体抽样调查的方法,对湖南农业大学2009级、2010级、2011级、2012级的本科生进行问卷调查。剔除无效问卷后,获得网瘾大学生有效问卷628份,非网瘾大学生问卷397份。

1.3 调查问卷的构成

1.3.1 指数量表。总体情感指数由与被试生活质量有关的8个项目组成,从不同角度描述情感的内涵;生活满意度指数仅有一项。生活满意度指数(Satisfaction with Life Index,SWL)由英国莱斯特大学社会心理学家阿德里安怀特(Adrian White)建立,它包含健康、财富、教育和快乐四个因素。量表适用于18岁以上成年人,可采用纸笔测验形式,无答题时间限止。具体核算过程与评定:被试对每道题做出7点评定,计算时将满意度加权重1.5,然后再与整体情感量表的平均分相加。总分范围在2.5(最不健康)至13.5(最健康)之间,其信度系数为0.67,再测信度为0.57。该量表在中国大学生群体中的使用良好。

1.3.2 数字拓展训练与网瘾综合症调查问卷。由14个单选和多选题组成,涉及素质拓展训练对于受试者的健康指数、学习指数、情感指数和生活满意度的影响。

1.4 调查问卷的结果总结与分析。

1.4.1 网瘾大学生与非网瘾大学生各指数比较。对同一群体即同一院系或同一班级的网瘾大学生与非网瘾大学生的调查问卷形成对照组,求出平均得分,比较两者在健康指数、学习指数、情感指数和生活满意度上的差异性。(见表1)

1.4.2 各指数量表的调查结果

我国素质拓展构成和各部分比重,2012年最新调整为:体育 31.79%;学习 17.22%;交流13.75%;活动9.95%;实践9.64%;心理 8.52%。

通过各指数的显示表对628名贫困大学生回收的问卷调查进行统计,以健康指数、总体情感指数和生活满意度、学习指数为因变量,以素质拓展训练中的各因素为自变量,进行多因素方差分析,得分最高表明影响越大。(见图1)

1.4.3 素质拓展训练与调查的结果分析

经调查发现,随着网络的形式增加,一些网瘾大学生会在学习指数和健康指数上有所提高。不同年级的网瘾大学生的各指数也不同,通过素质拓展训练与网瘾大学生的调查问卷来得到两者的关系。按照素质拓展训练对抗大学生“网瘾综合症”问卷的年级一栏,受试者自填的结果集中统计后,将所调查的贫困大学生的年级层次分为大一、大二、大三、大四四个区间,分别将其相应的幸福感指数量表进行重新分类,计算三个指数的加权平均分。三条折线图呈现统一趋势,随着年级的增加,三个指数都随之升高(见图2)。

2. 研究结果分析与发现

2.1 网瘾大学生与非网瘾大学生素质拓展的调查结果比较

2.1.1 网瘾大学生在素质拓展上低于非网瘾大学生。网瘾大学生在健康指数、学习指数、情感指数和生活满意度上各项得分均低于非网瘾大学生。不同年级的大学生对于满足学习与社交方面的需要,生活满意度相对较高。

2.1.2 网瘾大学生与非网瘾大学生在素质拓展上构成有所不同。良好的人际关系不仅有助于完成学业,为将来的事业奠定人际基础,更深远的意义还在于它能使人获得安全感和归属感,既可以得到支持与理解,又可以给人愉快的情绪体验,培养和提高大学生健康的心理品质和心理健康水平。相反,不良的人际关系则阻碍了大学生基本需要的满足,因而增加了大学生的挫折感,激发了内心的矛盾冲突,从而影响大学生的身心健康,导致生理、心理疾病。而素质拓展训练作为体验式教学的一种方式,它是高校推进素质教育的重要途径,是培养和提高大学生人际交往能力,削弱大学生对于网络的依赖性的有力举措在生活满意度上,非网瘾大学生的生活满意度均高于网瘾大学生。网瘾大学生的健康指数、学习指数和生活满意度显著低于普通大学生,网瘾大学生与普通大学生生活满意度上的差异是由于网瘾大学生的不同年级当前学习和社交及心理方面的需要而对生活表现出的态度,他们为自己的学习能力而自信,但同时为衣着、学习条件上与普通大学生的差异导致对生活的不满,引感上的消极体验。

2.2 素质拓展训练的调查结果分析。素质拓展训练不仅能提高大学生的思维能力,培养学习兴趣,锻炼坚强品质;还能培养大学生的合作精神、团队意识、竞争理念;而且在活动中通过交往和沟通,能够加强大学生之间的情感交流,互动合作,使其意识到人际交往的重要性。

比如对于一些比较自卑羞怯的大学生存在人际交往障碍的情况,一方面我们可以运用拓展训练对他进行自信心、魄力和胆略的培养,通过不断的切身体验,让他感受到自己的力量、勇气;让他感觉到一个团队的成功也有他的努力和能量;让他从中体会到快乐和成功的喜悦。而这一切都会给的信心增添一个砝码,给他的生活多一份温馨,生活中如果这种成功的体验不断累积的话,不自信的人会慢慢的变的自信,内心变的很强大。

2.3 素质拓展训练与网瘾大学生的调查结果分析

2.3.1 性格、家庭环境、常呆在寝室、自制力不够等原因影响了大学生素质拓展。经过本小组走访其他高校校园周边网吧、图书馆电子阅览室等有网络的地方,发现许多学生利用空闲时间,为了逃避学校的检查,跑到网吧上网。周边的网吧经常人满为患,其中90%都是大学生,且大多并不是以学习为目的而是玩网络游戏,看电影等。更有甚者是直接逃课,长期坚守网吧,导致学习成绩一落千丈。而在学校的图书馆电子阅览室,这种情况也屡见不鲜,上网的初衷已经偏离了正确的方向。

2.3.1.1 由于部分学生性格原因,家庭原因等造成网瘾大学生普遍存在焦虑和茫然感,表现为自卑、封闭,缺乏自信心,懒惰,没有学习的动力,上课没有精神等等。在人际交往中他们大多自我封闭,不善于与同学交流,不积极参加集体活动,“宅”是他们代名词。《中国青少年网瘾报告(2009)》的研究也显示,网瘾程度较深的青少年,会不同程度上出现一些人际交往的困难,报告称,随着网瘾程度的加深,青少年网民对“我很难与周围的人相处好”这一语句的认同感也越强。

2.3.1.2 由于长时间上网不活动呆在室内,缺乏体育锻炼和呼吸新鲜空气,造成一系列身体问题,如:抵抗力下降,精神萎靡,眼睛视力急剧下降,颈椎病,驼背等等。已经严重妨碍到了大学生身体素质和文化素质的提高。

2.3.1.3 本小组通过调查发现,大二成了同学们的分界点,部分人没有了应试的重压人生却失去了目标。仔细分析网瘾大学生可以发现,他们中很多人都是在大一下学期或大二的时候深陷网络的。美国教育家约翰・杜威曾经说过,教育就是在生活之中促成人的“生长”。但孩子的生活中只有学习,除此之外的与人交往、获得生存能力等教育均缺位。难怪“网瘾”青少年在摆脱了学习的重压之后立刻陷入虚拟世界。

2.3.1.4 大部分网络成瘾的学生虽然自己也非常想从网络的泥沼中走出来,但是却一直寻求不到一个切实有效的方法,同时加上自身的控制力和信心的缺失,导致他们依旧泥足深陷,无法自拔。

2.3.2 素质拓展训练可规避网瘾大学生的上升。有中科院心理研究所在全国13所高校的调查显示,80%中断学业 (包括退学、休学)的大学生都是因为网络成瘾。还有百余名在读学生因为网瘾出现、成绩下降、学分不达标的情况,其中一些学生被降级、试读,濒临退学边缘。而利用拓展训练,就能使学生在愉快的参与中学到书本上学不到的知识,感悟道理,提升学习的兴趣。同时,拓展训练又具有很好的趣味性,它能在短时间内吸引住学生,激发学生参与的热情,让学生积极主动地参与到活动中来,使学生在游戏中享受快乐,在快乐中得到感悟,在感悟中得到知识。通过素质拓展训练,大学生在如下方面能有显著的提高:认识自身潜能,增强自信心,改善自身形象;克服心理惰性,磨练战胜困难的毅力;启发想象力与创造力,提高解决问题的能力;认识群体的作用,增进对集体的参与意识与责任心;改善人际关系,学会关心,更为融洽地与群体合作。

2.3.3 合理的措施能提高素质拓展的有效性。相比较与校方展开的一系列素质拓展活动的措施之前,实施后的大学生素质拓展得到明显升高。在校园内的聊天群、贴吧、论坛中,同学们对这些措施的效果反响甚好。这预示着在当前素质拓展形势下,只要通过积极有效的政策措施,实行多锻炼、走出寝室、加大对科创基金和创新实验的投入、多开展一些趣味性和提高性的活动、多一些心理咨询和交流额平台、加大老师和同学的关注度等,是可以有效避免网瘾综合症对提升大学生综合素质的影响。

3.改善和解决网瘾大学生生活状况和心理问题的措施和建议

3.1 湖南农业大学针对“网瘾综合症”大学生方面已经实施的一系列措施

(1)学校非常关注同学们的心理问题,开设了心理咨询室和心理方面的有关课程;

(2)学校也经常举行丰富多样的文化活动和竞赛,如:校园歌手大赛,梦想达人比赛,团风比赛,龙腾杯篮球比赛,文化艺术节,大学生创新基金和创新实验性项目等;

(3)学校组织的社团种类繁多,可供不同性格爱好的同学们自由选择,发挥特长,提升综合素质,走出寝室扩大交友面;

(4)辅导老师也非常关注学生们的心理和身体素质,强抓网瘾问题毫不懈怠,经常下寝室查勤,同时多次召开了有关这方面的会议和讲座;

(5)各学部的学生会学习部紧抓早自习的到勤率,在一定程度上也起到了对同学们的监督作用;

(6)各班也会自行活动,如:农家乐,唱歌比赛……为同学们提供了人际交往平台。

3.2 在已实行的措施基础上,其他行之有效的措施分析与探讨

3.2.1 从大学生网瘾群体本身出发。网瘾综合症受主观意识控制,通过对大学生网瘾群体的调查和研究,实行户外拓展活动,能够显著的改善网络成瘾,鼓励大学生走出宿舍,树立信心,改变自卑得的消极心理因素,产生积极的心理效应,还能有效的塑造个人的行为方式,促进人际交往的能力和个体的社会化过程,培养良好的性格品质,提高心理适应能力,促进身体健康。同时还能强化学习的动力,改善厌学的情绪,从而综合素质得到全面的提高。

3.2.2 加强对网瘾大学生的关注

3.2.2.1 增加对网瘾群体的关注。院、班级辅导员与学生干部应当积极关心网瘾学生,加强思想教育,通过肯定和鼓励等途径帮助他们建立积极的自我信念。开展更多有利于改善网瘾大学生的素质拓展活动。鼓励学习文化知识和个性同时发展的活动,鼓励网瘾大学生参加校内外活动,活跃其课余生活,加强其社会适应能力,树立正确、健康和科学的生活观、学习观。

3.2.2.2 增加学校老师,同学的交流。高校应重视对网瘾大学生的这一特殊群体目前的严峻形势,创造更好的学习和生活环境,颁布更多有助于缓解网瘾大学生的关注措施以利益广大网瘾大学生更好的克服,让每一个网瘾大学生都能够真正的得到帮助以顺利完成学业。可提高网瘾大学生参加校内的各项活动的积极性,加大对于参加素质拓展对于大学生以后毕业甚至升职的好处,增加活动的趣味性和有效性,每个学院,班级可以根据自身学院网瘾大学生的特点,进而采取合理有效的措施,开展相关的素质拓展活动,鼓励网瘾大学生走出网吧,走出寝室,走进学习,走进健康。

3.2.2.3 搭建沟通平台。加强校方与网瘾大学生的交流互动,可建立网瘾大学生生专门的交流平台,QQ群或飞信群等,可供及时活动、兼职等信息。网瘾大学生生之间可能存在着更多的共同语言,可建立一个网瘾大学生生的协会,组织学习一帮一、戒除网瘾等活动,促进网瘾大学生生之间的共同进步。

综上所述,良好的、健康的、稳定的素质拓展训练对与网瘾大学的影响是很显著的。目前网瘾大学生的学习和生活状况在各方的积极努力下有所改善,但不可避免还是有很多网瘾大学生由于各种原因无法得到相应的锻炼和重视,要想彻底消除网瘾现象,开展相应的积极措施十分必要,它任重而道远。切实开展相关的素质拓展训练不仅要靠学校与学生两方面共同的努力,还需要国家政府和更多社会各界爱心人士的支持,贡献力量。

参考文献

[1] 胡松义.大学生网络成瘾的原因与对策[J]. 湖南商学院学报, 2005, ( 4) .66-67.

[2] 尼次等.浅析素质拓展训练在心理健康教育中的作用[J].中华文化论坛. 2009.7.130-131.

[3] Young KS.In ernetaddict ion:the emergence of new clinical disorder[J].Cyber Psych Behavior,1996,1(3):237-244.

[4] 王叶华.大学生应对方式和网络体验与网络成瘾关系[J].中国校医,2008,22(6):636-637.

[5] K・S・杨,毛英明,毛巧明.网虫综合症――网瘾的症状与康复策略[M].上海: 上海译文出版社,2000年5月.

[6] 张春兴.现代心理学[M].上海: 上海人民出版社,1986年2.

[7] 中国青少年网瘾数据报告( 2007) 称我国近一成青少年网民有网瘾[ EB /OL].国公共卫生,2004,20(11):1363-1364.

[8] 耕夫.网络成瘾的心理症结与调试[J].心理世界,2002,(5).129-131.

[9] 林本.优势视角下的青少年网络成瘾案例分析及问题解决[J].福建教育学院学报,2010,(2).39-42.

[10] 孙华峰. 大学生人际交往障碍、形成原因及对策浅析[J]. 安徽理工大学学报(社会科学版).2004.3.156-158.

[11] 孙永生.关于拓展训练对大学生人际交往影响的实验研究[D].江南大学硕士学位论文,2008.5.

[12] 王晓红.论大学生人际交往能力及其培养[J]. 南京工程学院学报(社会科学版).2003.9.101-104.

第7篇:卷积神经网络的训练方法范文

关键字神经网络,BP模型,预测

1引言

在系统建模、辨识和预测中,对于线性系统,在频域,传递函数矩阵可以很好地表达系统的黑箱式输入输出模型;在时域,Box-Jenkins方法、回归分析方法、ARMA模型等,通过各种参数估计方法也可以给出描述。对于非线性时间序列预测系统,双线性模型、门限自回归模型、ARCH模型都需要在对数据的内在规律知道不多的情况下对序列间关系进行假定。可以说传统的非线性系统预测,在理论研究和实际应用方面,都存在极大的困难。相比之下,神经网络可以在不了解输入或输出变量间关系的前提下完成非线性建模[4,6]。神经元、神经网络都有非线性、非局域性、非定常性、非凸性和混沌等特性,与各种预测方法有机结合具有很好的发展前景,也给预测系统带来了新的方向与突破。建模算法和预测系统的稳定性、动态性等研究成为当今热点问题。目前在系统建模与预测中,应用最多的是静态的多层前向神经网络,这主要是因为这种网络具有通过学习逼近任意非线性映射的能力。利用静态的多层前向神经网络建立系统的输入/输出模型,本质上就是基于网络逼近能力,通过学习获知系统差分方程中的非线性函数。但在实际应用中,需要建模和预测的多为非线性动态系统,利用静态的多层前向神经网络必须事先给定模型的阶次,即预先确定系统的模型,这一点非常难做到。近来,有关基于动态网络的建模和预测的研究,代表了神经网络建模和预测新的发展方向。

2BP神经网络模型

BP网络是采用Widrow-Hoff学习算法和非线性可微转移函数的多层网络。典型的BP算法采用梯度下降法,也就是Widrow-Hoff算法。现在有许多基本的优化算法,例如变尺度算法和牛顿算法。如图1所示,BP神经网络包括以下单元:①处理单元(神经元)(图中用圆圈表示),即神经网络的基本组成部分。输入层的处理单元只是将输入值转入相邻的联接权重,隐层和输出层的处理单元将它们的输入值求和并根据转移函数计算输出值。②联接权重(图中如V,W)。它将神经网络中的处理单元联系起来,其值随各处理单元的联接程度而变化。③层。神经网络一般具有输入层x、隐层y和输出层o。④阈值。其值可为恒值或可变值,它可使网络能更自由地获取所要描述的函数关系。⑤转移函数F。它是将输入的数据转化为输出的处理单元,通常为非线性函数。

2.1基本算法

BP算法主要包含4步,分为向前传播和向后传播两个阶段:

1)向前传播阶段

(1)从样本集中取一个样本(Xp,Yp),将Xp输入网络;

(2)计算相应的实际输出Op

在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常运行时的执行过程。

2)向后传播阶段

(1)计算实际输出Op与相应的理想输出Yp的差;

(2)按极小化误差的方式调整权矩阵。

这两个阶段的工作受到精度要求的控制,在这里取作为网络关于第p个样本的误差测度,而将网络关于整个样本集的误差测度定义为。图2是基本BP算法的流程图。

2.2动态BP神经网络预测算法

在经典的BP算法以及其他的训练算法中都有很多变量,这些训练算法可以确定一个ANN结构,它们只训练固定结构的ANN权值(包括联接权值和结点转换函数)。在自动设计ANN结构方面,也已有较多的尝试,比如构造性算法和剪枝算法。前一种是先随机化网络,然后在训练过程中有必要地增加新的层和结点;而剪枝法则正好相反。文献[2]中提出了演化神经网络的理念,并把EP算法与BP进行了组合演化;也有很多学者把遗传算法和BP进行结合,但这些算法都以时间复杂度以及空间复杂度的增加为代价。根据Kolmogorov定理,对于任意给定的L2型连续函数f:[0,1]nRm,f可以精确地用一个三层前向神经网络来实现,因而可以只考虑演化网络的权值和结点数而不影响演化结果。基于此,在BP原有算法的基础上,增加结点数演化因子,然后记录每层因子各异时演化出的结构,最后选取最优的因子及其网络结构,这样就可以避免由于增加或剪枝得到的局部最优。根据实验得知,不同的预测精度也影响网络层神经元的结点数,所以可根据要求动态地建立预测系统。具体步骤如下:

(1)将输入向量和目标向量进行归一化处理。

(2)读取输入向量、目标向量,记录输入维数m、输出层结点数n。

(3)当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。Gorman指出隐层结点数s与模式数N的关系是:s=log2N;Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);而根据文献[7]:s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51[7]。

(4)设置结点数演化因子a。为了快速建立网络,可以对其向量初始化,并从小到大排序[4,7]。

(5)建立BP神经网络。隐含层传递函数用tansig,输出层用logsig,训练函数采用动态自适应BP算法,并制订停止准则:目标误差精度以及训练代数。

(6)初始化网络。

(7)训练网络直到满足停止判断准则。

(8)用测试向量对网络进行预测,并记录误差和逼近曲线,评估其网络的适应性。其适应度函数采取规则化均方误差函数。

(9)转到(5),选取下一个演化因子,动态增加隐含层结点数,直到最后得到最佳预测网络。

3基于神经网络的预测原理[4]

3.1正向建模

正向建模是指训练一个神经网络表达系统正向动态的过程,这一过程建立的神经网络模型称为正向模型,其结构如图3所示。其中,神经网络与待辨识的系统并联,两者的输出误差用做网络的训练信号。显然,这是一个典型的有导师学习问题,实际系统作为教师,向神经网络提供算法所需要的期望输出。当系统是被控对象或传统控制器时,神经网络多采用多层前向网络的形式,可直接选用BP网络或它的各种变形。而当系统为性能评价器时,则可选择再励学习算法,这时网络既可以采用具有全局逼近能力的网络(如多层感知器),也可选用具有局部逼近能力的网络(如小脑模型控制器等)。3.2逆向建模

建立动态系统的逆模型,在神经网络中起着关键作用,并且得到了广泛的应用。其中,比较简单的是直接逆建模法,也称为广义逆学习。其结构如图4所示,拟预报的系统输出作为网络的输入,网络输出与系统输入比较,相应的输入误差用于训练,因而网络将通过学习建立系统的逆模型。但是,如果所辨识的非线性系统是不可逆的,利用上述方法将得到一个不正确的逆模型。因此,在建立系统时,可逆性应该先有所保证。

4应用实例分析

以我国西南某地震常发地区的地震资料作为样本来源,实现基于动态神经网络的地震预报。根据资料,提取出7个预报因子和实际发生的震级M作为输入和目标向量。预报因子为半年内M>=3的地震累计频度、半年内能量释放积累值、b值、异常地震群个数、地震条带个数、是否处于活动期内以及相关地震区地震级。在训练前,对数据进行归一化处理。由于输入样本为7维的输入向量,一般情况下输入层设7个神经元。根据实际情况,输出层神经元个数为1。隐含层神经元的传递函数为S型正切函数,输出层也可以动态选择传递函数。实例数据来自文献[4],将数据集分为训练集、测试集和确定集。表1中的7×7数组表示归一化后的训练向量,第一个7表示预报因子数,第二个7表示样本数。

表1归一化后的训练向量

在不同神经元数情况下,对网络进行训练和仿真,得到如图5所示的一组预测误差曲线。其中,曲线A表示隐层结点数为6时的预测误差曲线,曲线B表示隐含层结点数为3时的预测误差曲线,曲线C表示隐含层结点数为5时的预测误差曲线,曲线D表示隐含层结点数为4时的预测误差曲线。将五种情况下的误差进行对比,曲线C表示的网络预测性能最好,其隐含层神经元数为5,图中曲线E表示的是隐含层结点数为15时的预测误差曲线(文献[4]中的最好结果)。同时也证明,在设计BP网络时,不能无限制地增加层神经元的个数。若过多,不仅会大大增加网络结构的复杂性,网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度、预测速度变得很慢。

5结论

本文针对基本的BP神经网络,提出了可动态改变神经元数(与精度相关)的BP神经网络预测方法,可以根据实际情况建立预测系统。用此种方法可以建立最好的神经网络,不会有多余的神经元,也不会让网络在学习过程中过早陷于局部极小点。

参考文献

[1]YaoX,LiuY.FastEvolutionaryProgramming.inEvolutionaryProgrammingⅤ:Proc.5thAnnu.Conf.EvolutionaryProgram,L.Fogel,P.AngelineandT.Bäck,Eds.Cambridge,MA:MITPress,1996,451-460

[2]XinYao,YongLiu,ANewEvolutionarySystemforEvolvingArtificialNeuralNetworksIEEETRANSACTIONSONNEURALNETWORKS,VOL8,NO.31997,694-714

[3]潘正君,康立山,陈毓屏.演化计算[M].北京:清华大学出版社,1998

[4]飞思科技产品研发中心.神经网络理论与实现.北京:电子工业出版社,2005

[5]蔡晓芬,方建斌.演化神经网络算法.江汉大学学报,第33卷第3期,2005.9

第8篇:卷积神经网络的训练方法范文

关键词:PCA算法;人脸识别;五级并行PCA模型;权重计算;均值滤波

中图分类号:TP311 文献标识码:A 文章编号:1009-3044(2016)19-0147-02

Research on Face Recognition System Based on Parallel PCA Algorithm

ZHAO Ya-peng

(College of Information Science and Engineering, Shandong University of Science and Technology, Qingdao 266590, China )

Abstract:In order to solve the problem of fast and accurate face recognition, a face recognition method based on parallel PCA algorithm is proposed. Using principal component analysis (PCA) method can reduce the dimension of features, easy to implement, training time is short, the design and implementation of a parallel algorithm for PCA, first of all according to the whole image to extract the 4 part of face images, then the whole image and 4 partial images at the same time by the same structure of the PCA model of learning, face feature vector extraction, the Euclidean distance for matching calculation of the test images and training images, finally through the test image with the five level parallel PCA model identification results are weighted decision, in order to achieve face recognition. Using the image data of the ORL face database , the simulation results in Matlab show that the method has a great degree of improvement in accuracy, the recognition speed is relatively fast, with a high degree of robustness.

Key words:PCA algorithm;Face recognition;Five level parallel PCA model;Weight calculation;Mean filter

1 概述

随着智能终端设备(手机、Pad、门禁等)的不断发展,身份识别已经成为我们日常生活的重要组成部分,身份验证技术被广泛应用于各个领域,特别是人们对于个人隐私信息的保护,使得身份识别再次成为关注的焦点。人脸识别作为身份识别的重要手段之一,因其具有识别率高、采集性强、接受性高等特点,在身份识别的各类方法中具有独特的优势,成为了目前比较热门的研究领域。

目前,卷积神经网络(Convolutional Neural Networks)是图像识别领域最重要的研究热点,而且在语音识别领域也取得了不错的效果,但是卷积神经网络的整个训练过程比较费时,而且实现相对复杂,而基于PCA算法的人脸识别技术因其自身存在的许多缺陷,一直没有被广泛应用,但该方法实现简单、学习速度较快,因此,本文主要研究改进的并行PCA算法,以弥补传统PCA算法在人脸识别领域的不足。

本文提出的基于并行PCA算法的人脸识别技术,首先对原始图像进行预处理,如灰度归一化和中值滤波等操作,以消除图像噪声、光照等因素造成的影响,使得特征提取更加准确可靠。然后,通过5级并行PCA模型获取数据的不同特征矩阵,然后将训练图像和测试图像分别进行子空间的投影,利用欧氏径向基函数(Euclidean Radial Basis Function)进行人脸的匹配,最后根据训练得到的权值向量进行加权决策。本文通过ORL人脸数据库的仿真实验证明,该算法的效果明显好于PCA算法。

2 并行PCA算法

PCA(Principal Component Analysis)即主成分分析技术,PCA是基于K-L变换的统计学分析方法,是多元分析中常用的方法,其基本思想是将高维数据投影到低维空间,主要过程在于特征值的计算和矩阵的降维。将PCA应用于人脸识别时,首先将图像转化成矩阵向量,然后进行矩阵的奇异值分解(Singular Value Decomposition),将高维向量通过计算得到的特征向量矩阵投影到低维的向量空间,从而减少数据的计算量。

2.1 基于并行PCA算法的人脸识别流程

本文中提出的并行PCA算法,正是基于上述的PCA算法,通过建立5级的PCA算法模型同时进行数据特征的学习,使得最终的人脸识别准确率得到进一步的提高,具体的人脸识别流程如图1所示。

2.2 并行PCA算法的实现的步骤

2.2.1 人脸图像的预处理

首先,需要把ORL人脸数据数据库的所有训练图像大小进行归一化,并转化为像素矩阵,矩阵大小记为,为矩阵的行数,为矩阵的列数。之后利用均值滤波和灰度归一化进行图像的去噪处理,以消除光线等问题对图像造成的影响,以方便后期的特征提取等操作。

2.2.2 人脸图像的PCA降维

根据PCA的原理,可以将每一张图像看成是一个高维的向量,所有的图像可以看成是这个高维空间中的一点,PCA要做的就是找出另外一个尽可能多的反应图像特征的低维空间。

假如样本由n张大小为p*q的人脸图像组成,那么每一张图像可以保存为一列向量,向量维数是p*q,真个样本可以看成是一个行数为n,列数为p*q的矩阵记为矩阵A。

根据上述过程,首先求出矩阵A的协方差矩阵,然后求出协方差矩阵的特征值,选取前m个最大的特征值,然后求出对应的特征向量,组成一个特征矩阵。通常所说的“特征脸”就是这些特征向量,而特种功能矩阵就是“特征脸”空间或者说子空间。然后可以将每一张图片投影到该子空间,得到了每一张图像的投影矩阵(l*m)。

2.2.3 人脸图像的识别

对于待识别的图像,也可以看成是一列向量,投影到子空间得到一个投影矩阵,然后一一求出这个投影矩阵与样本图像投影矩阵最相似的。然而有可能该人脸不是人脸库中的,所以最相似的人脸也不一定是同一个人脸,还需要设置一个阈值来判断待识别人脸是否是人脸库中的。

人脸识别部分正是基于上述的PCA算法,在本文所提出的并行PCA模型中,是由5级的PCA模型同时进行人脸识别这一操作,最后根据训练得到的权值向量进行决策,通过使用多个PCA模型,从而使得整个识别过程的准确率得到进一步的提升。

3 系统设计及实现

3.1 系统总体设计

本文中所提出的基于并行PCA算法的人脸识别系统,包括人脸图像采集模块、图像预处理模块、识别模块。人脸图像采集模块主要是采集训练图像数据和测试图像数据,并由原始图像提取出4幅与之对应的部分图像;图像预处理模块主要就是进行图像归一化和图像的去噪工作,图像的归一化包括大小归一化和灰度归一化,可以使用比较常见的直方图均衡化等技术,而图像的去噪可以使用中值滤波技术,以去除比较常见的高斯噪声等;人脸识别模块是基于5级相互独立的PCA模型进行特征值的学习和比对,而且通过训练得到的权值向量进行最终的是脸识别决策。整个系统的实现是基于Matlab进行仿真实验的,实验数据来自剑桥大学AT&T实验室创建的ORL人脸数据库。

3.2系统功能模块实现

3.2.1人脸图像采集实现

图像采集模块主要就是将存储在本地的图像文件通过Matlab的imread函数读入矩阵中,以方便后期的PCA操作,其核心语句为Image{t}=imread([[filepath,FilDir(ii).name],'\',ImDir{ii}(jj).name]);

使用上述语句即可读入训练数据和测试数据文件。

3.2.2 图像预处理模块

该模块的主要任务就是利用中值滤波和直方图均衡化进行图像的去噪工作,以消除不同光照和图像噪声的影响,提高准确率。其核心代码为:

S1=zeros(1,256);

for i=1:256

for j=1:i

S1(i)=GP(j)+S1(i);

end

end

S2=round((S1*256)+0.5);

for i=1:256

GPeq(i)=sum(GP(find(S2==i)));

end

3.2.3 识别模块

图像经过之前的预处理之后,需要将图像矩阵转化为列向量,一幅图像就是一列向量,整个训练图像构成了整个特征空间矩阵,测试图像也会转化为一列向量,之后会利用矩阵之间的运算进行图像的分析计算。识别模块的工作就是根据测试图像和之前所有的训练数据进行对比,查找到与之最相似的图像,实验的结果如图2所示。

4 结论

PCA算法作为传统的人脸识别算法,因其自身存在的许多缺陷而没能发挥较好的作用,但是其自身具有其他算法所不具有的特点,本文设计的并行PCA算法虽然是基于PCA算法,但是借鉴了卷积神经网络的多层结构,而且使用加权操作进行最终人脸识别的决策。基于ORL人脸数据库的测试结果表明,该并行PCA算法的准确率和鲁棒性均得到了进一步的提升,与其他的单独PCA算法具有十分明显的优势。

参考文献:

[1] 张利芳. 基于PCA算法的人脸识别系统研究[D].太原:中北大学,2015.

[2] 杨海燕,蒋新华. 基于并行卷积神经网络的人脸关键点定位方法研究[J]. 计算机应用研究, 2015, 32(8): 2517-2519.

[3] 杨颖娴. 基于PCA算法和小波变换的人脸识别技术[J]. 微电子与计算机, 2011, 28(1): 92-94.

[4] 段宝彬,韩立新. 改进的卷积神经网络及在碎纸拼接中的应用[J]. 计算机工程与应用, 2014, 50(9): 176-181.

第9篇:卷积神经网络的训练方法范文

一、明确考试要求。熟悉试卷结构

高考考什么,就应该无条件地去复习什么,这应该说是原则。在这一阶段,考生应在前两轮全面复习知识点的基础上,认真研读《考试说明》,领会其中对各考点的具体要求。《考试说明》是高考命题的依据,也是大家复习备考的依据。大家解读考试说明时,除要关注考试范围、新增内容外,更应该关注题型示例及样卷。它们不但让我们对高考试卷的长度、题型的大致比例有所了解,更能告诉我们本年度高考题目的命题走向。考生应该参照《考试说明》所附的题型示例,对规定考查的各个考点、涉及的知识进行一一复习,并通过训练逐个落实,切不可存有侥幸心理。同时,对高考试卷的结构要了然于胸,熟悉了解试卷结构,也就知道了高考考点,自然也就明白了高考的考查要求。

二、重视基础积累,牢固掌握知识

语文学习在于平时的日积月累,但目前急功近利的浮躁风气使考生很难做到这一点。因此,高三学生下阶段的复习迎考要在这一方面下工夫。重视基础,回归课本,牢固掌握。比如,每天默写几个名言名句,理解几个成语,阅读几篇文章,这样不断积累不断巩固,切不要到考前临阵磨枪。语言基础知识与名篇名句默写要特别加强积累。如高考对字音、字形、词语运用的考查,一般选择的是常见的词语,但是考生只有平时多积累,才能“以不变应万变”。此外,常见文言实词、虚词的用法,常见文言句式的理解,古代诗歌和文学类文本阅读中的表现手法等也需要考生多加积累。同时,背诵名篇名句也是保证考场得分的有效方法,因为高考会考到的名句都不会超出《考试说明》的范围,且背诵属于识记能力层级,难度不大。背名句不仅能拿到名句名篇这部分的分数,而且可以把有关名句用到作文中去,可谓一举两得。此外,建议考生准备一个积累本,将平时学习中发现的与高考有关的知识盲点写在积累本上,即使是一个字的读音也要记上。平时经常翻阅积累本上的知识,把已经掌握的标上记号,下次就着重看其他部分,这样积累本上的知识盲点也就会逐渐减少。对于一些错题最好按基础、文言、阅读、语言运用等分别归类,把错误集中的点作为训练重点,有目的地精选一些材料进行训练,不让同样的错误在高考中重现。

三、端正解题态度,掌握解题技巧

很多学生在高一、高二时对语文不太重视,语文试题的训练量也相对比较少。到了高三,很多同学学习语文时的态度也不太端正。主要表现在:对选择题凭感觉选择;对文字表述题答题随意,不注重按照命题要求回答,没有答出要点或要点不全面,有的甚至对简单的问题懒得写,对较难的问题不敢写。这样会直接影响语文考分。最后阶段,大家应该选做一些近3年的高考真题,以便进一步明确高考题目的命题思路和方式,也可以检测一下自己对知识的掌握程度和在审题、解题的能力方面是否还有欠缺,方便最后的复习巩固。在这里,有两点值得注意:(1)做选择题时不能凭感觉,要学会排除,学会比较。在已经排除的选项前打叉,在比较项前打问号。这样也就体现出了思考过程,即使事先不能确定最后的选项,也为复查提供了根据,使得复查更有针对性。(2)做文字表述题时一定要认真,要在准确把握文本的基础上答出要点,而且要点要尽可能全面,表述要尽可能准确、简洁。即使感到较难回答,也要尽可能完整准确地答出自己所能答出的内容。另外,在最后阶段,解题技巧显得更加重要。要抽出时间,有意识地梳理各类解题技巧,如语病类解题技巧、扩展压缩类解题技巧、图文转换解题技巧、诗歌鉴赏类解题技巧、现代文阅读解题技巧、文言文阅读解题技巧等,扎实掌握有关方法要领,以便有效应对。

四、突出训练重点,强化训练效果

阅读和写作一直是高考语文的重头戏。考生在复习现代文阅读时,应把重点放在论述类文章上,提高对这种文体的理解和分析综合能力。考生需要重视对文章的理解,看清题目,从文章中找依据。突出分析综合能力题的训练,要做到以下三个方面:一是重视与文章的对话,二是重视与作者的对话,三是重视对文章相关内容的归纳概括。

在复习写作的过程中,首先,要确立高考作文复习的总体构想:以写作能力训练为纵线,以文体训练为横线,交织起来构成一个既有助于发展思维能力,又有助于完善表达能力的网络。要沿着写作流程(审题――立意――选材――谋篇――修改――定型)一步一步地练习、推敲,把每个能力点的训练融入到不同的文体写作中。其次,在整个作文的面上,要突出以下几个重点:作文题型方面,要突出新材料作文和命题作文;文章体裁方面,要突出记叙文、议论文;文章构成方面,要突出内容、语言;表达形式方面,要突出记叙、描写、议论、抒情。再次,要强化八项重点训练,即强化审题训练、立意训练、拟题训练、文体训练、结构训练、表达训练、特长训练、书写训练。审题训练要立足准确,追求深刻;立意训练要立足平稳,追求创新;拟题训练要立足醒目,追求靓丽;文体训练要立足稳妥,追求独特;结构训练要立足完整,追求巧妙;表达训练要立足通畅,追求文采;特长训练要立足沉稳,追求灵动;书写训练要立足规范,追求美观。

五、积累时新素材。锤炼典型范文

精选范文推荐