在MXNet框架学习(2)中,我们介绍了如何使用Symbols定义计算中使用的Graph,并处理存储在NDArray(在第一篇文章中有介绍)中的数据。本文将介绍如何使用Symbol和NDArray准备所需数据并构建神经网络。随后将使用Module API训练该网络并预测结果。
1. 数据处理
1.1 定义数据集
我们(设想中的)数据集包含1000个数据样本:
- 每个样本有100个特征
- 每个特征体现为一个介于0和1之间的浮点值
- 样本被分为10个类别,我们将使用神经网络预测特定样本的恰当类别
- 我们将使用800个样本进行训练,使用200个样本进行验证
- 训练和验证过程的批大小为10
1 | import mxnet as mx |
1.2 生成数据集
我们将通过均匀分布的方式生成这1000个样本,将其存储在一个名为“X”的NDArray中:1000行,100列。1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17X = mx.nd.uniform(low=0, high=1, shape=(sample_count,feature_count))
X.shape
(1000L, 100L)
X.asnumpy()
array([[ 0.70029777, 0.28444085, 0.46263582, ..., 0.73365158,
0.99670047, 0.5961988 ],
[ 0.34659418, 0.82824177, 0.72929877, ..., 0.56012964,
0.32261589, 0.35627609],
[ 0.10939316, 0.02995235, 0.97597599, ..., 0.20194994,
0.9266268 , 0.25102937],
...,
[ 0.69691515, 0.52568913, 0.21130568, ..., 0.42498392,
0.80869114, 0.23635457],
[ 0.3562004 , 0.5794751 , 0.38135922, ..., 0.6336484 ,
0.26392782, 0.30010447],
[ 0.40369365, 0.89351988, 0.88817406, ..., 0.13799617,
0.40905532, 0.05180593]], dtype=float32)
这1000个样本的类别用介于0-9的整数来代表,类别是随机生成的,存储在一个名为“Y”的NDArray中。1
2
3
4
5
6
7Y = mx.nd.empty((sample_count,))
for i in range(0,sample_count-1):
Y[i] = np.random.randint(0,category_count)
Y.shape
(1000L,)
0:10].asnumpy() Y[
array([ 3., 3., 1., 9., 4., 7., 3., 5., 2., 2.], dtype=float32)
1.3 拆分数据集
随后我们将针对训练和验证两个用途对数据集进行80/20拆分。为此需要使用NDArray.crop函数。在这里,数据集是完全随机的,因此可以使用前80%的数据进行训练,用后20%的数据进行验证。实际运用中,我们可能需要首先搅乱数据集,这样才能避免按顺序生成的数据可能造成的偏差。
1 | X_train = mx.nd.crop(X, begin=(0,0), end=(train_count,feature_count-1)) |
至此数据已经准备完毕!
2. Module模块
2.1 构建网络
这个网络其实很简单,一起看看其中的每一层:
输入层是由一个名为“Data”的Symbol代表的,随后会绑定至实际的输入数据。
data = mx.sym.Variable('data')
fc1是第一个隐藏层,通过64个相互连接的神经元构建而来,输入层的每个特征都会连接至所有的64个神经元。如你所见,我们使用了高级的Symbol.FullyConnected函数,相比手工建立每个连接,这种做法更方便一些!
fc1 = mx.sym.FullyConnected(data, name='fc1', num_hidden=64)
fc1的每个输出会进入到一个激活函数(Activation function)。在这里我们将使用一个线性整流单元(Rectified linear unit),即“Relu”。之前承诺过尽量少讲理论知识,因此可以这样理解:激活函数将用于决定是否要“启动”某个神经元,例如其输入是否由足够有意义,可以预测出正确的结果。
relu1 = mx.sym.Activation(fc1, name='relu1', act_type="relu")
fc2是第二个隐藏层,由10个相互连接的神经元构建而来,可映射至我们的10个分类。每个神经元可输出一个任意标度(Arbitrary scale)的浮点值。10个值中最大的那个代表了数据样本最有可能的类别。
fc2 = mx.sym.FullyConnected(relu1, name='fc2', num_hidden=category_count)
输出层会将Softmax函数应用给来自fc2层的10个值:这些值会被转换为10个介于0和1之间的值,所有值的总和为1。每个值代表预测出的每个类别的可能性,其中最大的值代表最有可能的类别。
out = mx.sym.SoftmaxOutput(fc2, name='softmax')
mod = mx.mod.Module(out)
2.2 构建数据迭代器
在第一篇文章中,我们了解到神经网络并不会一次只训练一个样本,因为这样做从性能的角度来看效率太低。因此我们会使用批,即一批固定数量的样本。
为了给神经网络提供这样的“批”,我们需要使用NDArrayIter函数构建一个迭代器。其参数包括训练数据、分类(MXNet将其称之为标签(Label)),以及批大小。
如你所见,我们可以对整个数据集进行迭代,同时对10个样本和10个标签执行该操作。随后即可调用reset()函数将迭代器恢复为初始状态。1
2
3
4
5
6
7
8
9
10
11
12
13train_iter = mx.io.NDArrayIter(data=X_train,label=Y_train,batch_size=batch)
for batch in train_iter:
print batch.data
print batch.label
...
[<NDArray 10x99 @cpu(0)>]
[<NDArray 10 @cpu(0)>]
[<NDArray 10x99 @cpu(0)>]
[<NDArray 10 @cpu(0)>]
[<NDArray 10x99 @cpu(0)>]
[<NDArray 10 @cpu(0)>]
<edited for brevity>
train_iter.reset()
网络已经准备完成,开始训练吧!
2.3 训练模型
首先将输入Symbol绑定至实际的数据集(样本和标签),这时候就会用到迭代器。
mod.bind(data_shapes=train_iter.provide_data, label_shapes=train_iter.provide_label)
随后对网络中的神经元权重进行初始化。这个步骤非常重要:使用“恰当”的技术对齐进行初始化可以帮助网络更快速地学习。此时可用的技术很多,Xavier初始化器(名称源自该技术的发明人Xavier Glorot)就是其中之一。
1 | # Allowed, but not efficient |
接着需要定义优化参数:
我们将使用随机坡降法(Stochastic Gradient Descent)算法(又名SGD),该算法在机器学习和深度学习领域有着广泛的应用。
我们会将学习速率设置为0.1,这是SGD算法一个非常普遍的设置。
mod.init_optimizer(optimizer='sgd', optimizer_params=(('learning_rate', 0.1), ))
最后,终于可以开始训练网络了!我们会执行50个回合(Epoch)的训练,也就是说,整个数据集需要在这个网络中(以10个样本为一批)运行50次。
1 | mod.fit(train_iter, num_epoch=50) |
如你所见,训练的准确度有了飞速提升,50个回合后已经接近99%以上。似乎我们的网络已经从训练数据集中学成了。非常惊人!
但针对验证数据集执行的效果如何呢?
2.4 验证模型
随后将新的数据样本放入网络,例如剩下的那20%尚未在训练中使用过的数据。
首先构建一个迭代器,这一次将使用验证样本和标签。
pred_iter = mx.io.NDArrayIter(data=X_valid,label=Y_valid, batch_size=batch)
随后要使用Module.iter_predict()函数,借此让样本在网络中运行。这样做的同时,还需要对预测的标签和实际标签进行对比。我们需要追踪比分并显示验证准确度,即,网络针对验证数据集的执行效果到底如何。
1 | pred_count = valid_count |
iter_predict()返回了:
- i_batch:批编号。
- batch:一个NDArray数组。这里它其实保存了一个NDArray,其中存储了当前批的内容。我们将用它找出当前批中10个数据样本的标签,随后将其存储在名为Label的Numpy array中(10个元素)。
- preds:也是一个NDArray数组。这里它保存了一个NDArray,其中存储了当前批预测出的标签:对于每个样本,我们提供了所有10个分类预测出的可能性(10x10矩阵)。因此我们将使用argmax()找出最高值的指数,即最可能的分类。所以* pred_label实际上是一个10元素数组,其中保存了当前批中每个数据样本预测出的分类。
随后我们需要使用Numpy.sum()将label和pred_label中相等值的数量进行对比。
最后计算并显示验证准确度。验证准确度:0.09,充分说明我们的数据真是随即的….训练的精度只不过是过拟合而以。