Regressor 回归
学习资料:
神经网络可以用来模拟回归问题 (regression),例如给下面一组数据,用一条线来对数据进行拟合,并可以预测新输入 x
的输出值。
导入模块并创建数据¶
models.Sequential
,用来一层一层一层的去建立神经层; layers.Dense
意思是这个神经层是全连接层。
建立模型¶
然后用 Sequential
建立 model
, 再用 model.add
添加神经层,添加的是 Dense
全连接神经层。
参数有两个,一个是输入数据和输出数据的维度,本代码的例子中 x
和 y
是一维的。
如果需要添加下一个神经层的时候,不用再定义输入的纬度,因为它默认就把前一层的输出作为当前层的输入。在这个例子里,只需要一层就够了。
激活模型¶
接下来要激活神经网络,上一步只是定义模型。
参数中,误差函数用的是 mse
均方误差;优化器用的是 sgd
随机梯度下降法。
以上三行就构建好了一个神经网络,它比 Tensorflow 要少了很多代码,很简单。
训练模型¶
训练的时候用 model.train_on_batch
一批一批的训练 X_train
, Y_train
。默认的返回值是 cost
,每100步输出一下结果。
检验模型¶
用到的函数是 model.evaluate
,输入测试集的x
和y
, 输出 cost
,weights
和 biases
。其中 weights
和 biases
是取在模型的第一层 model.layers[0]
学习到的参数。从学习到的结果你可以看到, weights 比较接近0.5,bias 接近 2。
可视化结果¶
最后可以画出预测结果,与测试集的值进行对比。