##函数式模型接口
Keras的函数式模型为Model,即广义的拥有输入和输出的模型,我们使用Model来初始化一个函数式模型
|
|
在这里,我们的模型以a
为输入,以b
为输出,同样我们可以构造拥有多输入和多输出的模型
常用Model属性
model.layers
:组成模型图的各个层model.inputs
:模型的输入张量列表model.outputs
:模型的输出张量列表
Model模型方法
compile
|
|
本函数编译模型以供训练,参数有
optimizer
:优化器,为预定义优化器名或优化器对象,参考优化器loss
损失函数,为预定义损失函数名或一个目标函数,参考损失函数- metrics:列表,包含评估模型在训练和测试时的性能的指标,典型用法是
metrics=['accuracy']
如果要在多输出模型中为不同的输出指定不同的指标,可像该参数传递一个字典,例如metrics={'ouput_a': 'accuracy'}
sample_weight_mode
:如果你需要按时间步为样本赋权(2D权矩阵),将该值设为“temporal”。默认为“None”,代表按样本赋权(1D权)。如果模型有多个输出,可以向该参数传入指定sample_weight_mode
的字典或列表。在下面fit函数的解释中有相关的参考内容。kwargs
:使用TensorFlow作为后端请忽略该参数,若使用Theano作为后端,kwargs的值将会传递给 K.function
当为参数传入非法值时会抛出异常
【Tips】如果你只是载入模型并利用其predict,可以不用进行compile。在Keras中,compile主要完成损失函数和优化器的一些配置,是为训练服务的。predict会在内部进行符号函数的编译工作(通过调用_make_predict_function
生成函数),
fit函数
|
|
本函数用以训练模型,参数有:
- x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为list,list的元素是对应于各个输入的numpy array。如果模型的每个输入都有名字,则可以传入一个字典,将输入名与其输入数据对应起来。
- y:标签,numpy array。如果模型有多个输出,可以传入一个numpy array的list。如果模型的输出拥有名字,则可以传入一个字典,将输出名与其标签对应起来。
- batch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。
- nb_epoch:整数,训练的轮数,训练数据将会被遍历nb_epoch次。Keras中nb开头的变量均为”number of”的意思
- verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
- callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数
- validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。注意,validation_split的划分在shuffle之后,因此如果你的数据本身是有序的,需要先手工打乱再指定validation_split,否则可能会出现验证集样本不均匀。
- validation_data:形式为(X,y)或(X,y,sample_weights)的tuple,是指定的验证集。此参数将覆盖validation_spilt。
- shuffle:布尔值,表示是否在训练过程中每个epoch前随机打乱输入样本的顺序。
- class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)。该参数在处理非平衡的训练数据(某些类的训练样本数很少)时,可以使得损失函数对样本数不足的数据更加关注。
- sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode=’temporal’。
- initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。
输入数据与规定数据不匹配时会抛出错误
fit
函数返回一个History
的对象,其History.history
属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况
evaluate
|
|
本函数按batch计算在某些输入数据上模型的误差,其参数有:
- x:输入数据,与
fit
一样,是numpy array或numpy array的list - y:标签,numpy array
- batch_size:整数,含义同
fit
的同名参数 - verbose:含义同
fit
的同名参数,但只能取0或1 - sample_weight:numpy array,含义同
fit
的同名参数
本函数返回一个测试误差的标量值(如果模型没有其他评价指标),或一个标量的list(如果模型还有其他的评价指标)。model.metrics_names
将给出list中各个值的含义。
如果没有特殊说明,以下函数的参数均保持与fit
的同名参数相同的含义
如果没有特殊说明,以下函数的verbose参数(如果有)均只能取0或1
predict
|
|
本函数按batch获得输入数据对应的输出,其参数有:
函数的返回值是预测值的numpy array
train_on_batch
|
|
本函数在一个batch的数据上进行一次参数更新
函数返回训练误差的标量值或标量值的list,与evaluate的情形相同。
test_on_batch
|
|
本函数在一个batch的样本上对模型进行评估
函数的返回与evaluate的情形相同
predict_on_batch
|
|
本函数在一个batch的样本上对模型进行测试
函数返回模型在一个batch上的预测结果
fit_generator
|
|
利用Python的生成器,逐个生成数据的batch并进行训练。生成器与模型将并行执行以提高效率。例如,该函数允许我们在CPU上进行实时的数据提升,同时在GPU上进行模型训练
函数的参数是:
- generator:生成器函数,生成器的输出应该为:
- 一个形如(inputs,targets)的tuple
- 一个形如(inputs, targets,sample_weight)的tuple。所有的返回值都应该包含相同数目的样本。生成器将无限在数据集上循环。每个epoch以经过模型的样本数达到samples_per_epoch时,记一个epoch结束
- steps_per_epoch:整数,当生成器返回steps_per_epoch次数据时计一个epoch结束,执行下一个epoch
- epochs:整数,数据迭代的轮数
- verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
- validation_data:具有以下三种形式之一
- 生成验证集的生成器
- 一个形如(inputs,targets)的tuple
- 一个形如(inputs,targets,sample_weights)的tuple
- validation_steps: 当validation_data为生成器时,本参数指定验证集的生成器返回次数
- class_weight:规定类别权重的字典,将类别映射为权重,常用于处理样本不均衡问题。
- sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了
sample_weight_mode='temporal'
。 - workers:最大进程数
- max_q_size:生成器队列的最大容量
- pickle_safe: 若为真,则使用基于进程的线程。由于该实现依赖多进程,不能传递non picklable(无法被pickle序列化)的参数到生成器中,因为无法轻易将它们传入子进程中。
- initial_epoch: 从该参数指定的epoch开始训练,在继续之前的训练时有用。
函数返回一个History
对象
例子
evaluate_generator
|
|
本函数使用一个生成器作为数据源,来评估模型,生成器应返回与test_on_batch的输入数据相同类型的数据。
函数的参数是:
- generator:生成输入batch数据的生成器
- val_samples:生成器应该返回的总样本数
- steps:生成器要返回数据的轮数
- max_q_size:生成器队列的最大容量
- nb_worker:使用基于进程的多线程处理时的进程数
- pickle_safe:若设置为True,则使用基于进程的线程。注意因为它的实现依赖于多进程处理,不可传递不可pickle的参数到生成器中,因为它们不能轻易的传递到子进程中。
predict_generator
|
|
从一个生成器上获取数据并进行预测,生成器应返回与predict_on_batch
输入类似的数据
函数的参数是:
- generator:生成输入batch数据的生成器
- val_samples:生成器应该返回的总样本数
- max_q_size:生成器队列的最大容量
- nb_worker:使用基于进程的多线程处理时的进程数
- pickle_safe:若设置为True,则使用基于进程的线程。注意因为它的实现依赖于多进程处理,不可传递不可pickle的参数到生成器中,因为它们不能轻易的传递到子进程中。