train_ls.append(log_rmse(net, train_features, train_labels)) 这里train_ls加入的是每个batch训练完毕之后的rmse,然后训练epoch完毕之后,最后一个就为啥变成了avg train rmse?
还有如果用GPU训练的话,net初始化选择gpu,以及训练的时候,将data_iter的数据copy到GPU内存上,但是那个log_rmse计算好像还是cpu上,这里我不知道怎么迁移到GPU上进行计算的,可不可以指导一下呀,非常感谢啦!log_rmse 最后那个返回 rmse.asscalar() 好像还得转回到CPU上去,所以这里不知道怎么弄,但是我看论坛里面有人说可以GPU训练,但是这样是不是就没法用log_rmse来看准确率了,虽然是可以训练了,这里有没有替代方式呢?我看gluon.loss里面好像没有提供类似的loss使用(从名字上扫了一眼,感觉像是没有)。