RNN,Transformer按照顺序输出
并行一下子输出会更快
左右方向的火车聚合起来后导致模糊,双头火车。
每个字符对应一个数字,一个字符对应的重复次数。
让数据集变得更干净,学习得更好。
随机生成句子,再用分类器打分看哪个句子好。
每次mask一些不太合适的字,再送进去预测,不断的重复。
随着步数增加,每次mask的字数也在变少。
训练数据这样生成。
让model倾向于生出中间的字,生出来的树也更balance binary tree
给字位置加权重。
将encoder和decoder合在一起了。
先生成很长句,然后删除错误字,再进行插入合适的字
原本的CTC错字不能被修正
对其进行改良
上一篇:有关3dmax对齐技巧的那些事