超长文本处理

bert最大长度固定,默认为512

数据层面:

1 直接截断:太粗暴,可能把重要的丢了

2 抽取重要部分

3 分段+拼接

​ 问题很多,怎么训练??怎么预测???

模型层面:

transformer-xl based的ptm,比如xlnet

传统rnn based的seq2seq

参考

https://www.zhihu.com/question/395903256

Author

Lavine Hu

Posted on

2022-05-31

Updated on

2022-06-11

Licensed under

Comments

:D 一言句子获取中...