Roberta
在XLNet全面超越Bert后没多久,Facebook提出了RoBERTa(a Robustly Optimized BERT Pretraining Approach)。再度在多个任务上达到SOTA。那么它到底改进了什么?它在模型层面没有改变Google的Bert,改变的只是预训练的方法。
https://www.jianshu.com/p/eddf04ba8545
https://blog.csdn.net/ljp1919/article/details/100666563
brightmart的参数:https://github.com/brightmart/roberta_zh
最后更新于