0.总结

  • 不知道是不是大模型的流行还是什么其他原因,导致现在网上都没有人来分享NER模型的相关论文了~
  • 本文方法简单,代码应该也比较简单(但是没见作者放出来)。
  • 推荐指数:★★☆☆☆

1. 动机

  • 处理三种不同场景的NER

  • 与 sequence-to-sequence NER 方法不同,本模型不需要强制实体按照顺序生成

2. 方法


其实就是一个BART模型,然后里面套了几层简单的处理而已。

3. 训练细节

3.1 Inverse Generation Training

Since the forward generation task is biased towards the left-to-right semantic structure.
这话意思就是说:这种自回归的生成方法倾向于从左到右的语义结构。

于是提出使用一个 inverse generation training的方法让模型同时也掌握从右到左的语义结构。

做法:使用一个额外的解码器,同时训练生成实体尾 到实体头。举例如下:Swollen, burning feet and ankles. 对于这条句子,得到的翻转目标序列则是:

3.2 联合学习

将上述得到的各个损失进行联合优化。

4. 疑惑

主要的疑惑点有:

  • Problem Formulation 中的对Ptr的定义。