事前学習モデルBERTによる法令用語の校正

DOI

書誌事項

タイトル別名
  • Japanese Legal Term Correction using BERT Pretrained Model

抄録

<p>法令文書には,「者」「物」「もの」や「規定」「規程」のように互いに類似している法令用語が出現する.このような法令用語は,法制執務(法令の起草・制定・改廃など法令文書の作成・管理に関する業務)の慣習や規則によって使用法とともに定義されている.法令において,これらの法令用語はそれに従い,厳密に書き分ける必要がある.契約書や約款などの広義の法令文書においても,誤解を防ぐために,法令に準じて正しく書き分けることが望ましい.そこで,本研究では,与えられた法令文から法令用語を検出し,誤用と思われるものに対してその修正案を出力することにより,法令文書の作成を支援する手法を提案する.本手法では,このタスクを選択肢付き穴埋め問題とみなし,分類器により解決する.分類器は,一般文によって事前学習したBERTモデルから構築する.このとき,(1)法令文によるドメイン適応,(2)訓練データのアンダーサンプリング,(3)分類器の統一の三つの工夫を施すことにより性能向上を図る.実験の結果,ランダムフォレストやニューラル言語モデルによる分類器よりも本手法の方が高い性能を発揮することを明らかにした.</p>

収録刊行物

詳細情報 詳細情報について

  • CRID
    1390285300166361856
  • NII論文ID
    130007857330
  • DOI
    10.11517/pjsai.jsai2020.0_4p3os805
  • 本文言語コード
    ja
  • データソース種別
    • JaLC
    • CiNii Articles
  • 抄録ライセンスフラグ
    使用不可

問題の指摘

ページトップへ