Search Results 1-20 of 3325

  • End-to-End Speech Translation With Transcoding by Multi-Task Learning for Distant Language Pairs

    Kano Takatomo , Sakti Sakriani Watiasri , Nakamura Satoshi

    … Directly translating spoken utterances from a source language to a target language is challenging because it requires a fundamental transformation in both linguistic and para/non-linguistic features. … The current state-of-the-art models for ASR, MT, and TTS have mainly been built using deep neural networks, in particular, an attention-based encoder-decoder neural network with an attention mechanism. …

    2020-04-20

    IR 

  • Poster Presentation : A Comparison of Language Models for a Design of Reduced Phoneme Set  [in Japanese]

    古明地 秀治 , 田中 聡久 , 篠田 浩一

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 119(440), 295-300, 2020-03-02

  • Poster Presentation : A Comparison of Language Models for a Design of Reduced Phoneme Set  [in Japanese]

    古明地 秀治 , 田中 聡久 , 篠田 浩一

    電子情報通信学会技術研究報告 = IEICE technical report : 信学技報 119(439), 295-300, 2020-03-02

  • A Usage-Based Analysis of L2 Lexical Learning : Evidence Using Want in Sentence Constructions by Japanese Learners of English  [in Japanese]

    深谷 修代

    尚美学園大学総合政策研究紀要 = Bulletin of policy and management, Shobi-Gakuen University (35), 65-74, 2020-03

  • Deaf Bodies : Toward a Holistic Ethnography of Deaf People in Japan

    Steven C. Fedorowicz

    … The general situation of deaf people in Japan, including academic models, social welfare policies and Deaf/deaf politics, will be organized and presented through the use of Mikhail Bakhtin's architectonics (1990). … The language use of Japanese deaf people, especially their preferred language of Japanese Sign Language (JSL), will be contextualized through the use of Armstrong, Stokoe and Wilcox's gestural approach to communication (1995). …

    研究論集 = Journal of inquiry and research (111), 269-286, 2020-03

    IR  DOI 

  • Japanese Mistakable Legal Term Correction using Infrequency-aware BERT Classifier

    Yamakoshi Takahiro , Komamizu Takahiro , Ogawa Yasuhiro , Toyama Katsuhiko

    … Our experiments show that our classifier outperforms conventionalclassifiers using Random Forest or language models, and that all three training techniques improve performance.</p> …

    Transactions of the Japanese Society for Artificial Intelligence 35(4), E-K25_1-17, 2020

    J-STAGE 

  • Intrusion Detection System Using Deep Learning and Its Application to Wi-Fi Network

    KIM Kwangjo

    … This paper presents the state-of-the-art advances and challenges in IDS using deep learning models, which have been achieved the big performance enhancements in the field of computer vision, natural language processing, and image/audio processing than the traditional methods. …

    IEICE Transactions on Information and Systems E103.D(7), 1433-1447, 2020

    J-STAGE 

  • Variable Extraction from Scientific Papers for Automatic Physical Model Building  [in Japanese]

    KATO Shota , KANO Manabu

    <p>物理モデルは化学プラントの設計や運転条件の改善などのために活用されている.既存の物理モデルに関する情報は論文から得ることができ,過去のモデルを改善したり組み合わせることでさらに高精度なモデルを構築することができる可能性がある.既存のモデルは新しいモデルを構築するのに有用であるが,有用なモデルを論文から探し出すためには多大な労力と時間を要する.本研究の最終目標は目的にあうベストなモ …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 4Rin154-4Rin154, 2020

    J-STAGE 

  • How do Masked Language Models perform when the input sequence length changes?  [in Japanese]

    OHSUGI Yasuhito , SAITO Itsumi , NISHIDA Kyosuke , ASANO Hisako , TOMITA Junji

    <p>マスク化言語モデルBERTは様々なタスクに転移学習することで高性能を発揮しているが,入力系列長に制限があり,長い文章を一度に扱えないという問題がある.長い文章を扱うためには最大系列長を伸ばした上で事前学習すれば良いが,系列長が増えるほど計算コストが増大する問題や,BERTの基本的要素であるattentionは近傍トークンや特殊トークンを重視する割合が高いという報告もあり,単純に最 …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 4Rin123-4Rin123, 2020

    J-STAGE 

  • Language-independent Dialogue Data Filtering for Neural Dialogue Response Generation  [in Japanese]

    AKAMA Reina , YOKOI Sho , SUZUKI Jun , KENTARO Inui

    <p>深層ニューラルネットワーク技術を用いた文生成(機械翻訳,自動要約,対話応答生成など)の研究領域では,訓練データの高品質化によりモデルの性能向上を図るアプローチが脚光を浴びている. 本研究では,ニューラル対話応答生成モデルの性能向上に向けて,訓練データ中の低品質な発話--応答ペアを検知するスコア関数を提案する.具体的には,「典型的な句の呼応関係の有無」と「話題の一貫性」のふたつの観 …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 4Q2GS902-4Q2GS902, 2020

    J-STAGE 

  • Extraction of important features for risk prediction in contracts  [in Japanese]

    ABE Tomohiko , FUJII Mina , MORITA Hiromu , IWAKI Yasuhiro , KATO Tsuneaki

    <p>契約書の審査は、法律に関する専門知識を必要とするため、法務部員等の専門家にとって容易である一方、専門知識を有しない一般の人にとっては困難であり不利益を被りやすい。こうした法務格差を是正する手段の一つとして、契約書の審査の自動化が挙げられる。そこでは、契約書の着目する箇所が有利か中間か不利かなどのリスクを判定するプロセスの自動化が必要である。本稿では、このようなプロセスをリスク分類 …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 4P3OS803-4P3OS803, 2020

    J-STAGE 

  • Continuous Transformation of Natural Language Syntactic Structure using Grammar Variational Autoencoder  [in Japanese]

    ORIGUCHI Nozomi , KOBAYASHI Ichiro

    <p>深層生成モデルとは,変分自己符号化器や敵対的生成ネットワークが代表例として挙げられる深層ニューラルネットワークで構成された生成モデルである。深層生成モデルでは、入力するデータは画像や音響などの連続なデータが一般的であり、逆に化学式や数式などの離散なデータを扱い、生成するのは容易ではなく工夫が必要である。Kusnerら[Kusner+ 2017]は、化学式や数式など離散な構造を持っ …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Rin453-3Rin453, 2020

    J-STAGE 

  • Verification of the Effectiveness of Introducing Latent Topics into Text Summarization Model with Pretrained Encoders  [in Japanese]

    OZAKI Kana , KOBAYASHI Ichiro

    <p>大量のテキストデータが存在する現在,文書の概要を生成する文書要約技術の必要性が高まっている.近年のニューラルネットを用いたモデルの発展により,要約技術は飛躍的に発展を遂げており,中でも事前学習モデルBERTを採用したBERTSUMは,抽出型要約と生成型要約のどちらにも対応しており,従来手法と比べた要約精度の向上を報告している.その一方で,要約においてトピック情報を用いることによっ …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Rin490-3Rin490, 2020

    J-STAGE 

  • A conditional response generation model with intention reconstruction as a constraint  [in Japanese]

    TAKATSUJI Hidekazu , YOSHINO Koichiro , SUDOH Katsuhito , NAKAMURA Satoshi

    <p>言語生成は、入力された意図や文脈に応じて自然言語文を生成する課題である。特に対話応答生成では、これまでの対話履歴と、 システムが当該発話で述べるべき内容の双方を考慮した生成が求められる。 先行研究ではこれらをニューラルネットワークのエンコーダ部分に入力しているが、言語生成を行うデコーダがこれらを反映するかはモデルのパラメータに依存する。 本研究は、応答の発話意図を条件として利用す …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Rin494-3Rin494, 2020

    J-STAGE 

  • Author Identification of Japanese works using Doc2Vec and BERT  [in Japanese]

    SHIMIZU Taishi

    <p>あるテキストをもとに,その著者を推定するという研究は古くから行われている.日本語で書かれたテキストにおいては,単語の使用頻度や品詞のn-gramの分布,読点前の文字の分布といった特徴量に注目した手法が行われてきた.また判別モデルについてもランダムフォレスト法やニューラルネットワークといった様々な機械学習手法が用いられている.ここで本研究では,2014年に提案されたDoc2Vecと …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Rin478-3Rin478, 2020

    J-STAGE 

  • Classification of Issue discussions in Open Source Software Projects using BERT or Automated ML  [in Japanese]

    YAMADA Yuki , HAZEYAMA Atsuo , OGAWA Yutaro

    <p>(1) 目的:製品の欠陥レポートやコールセンターのチャット履歴,会議の議事録といった長い文書から関連情報を取得することは困難な作業である.したがって,文書内の各文の情報タイプを識別する技術は重要である.本研究では,どのような特徴が各文の情報タイプを識別するタスクに置いて有効であるか明らかにすること,本タスクにおいて深層学習のBERTモデルが有効であるかについて取り組んだ.文書コー …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Rin408-3Rin408, 2020

    J-STAGE 

  • Automatic Answering of Dialogue Completion Problems Based on Naturalness and Fluency of Sentences  [in Japanese]

    INOUE Hiroki , SUGIYAMA Hiroaki , NARIMATSU Hiromi , HIGASHINAKA Ryuichiro , TAIRA Hirotoshi , DOHSAKA Kohji

    <p>我々は,「ロボットは東大に入れるか」プロジェクトで英語問題の会話文完成問題に取り組んできた.疑似的に作成した問題を用い,XLNetやRoBERTaやALBERTで転移学習を行なった.モデルでは,会話文が自然であるか判別し,空欄に適切な単語を選択肢から選ぶ.評価する際に,会話文のみを入力とするよりも発話者情報を付与することで,すべてのモデルで正解率が5ポイント以上向上することがわか …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Q1GS905-3Q1GS905, 2020

    J-STAGE 

  • Semantic Consistency Assessment of Visual and Text Content using Multimodal Deep Neural Networks  [in Japanese]

    SUZUKI Riko , KONISHI Mikito , IKEDA Junya , HAYASHI Daichi , FUKAI So , SUGAWARA Yu , MACHII Yusuke , YAMAURA Yusuke

    <p>ドキュメントに含まれる画像はテキストの内容理解を助ける役割を持つが、画像とテキストの間に整合性が無い場合は、読み手の理解を妨げる恐れがある。ドキュメント作成時の人的ミスやデータの改ざん等により、画像に対してテキストの意味が部分的に変わってしまう場合は、作成者が矛盾点に気付きにくいため、意図せずドキュメントの品質を落としてしまう可能性もある。本研究では、マルチモーダル深層学習を用い …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Q5GS901-3Q5GS901, 2020

    J-STAGE 

  • Generalizing Argumentative Link Identification Model by Reducing Dependence on Superficial Cues  [in Japanese]

    HANAYASU Yuto , IKEDA Shunsuke , KUBODERA Makoto , INOUE Naoya

    <p>近年,大規模事前学習済み言語モデルが文章の論述構造の解析に有効であることが報告されている.しかしながら,こうしたモデルによる性能改善はデータセット特有のバイアス(表面的な手がかり)を捉えたものであり,モデルのこうしたバイアスへの依存を軽減することが汎化性能の向上に繋がる可能性があることが近年の研究により示唆されている.本稿は,論述構造解析のサブタスクである論述関係認識における,表 …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3Rin417-3Rin417, 2020

    J-STAGE 

  • Local model explanation with linguistic approach  [in Japanese]

    YANAGAWA Takumi , TERUI Fumihiko

    <p>近年機械学習モデルが多くのアプリケーションに活用され,モデルの説明可能性はますます重要となっている.モデルを説明する手法にLocal Interpretable Model-agnostic Explanation(LIME)という手法がある.LIMEは説明したい予測結果の入力点近傍を説明可能なモデルで近似し,近似モデルから各入力次元の寄与度を計算する.テキストを入力としたモデル …

    Proceedings of the Annual Conference of JSAI JSAI2020(0), 3E1GS204-3E1GS204, 2020

    J-STAGE 

Page Top