誘目性の高い講義コンテンツを作成する自動編集システム An Educational System that Automatically Generates Conspicuous Contents

この論文にアクセスする

この論文をさがす

著者

抄録

近年,大学などの教育機関では,学習用コンテンツとして講師映像と講義資料を組み合わせたものが制作されているが,単調な表示方法であるため学習者を飽きさせてしまうという問題がある.そこで本稿では,学習者にとって飽きにくい講義コンテンツを自動的に作成することができるシステム「MINO: Multimedia system an Instructor needs Not Operate」を提案する.著者らは映像の単調さを改善するために,誘目性(目が惹き付けられる)に着目し,画面に並列表示された講師映像と講義資料の表示サイズを交互に拡大縮小することで提示映像のスイッチングを行い,講義資料中の重要語句(講師の発話と一致した語句)を誘目性の高い表示へ変換することが自動的にできるシステムの開発を行った.MINO では,音声認識によりテキスト化した講師の発話情報と講義資料内の文字列とをマッチングさせることで重要語句の特定とともに,映像の切替えタイミングとフォントの変換タイミングを自動的に決定することができる.評価実験の結果,本提案手法は従来の提示方法に比べ,学習者を飽きさせないという評価を得ることができた.本稿では従来の提示方法について分析した結果を示し,開発したシステムの設計,実装,評価について述べる.Recently, e-learning contents that combine the speaker video with supporting materials are produced in educational institutions such as universities. However, there is a problem that those systems make learners become tired because produced contents are monotonous. In this paper, we propose the system "MINO: Multimedia system an Instructor needs Not Operate" that can automatically edit the recorded speaker video and supporting materials. MINO allows users to automatically convert words in the supporting materials into conspicuous ones according to the utterance of the speaker. We used speech recognition to convert voice of lecturer into character string. Their data are matched up words into the supporting materials so that speaker video is synchronized with supporting materials. Through evaluations of the system, we verified the effectiveness of our system.

Recently, e-learning contents that combine the speaker video with supporting materials are produced in educational institutions such as universities. However, there is a problem that those systems make learners become tired because produced contents are monotonous. In this paper, we propose the system "MINO : Multimedia system an Instructor needs Not Operate" that can automatically edit the recorded speaker video and supporting materials. MINO allows users to automatically convert words in the supporting materials into conspicuous ones according to the utterance of the speaker. We used speech recognition to convert voice of lecturer into character string. Their data are matched up words into the supporting materials so that speaker video is synchronized with supporting materials. Through evaluations of the system, we verified the effectiveness of our system.

収録刊行物

  • 情報処理学会論文誌

    情報処理学会論文誌 47(1), 172-180, 2006-01-15

    一般社団法人情報処理学会

参考文献:  24件中 1-24件 を表示

被引用文献:  3件中 1-3件 を表示

各種コード

  • NII論文ID(NAID)
    110004064669
  • NII書誌ID(NCID)
    AN00116647
  • 本文言語コード
    JPN
  • 資料種別
    Journal Article
  • ISSN
    1882-7764
  • NDL 記事登録ID
    7797268
  • NDL 雑誌分類
    ZM13(科学技術--科学技術一般--データ処理・計算機)
  • NDL 請求記号
    Z14-741
  • データ提供元
    CJP書誌  CJP引用  NDL  NII-ELS  IPSJ 
ページトップへ