JP2013200649A - 情報処理装置及び情報処理プログラム - Google Patents

情報処理装置及び情報処理プログラム Download PDF

Info

Publication number
JP2013200649A
JP2013200649A JP2012067779A JP2012067779A JP2013200649A JP 2013200649 A JP2013200649 A JP 2013200649A JP 2012067779 A JP2012067779 A JP 2012067779A JP 2012067779 A JP2012067779 A JP 2012067779A JP 2013200649 A JP2013200649 A JP 2013200649A
Authority
JP
Japan
Prior art keywords
word
moving image
document
module
words
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012067779A
Other languages
English (en)
Other versions
JP5910222B2 (ja
Inventor
Atsushi Shingu
淳 新宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2012067779A priority Critical patent/JP5910222B2/ja
Priority to US13/596,874 priority patent/US9224305B2/en
Publication of JP2013200649A publication Critical patent/JP2013200649A/ja
Application granted granted Critical
Publication of JP5910222B2 publication Critical patent/JP5910222B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Business, Economics & Management (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】文書が撮影された動画を再生する場合にあって、操作者によって選択された単語が説明された時刻から動画を再生することができるようにした情報処理装置を提供する。
【解決手段】情報処理装置の音声認識手段は、文書が撮影された動画の音声を認識し、検出手段は、前記音声認識手段による認識結果と前記動画に撮影されている文書から抽出した単語とでいずれにも出現している単語を検出し、抽出手段は、前記検出手段によって検出された単語の前記動画における発生時刻と該単語の前記文書における位置を抽出し、表示手段は、前記抽出手段によって抽出された単語を他の単語とは異なる態様で前記文書上に表示し、指定手段は、操作者の操作に基づいて、前記表示手段によって表示された単語を指定し、再生手段は、前記指定手段によって指定された単語の発生時刻から前記動画を再生する。
【選択図】図1

Description

本発明は、情報処理装置及び情報処理プログラムに関する。
特許文献1には、動画データや音声データにおけるキーワードの位置まで検索することができる画像処理装置、画像処理プログラム及び画像処理方法を提供することを課題とし、文書データに係る音声データについて、予め音声認識によってテキストデータを作成すると共に、テキストデータと音声データとを対応する位置において区切る区切り位置を決定しておき、キーワード検索時にテキストデータにキーワードが検出されたら、そのキーワードの直前の区切り位置から音声データを再生することが開示されている。
特許文献2には、映像情報、活字情報、その他の情報伝達媒体を介して提供される複合的な情報を利用するデータベースシステムにおいて、各情報間の関連度の識別に用いられる複合的な情報間の関連性識別方法に関し、任意のマルチメディア情報間に多様な関連付けを行うことができることを目的とし、画像情報、音声情報、テキスト情報、その他各メディア情報を含む複合的な情報間の関連性識別方法において、各情報に、個々の特徴を自然言語で表現した特徴表現文と、その情報の発生時刻データとを付加し、各情報の特徴表現文を自然言語解析して各特徴量を抽出し、各情報の発生時刻データと、各情報の特徴表現文を自然言語解析して抽出した時間に関する情報とを用いて、その情報が実際に発生した絶対時間に変換し、各情報の特徴量及び絶対時間の比較により各情報間の関連度を算出することが開示されている。
特許文献3には、受講者が、デジタルコンテンツの特定の一部分を後日見返したいと考えた場合に、テキスト検索の手段により、画面表示用文字ファイル、音声ファイル、動画ファイルで構成されるデジタルコンテンツの部分の特定が容易な、資料等の教材とデジタルコンテンツの保管が煩雑でないデジタルコンテンツ製作方法を提供することを課題とし、対人説明を実行する講師又は説明者をビデオカメラで音声付動画撮影し、その説明音声を文字変換した文字データベースを、説明の単位毎に分割整理命名された画面表示用文字ファイル、音声ファイル、動画ファイルで構成されるデジタルコンテンツとリンクさせ、デジタルコンテンツに文字データベースを検索させるテキスト検索要求部を設け、文字データと動画ファイルを編集材料として精製される教材ファイルを、画面表示用文字ファイル、音声ファイル、動画ファイルで構成されるデジタルコンテンツとリンクさせたことが開示されている。
特許文献4には、会議等の情報が漏れなく記録でき、しかも後でユーザが要求する情報を容易に指定して選択された部分のみを再生できる装置・方法の提供を目的とし、順次文字図形情報及び音声/画像を入力し、それぞれ記録部及び記憶部に記憶すると共に、この文字図形情報が入力された時刻を時刻発生部を用いて前記文字図形情報に対応付け、この対応を記憶部に記憶し、その後記憶された文字図形情報を表示部に表示し、その一部を信号再生位置指定部により指定すると、これに対応する時刻により特定される音声/画像信号の一部を再生部が再生することが開示されている。
特開2010−055259号公報 特開平05−233719号公報 特開2001−056822号公報 特開平06−343146号公報
本発明は、文書が撮影された動画を再生する場合にあって、操作者によって指定された単語が説明された時刻から動画を再生することができるようにした情報処理装置及び情報処理プログラムを提供することを目的としている。
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、文書が撮影された動画の音声を認識する音声認識手段と、前記音声認識手段による認識結果と前記動画に撮影されている文書から抽出した単語とでいずれにも出現している単語を検出する検出手段と、前記検出手段によって検出された単語の前記動画における発生時刻と該単語の前記文書における位置を抽出する抽出手段と、前記抽出手段によって抽出された単語を他の単語とは異なる態様で前記文書上に表示する表示手段と、操作者の操作に基づいて、前記表示手段によって表示された単語を指定する指定手段と、前記指定手段によって指定された単語の発生時刻から前記動画を再生する再生手段を具備することを特徴とする情報処理装置である。
請求項2の発明は、前記抽出手段による抽出結果に基づいて、集合を生成する生成手段をさらに具備し、前記表示手段は、前記生成手段によって生成された集合を前記文書上に表示し、前記指定手段は、操作者の操作に基づいて、前記表示手段によって表示された集合を指定し、前記再生手段は、前記指定手段によって指定された集合内の単語のうち、該単語の発生時刻に基づいて、前記動画を再生することを特徴とする請求項1に記載の情報処理装置である。
請求項3の発明は、前記生成手段は、前記抽出手段によって抽出された単語の発生時刻又は単語の位置の周辺領域における関連度に基づいて、集合を生成することを特徴とする請求項2に記載の情報処理装置である。
請求項4の発明は、前記生成手段は、前記抽出手段によって抽出された単語の位置として、前記文書における該単語が含まれるレイアウトを用いることを特徴とする請求項3に記載の情報処理装置である。
請求項5の発明は、前記生成手段は、前記動画内の説明者の動作に基づいて、前記関連度を算出することを特徴とする請求項3から4のいずれか一項に記載の情報処理装置である。
請求項6の発明は、前記指定手段は、指定された集合内の単語を他の単語とは異なる態様で前記文書上に表示し、操作者の操作に基づいて、該表示している単語を指定することを特徴とする請求項2から5のいずれか一項に記載の情報処理装置である。
請求項7の発明は、コンピュータを、文書が撮影された動画の音声を認識する音声認識手段と、前記音声認識手段による認識結果と前記動画に撮影されている文書から抽出した単語とでいずれにも出現している単語を検出する検出手段と、前記検出手段によって検出された単語の前記動画における発生時刻と該単語の前記文書における位置を抽出する抽出手段と、前記抽出手段によって抽出された単語を他の単語とは異なる態様で前記文書上に表示する表示手段と、操作者の操作に基づいて、前記表示手段によって表示された単語を指定する指定手段と、前記指定手段によって指定された単語の発生時刻から前記動画を再生する再生手段として機能させるための情報処理プログラムである。
請求項1の情報処理装置によれば、文書が撮影された動画を再生する場合にあって、操作者によって指定された単語が説明された時刻から動画を再生することができる。
請求項2の情報処理装置によれば、検出した単語の集合を表示することができる。
請求項3の情報処理装置によれば、単語の発生時刻又は単語の位置の周辺領域における関連度に基づいて、集合を生成することができる。
請求項4の情報処理装置によれば、単語の位置として、文書における単語が含まれるレイアウトを用いることができる。
請求項5の情報処理装置によれば、動画内の説明者の動作に基づいて、関連度を算出することができる。
請求項6の情報処理装置によれば、指定された集合内の単語を他の単語とは異なる態様で文書上に表示することができる。
請求項7の情報処理プログラムによれば、文書が撮影された動画を再生する場合にあって、操作者によって指定された単語が説明された時刻から動画を再生することができる。
本実施の形態の構成例についての概念的なモジュール構成図である。 動画データ記憶モジュール内のデータ例を示す説明図である。 スライド単語記憶モジュール内のデータ例を示す説明図である。 動画・スライドテーブルのデータ構造例を示す説明図である。 スライド・単語テーブルのデータ構造例を示す説明図である。 本実施の形態による処理例を示すフローチャートである。 音声処理装置による処理例を示す説明図である。 音声処理装置の処理結果例を示す説明図である。 単語・クラスタテーブルのデータ構造例を示す説明図である。 グループ化モジュールによる処理例を示す説明図である。 表示モジュールによる表示例を示す説明図である。 グループ化モジュールによる処理例を示す説明図である。 グループ化モジュールによる処理例を示す説明図である。 グループ化モジュールによる処理例を示す説明図である。 グループ化モジュールによる処理例を示す説明図である。 表示モジュール、指定モジュールによる表示例を示す説明図である。 表示モジュール、指定モジュールによる表示例を示す説明図である。 本実施の形態を実現するコンピュータのハードウェア構成例を示すブロック図である。
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(コンピュータ・プログラム)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するの意である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(データの授受、指示、データ間の参照関係等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態に応じて、又はそれまでの状況・状態に応じて定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という意味を有する記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。なお、ここでの記憶装置としては、ハードディスク、RAM(Random Access Memory)、外部記憶媒体、通信回線を介した記憶装置、CPU(Central Processing Unit)内のレジスタ等を含んでいてもよい。
本実施の形態である情報処理装置は、動画を再生するものであって、図1の例に示すように、音声処理装置100、グループ化モジュール130、表示モジュール140、指定モジュール150、再生モジュール160を有している。
音声処理装置100は、動画データ記憶モジュール110、音声認識モジュール112、単語検出モジュール114、スライド単語記憶モジュール116、座標記録モジュール118、座標記憶モジュール120を有している。
文書(以下、スライドともいう)を用いて説明する講師の動画(ビデオ)を撮影し、スライドとビデオの時刻同期をとって表示する技術がある。この技術では、特定のスライドを選択することで、このスライドについて説明しているビデオを再生することができる。
スライド中の一部分についての説明だけを聴講したい場合がある。
本実施の形態は、スライドの一部分についての説明を動画の音声情報を用いて判別し、スライド内の位置と関連付けを行う。そして、スライドの一部分を指定すると、対応する箇所からの動画を再生する。
動画データ記憶モジュール110は、音声認識モジュール112と接続されている。動画データ記憶モジュール110は、スライドが撮影された動画を記憶している。ここでの動画とは、主に文書を用いた発表、説明等を撮影したものであり、具体的には、講義、授業等の内容を撮影したものがあるが、これに限る必要はなく、文書を用いた説明であれば、例えば、金融商品の説明場面等であってもよい。なお、ここでの文書とは、少なくとも文字を含み、場合によっては図形、画像、動画等、又はこれらの組み合わせを含めてもよい。また、撮影されている文書として、プロジェクタ等で投影されている文書、大型ディスプレイ等に表示されている文書等が該当する。
動画データ記憶モジュール110には、スライドと動画が同期しており、このスライドを表示している動画の時刻(例えば、t1からt2)を示す情報が記憶されている。図2は、動画データ記憶モジュール110内のデータ例を示す説明図である。動画200において、スライド1:201はt1からt2まで表示されており、スライド2:202はt2からt3まで表示されており、スライド3:203はt3からt4まで表示されており、スライド4:204はt4から表示されていることを示しているデータが、動画データ記憶モジュール110には記憶されている。
より具体的には、動画データ記憶モジュール110は、動画・スライドテーブル400を記憶している。図4は、動画・スライドテーブル400のデータ構造例を示す説明図である。動画・スライドテーブル400は、動画ID欄410、スライドID欄420、開始時欄430、終了時欄440を有している。動画ID欄410は、動画200を本実施の形態で一意に識別する情報である動画ID(IDentification)を記憶している。この動画IDによって動画データにアクセスできる。スライドID欄420は、その動画に撮影されている文書(のページ)を本実施の形態で一意に識別する情報であるスライドIDを記憶している。このスライドIDによって、そのスライド内に記載されているテキストデータを抽出できる。開始時欄430は、そのスライドが撮影されている開始時刻(動画200内における最初からの経過時間であってもよいし、日時(年、月、日、秒、秒以下、又はこれらの組み合わせであってもよい)であってもよい)を記憶している。終了時欄440は、そのスライドが撮影されている終了時刻(動画200内における最初からの経過時間であってもよいし、日時(年、月、日、秒、秒以下、又はこれらの組み合わせであってもよい)であってもよい)を記憶している。
音声認識モジュール112は、動画データ記憶モジュール110、単語検出モジュール114と接続されている。音声認識モジュール112は、動画データ記憶モジュール110に記憶されているスライドが撮影された動画を対象として、その動画内の音声を認識する。音声の認識処理は、既存の技術を用いればよい。なお、スライド内の単語は、既にスライド単語記憶モジュール116に記憶されているので、スライド内の単語だけを対象とした音声認識を行うようにしてもよい。その場合、動画・スライドテーブル400の開始時欄430、終了時欄440を用いて、その間における音声認識は、その間に撮影されているスライド内の単語だけを対象とすればよい。また、認識結果として、単語とその単語の動画における発生時刻(言い始めの時刻と言い終わりの時刻を含んでいてもよい)を含めてもよい。
単語検出モジュール114は、音声認識モジュール112、スライド単語記憶モジュール116、座標記録モジュール118と接続されている。単語検出モジュール114は、音声認識モジュール112による認識結果と動画に撮影されているスライドから抽出した単語とでいずれにも出現している単語を検出する。「動画に撮影されているスライドから抽出した単語」は、スライド単語記憶モジュール116に記憶されている。例えば、音声認識モジュール112による認識結果とスライド単語記憶モジュール116に記憶されている単語とのマッチング処理を行ってもよいし、スライド内の単語だけを対象とした音声認識を行った場合は、スライド単語記憶モジュール116に記憶されている単語であって音声認識モジュール112で音声認識されたものを検出すればよい。
スライド単語記憶モジュール116は、単語検出モジュール114と接続されている。スライド単語記憶モジュール116は、動画に撮影されているスライドから抽出した単語を記憶している。スライド単語記憶モジュール116は、スライド中の文章はテキスト化されており、各単語のスライド上の位置を記憶している。例えば、文字認識結果、そのスライドのファイルから取り出すようにしてもよい。
例えば、スライド1:201には、図2に示すような文字が記載されている。スライド1:201から文字を取り出すのに、撮影されたスライド1:201を対象として文字認識処理を行ってもよいし、スライド1:201の元のファイル(電子データ)からテキストデータを抽出してもよい。そして、テキストデータから形態素解析(単語辞書内の単語との照合等)を行って、単語を取り出す。そして、その単語のスライド1:201における位置を取り出す。
スライド単語記憶モジュール116は、例えばスライド・単語テーブル500を記憶している。図5は、スライド・単語テーブル500のデータ構造例を示す説明図である。スライド・単語テーブル500は、動画ID欄510、スライドID欄520、単語数欄530、単語1欄540、単語位置欄550を有している。単語位置欄550は、x欄552、y欄554を有している。動画ID欄510は、動画IDを記憶している。スライドID欄520は、スライドIDを記憶している。単語数欄530は、そのスライド内の単語の数を記憶している。その単語の数だけ単語1欄540、単語位置欄550の組み合わせがスライド・単語テーブル500内にある。単語1欄540は、単語(テキストデータ)を記憶している。単語位置欄550は、その単語のスライド内の位置を記憶している。x欄552は、x座標を記憶している。y欄554は、y座標を記憶している。例えば、図2に示すようにスライドの左下を原点とした座標系としてもよいし、左上等を原点としてもよい。
座標記録モジュール118は、単語検出モジュール114、座標記憶モジュール120と接続されている。座標記録モジュール118は、単語検出モジュール114によって検出された単語の動画における発生時刻とその単語のスライドにおける位置を抽出する。そして、その抽出した情報を座標記憶モジュール120に記憶させる。「単語の動画における発生時刻」は、音声認識モジュール112の認識結果である。「単語のスライドにおける位置」は、スライド単語記憶モジュール116(より具体的には、その単語に対応するスライド・単語テーブル500のx欄552、y欄554)から抽出すればよい。
座標記憶モジュール120は、座標記録モジュール118、グループ化モジュール130と接続されている。座標記憶モジュール120は、座標記録モジュール118による抽出結果を記憶する。
座標記憶モジュール120は、例えば、単語・クラスタテーブル900を記憶している。図9は、単語・クラスタテーブル900のデータ構造例を示す説明図である。単語・クラスタテーブル900は、動画ID欄910、スライドID欄920、単語欄930、単語位置欄940、発生時欄950、クラスタID欄960を有している。単語位置欄940は、x欄942、y欄944を有している。動画ID欄910は、動画IDを記憶している。スライドID欄920は、スライドIDを記憶している。単語欄930は、座標記録モジュール118によって抽出された単語を記憶している。単語位置欄940は、その単語のスライド内の位置を記憶している。x欄942は、x座標を記憶している。y欄944は、y座標を記憶している。発生時欄950は、その単語の動画における発生時刻を記憶している。クラスタID欄960は、グループ化モジュール130による処理結果(その単語が含まれるクラスタを本実施の形態で一意に識別する情報であるクラスタID)を記憶している。
グループ化モジュール130は、座標記憶モジュール120、表示モジュール140と接続されている。グループ化モジュール130は、座標記録モジュール118による抽出結果(座標記憶モジュール120に記憶されている抽出結果)に基づいて、集合(以下、クラスタともいう)を生成する。その生成したクラスタのクラスタIDを単語・クラスタテーブル900のクラスタID欄960に記憶させる。
集合の生成は、(1)単語の音声としての発生時刻、(2)その単語のスライドにおける位置(x)、(3)その単語のスライドにおける位置(y)の3つの要素からなる空間における位置に基づいてクラスタを生成する。クラスタ生成は、既存のクラスタリング(clustering)手法を用いればよい。なお、それぞれの要素は、範囲を有していてもよい。発生時刻の範囲とは、その単語が発せられた時点から言い終わるまでの区間であり、位置の範囲とは、その単語が占めている領域の範囲である。
グループ化モジュール130は、座標記録モジュール118によって抽出された単語の発生時刻又は単語の位置の周辺領域における関連度に基づいて、集合を生成するようにしてもよい。詳細については、図12、14の例を用いて後述する。
グループ化モジュール130は、座標記録モジュール118によって抽出された単語の位置として、スライドにおけるその単語が含まれるレイアウトを用いるようにしてもよい。詳細については、図13の例を用いて後述する。
グループ化モジュール130は、動画内の説明者の動作に基づいて、関連度を算出するようにしてもよい。詳細については、図15の例を用いて後述する。
表示モジュール140は、グループ化モジュール130、指定モジュール150と接続されている。表示モジュール140は、グループ化モジュール130によって生成された集合をスライド上に表示する。詳細については、図11、図16(a)、図17(a)の例を用いて後述する。
指定モジュール150は、表示モジュール140、再生モジュール160と接続されている。指定モジュール150は、操作者の操作に基づいて、表示モジュール140によって表示された集合を指定する。
また、指定モジュール150は、指定された集合内の単語を他の単語とは異なる態様でスライド上に表示し、操作者の操作に基づいて、その表示している単語を指定するようにしてもよい。詳細については、図16(b)、図17(b)の例を用いて後述する。
再生モジュール160は、指定モジュール150と接続されている。再生モジュール160は、指定モジュール150によって指定された集合内の単語のうち、その単語の発生時刻に基づいて、動画を再生する。「単語の発生時刻に基づいて、前記動画を再生する」とは、その集合の中で単語の発生時刻が予め定められた順番のものの発生時刻から再生してもよい。例えば、その集合の中で単語の発生時刻が最も古い(最も早くに説明が行われた)時刻から再生するようにしてもよいし、その集合の中で単語の発生時刻が最も新しい(最も遅くに説明が行われた)時刻から再生するようにしてもよい。
図6は、本実施の形態による処理例を示すフローチャートである。
ステップS602では、音声処理装置100は、動画の音声から、スライド中の単語aが検出されたとき、その時刻t_aと単語aの座標(x_a,y_a)を記録する。
図7は、音声処理装置100による処理例を示す説明図である。図8は、音声処理装置100の処理結果例を示す説明図である。
検出結果702は、「高速」という単語を動画200の開始後30秒に検出し、スライド1:201から検出単語802と検出単語808の位置を検出したことを示している。
検出結果704は、「プリント」という単語を動画200の開始後35秒に検出し、スライド1:201から検出単語810の位置を検出したことを示している。
検出結果706は、「ウォームアップ」という単語を動画200の開始後50秒に検出し、スライド1:201から検出単語812の位置を検出したことを示している。
検出結果708は、「スキャン」という単語を動画200の開始後100秒に検出し、スライド1:201から検出単語804の位置を検出したことを示している。
検出結果710は、「モノクロ」という単語を動画200の開始後110秒に検出し、スライド1:201から検出単語806の位置を検出したことを示している。
ステップS604では、グループ化モジュール130は、3次元空間(x,y,t)で記録された点を配置し、クラスタリング処理によってグループ化する。
図10は、グループ化モジュール130による処理例を示す説明図である。この空間例は、図3の例に示すx軸、y軸(スライド1:201のx軸、y軸)と動画200の経過時間の軸によって構成されている。図10の例は、グループ化モジュール130によるクラスタリング処理の結果、検出結果702、検出結果704、検出結果706を含むクラスタ1:1010と、検出結果708、検出結果710を含むクラスタ2:1020の2つのクラスタができあがったことを示している。
ステップS606では、表示モジュール140は、各クラスタをスライド(x,y)上に投影し、部分領域を表示する。各クラスタの動画の時刻で最小のもの(最も古いもの)を、各クラスタ領域に対応する動画再生位置にする。図11は、表示モジュール140による表示例を示す説明図である。表示モジュール140は、本実施の形態の備え付けられているディスプレイ等にスライド1:201を表示し、その上にグループ化モジュール130によるクラスタリングの結果(クラスタ1の投影領域1110、クラスタ2の投影領域1120)を表示する。
ステップS608では、指定モジュール150は、ビューアにおいて、あるクラスタを指定する。つまり、操作者の操作によって、ステップS606で表示されたスライド上のクラスタを指定する。
ステップS610では、再生モジュール160は、対応する時刻から動画を再生する。つまり、ステップS608で指定したクラスタの動画再生位置から動画を再生する。
また、グループ化モジュール130は次に示すような処理(図12、13、14、15)を行ってもよい。
図12は、グループ化モジュール130による処理例を示す説明図である。前述の例では、単語のスライドにおける位置(x,y)によって、クラスタリング処理を行ったが、単語のスライドにおける位置(x,y)の周辺領域に関連度を付して、クラスタリング処理を行ってもよい。例えば、図12の例に示すように、関連度として、検出単語領域1202(x軸における検出単語領域1222)に最高値の関連度を付し、その周辺領域(関連領域1224、1226)に図12に示すようなx1では最低値の関連度、x2、x3では最高値、x4では最低値の関連度となるような算出式を用いるようにしてもよい。また、x1、x4の位置(すなわち、周辺領域の大きさを示す値)は、予め定められた値であってもよいし、検出単語領域1202の大きさに応じた値としてもよい。また、異なる単語の周辺領域が重なり合う場合があるが、その場合は、互いの関連度を加算するようにしてもよいし、いずれか大きい方(又は小さい方)の値を採用するようにしてもよい。
図13は、グループ化モジュール130による処理例を示す説明図である。スライド1:201を予めレイアウト領域に分けておき、単語が含まれるレイアウト領域を用いてもよい。つまり、「単語が含まれるレイアウト領域の位置」を「単語がある位置」として、クラスタリング処理を行う。その場合に、前述の関連度を付すようにしてもよい。レイアウト領域に分けるとは、例えば、スライド1:201が画像の場合は、予め定められた大きさ以上の空白領域でスライド1:201を分割する等して、レイアウト領域に分ける。また、スライド1:201が電子文書の場合は、電子文書内のタグ情報(タイトル、段落等を示す情報)を用いて、レイアウト領域に分ける。図13の例では、単語「プリント」が含まれるレイアウト領域として、タイトル領域1306を抽出し、タイトル領域1306の位置を単語「プリント」がある位置としてクラスタリング処理を行う。また、関連度として、図12の例と同等のものをタイトル領域1306に付す。
図14は、グループ化モジュール130による処理例を示す説明図である。関連領域(音声)1412は、単語「プリント」の音声認識モジュール112による音声認識の結果(検出単語領域(音声)1410)の周辺領域である。関連領域(音声)1412は、一連の発言区間(無音から無音までの区間)であってもよいし、検出単語領域(音声)1410に対して予め定められた関連領域(音声)1424、関連領域(音声)1426を加えた区間であってもよい。なお、関連領域(音声)1412として、単語の発生時刻から後の周辺領域(関連領域(音声)1426)の長さを、その発生時刻より前の周辺領域(関連領域(音声)1424)の長さよりも長くするようにしてもよい。対象としている単語が発生してからの音声の方が、発生する前よりも、その単語の説明となる場合が多いので、関連度が高い場合が多いからである。
図15は、グループ化モジュール130による処理例を示す説明図である。
説明者1500は、説明においてスライド1:201に対して、ポインティングデバイス1510等を用いて指し示す動作を行うことがある。スライド1:201へのポインティング情報(ポインティングデバイス1510が指し示したスライド1:201内の位置)から、スライド領域(x,y)と時刻の関連度を算出する。説明者1500が、ポインティングデバイス1510を用いてポインティング領域1520を指し示した場合、その動作を行った時刻において発生した音声の単語の関連度を、他の時刻(そのような動作が行われていない時刻)における単語の関連度よりも高い値とする。また、その動作によって発生したポインティング領域1520の位置にある単語の関連度を、他の位置にある単語(ポインティング領域1520外の位置にある単語)の関連度よりも高い値とする。
なお、ポインティングデバイス1510として、3次元マウス等のように、3次元の位置を検出するものとしてもよいし、ポインティングデバイス1510以外に、動画中での説明者1500の手の位置を動画像認識技術によって検出するようにしてもよいし、また、スライド1:201が電子文書であり、カーソルを表示して、マウス等でそのカーソルを移動する場合は、カーソルの位置を検出するようにしてもよいし、スライド1:201を表示しているディスプレイがタッチパネルである場合は、接触された位置を検出するようにしてもよい。
図16は、表示モジュール140、指定モジュール150による表示例を示す説明図である。図16(a)は、図11の例と同等のものである。図16(b)は、図16(a)の状態から、操作者の操作によってクラスタ1の投影領域1110が選択された場合の状態を示している。つまり、前述の例では、クラスタが指定されるとそのクラスタに対応した時刻から動画を再生するが、この例では、そのクラスタに属するキーワードを他の単語とは異なる態様で表示し、その単語を指定するとその単語を発言した時刻から動画を再生する。異なる態様とは、例えば、図16(b)の例に示すキーワード領域1612のように、その単語を囲むようにしてもよいし、その単語を赤色で表示するようにしてもよいし、その単語を大きく表示するようにしてもよいし、その単語をフリッカーさせるようにしてもよい。異なる態様として、図17(b)の例のように表示してもよい。また、選択されたクラスタ1の投影領域1110を拡大して表示するようにしてもよい。また、この処理は、クラスタ1の投影領域1110が指定された場合、クラスタ内には複数の単語が含まれているか否かを判断し、複数ある場合に、この処理を行うようにしてもよい。
例えば、キーワード領域1612が指定されると、キーワードとしての単語“高速”が選択され、t=30から動画が再生される。キーワード領域1614が指定されると、キーワードとしての単語“プリント”が選択され、t=35から動画が再生される。キーワード領域1616が指定されると、キーワードとしての単語“ウォームアップ”が選択され、t=50から動画が再生される。
図17は、表示モジュール140、指定モジュール150による表示例を示す説明図である。図17(a)は、図11の例と同等のものである。図17(b)は、図17(a)の状態から、操作者の操作によってクラスタ1の投影領域1110が選択された場合の状態を示している。
ここでは、クラスタが指定された場合に、そのクラスタ内には再生時刻の候補が複数あるか否かを判断し、複数ある場合には、その動画のサムネイルリストのダイヤログを表示する。つまり、クラスタ1の投影領域1110が指定された場合、クラスタ内には複数の単語が含まれているか否かを判断し、複数ある場合はキーワード表示領域1710を表示する。キーワード表示領域1710には、クラスタ1の投影領域1110内に含まれている単語検出モジュール114が検出した単語のリストを表示する。キーワード表示領域1710内の単語を指定すると、その単語に対応した時刻から動画を再生する。
図1に例示の実施の形態は、グループ化モジュール130による処理を行っているが、この処理を行わなくてもよい。つまり、実施の形態としてグループ化モジュール130がないモジュール構成であってもよい。その場合、座標記憶モジュール120は表示モジュール140と接続されている。
そして、表示モジュール140は、座標記録モジュール118によって抽出された単語(座標記憶モジュール120に記憶されている抽出結果)を他の単語とは異なる態様でスライド上に表示する。例えば、図16(b)、図17(b)のように表示する。ただし、もちろんのことながらクラスタ表示は行わない。
指定モジュール150は、操作者の操作に基づいて、表示モジュール140によって表示された単語を指定する。
再生モジュール160は、指定モジュール150によって指定された単語の発生時刻から動画を再生する。
なお、本実施の形態としてのプログラムが実行されるコンピュータのハードウェア構成は、図18に例示するように、一般的なコンピュータであり、具体的にはパーソナルコンピュータ、サーバーとなり得るコンピュータ等である。つまり、具体例として、処理部(演算部)としてCPU1801を用い、記憶装置としてRAM1802、ROM1803、HD1804を用いている。HD1804として、例えばハードディスクを用いてもよい。音声認識モジュール112、単語検出モジュール114、座標記録モジュール118、グループ化モジュール130、表示モジュール140、指定モジュール150、再生モジュール160等のプログラムを実行するCPU1801と、そのプログラムやデータを記憶するRAM1802と、本コンピュータを起動するためのプログラム等が格納されているROM1803と、補助記憶装置であるHD1804と、キーボード、マウス、タッチパネル等に対する利用者の操作に基づいてデータを受け付ける受付装置1806と、CRT、液晶ディスプレイ等の出力装置1805と、ネットワークインタフェースカード等の通信ネットワークと接続するための通信回線インタフェース1807、そして、それらをつないでデータのやりとりをするためのバス1808により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。
前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図18に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図18に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、一部のモジュールを専用のハードウェア(例えばASIC等)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続しているような形態でもよく、さらに図18に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、情報家電、複写機、ファックス、スキャナ、プリンタ、複合機(スキャナ、プリンタ、複写機、ファックス等のいずれか2つ以上の機能を有している画像処理装置)などに組み込まれていてもよい。
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通などのために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray Disc(登録商標))、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digital)メモリーカード等が含まれる。
そして、前記のプログラム又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、あるいは無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分であってもよく、あるいは別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して
記録されていてもよい。また、圧縮や暗号化など、復元可能であればどのような態様で記録されていてもよい。
100…音声処理装置
110…動画データ記憶モジュール
112…音声認識モジュール
114…単語検出モジュール
116…スライド単語記憶モジュール
118…座標記録モジュール
120…座標記憶モジュール
130…グループ化モジュール
140…表示モジュール
150…指定モジュール
160…再生モジュール

Claims (7)

  1. 文書が撮影された動画の音声を認識する音声認識手段と、
    前記音声認識手段による認識結果と前記動画に撮影されている文書から抽出した単語とでいずれにも出現している単語を検出する検出手段と、
    前記検出手段によって検出された単語の前記動画における発生時刻と該単語の前記文書における位置を抽出する抽出手段と、
    前記抽出手段によって抽出された単語を他の単語とは異なる態様で前記文書上に表示する表示手段と、
    操作者の操作に基づいて、前記表示手段によって表示された単語を指定する指定手段と、
    前記指定手段によって指定された単語の発生時刻から前記動画を再生する再生手段
    を具備することを特徴とする情報処理装置。
  2. 前記抽出手段による抽出結果に基づいて、集合を生成する生成手段
    をさらに具備し、
    前記表示手段は、前記生成手段によって生成された集合を前記文書上に表示し、
    前記指定手段は、操作者の操作に基づいて、前記表示手段によって表示された集合を指定し、
    前記再生手段は、前記指定手段によって指定された集合内の単語のうち、該単語の発生時刻に基づいて、前記動画を再生する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記生成手段は、前記抽出手段によって抽出された単語の発生時刻又は単語の位置の周辺領域における関連度に基づいて、集合を生成する
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記生成手段は、前記抽出手段によって抽出された単語の位置として、前記文書における該単語が含まれるレイアウトを用いる
    ことを特徴とする請求項3に記載の情報処理装置。
  5. 前記生成手段は、前記動画内の説明者の動作に基づいて、前記関連度を算出する
    ことを特徴とする請求項3から4のいずれか一項に記載の情報処理装置。
  6. 前記指定手段は、指定された集合内の単語を他の単語とは異なる態様で前記文書上に表示し、操作者の操作に基づいて、該表示している単語を指定する
    ことを特徴とする請求項2から5のいずれか一項に記載の情報処理装置。
  7. コンピュータを、
    文書が撮影された動画の音声を認識する音声認識手段と、
    前記音声認識手段による認識結果と前記動画に撮影されている文書から抽出した単語とでいずれにも出現している単語を検出する検出手段と、
    前記検出手段によって検出された単語の前記動画における発生時刻と該単語の前記文書における位置を抽出する抽出手段と、
    前記抽出手段によって抽出された単語を他の単語とは異なる態様で前記文書上に表示する表示手段と、
    操作者の操作に基づいて、前記表示手段によって表示された単語を指定する指定手段と、
    前記指定手段によって指定された単語の発生時刻から前記動画を再生する再生手段
    として機能させるための情報処理プログラム。
JP2012067779A 2012-03-23 2012-03-23 情報処理装置及び情報処理プログラム Active JP5910222B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012067779A JP5910222B2 (ja) 2012-03-23 2012-03-23 情報処理装置及び情報処理プログラム
US13/596,874 US9224305B2 (en) 2012-03-23 2012-08-28 Information processing apparatus, information processing method, and non-transitory computer readable medium storing information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012067779A JP5910222B2 (ja) 2012-03-23 2012-03-23 情報処理装置及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2013200649A true JP2013200649A (ja) 2013-10-03
JP5910222B2 JP5910222B2 (ja) 2016-04-27

Family

ID=49211887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012067779A Active JP5910222B2 (ja) 2012-03-23 2012-03-23 情報処理装置及び情報処理プログラム

Country Status (2)

Country Link
US (1) US9224305B2 (ja)
JP (1) JP5910222B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062611A (ja) * 2015-09-24 2017-03-30 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020017885A (ja) * 2018-07-26 2020-01-30 富士ゼロックス株式会社 情報処理装置およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110896448B (zh) * 2019-10-23 2021-02-05 安徽文香信息技术有限公司 一种教学视频拍摄方法、装置及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185424A (ja) * 2002-12-04 2004-07-02 Fuji Xerox Co Ltd プレゼンテーション記録装置
JP2009123197A (ja) * 2007-10-25 2009-06-04 Fuji Xerox Co Ltd 方法、プログラム、及びコンピュータ化されたシステム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3090233B2 (ja) 1992-02-18 2000-09-18 日本電信電話株式会社 複合的な情報間の関連性識別方法
JP3526067B2 (ja) 1993-03-15 2004-05-10 株式会社東芝 再生装置及び再生方法
JP2001056822A (ja) 1999-08-20 2001-02-27 Fukushima Printing Co Ltd テキスト検索可能なデジタルコンテンツ製作方法
JP4088131B2 (ja) * 2002-03-28 2008-05-21 富士通株式会社 同期コンテンツ情報生成プログラム、同期コンテンツ情報生成装置および同期コンテンツ情報生成方法
JP4807189B2 (ja) * 2006-08-31 2011-11-02 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2010055259A (ja) 2008-08-27 2010-03-11 Konica Minolta Business Technologies Inc 画像処理装置、画像処理プログラム及び画像処理方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004185424A (ja) * 2002-12-04 2004-07-02 Fuji Xerox Co Ltd プレゼンテーション記録装置
JP2009123197A (ja) * 2007-10-25 2009-06-04 Fuji Xerox Co Ltd 方法、プログラム、及びコンピュータ化されたシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016007127; 吉田 孝博: '"講義ビデオのアクセシビリティを改善したブラウザとその評価"' 電子情報通信学会技術研究報告 第102巻,第388号, 20021011, p.19-24, 社団法人電子情報通信学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017062611A (ja) * 2015-09-24 2017-03-30 富士ゼロックス株式会社 情報処理装置及びプログラム
JP2020017885A (ja) * 2018-07-26 2020-01-30 富士ゼロックス株式会社 情報処理装置およびプログラム
JP7176272B2 (ja) 2018-07-26 2022-11-22 富士フイルムビジネスイノベーション株式会社 情報処理装置およびプログラム

Also Published As

Publication number Publication date
JP5910222B2 (ja) 2016-04-27
US20130251334A1 (en) 2013-09-26
US9224305B2 (en) 2015-12-29

Similar Documents

Publication Publication Date Title
JP6828508B2 (ja) 情報処理装置及び情報処理プログラム
US20200322684A1 (en) Video recommendation method and apparatus
US7703044B2 (en) Techniques for generating a static representation for time-based media information
JP4218758B2 (ja) 字幕生成装置、字幕生成方法、及びプログラム
JP6015568B2 (ja) コンテンツ・リンクを生成する方法、装置およびプログラム
US20090177674A1 (en) Content Display Apparatus
US20200126583A1 (en) Discovering highlights in transcribed source material for rapid multimedia production
US20080079693A1 (en) Apparatus for displaying presentation information
US10014029B2 (en) Video processing apparatus and method
JP5845764B2 (ja) 情報処理装置及び情報処理プログラム
JP2005293589A (ja) 複合的な電子表現物を作成する方法、コンピュータプログラム及びデータ処理システム
KR20070084421A (ko) 타임라인 파일들을 주해하는 방법
US8799774B2 (en) Translatable annotated presentation of a computer program operation
US20120173578A1 (en) Method and apparatus for managing e-book contents
JP2017162434A (ja) ドキュメントのウェブベースコピーを生成する方法、プログラム及び装置
Christel Automated Metadata in Multimedia Information Systems
JP5910222B2 (ja) 情報処理装置及び情報処理プログラム
JP3781715B2 (ja) メタデータ制作装置及び検索装置
KR101640317B1 (ko) 오디오 및 비디오 데이터를 포함하는 영상의 저장 및 검색 장치와 저장 및 검색 방법
JP6095553B2 (ja) 情報表示装置、方法及びプログラム
BE1023431B1 (nl) Automatische identificatie en verwerking van audiovisuele media
US20140297678A1 (en) Method for searching and sorting digital data
JP2000222861A (ja) 光ディスクの登録データ作成装置、光ディスクのアセット情報のデータ構造及びアセット情報管理装置並びにアーカイブシステム
AT&T untitled
KR20140137219A (ko) 멀티미디어 파일에서 원하는 부분만 쉽고 빠르게 정확히 추출하거나 저장하여 s,e,u-컨텐츠를 만드는 장치 및 그 방법 또는 요점 추출 저장

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R150 Certificate of patent or registration of utility model

Ref document number: 5910222

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350