JP6638281B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP6638281B2
JP6638281B2 JP2015187195A JP2015187195A JP6638281B2 JP 6638281 B2 JP6638281 B2 JP 6638281B2 JP 2015187195 A JP2015187195 A JP 2015187195A JP 2015187195 A JP2015187195 A JP 2015187195A JP 6638281 B2 JP6638281 B2 JP 6638281B2
Authority
JP
Japan
Prior art keywords
information
time
corresponding image
outgoing
character information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015187195A
Other languages
English (en)
Other versions
JP2017062611A (ja
Inventor
小川 正和
正和 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2015187195A priority Critical patent/JP6638281B2/ja
Publication of JP2017062611A publication Critical patent/JP2017062611A/ja
Application granted granted Critical
Publication of JP6638281B2 publication Critical patent/JP6638281B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
特許文献1には、講演等の映像を使用したスライド画像と同期させて再生する映像再生システムについて開示されている。このような映像再生システムでは、スライド画像に含まれるオブジェクトと映像の再生位置とを予め関連付けておき、オブジェクトを指定すると当該オブジェクトに関連付けられる再生位置から映像が再生される。特許文献2には、発表者がマウスカーソルでスライド画像を指し示す等、スライド画像に対して位置指定を行った場合、該位置指定とその際の発表者の音声情報を対応づけて記憶し、利用者が同スライド画像の位置を指示した際、該位置に対応付けられた音声情報を再生することが開示されている。
特開2006−228059号公報 特開2012−65170号公報
しかし、一般的に、発表者がスライド画像に対して位置指定を行わなかった場合は、その際の音声情報はスライド画像と対応づけて記憶することができず、対応付けが行われていないスライドの位置を指示した場合、利用者は該位置に関する音声情報を再生することができなかった。
本発明の目的の一つは、対応画像に対して発表者の位置指定が行われていなくても、再生される時系列情報に対応する対応画像に対して利用者が任意に指示した位置に基づいて、時系列情報の再生位置を特定できる情報処理装置を提供することにある。
請求項1に係る情報処理装置は、時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段と、前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段と、前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段と、前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段と、前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段と、を含み、前記出現時点特定手段は、前記対応画像に含まれる複数の前記文字情報を当該対応画像内の位置に基づく規則に従って順序付ける順序付け手段をさらに含み、前記再生位置の候補となる複数の前記出現時点を特定した場合、前記順序付けされた前記複数の文字情報における前記取得された文字情報の位置に基づいて、いずれか1つの前記出現時点を前記再生位置として決定する、を含むことを特徴とする。
請求項2に係る情報処理装置は、時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段と、前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段と、前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段と、前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段と、前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段と、を含み、前記出現時点特定手段は、前記対応画像に含まれる複数の前記文字情報を所定の規則に従って並べてテキスト化した対応画像テキストにおいて、前記取得された文字情報の示す単語または文章の出現位置を算出し、前記対応画像テキストにおいて算出された前記取得された文字情報の示す単語または文章の出現位置から、前記音声情報における前記取得された文字情報の示す単語または文章の推定出現時点を算出する
請求項3に係る情報処理装置は、請求項2に記載の情報処理装置において、前記出現時点特定手段は、前記出現時点を特定しないと判断された場合、前記推定出現時点を前記再生位置とする
請求項4に係る情報処理装置は、請求項に記載の情報処理装置において、前記出現時点特定手段は、前記出現時点を複数特定したと判断された場合、前記推定出現地点から最も近い前記出現地点を前記再生位置とする
請求項5に係る情報処理装置は、請求項1乃至4のいずれか1項に記載の情報処理装置において、前記出現時点特定手段は、前記音声情報をテキスト化した音声テキスト情報から前記取得された文字情報の示す単語または文章を検索する検索手段、をさらに含み、前記検索手段により検索された前記音声テキスト情報における前記単語または文章の位置に基づいて前記出現時点を特定する。
請求項に係るプログラムは、時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段、前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段、前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段、前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段、前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段、としてコンピュータを機能させるためのプログラムであって、前記出現時点特定手段は、前記対応画像に含まれる複数の前記文字情報を当該対応画像内の位置に基づく規則に従って順序付ける順序付け手段をさらに含み、前記再生位置の候補となる複数の前記出現時点を特定した場合、前記順序付けされた前記複数の文字情報における前記取得された文字情報の位置に基づいて、いずれか1つの前記出現時点を前記再生位置として決定するプログラムである。
請求項7に係るプログラムは、時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段、前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段、前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段、前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段、前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段、としてコンピュータを機能させるためのプログラムであって、前記出現時点特定手段は、前記対応画像に含まれる複数の前記文字情報を所定の規則に従って並べてテキスト化した対応画像テキストにおいて、前記取得された文字情報の示す単語または文章の出現位置を算出し、前記対応画像テキストにおいて算出された前記取得された文字情報の示す単語または文章の出現位置から、前記音声情報における前記取得された文字情報の示す単語または文章の推定出現時点を算出するプログラムである。
請求項1乃至4、6及びに係る発明によれば、対応画像において利用者が任意に指示した位置に対応した時系列情報の再生位置が複数ある場合に、最適な1つの再生位置を特定できる
請求項に係る発明によれば、音声情報をテキスト化した音声テキスト情報に基づいて、対応画像に対して発表者の位置指定が行われていなくても、対応画像に対して利用者が任意に指示した位置に対応した時系列情報を再生できる。
本実施形態に係る情報処理装置のハードウエア構成の一例を示す図である。 本実施形態に係る時系列情報テーブルの一例を示す図である。 本実施形態に係る対応画像の一例を示す図である。 本実施形態に係る対応画像情報テーブルの一例を示す図である。 本実施形態に係る情報処理装置が実現する機能の一例を示す機能ブロック図である。 本実施形態に係る情報処理装置が実行する時系列情報再生処理の一例を示すフロー図である。 本実施形態に係る情報処理装置が実行する再生位置決定処理の一例を示すフロー図である。 本実施形態に係る対応画像テキストの一例を示す図である。
以下、本発明の実施の形態について、図面を参照しながら説明する。
図1は、本実施形態に係る情報処理装置10のハードウエア構成の一例を示す図である。本実施形態に係る情報処理装置10は、例えばパーソナルコンピュータ等であって、図1に示すように、制御部11、記憶部12、通信部13、表示部14、操作部15、及び音声出力部16を含んで構成される。なお、上記各部11〜16はバスを介して接続される。
制御部11は、例えばCPU等であって、記憶部12に格納されるプログラムに従って各種の情報処理を実行する。
記憶部12は、例えばRAMやROM等のメモリ素子、ハードディスクなどを含んで構成される。記憶部12は、制御部11によって実行されるプログラムや、各種のデータを保持する。また、記憶部12は、制御部11のワークメモリとしても動作する。
通信部13は、例えばLANカード等のネットワークインタフェースであって、LANや無線通信網などの通信手段を介して、他の情報処理装置との間で情報の送受信を行う。
表示部14は、例えば液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ等であって、制御部11からの指示に従って、情報の表示を行う。
操作部15は、例えばキーボード、マウス、ボタンやタッチパネル等であって、利用者の指示操作を受け付けて、当該指示操作の内容を制御部11に出力する。
音声出力部16は、例えばスピーカ等の音声出力デバイスであって、制御部11が出力する音声信号に従って音声の出力を行う。
本実施形態では、利用者が情報処理装置10を用いて、記録された講演情報等を視聴する。例えば、発表者がスクリーンやモニタの画面などに講演画像を表示させながら、プレゼンテーションや講義などの講演を行うことがある。本実施形態では、ビデオカメラなどの記録装置が、講演画像や、講演の際の音声や、講演の状況を示す動画像などの各種情報を、記録する。ここで、記録開始時及び表示される講演画像が発表者の指示などによって変更された場合には、新たに表示された講演画像を記録し、講演画像の切り替えタイミングを示す時刻情報を記録する。また、それまで記録された音声や動画像を一つの映像データとして出力して、新たな音声や動画像の記録を開始する。これにより、講演の際に聴衆に提示された複数の講演画像のそれぞれについて、当該講演画像が画面上に表示された表示時間が記録されるともに、当該講演画像の表示中に記録された音声情報や動画像を含んだ映像データが生成される。
そして、本実施形態に係る情報処理装置10の記憶部12には、上述した複数の映像データからなる時系列情報と、講演の際に聴衆に提示された1以上の講演画像(時系列情報に対応する対応画像とする)と、が関連付けられて記憶されている。図2は、本実施形態に係る時系列情報テーブルTbl100の一例を示す図である。図2に示す時系列情報テーブルTbl100は情報処理装置10の記憶部12に記憶される。図2に示すように時系列情報テーブルTbl100は、対応画像毎に、対応画像に対応する時系列情報の再生位置と、対応画像に対応する映像データと、が関連付けられて管理されている。対応画像は、講演の際に表示された順に番号(ここでは、001〜010)が付与されて記憶される。対応画像に対応する時系列情報の再生位置は、講演時に対応画像が切り替えられたタイミングとするが、発表者が対応画像に関する話を開始したタイミングとしてもよい。複数の映像データは、互いの順序が定められたデータであって、これら互いに順序づけられた複数の映像データによって、講演の開始時から終了時までの時間にわたって時間とともに変化する時系列情報が構成されている。例えば図2においては、対応画像の番号に応じて「001.mpg」から「010.mpg」まで順に並べられた一連の映像データが時系列情報を構成している。なお各映像データは、音声情報と、複数のフレーム画像から構成される画像情報と、を含む。
利用者が記録された時系列情報を視聴する際に、時系列情報のはじめから再生して視聴する場合もあれば、興味のある部分だけを再生したい場合もある。利用者が任意に再生位置を指定すれば当該再生位置からの時系列情報を再生することができるが、図2に示すような時系列情報テーブルTbl100により時系列情報が管理されていれば、利用者は対応画像に対応する部分の時系列情報だけを容易に視聴することができる。例えば利用者が対応画像を指示すれば当該対応画像に対応する再生位置が特定され、当該再生位置から時系列情報が再生される。さらに本実施形態では、対応画像内のオブジェクト毎に時系列情報の再生位置を特定できる構成としている。これにより利用者は、情報処理装置10の表示部14に表示された対応画像を見て興味のあるオブジェクトやその周辺を指示することで、当該オブジェクトに関する内容を話している時点から時系列情報を視聴することができることとなる。
以下に本実施形態で用いられる対応画像について説明する。図3は、本実施形態に係る対応画像100の一例を示す図である。図3に示すように、本実施形態に係る対応画像100は、講演の際に聴衆に提示するための画像であり、発表者が話す内容に対応する事項が示されている。図3に示す対応画像100は、1以上の文字オブジェクト110(例えば110a、110b、110c、110d)を含む。文字オブジェクト110は、単語、文章等の文字情報を含むオブジェクトである。ここでは文字オブジェクト110a〜110dを例として示しているがその他の単語、文章等についても文字オブジェクト110として認識されていることとする。なお、対応画像100には、文字オブジェクト以外に図形や画像などを含むオブジェクトが含まれていてもよい。そして情報処理装置10の表示部14に対応画像100が表示されると、利用者が操作部15を操作することでカーソル150を任意の位置に移動させ指示操作可能となっている。
図4は、本実施形態に係る対応画像情報テーブルTbl200の一例を示す図である。図4に示す対応画像情報テーブルTbl200は情報処理装置10の記憶部12に記憶される。図4に示す対応画像情報テーブルTbl200は、図3に示した対応画像100に含まれる複数の文字オブジェクトに関する情報を示している。図4に示すように対応画像情報テーブルTbl200は、文字オブジェクト毎に、文字オブジェクトを識別する識別IDと、文字オブジェクトに含まれる文字情報と、対応画像における文字オブジェクトの位置を示す位置情報と、文字オブジェクトのサイズを示す情報と、が関連付けられて管理されている。文字情報は、単語、数字、記号、文章等であってよい。位置情報は、対応画像における位置を示す情報であり、例えば図3に示す対応画像における左上の点Oを原点とする座標値であってよい。このとき図3に示す対応画像の左から右へ向かう方向をX軸、上から下へ向かう方向をY軸とする。文字オブジェクトのサイズを示す情報は、オブジェクトの高さ、幅、文字の大きさなどであってよい。このような対応画像情報テーブルTbl200が対応画像毎に記憶されていることとする。
以下、本実施形態に係る情報処理装置10が実現する機能について、説明する。図5は、本実施形態に係る情報処理装置10が実現する機能の一例を示す機能ブロック図である。図5に示すように、本実施形態に係る情報処理装置10は、機能的には、対応画像取得部、指示位置情報取得部52、文字情報取得部53、出現時点特定部54、及び再生処理部55を含んで構成される。これらの機能は、記憶部12に記憶されたプログラムを制御部11が実行することにより実現される。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ可読な情報記憶媒体を介して、あるいは、インターネットなどの通信手段を介して情報処理装置10に供給される。
対応画像表示部51は、時間とともに変化する時系列情報に対応付けられている対応画像を表示部14に表示させる。
指示位置情報取得部52は、表示部14に表示された対応画像に対して利用者が指示操作を行うと、利用者が指示した対応画像内の位置を示す指示位置情報を取得する。本実施形態においては、利用者が操作部15を用いて対応画像内の任意の位置を指示する指示操作(例えばクリック操作やタップ操作)を行う。すると操作部15が当該指示操作を受け付けて、当該指示操作が示す情報(ここでは対応画像内の位置を示す指示位置情報)を出力する。そして指示位置情報取得部52が操作部15から出力された指示位置情報を取得する。
文字情報取得部53は、指示位置情報取得部52が取得した指示位置情報が示す位置に対応する文字情報を取得する。本実施形態において、文字情報取得部53は、予め記憶部12に記憶されている対応画像情報テーブルTbl200から指示位置情報が示す位置に対応する文字情報を取得する。ここで文字情報取得部53は、指示位置情報が示す位置に最も近い文字オブジェクトに含まれる文字情報を取得すればよい。
出現時点特定部54は、時系列情報に含まれる音声情報において、文字情報取得部53が取得した文字情報の示す単語または文章が出現する出現時点を特定する。以下、文字情報取得部53が取得した文字情報の示す単語または文章、つまりは利用者が指示した文字情報の示す単語または文章をキーワードとする。ここでキーワードは、文字情報に含まれる単語や文章そのものであってもよいし、文字情報に含まれる単語や文章の一部であってもよい。またキーワードが出現する出現時点は、講演者によりキーワードが発せられた時点とし、時系列情報における再生位置として示されてよい。本実施形態において出現時点特定部54は、音声情報をテキスト化した音声テキスト情報からキーワードを検索する。そして出現時点特定部54は、検索されたキーワードの音声テキスト情報における位置に基づいて出現時点を特定する。また出現時点特定部54は、音声情報からキーワードが発せられる時点を検索して出現時点を特定してもよい。
再生処理部55は、出現時点特定部54が特定した出現時点に対応する再生位置から時系列情報を再生する。再生処理部55は、出現時点特定部54が特定した出現時点を再生位置として時系列情報を再生してもよいし、出現時点特定部54が特定した出現時点から所定時間だけ前後した範囲内を再生位置として時系列情報を再生してもよい。
ここで本実施形態に係る情報処理装置10が実行する時系列情報再生処理の一例について図6に示すフロー図を参照して説明する。
まず、利用者の表示指示に応じて情報処理装置10の表示部14に対応画像が表示されることとする。ここでは具体的に図3に示す対応画像が表示部14に表示される例について説明する。
そして、指示位置情報取得部52が、対応画像に対する利用者の指示操作を監視する(S101)。処理S101に示す処理では、利用者が操作部15を用いて対応画像に対して所定の指示操作(クリック操作やタップ操作等)を行ったか否かが判断される。
処理S101の判断の結果、利用者により所定の指示操作が行われたと判断された場合は(S101:Y)、指示位置情報取得部52が当該指示操作により指示された対応画像内の位置を示す指示位置情報を取得する(S102)。
具体的に、図3に示す対応画像において利用者がカーソル150を「香川」に合わせて指示操作を行うと、指示位置情報取得部52は、図3に示す対応画像におけるカーソル150の位置を示す指示位置情報を取得する。指示位置情報取得部52は、例えば位置情報として座標(0.101,0.45)を取得する。
そして文字情報取得部53は、対応画像情報テーブルから指示位置情報が示す位置に対応する文字情報を取得する(S103)。
具体的に、文字情報取得部53は、図4に示す対応画像情報テーブルTbl200の位置情報を示す欄から、指示位置情報取得部52が取得した指示位置情報である座標(0.101,0.45)に最も近い値を検索し、該当する位置情報(ここでは(0.1,0.45))に対応する文字情報(ここでは識別ID=004の文字情報)を取得する。
そして出現時点特定部54は、対応画像に対応する音声テキストを取得する(S104)。
ここで出現時点特定部54は、図2に示す時系列情報テーブルTbl100から、利用者が指示操作を行った対象の対応画像(例えば対象画像002.jpg)に対応する映像データ(例えば映像データ002.mpg)を取得する。そして出現時点特定部54は、当該映像データに含まれる音声情報を取得する。そして出現時点特定部54は、当該音声情報に対して音声認識を行い文字情報に変換した音声テキストを取得する。
そして出現時点特定部54は、処理S104において取得された音声テキストから、処理S103において取得された文字情報が示す単語または文章(以下、キーワードとする)を検索する(S105)。
具体的に、処理S103で取得された識別ID=004の文字情報である「香川」がキーワードとなる。この場合、出現時点特定部54は、音声テキストからキーワードである「香川」を検索する。
そして出現時点特定部54は、音声情報におけるキーワードの出現時点Tnを特定する(S106)。
例えば音声テキストには、単語毎または文節毎に音声情報における再生位置が関連付けられていることとする。そして出現時点特定部54が、検索されたキーワードに関連付けられている再生位置を取得して出現時点Tnと特定する。また、出現時点特定部54は、音声テキストにおける検索されたキーワードの出現位置から、音声情報における出現時点Tnを推定することとしてもよい。具体的にはまず、出現時点特定部54は、音声テキストにおけるキーワードの出現位置を、音声テキストの総文字数に対する、音声テキストの最初の文字からキーワードが出現するまでの文字数の割合として算出する。なお、文字数は単語数であってもよい。次に、出現時点特定部54は、音声情報の総再生時間に対して、音声テキストにおけるキーワードの出現位置(すなわち算出した割合)を掛けることで算出される再生位置を、音声情報におけるキーワードの出現時点Tnとして推定する。
次に処理S106において出現時点特定部54が特定した出現時点Tnの個数が判断される(S107)。処理S107の処理では、出現時点特定部54が出現時点Tnを1つ特定したか、出現特定時点Tnを複数特定したまたは特定しないか、が判断される。
処理S107の判断の結果、出現時点特定部54が出現時点Tnを1つ特定したと判断された場合は、再生処理部55が出現時点Tnを再生位置Tsとして決定する(S108)。そして再生処理部55が再生位置Ts(=Tn)ら時系列情報を再生し(S109)、時系列情報再生処理が終了する。
また処理S107の判断の結果、出現時点特定部54が出現特定時点Tnを複数特定したまたは特定しない、と判断された場合は、再生位置Ts決定処理が実行される(S110)。
本実施形態に係る情報処理装置10が実行する再生位置Ts決定処理の一例については図7に示すフロー図を参照して説明する。図7に示すように、まず、出現時点特定部54は、対応画像に含まれる複数の文字情報を所定の規則に従って並べてテキスト化した対応画像テキストを取得する(S201)。
図8は、本実施形態に係る対応画像テキストの一例を示す図である。図8に示す対応画像テキストは、図3に示した対応画像をテキスト化したものである。また図8に示す対応画像テキストは、図3に示した対応画像に含まれる複数の文字情報を、X座標値が小さい文字オブジェクト(すなわち対応画像の左側に位置する文字オブジェクト)に対応する文字情報から順に、そしてY座標値が小さい文字オブジェクト(すなわち対応画像の上側に位置する文字オブジェクト)に対応する文字情報から順に、並べてなるテキストである。この対応画像テキストにおける文字情報の順は、講演者が対応画像の左上から右下にかけて説明すると想定した場合の順序であり、その他の規則に従った順序で並べられてもよい。例えば文字情報が縦書きで構成されている場合には、複数の文字情報が、X座標値が大きい文字オブジェクト(すなわち対応画像の右側に位置する文字オブジェクト)に対応する文字情報から順に、そしてY座標値が小さい文字オブジェクト(すなわち対応画像の上側に位置する文字オブジェクト)に対応する文字情報から順に、並べられてもよい。
そして出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置を算出する(S202)。ここでは出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置を、対応画像テキストの総文字数に対する、対応画像テキストの最初の文字からキーワードが出現するまでの文字数の割合として算出する。なお文字数を単語数であってもよい。
そして出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置から、音声情報におけるキーワードの推定出現時点Tpを算出する(S203)。ここでは出現時点特定部54は、音声情報の総再生時間に対して、対応画像テキストにおけるキーワードの出現位置を掛けることで算出される再生位置を、音声情報におけるキーワードの推定出現時点Tpとして算出する。
次に、処理S106において出現時点特定部54が特定した出現時点Tnの個数が判断される(S204)。処理S204の処理では、出現時点特定部54が出現時点Tnを複数特定したか、出現時点Tnを特定しないか、が判断される。
処理S204の判断の結果、出現時点特定部54が出現時点Tnを特定しないと判断された場合は、出現時点特定部54が推定出現時点Tpを再生位置Tsとして決定し(S205)、リターンする。ここでは、音声テキストにキーワードが含まれていない場合に、再生処理部55が処理S203において出現時点特定部54が算出した推定出現時点Tpから時系列情報を再生することとなる。なお、出現時点特定部54が出現時点Tnを特定しないと判断された場合に、再生処理部55が対応画像に関連付けられる再生位置から時系列情報を再生してもよい。対応画像に関連付けられる再生位置は時系列情報テーブルTbl100から取得することができる。この場合は、音声テキストにキーワードが含まれていない場合に、キーワードが含まれている対応画像についての時系列情報を最初から再生することとする。
また処理S204の判断の結果、出現時点特定部54が出現時点Tnを複数特定したと判断された場合は、出現時点特定部54が処理S203において算出された推定出現時点Tpに最も近い出現時点Tnを再生位置Tsとして決定し(S206)、リターンする。ここでは、音声テキストにキーワードが複数含まれている場合、つまり再生位置Tsの候補である候補再生位置(つまりは出現時点Tn)が複数ある場合に、いずれか1つを再生位置Tsとして決定する。具体的には、処理S203において算出された推定出現時点Tpからの時系列情報の内容が、キーワードについての説明として最適であるとの考えから、出現時点特定部54は推定出現時点Tpに最も近い出現時点Tnを再生位置Tsとして決定する。
なお、上述の例では対応画像テキストに基づいて推定出現時点Tpを算出する例を示したがこの例に限定されない。例えば、処理S201において出現時点特定部54は、対応画像に含まれる複数の文字情報を所定の規則に従って順序付けできれば対応画像をテキスト化しなくてもよい。例えば、出現時点特定部54が、上述したような規則に従って複数の文字情報を順序付けし、各文字情報に順序付けに応じた番号を付与することとしてもよい。そして、処理S202において出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置を、複数の文字情報に付与された番号のうち最大の番号に対する、キーワードを含む文字情報に付与された番号の割合として算出してもよい。このように順序付けされた複数の文字情報におけるキーワードを含む文字情報の位置に基づいて、複数の出現時点Tnのうちいずれか1つを再生位置として決定する。
なお、再生位置Tsの候補である候補再生位置(つまりは出現時点Tn)が複数ある場合に、いずれか1つを再生位置Tsとして決定する方法は上述の例に限定されない。例えば音声テキストにおける複数のキーワードの位置について重心位置を算出し、当該重心位置に最も近いキーワードの出現時点Tnを再生位置Tsとして決定してもよい。
なお、本発明は上述の実施形態に限定されるものではない。
例えば、図5に示した本実施形態に係る情報処理装置10が実現する機能の一部又は全部が情報処理装置10とネットワークを介して接続される他の情報処理装置に実装されてもよい。具体的には、他の情報処理装置に対応画像表示部51及び再生処理部55が実装され、情報処理装置10が時系列情報の配信装置として機能してもよい。
10 情報処理装置、11 制御部、12 記憶部、13 通信部、14 表示部、15 操作部、16 音声出力部、51 対応画像表示部、52 指示位置情報取得部、53 文字情報取得部、54 出現時点特定部、55 再生処理部、100 対応画像、110 文字オブジェクト、150 カーソル、Tbl100 時系列情報テーブル、Tbl200 対応画像情報テーブル。

Claims (7)

  1. 時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段と、
    前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段と、
    前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段と、
    前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段と、
    前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段と、
    を含み、
    前記出現時点特定手段は、
    前記対応画像に含まれる複数の前記文字情報を当該対応画像内の位置に基づく規則に従って順序付ける順序付け手段をさらに含み、
    前記再生位置の候補となる複数の前記出現時点を特定した場合、前記順序付けされた前記複数の文字情報における前記取得された文字情報の位置に基づいて、いずれか1つの前記出現時点を前記再生位置として決定する、
    ことを特徴とする情報処理装置。
  2. 時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段と、
    前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段と、
    前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段と、
    前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段と、
    前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段と、
    を含み、
    前記出現時点特定手段は、
    前記対応画像に含まれる複数の前記文字情報を所定の規則に従って並べてテキスト化した対応画像テキストにおいて、前記取得された文字情報の示す単語または文章の出現位置を算出し、
    前記対応画像テキストにおいて算出された前記取得された文字情報の示す単語または文章の出現位置から、前記音声情報における前記取得された文字情報の示す単語または文章の推定出現時点を算出する、
    ことを特徴とする情報処理装置。
  3. 前記出現時点特定手段は、
    前記出現時点を特定しないと判断された場合、前記推定出現時点を前記再生位置とする、
    ことを特徴とする請求項2に記載の情報処理装置。
  4. 前記出現時点特定手段は、
    前記出現時点を複数特定したと判断された場合、前記推定出現地点から最も近い前記出現地点を前記再生位置とする、
    ことを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記出現時点特定手段は、
    前記音声情報をテキスト化した音声テキスト情報から前記取得された文字情報の示す単語または文章を検索する検索手段、をさらに含み、
    前記検索手段により検索された前記音声テキスト情報における前記単語または文章の位置に基づいて前記出現時点を特定する、
    ことを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。
  6. 時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段、
    前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段、
    前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段、
    前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段、
    前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段、
    としてコンピュータを機能させるためのプログラムであって、
    前記出現時点特定手段は、
    前記対応画像に含まれる複数の前記文字情報を当該対応画像内の位置に基づく規則に従って順序付ける順序付け手段をさらに含み、
    前記再生位置の候補となる複数の前記出現時点を特定した場合、前記順序付けされた前記複数の文字情報における前記取得された文字情報の位置に基づいて、いずれか1つの前記出現時点を前記再生位置として決定する、
    プログラム。
  7. 時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段、
    前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段、
    前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段、
    前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段、
    前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段、
    としてコンピュータを機能させるためのプログラムであって、
    前記出現時点特定手段は、
    前記対応画像に含まれる複数の前記文字情報を所定の規則に従って並べてテキスト化した対応画像テキストにおいて、前記取得された文字情報の示す単語または文章の出現位置を算出し、
    前記対応画像テキストにおいて算出された前記取得された文字情報の示す単語または文章の出現位置から、前記音声情報における前記取得された文字情報の示す単語または文章の推定出現時点を算出する、
    プログラム。
JP2015187195A 2015-09-24 2015-09-24 情報処理装置及びプログラム Expired - Fee Related JP6638281B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015187195A JP6638281B2 (ja) 2015-09-24 2015-09-24 情報処理装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015187195A JP6638281B2 (ja) 2015-09-24 2015-09-24 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2017062611A JP2017062611A (ja) 2017-03-30
JP6638281B2 true JP6638281B2 (ja) 2020-01-29

Family

ID=58428765

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015187195A Expired - Fee Related JP6638281B2 (ja) 2015-09-24 2015-09-24 情報処理装置及びプログラム

Country Status (1)

Country Link
JP (1) JP6638281B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018207264A1 (ja) 2017-05-09 2018-11-15 オリンパス株式会社 画像再生装置及び観察システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004104986A1 (ja) * 2003-05-21 2004-12-02 Matsushita Electric Industrial Co., Ltd. 音声出力装置及び音声出力方法
JP2010055259A (ja) * 2008-08-27 2010-03-11 Konica Minolta Business Technologies Inc 画像処理装置、画像処理プログラム及び画像処理方法
JP5910222B2 (ja) * 2012-03-23 2016-04-27 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
JP2017062611A (ja) 2017-03-30

Similar Documents

Publication Publication Date Title
US10031649B2 (en) Automated content detection, analysis, visual synthesis and repurposing
US7995074B2 (en) Information presentation method and information presentation apparatus
US20080079693A1 (en) Apparatus for displaying presentation information
US20050259959A1 (en) Media data play apparatus and system
US8713069B2 (en) Playlist search device, playlist search method and program
KR20140139859A (ko) 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
JP4568144B2 (ja) 情報提示装置及び情報提示プログラム
CN111524206A (zh) 一种生成思维导图的方法和装置
JP2010288163A (ja) 評価システム、マーカー表示の制御方法およびプログラム
US10657176B1 (en) Associating object related keywords with video metadata
US20150199171A1 (en) Handwritten document processing apparatus and method
JP2018180519A (ja) 音声認識誤り修正支援装置およびそのプログラム
JP6638281B2 (ja) 情報処理装置及びプログラム
JP2013092912A (ja) 情報処理装置、情報処理方法、並びにプログラム
JP2006228059A (ja) ポインタの位置情報を利用するプレゼンテーションコンテンツ検索システムおよびその方法、ならびにコンピュータ読み取り可能な記録媒体
JP2012053855A (ja) コンテンツ閲覧装置、コンテンツ表示方法及びコンテンツ表示プログラム
JP6641732B2 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2016086573A1 (zh) 一种投影显示方法及装置
JP2009301266A (ja) ユーザインタフェース装置
US9343108B2 (en) Information processing apparatus, information processing method, and non-transitory computer readable medium
US20240170024A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP2019066785A (ja) 情報処理装置、画面出力方法及びプログラム
KR20110042626A (ko) 전자액자의 이미지 표시 방법 및 장치
JP2006252208A (ja) アノテーション付与装置、アノテーション付与方法およびプログラム
JP5244460B2 (ja) 情報自動編成提示装置および情報自動編成提示処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180831

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190409

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191209

R150 Certificate of patent or registration of utility model

Ref document number: 6638281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees