JP2017062611A - Information processing device and program - Google Patents
Information processing device and program Download PDFInfo
- Publication number
- JP2017062611A JP2017062611A JP2015187195A JP2015187195A JP2017062611A JP 2017062611 A JP2017062611 A JP 2017062611A JP 2015187195 A JP2015187195 A JP 2015187195A JP 2015187195 A JP2015187195 A JP 2015187195A JP 2017062611 A JP2017062611 A JP 2017062611A
- Authority
- JP
- Japan
- Prior art keywords
- information
- time
- corresponding image
- character information
- character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing apparatus and a program.
特許文献1には、講演等の映像を使用したスライド画像と同期させて再生する映像再生システムについて開示されている。このような映像再生システムでは、スライド画像に含まれるオブジェクトと映像の再生位置とを予め関連付けておき、オブジェクトを指定すると当該オブジェクトに関連付けられる再生位置から映像が再生される。特許文献2には、発表者がマウスカーソルでスライド画像を指し示す等、スライド画像に対して位置指定を行った場合、該位置指定とその際の発表者の音声情報を対応づけて記憶し、利用者が同スライド画像の位置を指示した際、該位置に対応付けられた音声情報を再生することが開示されている。
しかし、一般的に、発表者がスライド画像に対して位置指定を行わなかった場合は、その際の音声情報はスライド画像と対応づけて記憶することができず、対応付けが行われていないスライドの位置を指示した場合、利用者は該位置に関する音声情報を再生することができなかった。 However, generally, when the presenter does not specify the position for the slide image, the audio information at that time cannot be stored in association with the slide image, and the slide is not associated. When the position is indicated, the user cannot reproduce the audio information related to the position.
本発明の目的の一つは、対応画像に対して発表者の位置指定が行われていなくても、再生される時系列情報に対応する対応画像に対して利用者が任意に指示した位置に基づいて、時系列情報の再生位置を特定できる情報処理装置を提供することにある。 One of the objects of the present invention is that the user arbitrarily designates the corresponding image corresponding to the time-series information to be reproduced even if the position of the presenter is not specified for the corresponding image. It is an object of the present invention to provide an information processing apparatus that can specify the playback position of time-series information.
請求項1に係る情報処理装置は、時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段と、前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段と、前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段と、前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段と、前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段と、を含むことを特徴とする。
An information processing apparatus according to
請求項2に係る情報処理装置は、請求項1に記載の情報処理装置において、前記出現時点特定手段は、前記音声情報をテキスト化した音声テキスト情報から前記取得された文字情報の示す単語または文章を検索する検索手段、をさらに含み、前記検索手段により検索された前記音声テキスト情報における前記単語または文章の位置に基づいて前記出現時点を特定する。
The information processing device according to
請求項3に係る情報処理装置は、請求項1または2に記載の情報処理装置において、前記出現時点特定手段は、前記再生位置の候補となる複数の前記出現時点を特定した場合に、いずれか1つの前記出現時点を前記再生位置として決定する。
The information processing apparatus according to claim 3 is the information processing apparatus according to
請求項4に係る情報処理装置は、請求項3に記載の情報処理装置において、前記出現時点特定手段は、前記対応画像に含まれる複数の前記文字情報を当該対応画像内の位置に基づく規則に従って順序付ける順序付け手段と、をさらに含み、前記順序付けされた前記複数の文字情報における前記取得された文字情報の位置に基づいて、前記複数の出現時点のうちいずれか1つの前記出現時点を前記再生位置として決定する。 The information processing apparatus according to claim 4 is the information processing apparatus according to claim 3, wherein the outgoing current point identification unit performs a plurality of character information included in the corresponding image according to a rule based on a position in the corresponding image. Ordering means for ordering, and based on the position of the acquired character information in the ordered plurality of character information, any one of the plurality of output current times is the reproduction position. Determine as.
請求項5に係るプログラムは、時間とともに変化する時系列情報に対応付けられ、複数の文字情報を含む対応画像を表示部に表示させる対応画像表示手段、前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段、前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段、前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段、前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段、としてコンピュータを機能させるためのプログラムである。 The program according to claim 5 is associated with time-series information that changes with time, and corresponds to a corresponding image display unit that displays a corresponding image including a plurality of character information on a display unit. In the indicated position information acquiring means for acquiring the indicated position information indicating the position, the character information acquiring means for acquiring the character information corresponding to the position indicated by the indicated position information, and the voice information included in the time series information, the acquired information For causing the computer to function as an outgoing current point specifying means for specifying a current outgoing time point at which a word or a sentence indicated by the character information appears, and a reproduction processing means for reproducing the time series information from a reproduction position corresponding to the specified outgoing current time point It is a program.
請求項1及び5に係る発明によれば、対応画像に対して発表者の位置指定が行われていなくても、再生される時系列情報に対応する対応画像に対して利用者が任意に指示した位置に対応した時系列情報を再生できる。 According to the first and fifth aspects of the present invention, even if the presenter's position is not specified for the corresponding image, the user arbitrarily designates the corresponding image corresponding to the time-series information to be reproduced. Time-series information corresponding to the selected position can be reproduced.
請求項2に係る発明によれば、音声情報をテキスト化した音声テキスト情報に基づいて、対応画像に対して発表者の位置指定が行われていなくても、対応画像に対して利用者が任意に指示した位置に対応した時系列情報を再生できる。 According to the second aspect of the present invention, the user can arbitrarily select the corresponding image even if the presenter's position is not specified for the corresponding image based on the voice text information obtained by converting the voice information into text. It is possible to reproduce time-series information corresponding to the position instructed.
請求項3及び4に係る発明によれば、対応画像において利用者が任意に指示した位置に対応した時系列情報の再生位置が複数ある場合に、最適な1つの再生位置を特定できる。 According to the third and fourth aspects of the present invention, when there are a plurality of reproduction positions of time-series information corresponding to positions arbitrarily designated by the user in the corresponding image, one optimum reproduction position can be specified.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本実施形態に係る情報処理装置10のハードウエア構成の一例を示す図である。本実施形態に係る情報処理装置10は、例えばパーソナルコンピュータ等であって、図1に示すように、制御部11、記憶部12、通信部13、表示部14、操作部15、及び音声出力部16を含んで構成される。なお、上記各部11〜16はバスを介して接続される。
FIG. 1 is a diagram illustrating an example of a hardware configuration of the
制御部11は、例えばCPU等であって、記憶部12に格納されるプログラムに従って各種の情報処理を実行する。
The control unit 11 is, for example, a CPU or the like, and executes various types of information processing according to programs stored in the
記憶部12は、例えばRAMやROM等のメモリ素子、ハードディスクなどを含んで構成される。記憶部12は、制御部11によって実行されるプログラムや、各種のデータを保持する。また、記憶部12は、制御部11のワークメモリとしても動作する。
The
通信部13は、例えばLANカード等のネットワークインタフェースであって、LANや無線通信網などの通信手段を介して、他の情報処理装置との間で情報の送受信を行う。
The
表示部14は、例えば液晶ディスプレイ、CRTディスプレイ、有機ELディスプレイ等であって、制御部11からの指示に従って、情報の表示を行う。
The
操作部15は、例えばキーボード、マウス、ボタンやタッチパネル等であって、利用者の指示操作を受け付けて、当該指示操作の内容を制御部11に出力する。
The
音声出力部16は、例えばスピーカ等の音声出力デバイスであって、制御部11が出力する音声信号に従って音声の出力を行う。
The
本実施形態では、利用者が情報処理装置10を用いて、記録された講演情報等を視聴する。例えば、発表者がスクリーンやモニタの画面などに講演画像を表示させながら、プレゼンテーションや講義などの講演を行うことがある。本実施形態では、ビデオカメラなどの記録装置が、講演画像や、講演の際の音声や、講演の状況を示す動画像などの各種情報を、記録する。ここで、記録開始時及び表示される講演画像が発表者の指示などによって変更された場合には、新たに表示された講演画像を記録し、講演画像の切り替えタイミングを示す時刻情報を記録する。また、それまで記録された音声や動画像を一つの映像データとして出力して、新たな音声や動画像の記録を開始する。これにより、講演の際に聴衆に提示された複数の講演画像のそれぞれについて、当該講演画像が画面上に表示された表示時間が記録されるともに、当該講演画像の表示中に記録された音声情報や動画像を含んだ映像データが生成される。
In this embodiment, a user views recorded lecture information and the like using the
そして、本実施形態に係る情報処理装置10の記憶部12には、上述した複数の映像データからなる時系列情報と、講演の際に聴衆に提示された1以上の講演画像(時系列情報に対応する対応画像とする)と、が関連付けられて記憶されている。図2は、本実施形態に係る時系列情報テーブルTbl100の一例を示す図である。図2に示す時系列情報テーブルTbl100は情報処理装置10の記憶部12に記憶される。図2に示すように時系列情報テーブルTbl100は、対応画像毎に、対応画像に対応する時系列情報の再生位置と、対応画像に対応する映像データと、が関連付けられて管理されている。対応画像は、講演の際に表示された順に番号(ここでは、001〜010)が付与されて記憶される。対応画像に対応する時系列情報の再生位置は、講演時に対応画像が切り替えられたタイミングとするが、発表者が対応画像に関する話を開始したタイミングとしてもよい。複数の映像データは、互いの順序が定められたデータであって、これら互いに順序づけられた複数の映像データによって、講演の開始時から終了時までの時間にわたって時間とともに変化する時系列情報が構成されている。例えば図2においては、対応画像の番号に応じて「001.mpg」から「010.mpg」まで順に並べられた一連の映像データが時系列情報を構成している。なお各映像データは、音声情報と、複数のフレーム画像から構成される画像情報と、を含む。
In the
利用者が記録された時系列情報を視聴する際に、時系列情報のはじめから再生して視聴する場合もあれば、興味のある部分だけを再生したい場合もある。利用者が任意に再生位置を指定すれば当該再生位置からの時系列情報を再生することができるが、図2に示すような時系列情報テーブルTbl100により時系列情報が管理されていれば、利用者は対応画像に対応する部分の時系列情報だけを容易に視聴することができる。例えば利用者が対応画像を指示すれば当該対応画像に対応する再生位置が特定され、当該再生位置から時系列情報が再生される。さらに本実施形態では、対応画像内のオブジェクト毎に時系列情報の再生位置を特定できる構成としている。これにより利用者は、情報処理装置10の表示部14に表示された対応画像を見て興味のあるオブジェクトやその周辺を指示することで、当該オブジェクトに関する内容を話している時点から時系列情報を視聴することができることとなる。
When viewing the time-series information recorded by the user, there are cases where the user reproduces and views from the beginning of the time-series information, and sometimes desires to reproduce only the portion of interest. If the user arbitrarily designates the reproduction position, the time series information from the reproduction position can be reproduced. However, if the time series information is managed by the time series information table Tbl100 as shown in FIG. The person can easily view only the time-series information of the part corresponding to the corresponding image. For example, if the user indicates a corresponding image, a reproduction position corresponding to the corresponding image is specified, and time-series information is reproduced from the reproduction position. Further, in the present embodiment, the reproduction position of the time series information can be specified for each object in the corresponding image. As a result, the user views the corresponding image displayed on the
以下に本実施形態で用いられる対応画像について説明する。図3は、本実施形態に係る対応画像100の一例を示す図である。図3に示すように、本実施形態に係る対応画像100は、講演の際に聴衆に提示するための画像であり、発表者が話す内容に対応する事項が示されている。図3に示す対応画像100は、1以上の文字オブジェクト110(例えば110a、110b、110c、110d)を含む。文字オブジェクト110は、単語、文章等の文字情報を含むオブジェクトである。ここでは文字オブジェクト110a〜110dを例として示しているがその他の単語、文章等についても文字オブジェクト110として認識されていることとする。なお、対応画像100には、文字オブジェクト以外に図形や画像などを含むオブジェクトが含まれていてもよい。そして情報処理装置10の表示部14に対応画像100が表示されると、利用者が操作部15を操作することでカーソル150を任意の位置に移動させ指示操作可能となっている。
The corresponding image used in this embodiment will be described below. FIG. 3 is a diagram illustrating an example of the
図4は、本実施形態に係る対応画像情報テーブルTbl200の一例を示す図である。図4に示す対応画像情報テーブルTbl200は情報処理装置10の記憶部12に記憶される。図4に示す対応画像情報テーブルTbl200は、図3に示した対応画像100に含まれる複数の文字オブジェクトに関する情報を示している。図4に示すように対応画像情報テーブルTbl200は、文字オブジェクト毎に、文字オブジェクトを識別する識別IDと、文字オブジェクトに含まれる文字情報と、対応画像における文字オブジェクトの位置を示す位置情報と、文字オブジェクトのサイズを示す情報と、が関連付けられて管理されている。文字情報は、単語、数字、記号、文章等であってよい。位置情報は、対応画像における位置を示す情報であり、例えば図3に示す対応画像における左上の点Oを原点とする座標値であってよい。このとき図3に示す対応画像の左から右へ向かう方向をX軸、上から下へ向かう方向をY軸とする。文字オブジェクトのサイズを示す情報は、オブジェクトの高さ、幅、文字の大きさなどであってよい。このような対応画像情報テーブルTbl200が対応画像毎に記憶されていることとする。
FIG. 4 is a diagram showing an example of the corresponding image information table Tbl200 according to the present embodiment. The corresponding image information table Tbl200 illustrated in FIG. 4 is stored in the
以下、本実施形態に係る情報処理装置10が実現する機能について、説明する。図5は、本実施形態に係る情報処理装置10が実現する機能の一例を示す機能ブロック図である。図5に示すように、本実施形態に係る情報処理装置10は、機能的には、対応画像取得部、指示位置情報取得部52、文字情報取得部53、出現時点特定部54、及び再生処理部55を含んで構成される。これらの機能は、記憶部12に記憶されたプログラムを制御部11が実行することにより実現される。このプログラムは、例えば、光ディスク、磁気ディスク、磁気テープ、光磁気ディスク、フラッシュメモリ等のコンピュータ可読な情報記憶媒体を介して、あるいは、インターネットなどの通信手段を介して情報処理装置10に供給される。
Hereinafter, functions realized by the
対応画像表示部51は、時間とともに変化する時系列情報に対応付けられている対応画像を表示部14に表示させる。
The corresponding
指示位置情報取得部52は、表示部14に表示された対応画像に対して利用者が指示操作を行うと、利用者が指示した対応画像内の位置を示す指示位置情報を取得する。本実施形態においては、利用者が操作部15を用いて対応画像内の任意の位置を指示する指示操作(例えばクリック操作やタップ操作)を行う。すると操作部15が当該指示操作を受け付けて、当該指示操作が示す情報(ここでは対応画像内の位置を示す指示位置情報)を出力する。そして指示位置情報取得部52が操作部15から出力された指示位置情報を取得する。
When the user performs an instruction operation on the corresponding image displayed on the
文字情報取得部53は、指示位置情報取得部52が取得した指示位置情報が示す位置に対応する文字情報を取得する。本実施形態において、文字情報取得部53は、予め記憶部12に記憶されている対応画像情報テーブルTbl200から指示位置情報が示す位置に対応する文字情報を取得する。ここで文字情報取得部53は、指示位置情報が示す位置に最も近い文字オブジェクトに含まれる文字情報を取得すればよい。
The character
出現時点特定部54は、時系列情報に含まれる音声情報において、文字情報取得部53が取得した文字情報の示す単語または文章が出現する出現時点を特定する。以下、文字情報取得部53が取得した文字情報の示す単語または文章、つまりは利用者が指示した文字情報の示す単語または文章をキーワードとする。ここでキーワードは、文字情報に含まれる単語や文章そのものであってもよいし、文字情報に含まれる単語や文章の一部であってもよい。またキーワードが出現する出現時点は、講演者によりキーワードが発せられた時点とし、時系列情報における再生位置として示されてよい。本実施形態において出現時点特定部54は、音声情報をテキスト化した音声テキスト情報からキーワードを検索する。そして出現時点特定部54は、検索されたキーワードの音声テキスト情報における位置に基づいて出現時点を特定する。また出現時点特定部54は、音声情報からキーワードが発せられる時点を検索して出現時点を特定してもよい。
The outgoing current
再生処理部55は、出現時点特定部54が特定した出現時点に対応する再生位置から時系列情報を再生する。再生処理部55は、出現時点特定部54が特定した出現時点を再生位置として時系列情報を再生してもよいし、出現時点特定部54が特定した出現時点から所定時間だけ前後した範囲内を再生位置として時系列情報を再生してもよい。
The
ここで本実施形態に係る情報処理装置10が実行する時系列情報再生処理の一例について図6に示すフロー図を参照して説明する。
Here, an example of time-series information reproduction processing executed by the
まず、利用者の表示指示に応じて情報処理装置10の表示部14に対応画像が表示されることとする。ここでは具体的に図3に示す対応画像が表示部14に表示される例について説明する。
First, it is assumed that a corresponding image is displayed on the
そして、指示位置情報取得部52が、対応画像に対する利用者の指示操作を監視する(S101)。処理S101に示す処理では、利用者が操作部15を用いて対応画像に対して所定の指示操作(クリック操作やタップ操作等)を行ったか否かが判断される。
Then, the designated position
処理S101の判断の結果、利用者により所定の指示操作が行われたと判断された場合は(S101:Y)、指示位置情報取得部52が当該指示操作により指示された対応画像内の位置を示す指示位置情報を取得する(S102)。
As a result of the determination in step S101, when it is determined that a predetermined instruction operation has been performed by the user (S101: Y), the instruction position
具体的に、図3に示す対応画像において利用者がカーソル150を「香川」に合わせて指示操作を行うと、指示位置情報取得部52は、図3に示す対応画像におけるカーソル150の位置を示す指示位置情報を取得する。指示位置情報取得部52は、例えば位置情報として座標(0.101,0.45)を取得する。
Specifically, when the user performs an instruction operation by moving the
そして文字情報取得部53は、対応画像情報テーブルから指示位置情報が示す位置に対応する文字情報を取得する(S103)。
Then, the character
具体的に、文字情報取得部53は、図4に示す対応画像情報テーブルTbl200の位置情報を示す欄から、指示位置情報取得部52が取得した指示位置情報である座標(0.101,0.45)に最も近い値を検索し、該当する位置情報(ここでは(0.1,0.45))に対応する文字情報(ここでは識別ID=004の文字情報)を取得する。
Specifically, the character
そして出現時点特定部54は、対応画像に対応する音声テキストを取得する(S104)。
Then, the outgoing current
ここで出現時点特定部54は、図2に示す時系列情報テーブルTbl100から、利用者が指示操作を行った対象の対応画像(例えば対象画像002.jpg)に対応する映像データ(例えば映像データ002.mpg)を取得する。そして出現時点特定部54は、当該映像データに含まれる音声情報を取得する。そして出現時点特定部54は、当該音声情報に対して音声認識を行い文字情報に変換した音声テキストを取得する。
Here, the present
そして出現時点特定部54は、処理S104において取得された音声テキストから、処理S103において取得された文字情報が示す単語または文章(以下、キーワードとする)を検索する(S105)。
Then, the outgoing current
具体的に、処理S103で取得された識別ID=004の文字情報である「香川」がキーワードとなる。この場合、出現時点特定部54は、音声テキストからキーワードである「香川」を検索する。
Specifically, “Kagawa”, which is the character information of the identification ID = 004 acquired in step S103, is a keyword. In this case, the outgoing current
そして出現時点特定部54は、音声情報におけるキーワードの出現時点Tnを特定する(S106)。
Then, the outgoing
例えば音声テキストには、単語毎または文節毎に音声情報における再生位置が関連付けられていることとする。そして出現時点特定部54が、検索されたキーワードに関連付けられている再生位置を取得して出現時点Tnと特定する。また、出現時点特定部54は、音声テキストにおける検索されたキーワードの出現位置から、音声情報における出現時点Tnを推定することとしてもよい。具体的にはまず、出現時点特定部54は、音声テキストにおけるキーワードの出現位置を、音声テキストの総文字数に対する、音声テキストの最初の文字からキーワードが出現するまでの文字数の割合として算出する。なお、文字数は単語数であってもよい。次に、出現時点特定部54は、音声情報の総再生時間に対して、音声テキストにおけるキーワードの出現位置(すなわち算出した割合)を掛けることで算出される再生位置を、音声情報におけるキーワードの出現時点Tnとして推定する。
For example, it is assumed that the reproduction position in the audio information is associated with the voice text for each word or phrase. Then, the outgoing current
次に処理S106において出現時点特定部54が特定した出現時点Tnの個数が判断される(S107)。処理S107の処理では、出現時点特定部54が出現時点Tnを1つ特定したか、出現特定時点Tnを複数特定したまたは特定しないか、が判断される。
Next, the number of outgoing current times Tn specified by the outgoing current
処理S107の判断の結果、出現時点特定部54が出現時点Tnを1つ特定したと判断された場合は、再生処理部55が出現時点Tnを再生位置Tsとして決定する(S108)。そして再生処理部55が再生位置Ts(=Tn)ら時系列情報を再生し(S109)、時系列情報再生処理が終了する。
As a result of the determination in step S107, when it is determined that the output current
また処理S107の判断の結果、出現時点特定部54が出現特定時点Tnを複数特定したまたは特定しない、と判断された場合は、再生位置Ts決定処理が実行される(S110)。
Further, as a result of the determination in step S107, when it is determined that the present
本実施形態に係る情報処理装置10が実行する再生位置Ts決定処理の一例については図7に示すフロー図を参照して説明する。図7に示すように、まず、出現時点特定部54は、対応画像に含まれる複数の文字情報を所定の規則に従って並べてテキスト化した対応画像テキストを取得する(S201)。
An example of the reproduction position Ts determination process executed by the
図8は、本実施形態に係る対応画像テキストの一例を示す図である。図8に示す対応画像テキストは、図3に示した対応画像をテキスト化したものである。また図8に示す対応画像テキストは、図3に示した対応画像に含まれる複数の文字情報を、X座標値が小さい文字オブジェクト(すなわち対応画像の左側に位置する文字オブジェクト)に対応する文字情報から順に、そしてY座標値が小さい文字オブジェクト(すなわち対応画像の上側に位置する文字オブジェクト)に対応する文字情報から順に、並べてなるテキストである。この対応画像テキストにおける文字情報の順は、講演者が対応画像の左上から右下にかけて説明すると想定した場合の順序であり、その他の規則に従った順序で並べられてもよい。例えば文字情報が縦書きで構成されている場合には、複数の文字情報が、X座標値が大きい文字オブジェクト(すなわち対応画像の右側に位置する文字オブジェクト)に対応する文字情報から順に、そしてY座標値が小さい文字オブジェクト(すなわち対応画像の上側に位置する文字オブジェクト)に対応する文字情報から順に、並べられてもよい。 FIG. 8 is a diagram showing an example of the corresponding image text according to the present embodiment. The corresponding image text shown in FIG. 8 is obtained by converting the corresponding image shown in FIG. 3 into text. 8 corresponds to the character information corresponding to the character object having a small X-coordinate value (that is, the character object located on the left side of the corresponding image) included in the corresponding image shown in FIG. The texts are arranged in order from the character information corresponding to the character object having a small Y coordinate value (that is, the character object located above the corresponding image). The order of the character information in the corresponding image text is the order when the lecturer is assumed to explain from the upper left to the lower right of the corresponding image, and may be arranged in an order according to other rules. For example, when the character information is composed of vertical writing, the plurality of character information items are in order from the character information corresponding to the character object having a large X coordinate value (that is, the character object located on the right side of the corresponding image) and then Y You may arrange in order from the character information corresponding to the character object with a small coordinate value (namely, the character object located above a corresponding image).
そして出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置を算出する(S202)。ここでは出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置を、対応画像テキストの総文字数に対する、対応画像テキストの最初の文字からキーワードが出現するまでの文字数の割合として算出する。なお文字数を単語数であってもよい。
Then, the outgoing current
そして出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置から、音声情報におけるキーワードの推定出現時点Tpを算出する(S203)。ここでは出現時点特定部54は、音声情報の総再生時間に対して、対応画像テキストにおけるキーワードの出現位置を掛けることで算出される再生位置を、音声情報におけるキーワードの推定出現時点Tpとして算出する。
Then, the outgoing current
次に、処理S106において出現時点特定部54が特定した出現時点Tnの個数が判断される(S204)。処理S204の処理では、出現時点特定部54が出現時点Tnを複数特定したか、出現時点Tnを特定しないか、が判断される。
Next, the number of outgoing current times Tn specified by the outgoing current
処理S204の判断の結果、出現時点特定部54が出現時点Tnを特定しないと判断された場合は、出現時点特定部54が推定出現時点Tpを再生位置Tsとして決定し(S205)、リターンする。ここでは、音声テキストにキーワードが含まれていない場合に、再生処理部55が処理S203において出現時点特定部54が算出した推定出現時点Tpから時系列情報を再生することとなる。なお、出現時点特定部54が出現時点Tnを特定しないと判断された場合に、再生処理部55が対応画像に関連付けられる再生位置から時系列情報を再生してもよい。対応画像に関連付けられる再生位置は時系列情報テーブルTbl100から取得することができる。この場合は、音声テキストにキーワードが含まれていない場合に、キーワードが含まれている対応画像についての時系列情報を最初から再生することとする。
As a result of the determination in step S204, when it is determined that the outgoing current
また処理S204の判断の結果、出現時点特定部54が出現時点Tnを複数特定したと判断された場合は、出現時点特定部54が処理S203において算出された推定出現時点Tpに最も近い出現時点Tnを再生位置Tsとして決定し(S206)、リターンする。ここでは、音声テキストにキーワードが複数含まれている場合、つまり再生位置Tsの候補である候補再生位置(つまりは出現時点Tn)が複数ある場合に、いずれか1つを再生位置Tsとして決定する。具体的には、処理S203において算出された推定出現時点Tpからの時系列情報の内容が、キーワードについての説明として最適であるとの考えから、出現時点特定部54は推定出現時点Tpに最も近い出現時点Tnを再生位置Tsとして決定する。
As a result of the determination in step S204, if it is determined that the outgoing current
なお、上述の例では対応画像テキストに基づいて推定出現時点Tpを算出する例を示したがこの例に限定されない。例えば、処理S201において出現時点特定部54は、対応画像に含まれる複数の文字情報を所定の規則に従って順序付けできれば対応画像をテキスト化しなくてもよい。例えば、出現時点特定部54が、上述したような規則に従って複数の文字情報を順序付けし、各文字情報に順序付けに応じた番号を付与することとしてもよい。そして、処理S202において出現時点特定部54は、対応画像テキストにおけるキーワードの出現位置を、複数の文字情報に付与された番号のうち最大の番号に対する、キーワードを含む文字情報に付与された番号の割合として算出してもよい。このように順序付けされた複数の文字情報におけるキーワードを含む文字情報の位置に基づいて、複数の出現時点Tnのうちいずれか1つを再生位置として決定する。
In the above example, an example is shown in which the estimated current time Tp is calculated based on the corresponding image text, but the present invention is not limited to this example. For example, in step S201, the present
なお、再生位置Tsの候補である候補再生位置(つまりは出現時点Tn)が複数ある場合に、いずれか1つを再生位置Tsとして決定する方法は上述の例に限定されない。例えば音声テキストにおける複数のキーワードの位置について重心位置を算出し、当該重心位置に最も近いキーワードの出現時点Tnを再生位置Tsとして決定してもよい。 Note that when there are a plurality of candidate playback positions (that is, the current time Tn) that are candidates for the playback position Ts, the method of determining any one as the playback position Ts is not limited to the above example. For example, the centroid position may be calculated for the positions of a plurality of keywords in the speech text, and the current keyword Tn closest to the centroid position may be determined as the reproduction position Ts.
なお、本発明は上述の実施形態に限定されるものではない。 In addition, this invention is not limited to the above-mentioned embodiment.
例えば、図5に示した本実施形態に係る情報処理装置10が実現する機能の一部又は全部が情報処理装置10とネットワークを介して接続される他の情報処理装置に実装されてもよい。具体的には、他の情報処理装置に対応画像表示部51及び再生処理部55が実装され、情報処理装置10が時系列情報の配信装置として機能してもよい。
For example, some or all of the functions realized by the
10 情報処理装置、11 制御部、12 記憶部、13 通信部、14 表示部、15 操作部、16 音声出力部、51 対応画像表示部、52 指示位置情報取得部、53 文字情報取得部、54 出現時点特定部、55 再生処理部、100 対応画像、110 文字オブジェクト、150 カーソル、Tbl100 時系列情報テーブル、Tbl200 対応画像情報テーブル。
DESCRIPTION OF
Claims (5)
前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段と、
前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段と、
前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段と、
前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段と、
を含むことを特徴とする情報処理装置。 Corresponding image display means for displaying a corresponding image including a plurality of character information on the display unit in correspondence with time-series information that changes with time;
Instructed position information acquisition means for acquiring indicated position information indicating the position designated by the user in the corresponding image;
Character information acquisition means for acquiring the character information corresponding to the position indicated by the indicated position information;
In the voice information included in the time-series information, an outgoing current point specifying unit for specifying an outgoing current point at which a word or sentence indicated by the acquired character information appears;
Reproduction processing means for reproducing the time-series information from the reproduction position corresponding to the specified present time;
An information processing apparatus comprising:
前記音声情報をテキスト化した音声テキスト情報から前記取得された文字情報の示す単語または文章を検索する検索手段、をさらに含み、
前記検索手段により検索された前記音声テキスト情報における前記単語または文章の位置に基づいて前記出現時点を特定する、
ことを特徴とする請求項1に記載の情報処理装置。 The departure time specifying means is:
Search means for searching for a word or sentence indicated by the acquired character information from the voice text information obtained by converting the voice information into text,
Identifying the current point of departure based on the position of the word or sentence in the speech text information searched by the search means;
The information processing apparatus according to claim 1.
前記再生位置の候補となる複数の前記出現時点を特定した場合に、いずれか1つの前記出現時点を前記再生位置として決定する、
ことを特徴とする請求項1または2に記載の情報処理装置。 The departure time specifying means is:
When a plurality of the current time points that are candidates for the reproduction position are specified, any one of the current time points is determined as the reproduction position;
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記対応画像に含まれる複数の前記文字情報を当該対応画像内の位置に基づく規則に従って順序付ける順序付け手段と、をさらに含み、
前記順序付けされた前記複数の文字情報における前記取得された文字情報の位置に基づいて、前記複数の出現時点のうちいずれか1つの前記出現時点を前記再生位置として決定する、
ことを特徴とする請求項3に記載の情報処理装置。 The departure time specifying means is:
Ordering means for ordering a plurality of the character information included in the corresponding image according to a rule based on a position in the corresponding image;
Based on the position of the acquired character information in the ordered plurality of character information, any one of the plurality of outgoing current times is determined as the reproduction position.
The information processing apparatus according to claim 3.
前記対応画像における、利用者により指示された位置を示す指示位置情報を取得する指示位置情報取得手段、
前記指示位置情報が示す位置に対応する前記文字情報を取得する文字情報取得手段、
前記時系列情報に含まれる音声情報において、前記取得された文字情報の示す単語または文章が出現する出現時点を特定する出現時点特定手段、
前記特定された出現時点に応じた再生位置から前記時系列情報を再生する再生処理手段、
としてコンピュータを機能させるためのプログラム。 Corresponding image display means for displaying a corresponding image including a plurality of character information on the display unit in association with time-series information that changes with time,
Instructed position information acquisition means for acquiring indicated position information indicating the position instructed by the user in the corresponding image;
Character information acquisition means for acquiring the character information corresponding to the position indicated by the indicated position information;
In the voice information included in the time-series information, an outgoing current specifying means for specifying an outgoing current time at which a word or sentence indicated by the acquired character information appears,
Playback processing means for playing back the time-series information from the playback position corresponding to the identified current time point;
As a program to make the computer function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015187195A JP6638281B2 (en) | 2015-09-24 | 2015-09-24 | Information processing device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015187195A JP6638281B2 (en) | 2015-09-24 | 2015-09-24 | Information processing device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017062611A true JP2017062611A (en) | 2017-03-30 |
JP6638281B2 JP6638281B2 (en) | 2020-01-29 |
Family
ID=58428765
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015187195A Expired - Fee Related JP6638281B2 (en) | 2015-09-24 | 2015-09-24 | Information processing device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6638281B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207264A1 (en) * | 2017-05-09 | 2018-11-15 | オリンパス株式会社 | Image replaying apparatus and observation system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004104986A1 (en) * | 2003-05-21 | 2004-12-02 | Matsushita Electric Industrial Co., Ltd. | Voice output device and voice output method |
JP2010055259A (en) * | 2008-08-27 | 2010-03-11 | Konica Minolta Business Technologies Inc | Image processing apparatus, image processing program, and image processing method |
JP2013200649A (en) * | 2012-03-23 | 2013-10-03 | Fuji Xerox Co Ltd | Information processing apparatus and information processing program |
-
2015
- 2015-09-24 JP JP2015187195A patent/JP6638281B2/en not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004104986A1 (en) * | 2003-05-21 | 2004-12-02 | Matsushita Electric Industrial Co., Ltd. | Voice output device and voice output method |
JP2010055259A (en) * | 2008-08-27 | 2010-03-11 | Konica Minolta Business Technologies Inc | Image processing apparatus, image processing program, and image processing method |
JP2013200649A (en) * | 2012-03-23 | 2013-10-03 | Fuji Xerox Co Ltd | Information processing apparatus and information processing program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018207264A1 (en) * | 2017-05-09 | 2018-11-15 | オリンパス株式会社 | Image replaying apparatus and observation system |
US11194145B2 (en) | 2017-05-09 | 2021-12-07 | Olympus Corporation | Image reproducing device and observation system for selecting images using tag information attached in accordance with information that operation is performed on sample and input when at least one of images is acquired |
Also Published As
Publication number | Publication date |
---|---|
JP6638281B2 (en) | 2020-01-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230333725A1 (en) | Method for generating and reproducing multimedia content, electronic device for performing same, and recording medium in which program for executing same is recorded | |
US10031649B2 (en) | Automated content detection, analysis, visual synthesis and repurposing | |
JP6044553B2 (en) | Information processing apparatus, information processing method, and program | |
US10622021B2 (en) | Method and system for video editing | |
US10642463B2 (en) | Interactive management system for performing arts productions | |
KR20140139859A (en) | Method and apparatus for user interface for multimedia content search | |
CN101930779A (en) | Video commenting method and video player | |
JP2005267279A (en) | Information processing system and information processing method, and computer program | |
JP4568144B2 (en) | Information presentation device and information presentation program | |
JPWO2014069114A1 (en) | Information processing apparatus, playback state control method, and program | |
US11544322B2 (en) | Facilitating contextual video searching using user interactions with interactive computing environments | |
WO2020251967A1 (en) | Associating object related keywords with video metadata | |
US20150199171A1 (en) | Handwritten document processing apparatus and method | |
JP2018180519A (en) | Voice recognition error correction support device and program therefor | |
JP2019128850A (en) | Information processing device, moving-image search method, generation method, and program | |
JP6638281B2 (en) | Information processing device and program | |
US9870134B2 (en) | Interactive blocking and management for performing arts productions | |
JP2013092912A (en) | Information processing device, information processing method, and program | |
JP2006252678A (en) | Operation history display apparatus and method, and program | |
WO2022179415A1 (en) | Audiovisual work display method and apparatus, and device and medium | |
JP2009283020A (en) | Recording apparatus, reproducing apparatus, and program | |
JP6010062B2 (en) | Cue point control device and cue point control program | |
JP2022051500A (en) | Related information provision method and system | |
WO2016086573A1 (en) | Projection display method and device | |
JP2017004193A (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180831 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190409 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190603 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20191126 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20191209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6638281 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |