JP2014150314A - Information processing device and information processing method - Google Patents
Information processing device and information processing method Download PDFInfo
- Publication number
- JP2014150314A JP2014150314A JP2013016549A JP2013016549A JP2014150314A JP 2014150314 A JP2014150314 A JP 2014150314A JP 2013016549 A JP2013016549 A JP 2013016549A JP 2013016549 A JP2013016549 A JP 2013016549A JP 2014150314 A JP2014150314 A JP 2014150314A
- Authority
- JP
- Japan
- Prior art keywords
- related information
- video data
- image
- video
- importance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、情報処理装置及び情報処理方法に関する。 The present invention relates to an information processing apparatus and an information processing method.
テレビ等の映像表示装置では、一般的に主映像である番組映像の表示に付帯して、字幕、テロップ、字幕から得られたキーワード及び画質設定用のメニュー画面等、番組映像とは異なる情報の映像を、番組映像と同時かつ同画面上に表示することができる。 In a video display device such as a TV, generally, information that differs from the program video such as subtitles, telops, keywords obtained from subtitles, menu screens for image quality setting, etc. is attached to the display of the main video. The video can be displayed simultaneously with the program video on the same screen.
従来の映像表示装置では、番組映像、字幕及びメニュー画面等に対して、それぞれ表示優先度が設定される。そして、従来の映像表示装置は、表示優先度を比較し、それらを同画面上に重畳して表示する際の、それぞれの表示位置及び表示タイミングを調整することで、表示優先度の高い情報が表示優先度の低い映像に覆われることがない構成にされている(例えば、特許文献1を参照)。 In the conventional video display device, display priorities are set for program videos, subtitles, menu screens, and the like. The conventional video display device compares the display priorities and adjusts the respective display positions and display timings when displaying them superimposed on the same screen, so that information with high display priorities can be obtained. It is configured not to be covered with a video with a low display priority (see, for example, Patent Document 1).
しかしながら、従来の映像表示装置は、主映像である番組映像が各時刻に表示している内容について、その重要性を意識した上で付帯する情報の表示位置及び表示タイミングを制御するものではない。そのため番組が重要な内容を表示している最中であっても、付帯する情報を表示してしまうことがある。その結果、付帯する情報によって、ユーザの番組視聴が妨害され、重要な内容の見逃し又は聞き逃しが発生してしまい、全体のストーリー展開が理解できなくなる。 However, the conventional video display device does not control the display position and display timing of the accompanying information in consideration of the importance of the content displayed by the program video as the main video at each time. For this reason, even if the program is displaying important contents, accompanying information may be displayed. As a result, the user's viewing of the program is hindered by the accompanying information, and important contents are overlooked or missed, making it impossible to understand the entire story development.
そこで、本発明は、付帯する情報によって、ユーザの視聴が妨害されてしまうことを防止することを目的とする。 Therefore, an object of the present invention is to prevent a user's viewing from being disturbed by accompanying information.
本発明の一態様に係る情報処理装置は、映像データの関連情報を保持する関連情報保持部と、前記映像データのフレーム画像が重要なシーンの画像であるか否かを判断し、前記映像データのフレーム画像が重要なシーンの画像ではない場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示するために、前記関連情報保持部から前記関連情報を出力させるとともに、前記映像データのフレーム画像が重要なシーンの画像である場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示させないために、前記関連情報保持部から前記関連情報を出力させない制御部と、を備えることを特徴とする。 An information processing apparatus according to an aspect of the present invention, a related information holding unit that holds related information of video data, determines whether a frame image of the video data is an image of an important scene, and the video data When the frame image is not an image of an important scene, the related information is output from the related information holding unit to display the image of the related information together with the frame image of the video data, and the video data A control unit that does not output the related information from the related information holding unit so as not to display the image of the related information together with the frame image of the video data when the frame image is an image of an important scene. It is characterized by.
本発明の一態様に係る情報処理方法は、映像データの関連情報を保持する関連情報保持過程と、前記映像データのフレーム画像が重要なシーンの画像であるか否かを判断し、前記映像データのフレーム画像が重要なシーンの画像ではない場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示するために、前記関連情報保持過程で保持された前記関連情報を出力させるとともに、前記映像データのフレーム画像が重要なシーンの画像である場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示させないために、前記関連情報保持過程で保持された前記関連情報を出力させない制御過程と、を有することを特徴とする。 An information processing method according to an aspect of the present invention includes a related information holding process for holding related information of video data, a determination as to whether a frame image of the video data is an image of an important scene, and the video data When the frame image is not an image of an important scene, the related information held in the related information holding process is output to display the image of the related information together with the frame image of the video data. Control not to output the related information held in the related information holding process so that the image of the related information is not displayed together with the frame image of the video data when the frame image of the video data is an image of an important scene. And a process.
本発明の一態様によれば、付帯する情報によって、ユーザの視聴が妨害されてしまうことがなくなる。 According to one aspect of the present invention, user viewing is not hindered by accompanying information.
実施の形態1.
図1は、実施の形態1に係る情報処理装置100の構成を概略的に示すブロック図である。
情報処理装置100は、データ処理部101と、映像表示部120と、データ同期制御部130とを備える。
FIG. 1 is a block diagram schematically showing the configuration of the
The
データ処理部101は、映像データ、関連情報及びユーザ入力を入力とし、映像信号を出力する。データ処理部101は、制御部110と、関連情報バッファ114と、関連情報重畳部115と、映像出力部116とを備える。
The
制御部110は、関連情報バッファ114を制御する。例えば、制御部110は、映像データのフレーム画像が重要なシーンの画像であるか否かを判断する。そして、制御部110は、映像データのフレーム画像が重要なシーンの画像ではない場合に、関連情報の画像を映像データのフレーム画像とともに表示するために、関連情報バッファ114から関連情報を出力させる。一方、制御部110は、映像データのフレーム画像が重要なシーンの画像である場合に、関連情報の画像を映像データのフレーム画像とともに表示させないために、関連情報バッファ114から関連情報を出力させない。このようにすることで、関連情報の画像が、重要なシーンの画像と同時に表示されることがなくなる。
ここで、実施の形態1における制御部110は、映像データのフレーム画像がシーンチェンジした画像である場合に、映像データのフレーム画像が重要なシーンの画像であると判断する。
制御部110は、映像解析部111と、ユーザ入力受付部112と、関連情報制御部113とを備える。
The
Here, when the frame image of the video data is a scene-changed image, the
The
映像解析部111は、映像データを解析して、映像データのフレーム画像の重要度を算出する。本実施の形態においては、重要度は、連続するフレーム画像間の差分を示すフレーム差分値である。そして、映像解析部111は、算出された重要度を関連情報制御部113に与える。
ユーザ入力受付部112は、ユーザから入力されたユーザ入力データを受け取る。本実施の形態においては、ユーザ入力受付部112は、ユーザ入力データとして、情報出力判定値と比較して、関連情報を表示するか否かを判定するための予め定められた閾値を受け取る。
The
The user
関連情報制御部113は、関連情報バッファ114を制御する。例えば、本実施の形態においては、関連情報制御部113は、映像解析部111から与えられた重要度を情報出力判定値として、ユーザ入力受付部112より与えられた閾値と比較する。そして、関連情報制御部113は、情報出力判定値が閾値よりも小さい場合に、映像データのフレーム画像が重要なシーンの画像ではないと判断し、関連情報バッファ114に記憶されている関連情報を出力するように、関連情報バッファ114を制御する。一方、関連情報制御部113は、情報出力判定値が閾値以上である場合に、映像データのフレーム画像が重要なシーンの画像であると判断し、関連情報を出力しないように、言い換えると、関連情報の保持を維持するように、関連情報バッファ114を制御する。なお、関連情報制御部113は、表示制御信号を関連情報バッファ114に与えることで、関連情報バッファ114を制御する。
The related
関連情報バッファ114は、映像データの関連情報を保持する関連情報保持部である。関連情報は、映像データに付帯する情報であり、例えば、字幕データ、字幕データから得られるキーワード、番組の出演者情報、テロップ及びメニュー画面の少なくとも何れか一つを含む。
関連情報重畳部115は、映像データを保持する映像データ保持部である映像データバッファ115aを備える。そして、関連情報重畳部115は、関連情報バッファ114から関連情報を取得した場合には、映像データのフレーム画像に、関連情報の画像を重畳することで、出力映像データを生成する。また、関連情報重畳部115は、関連情報バッファ114から関連情報を取得しない場合には、映像データのフレーム画像に、関連情報の画像を重畳せずに、出力映像データを生成する。この場合には、映像データをそのまま出力映像データとすることができる。
The
The related
映像出力部116は、関連情報重畳部115から与えられた出力映像データから映像信号を生成する。
映像表示部120は、映像出力部116から与えられた映像信号に基づいて、映像を表示する。
データ同期制御部130は、データ処理部101で処理される各種データの同期制御を行う。例えば、データ同期制御部130は、データ処理部101の各構成部に対して制御信号を送ることで、データの同期をとる。
The
The
The data
次に、実施の形態1に係る情報処理装置100の動作について説明する。
図2は、実施の形態1に係る情報処理装置100の動作を示すフローチャートである。
Next, the operation of the
FIG. 2 is a flowchart showing the operation of the
映像解析部111は、映像データを受信する(S10)。映像データは、連続するフレーム画像の集合として考えられるが、ここでは、映像データ全体のうち、ある時刻の1フレームの画像に対応する映像データを示すものとする。以下では、映像データは、1フレーム分の画像データとして説明を行う。
The
映像解析部111は、ステップS10で受信したフレーム画像に対して、1つ前のフレーム画像との差分を算出する(S11)。ここで算出された差分値をフレーム差分値という。
フレーム差分値は、時間的に連続する2つのフレーム画像において、フレームを構成する各画素の同座標に存在する色成分又は輝度成分の差の絶対値を全画素について算出し、足し合わせたものである。
例えば、図3(A)は、ステップS10で受信された映像データで示されるフレーム画像IM2の一つ前のフレーム画像IM1を示し、図3(B)は、ステップS10で受信された映像データで示されるフレーム画像IM2を示すものとする。フレーム画像IM1及びフレーム画像IM2は、それぞれ、m×n(m及びnは、それぞれ自然数)の画素により構成されている。フレーム画像IM1を構成する画素の画素値は、c1(i,j)で示され、フレーム画像IM2を構成する画素の画素値は、c2(i,j)で示されるとすると、フレーム差分値は、以下の(1)式で算出される。ここで、iは、1≦i≦mを満たす自然数であり、jは、1≦j≦nを満たす自然数である。
The frame difference value is calculated by adding the absolute value of the difference between the color component or the luminance component existing at the same coordinates of each pixel constituting the frame and adding them together in two temporally continuous frame images. is there.
For example, FIG. 3A shows the frame image IM1 immediately before the frame image IM2 indicated by the video data received in step S10, and FIG. 3B shows the video data received in step S10. It is assumed that the frame image IM2 shown is shown. Each of the frame image IM1 and the frame image IM2 includes m × n pixels (m and n are natural numbers, respectively). If the pixel value of the pixel constituting the frame image IM1 is indicated by c1 (i, j) and the pixel value of the pixel constituting the frame image IM2 is indicated by c2 (i, j), the frame difference value is It is calculated by the following equation (1). Here, i is a natural number that satisfies 1 ≦ i ≦ m, and j is a natural number that satisfies 1 ≦ j ≦ n.
フレーム差分値が「0」の場合、連続する2つのフレーム画像がまったく同一であるので、画面上同じシーンが継続していることになる。同じシーンが続いているときは、番組を視聴しているユーザがストーリー展開を理解するうえで重要度が低いシーンということができる。一方、フレーム差分値が大きくなるほど、連続する2つのフレーム画像が異なるので、番組のストーリー展開が大きく変化したことが推測できる。このようなシーンは、番組を視聴しているユーザがストーリー展開を理解するうえで重要度が高いシーンということができる。このように、映像解析部111は、フレーム差分値を求めることにより、映像データにおける各時刻のフレーム画像の重要度を決定することができる。
When the frame difference value is “0”, since two consecutive frame images are exactly the same, the same scene is continued on the screen. When the same scene continues, it can be said that the user watching the program has a low importance in understanding the story development. On the other hand, as the frame difference value increases, two consecutive frame images are different, so it can be inferred that the story development of the program has changed greatly. Such a scene can be said to be a scene having a high degree of importance for the user viewing the program to understand the story development. As described above, the
図2の説明に戻り、ユーザ入力受付部112は、ユーザ入力データを受け付ける(S12)。例えば、ユーザ入力受付部112は、映像解析結果であるフレーム差分値に対する閾値をユーザ入力データとして受け取り、それを関連情報制御部113へと出力する。
Returning to the description of FIG. 2, the user
関連情報制御部113は、映像解析部111からフレーム差分値と、ユーザ入力受付部112からユーザ入力データとを受信する。その後、関連情報制御部113は、フレーム差分値を情報出力判定値として、ユーザ入力データで示される閾値と比較して、情報出力判定値がその閾値以上であるか否かを判定する(S13)。情報出力判定値が閾値以上である場合(S13:Yes)には、処理はステップS14に進み、情報出力判定値が閾値よりも小さい場合(S13:No)には、処理はステップS17に進む。
The related
ステップS14では、関連情報制御部113は、関連情報を出力することを示す表示制御信号(説明上、「1」というデータと仮定する)を関連情報バッファ114へ出力する。このような表示制御信号を受信した関連情報バッファ114は、保持している関連情報を関連情報重畳部115へと出力する。
In step S <b> 14, the related
関連情報重畳部115は、ステップS10で受け取られた映像データのフレーム画像と、関連情報バッファ114から出力された関連情報の画像とを重畳した出力映像データを生成する(S15)。そして、関連情報重畳部115は、生成された出力映像データを映像出力部116に与える。
The related
映像出力部116は、関連情報重畳部115から出力映像データを受け取り、画面表示用の映像信号に変換した後、この映像信号を映像表示部120に与える(S16)。ここでの出力映像データには、関連情報の画像が重畳されている。
The
一方、ステップS17では、関連情報制御部113は、関連情報を出力しないことを示す表示制御信号(説明上、「0」というデータと仮定する)を関連情報バッファ114へ出力する。このような表示制御信号を受信した関連情報バッファ114は、保持中の関連情報の保持をそのまま継続し、関連情報重畳部115へは出力しない。
On the other hand, in step S <b> 17, the related
関連情報重畳部115は、ステップS10で受け取られた映像データのみを受け取り、その映像データをそのまま出力映像データとして映像出力部116に与える(S18)。言い換えると、ステップS18では、関連情報重畳部115は、ステップS10で受け取られた映像データのフレーム画像に、関連情報の画像を重畳しない。
The related
そして、映像出力部116は、関連情報重畳部115から出力映像データを受け取り、画面表示用の映像信号に変換した後、この映像信号を映像表示部120に与える(S19)。ここでの出力映像データには、関連情報の画像が重畳されていない。
Then, the
なお、関連情報制御部113が出力する表示制御信号によって、関連情報バッファ114が保持中の関連情報を重畳しない場合(S13:Noの場合)には、関連情報の保持が継続されることになり、以降のフレームにおける情報出力判定値が閾値を超えた段階で(S13:Yes)、その関連情報の画像が重畳される。複数の関連情報が入力され、連続するフレームにおいて情報出力判定値が閾値を下回る事象が続いた場合には、複数の関連情報が保持される。このとき、これらの関連情報が入力された順番についても関連情報バッファ114は記憶しておく。そして、情報出力判定値が閾値以上となった段階(S13:Yes)で、関連情報バッファ114は、古い関連情報から順に関連情報重畳部115へと出力する。若しくは、関連情報バッファ114は、そのような段階で、保持中の関連情報全てを一気に関連情報重畳部115へと出力することもできる。
If the related information held by the
なお、ある時刻において関連情報バッファ114に入力された関連情報を関連情報重畳部115へ出力するか否かを判断する時刻までに、制御部110は、その関連情報が入力された時刻における映像データを解析し、算出された情報出力判定値をユーザ入力データである閾値と比較し、表示制御信号を出力しなければならない(S10〜S13)。データ同期制御部130は、この必要な処理にかかる時間を考慮した同期制御を行うことで、当該時刻における関連情報と映像データ解析結果とを対応付ける役割を持つ。
By the time when it is determined whether or not the related information input to the
また同様に、ある時刻において関連情報重畳部115に入力された映像データに対して関連情報を重畳するか否かを判断するには、関連情報バッファ114のデータ出力を待つ必要がある。これに関しても、データ同期制御部130は同期制御を行う役割を持つ。
Similarly, in order to determine whether or not to superimpose related information on video data input to the related
このように構成された情報処理装置100は、映像データにおいて各時刻に表示する内容の重要度を解析することができ、解析された重要度に応じて関連情報を表示するタイミングを制御することができる。例えば、ユーザが番組を視聴し全体のストーリー展開を理解する上では、シーンチェンジ点が重要なポイントとなるが、主映像がシーンチェンジ点等の重要な内容を表示している時刻を避けて、関連情報を表示することができる。このため、実施の形態1に係る情報処理装置100は、ユーザが重要な内容の見逃し又は聞き逃しをしてしまうことによって、全体のストーリー展開を理解できなくなるのを防ぐことができる。
The
実施の形態1に係る情報処理装置100では、関連情報制御部113が出力する表示制御信号によって、関連情報バッファ114が保持中の、フレーム時刻tにおける関連情報を重畳しないとした場合(S13:No)には、関連情報の保持が継続されることになる。しかしながら、最短の場合、次のフレーム時刻t+1において情報出力判定値が閾値以上となる場合(S13:Yes)が考えられる。このような場合に、次のフレーム時刻t+1において、前のフレーム時刻tで保持が継続された関連情報の画像を必ずしも重畳する必要はない。例えば、関連情報制御部113は、1度重畳しないという判断を下した場合(S13:No)には、予め定められた期間である一定の時間が経過するまでは、関連情報の画像を重畳しないように制御することができる。例えば、テレビにおいてフレーム間に経過する時間は非常に短く、1フレームが経過する間だけ保持した後、次のフレームで重畳した場合と、保持継続をせずに、そのフレームで即座に重畳した場合とで、人間の目でその差を認識できるものではない。このため、次のフレームで重畳が行われても、結果として重要内容の表示時刻に関連情報が表示されたことになり、ユーザの視聴を妨害してしまうことになる。従って、このように一定の時間は、重畳しないようにしておくことで、重要内容の表示時刻が明らかに過ぎ去るのを待ってから関連情報を重畳することができる。言い換えると、制御部110は、映像データのフレーム画像が、シーンチェンジしてから予め定められた期間内の画像である場合にも、映像データのフレーム画像が重要なシーンの画像と判断していることになる。これにより、視聴の妨害抑制を確実化できる。例えば、関連情報制御部113は、情報出力判定値が閾値未満であると判断した場合には、予め定められた期間の経過後、情報出力判定値が閾値以上となるまで、関連情報を出力しないように関連情報バッファ114を制御することができる。なお、関連情報制御部113は、情報出力判定値が閾値未満であると判断した場合には、予め定められた期間の経過後すぐに関連情報を出力するように関連情報バッファ114を制御してもよい。また、関連情報制御部113は、情報出力判定値が閾値未満であると判断した場合には、予め定められた期間内に情報出力判定値が閾値以上となった場合に、予め定められた期間の経過後すぐに関連情報を出力するように関連情報バッファ114を制御してもよい。
In the
実施の形態1に係る情報処理装置100では、関連情報制御部113が出力する表示制御信号によって、関連情報バッファ114が保持中の関連情報を出力しない場合(S13:Noの場合)には、関連情報の保持が継続されることになるが、このような場合が続けば、関連情報は、長時間にわたって重畳されないことになる。そのような場合の対処として、関連情報バッファ114は、予め定められた期間である一定時間以上保持が継続された関連情報については、関連情報制御部113の表示制御信号にかかわらず、関連情報重畳部115に出力するようにしてもよい。例えば、字幕は登場人物の会話を文字で表したものであるケースがあるが、あまりに重畳が遅れすぎると字幕として価値が著しく低下してしまう。つまり、関連情報は、それ自身が入力された時刻に表示される映像の内容と密接に関わっている場合が多いので、このように保持期間が予め定められた期間を経過した関連情報を無条件に重畳して表示することで、関連情報を表示することの価値の低下を抑制することができる。
In the
実施の形態1に係る情報処理装置100では、関連情報制御部113が出力する表示制御信号によって、関連情報バッファ114が保持中の関連情報を出力しない場合(S13:Noの場合)には、関連情報の保持が継続されることになるが、そのような場合が続けば、複数の関連情報がバッファされることになる。このような状況において、関連情報バッファ114によって保持されるデータ量が、予め定められたデータ量、例えば、関連情報バッファ114が保持できる容量を超過すると判断された場合には、関連情報バッファ114は、無条件に保持中の関連情報を関連情報重畳部115へと出力してもよい。これにより、保持中の古い関連情報が容量制限のために上書きされてしまう等して、重畳表示できない状態になるのを防ぐことができる。
In the
実施の形態1に係る情報処理装置100では、映像解析部111がフレーム差分値を利用して映像を解析する方法を例としてあげたが、この方法に限られるものではない。またシーンチェンジ点だけを番組全体を理解する上で重要なポイントであるとするものでもない。例えば、映像解析部111は、フレーム画像に対して人物又は顔の検出処理を行い、重要なポイントを解析してもよい。フレーム画像に対して人物又は顔の検出を行った結果、1つも人物及び顔が検出されたかった場合には、そのフレーム画像は背景のみを含むシーンであると考えられ、番組を視聴しているユーザがストーリー展開を理解するうえで重要度が低いシーンの画像といえる。一方、人物又は顔が検出されたフレーム画像では、その人物の会話又は動作により番組のストーリー展開が変化することが推測できる。このようなシーンは、番組を視聴しているユーザがストーリー展開を理解するうえで重要度が高いシーンといえる。このように、映像解析部111は、人物又は顔の検出処理を行うことにより、映像データにおける各時刻のフレーム画像の重要度を決定することができる。このような場合、例えば、映像解析部111は、人物又は顔が検出されたか否かを重要度として、関連情報制御部113に与え、関連情報制御部113は、重要度が、人物又は顔が検出されたことを示す場合には、関連情報を出力するように関連情報バッファ114を制御すればよい。
In the
実施の形態1に係る情報処理装置100は、リアルタイムに放送中の番組データの視聴時だけを対象としたものでなく、ハードディスク等の記憶媒体に記憶済みの番組データの再生視聴時においても適用することができる。これにより、ユーザはより多くの映像コンテンツに対して、見逃し及び聞き逃しを抑制した、関連情報を重畳した映像の視聴ができる。なお、記憶済みの番組データには、少なくとも映像データ及び関連情報が含まれるものとする。
The
また、上述のように、記憶済みの番組データの再生視聴を行う場合、予め再生開始前に記憶済みの映像データの解析を映像解析部111が行っておき、再生時にデータ同期制御部130の同期制御に基づいて、関連情報を重畳するか否かを表す表示制御信号を関連情報制御部113が出力してもよい。これにより、映像解析部111が複雑な映像解析処理を行い、映像解析処理時間が長くなる場合にも、フレーム毎にその処理が済むのを待つ必要がなく、映像表示にもたつきが生じることがなくなる(関連情報の重畳判断処理を待つことによる、映像の遅延が生じない)。このため、ユーザはストレスなく視聴を行うことができる。
Further, as described above, when the stored program data is played back and viewed, the
また、上述のように、記憶済みデータの再生視聴を行う場合、予め記憶時に映像解析を行っておき、各時刻における重要度を、例えば、図4に示されているメタデータとして、記憶する番組データとともに保存しておいてもよい。図4に示されているメタデータは、番組毎に、各時刻における重要度を含むデータである。
このような場合、図5に示されている第1の変形例に係る情報処理装置100#1のように、データ処理部101#1が、記憶されているメタデータを解析して、映像データの再生時間に対応する重要度を特定して、特定された重要度を関連情報制御部113#1に与えるメタデータ解析部117を備えるように構成することで、関連情報の表示制御を行うことができる。なお、メタデータ解析部117は、データ同期制御部130の同期制御に応じて、対応する時刻における情報出力判定値を関連情報制御部113#1に与える。このようにすることで、再生中又は再生開始前に比較的処理の重い映像解析を行う必要がなく、映像表示にもたつきが生じないことに加えて、再生開始前の解析結果待ち時間も生じないため、ユーザはストレスなく視聴を行うことができる。
なお、図5には記載されていないが、図4に示されているようなメタデータは、映像解析部111が生成し、記憶媒体等に記憶させておけばよい。
Further, as described above, when reproducing and viewing stored data, video analysis is performed at the time of storage in advance, and the importance level at each time is stored as, for example, metadata shown in FIG. You may save with data. The metadata shown in FIG. 4 is data including importance at each time for each program.
In such a case, as in the
Although not shown in FIG. 5, the metadata as shown in FIG. 4 may be generated by the
実施の形態1に係る情報処理装置100では、関連情報を「重畳する」と説明を行ってきたが、主映像に重畳することに限らず、別の画面上に関連情報を表示するといった場合にも本発明が有効である。例えば、図6に示されている第2の変形例に係る情報処理装置100#2のように、第1映像表示部としての映像表示部120の他に、関連情報バッファ114#2から与えられる関連情報の画像を表示する第2映像表示部としてのテロップ表示部140を備えるように構成することもできる。このように構成することにより、図7に示されているように、映像表示部120は、映像出力部116から与えられる映像信号に対応する主映像MIMを表示し、テロップ表示部140は、関連情報のサブ映像SIMを表示する。このように、1つの画面上に重畳しない場合でも、両方の映像がユーザの視界に入るような環境下では、関連情報を主映像とは別に表示することで本編の視聴を妨害することになりえるので、上記と同様の効果が発揮できる。
In the
実施の形態2.
図8は、実施の形態2に係る情報処理装置200の構成を概略的に示すブロック図である。
情報処理装置200は、データ処理部201と、映像表示部120と、データ同期制御部130とを備える。実施の形態2に係る情報処理装置200は、データ処理部201において、実施の形態1に係る情報処理装置100と異なっている。
FIG. 8 is a block diagram schematically showing the configuration of the
The
データ処理部201は、映像データ、関連情報、音声データ及びユーザ入力を入力とし、映像信号を出力する。データ処理部201は、制御部210と、関連情報バッファ114と、関連情報重畳部115と、映像出力部116とを備える。実施の形態2におけるデータ処理部201は、制御部210での処理の点において、実施の形態1におけるデータ処理部101と異なっている。
The
制御部210は、映像データのフレーム画像が重要なシーンの画像であるか否かを判断する。そして、制御部210は、映像データのフレーム画像が重要なシーンの画像ではない場合に、関連情報の画像を映像データのフレーム画像とともに表示するために、関連情報バッファ114から関連情報を出力させる。一方、制御部210は、映像データのフレーム画像が重要なシーンの画像である場合に、関連情報の画像を映像データのフレーム画像とともに表示させないために、関連情報バッファ114から関連情報を出力させない。
ここで、実施の形態2における制御部210は、映像データのフレーム画像がシーンチェンジした画像である場合、及び、映像データのフレーム画像が会話シーンの画像である場合の少なくとも何れか一方の場合に、映像データのフレーム画像が重要なシーンの画像であると判断する。
制御部210は、映像解析部111と、ユーザ入力受付部212と、関連情報制御部213と、音声データバッファ218と、音声解析部219とを備える。実施の形態2における制御部210は、ユーザ入力受付部212及び関連情報制御部213での処理の点、並びに、音声データバッファ218及び音声解析部219をさらに備える点において、実施の形態1における制御部110と異なっている。なお、実施の形態2においては、映像解析部111で算出される重要度を第1重要度という。
The
Here, the
The
音声データバッファ218は、音声データを保持する音声データ保持部である。音声データバッファ218は、音声データを入力として受信し、音声データを一時的に保持しておき、必要に応じて(詳細は後述する)、その音声データを音声解析部219へと出力する。
音声解析部219は、映像データに付属する音声データを解析して、映像データのフレーム画像の第2重要度を算出する。本実施の形態においては、第2重要度は、映像データのフレーム画像が会話シーンの画像である確率を示す発話成分値である。ここで、発話成分値は、出演者等が会話の最中であるか否かを確率として示す値である。
The
The
ユーザ入力受付部212は、ユーザ入力データを受け付ける。本実施の形態においては、ユーザ入力受付部212は、ユーザ入力データとして、映像解析部111から得られる第1重要度及び音声解析部219から得られる第2重要度から第3重要度である情報出力判定値を算出するための算出情報と、情報出力判定値と比較して、関連情報を表示するか否かを判定するため閾値との入力を受け付ける。本実施の形態では、算出情報は、第1重要度及び第2重要度のそれぞれに掛け合わせるそれぞれの重み値を示すものとする。
The user
関連情報制御部213は、関連情報バッファ114を制御する。例えば、本実施の形態においては、関連情報制御部213は、映像解析部111から与えられた第1重要度と、音声解析部219から与えられた第2重要度とを合わせて、第3重要度である情報出力判定値を算出する。例えば、関連情報制御部213は、ユーザ入力受付部212から与えられた算出情報で示されるそれぞれの重み値を、第1重要度及び第2重要度のそれぞれに掛け合わせてから、これらを加算した加算値により情報出力判定値を算出する。そして、関連情報制御部213は、算出された情報出力判定値がユーザ入力受付部212より与えられた閾値よりも小さいと判定した場合に、映像データのフレーム画像が重要なシーンの画像ではないと判断し、関連情報バッファ114に記憶されている関連情報を出力するように、関連情報バッファ114を制御する。また、関連情報制御部213は、算出された情報出力判定値が、ユーザ入力受付部212より与えられた閾値以上である場合に、映像データのフレーム画像が重要なシーンの画像であると判断し、関連情報を出力しないように、言い換えると、関連情報の記憶を維持するように、関連情報バッファ114を制御する。なお、関連情報制御部213は、表示制御信号を関連情報バッファ114に与えることで、関連情報バッファ114を制御する。
The related
次に、実施の形態2に係る情報処理装置200の動作について説明する。
図9は、実施の形態2に係る情報処理装置200の動作を示すフローチャートである。図9に示されている処理の内、図2と同様の処理については、図2と同じ符号が付されている。
Next, the operation of the
FIG. 9 is a flowchart showing the operation of the
図9のステップS10及びS11については、図2のステップS10及びS11と同様である。 Steps S10 and S11 in FIG. 9 are the same as steps S10 and S11 in FIG.
ステップS20では、ユーザ入力受付部212は、ユーザ入力を受け付ける。例えば、ユーザ入力受付部212は、第1重要度及び第2重要度に掛け合わせる重み値を示す算出情報、並びに、第3重要度である情報出力判定値に対する閾値をユーザ入力データとして受け取り、それを関連情報制御部213に与える。算出情報は、映像解析結果及び音声解析結果をそれぞれどの程度考慮して関連情報表示制御を行うかといった設定を示す情報である。例えば、算出情報により、音声解析結果より映像解析結果を重視して、重畳のタイミングを制御するとか、映像解析結果は無視して、音声解析結果のみを反映したタイミング制御を行う等といった設定を行うことができる。
In step S20, the user
ステップS21では、音声データバッファ218は、音声データを受信する。そして、音声データバッファ218は、発話成分値(詳細は後述する)を算出するのに必要な分の音声データを一時的に保持する(S22)。その後、音声データバッファ218は、保持した音声データを音声解析部219に与える。
In step S21, the
次に、音声解析部219は、音声データバッファ218から一定時間区間の音声データを受信し、その音声データに対して発話成分値の算出を行う(S23)。一般的な発話成分値算出方法の1つを説明すると、音声解析部219は、まず受信した音声データに対してフーリエ変換を施すことで、周波数成分x(f,t)に変換する。また、音声解析部219は、「番組冒頭の数秒間は会話がない」等の仮定により、番組冒頭から、周波数毎にノイズ成分(非発話成分)λ(f)を算出する。そして、音声解析部219は、全周波数においてこれらの比率を、下記の(2)式により求める。
音声解析部219は、このような発話成分値算出方法を利用することで、注目する時刻において登場人物等が会話をしているかどうかの確率を数値として算出し、関連情報制御部213にそれを出力する。言い換えると、音声解析部219は、このようにして算出された発話成分値を、ステップS22で保存された一定時間区間の音声データに対応する映像データのフレーム画像における発話成分値として、関連情報制御部213に与える。
Next, the
The
関連情報制御部213は、映像解析部111から第1重要度としてのフレーム差分値と、音声解析部219から第2重要度としての発話成分値と、ユーザ入力受付部212からユーザ入力データとを受信する。そして、関連情報制御部213は、これらの情報を踏まえ、情報出力判定値を算出する。例えば、関連情報制御部213は、映像解析結果及び音声解析結果をそれぞれどの程度考慮するかを示す算出情報に基づいて、フレーム差分値及び発話成分値のそれぞれに、それぞれの重み値を掛け合わせて、両者を足し合わせることで、情報出力判定値を算出する。そして、処理は、ステップS13に進む。
The related
図9のステップS13〜S19の処理は、図2のステップS13〜S19の処理と同様である。 The processing in steps S13 to S19 in FIG. 9 is the same as the processing in steps S13 to S19 in FIG.
なお、発話成分値を算出するために一定時間区間の音声データを必要とするため、音声データバッファ218は、一時的に音声データを保持する必要であるが、それによって音声データの解析は、映像データの解析と比べて大きく遅延する可能性がある。このタイムラグについて、データ同期制御部130は、同期制御を行う役割を持つ。
Note that the
以上のように、実施の形態2に係る情報処理装置200においては、映像データだけでなく、音声データをもとに各時刻に表示する内容の重要度を解析することができ、解析された重要度に応じて関連情報を表示するタイミングを制御することができる。例えば、ユーザが番組を視聴し全体のストーリー展開を理解する上では、会話シーンが重要なポイントとなるが、主映像が会話シーン等の重要な内容を表示している時刻を避けて、関連情報を表示させることができる。このため、ユーザが、重要な内容の見逃し又は聞き逃しをしてしまうことによって、全体のストーリー展開を理解できなくなることを防止することができる。
As described above, in the
実施の形態2に係る情報処理装置200では、映像解析結果及び音声解析結果のどちらか一方のみを反映した関連情報重畳表示制御を行うこともできる。つまり、映像に集中したいユーザは、映像解析結果だけを、音声に集中したいユーザは、音声解析結果だけを反映するようにユーザ入力を行うことができる。
The
実施の形態2においても、図4に示されているメタデータに、実施の形態2における情報出力判定値(第3優先度)を含めておくことにより、図5に示されている構成により、会話シーンを考慮した制御を効率よく行うことができる。 Also in the second embodiment, by including the information output determination value (third priority) in the second embodiment in the metadata shown in FIG. 4, the configuration shown in FIG. Control in consideration of the conversation scene can be performed efficiently.
また、実施の形態2においても、図6に示されている制御部110を、制御部210に置き換えることで、テロップ表示部140に関連情報の画像を表示することができる。
さらに、実施の形態2においても、関連情報制御部213は、映像データのフレーム画像が重要なシーンの画像であると判断した場合には、予め定められた期間が経過するまで、関連情報バッファ114から関連情報を出力させないように構成されていてもよい。
さらにまた、関連情報保持部114は、保持期間が予め定められた期間を経過した関連情報を出力してもよく、保持している関連情報のデータ量が予め定められたデータ量以上となった場合には、関連情報を出力してもよい。
Also in the second embodiment, by replacing the
Further, also in the second embodiment, when the related
Furthermore, the related
なお、図示してはいないが、以上に記載された情報処理装置100、200が、デジタル放送を受信する受信部を備えていてもよい。このような場合には、映像データは、その受信部のデコーダ(デコード部)から出力されたものであればよい。また、関連情報の字幕データは、その受信部のデマルチプレクサ(デマルチプレクス部)から出力されたものであればよい。また、図示してはいないが、以上に記載された情報処理装置100、200が、デジタル放送を受信する受信部から得られる情報等に基づいて、関連情報の字幕データから抽出されたキーワード、番組の出演者情報、テロップ及びメニュー画面を生成するための情報制御部を備えていてもよい。このような場合には、関連情報バッファ114に入力される関連情報は、その情報制御部が生成したものであればよい。さらに、図示してはいないが、以上に記載された情報処理装置100、200が、ユーザからの入力を受け付ける入力部を備えていてもよい。このような場合には、ユーザ入力データは、その入力部を介して入力されたものであればよい。
Although not shown, the
以上に記載された情報処理装置100、200は、映像表示部120を備えているが、映像表示部120は、情報処理装置100、200の外部の装置が備えるものであってもよい。
例えば、情報処理装置100、200は、テレビ、STB(Set Top Box)、DVD及びBD等のプレーヤー、スマートフォン又はカーナビゲーションシステム等として利用することができる。
The
For example, the
100,100#1,100#2,200 情報処理装置、 101,101#1,101#2、201 データ処理部、 110,210 制御部、 111 映像解析部、 112,212 ユーザ入力受付部、 113,113#1,213 関連情報制御部、 114,114#2 関連情報バッファ、 115,115#2 関連情報重畳部、 115a,115a#2 映像データバッファ、 116 映像出力部、 117 メタデータ解析部、 218 音声データバッファ、 219 音声解析部、 120 映像表示部、 130 データ同期制御部。 100, 100 # 1, 100 # 2, 200 Information processing apparatus, 101, 101 # 1, 101 # 2, 201 Data processing unit, 110, 210 Control unit, 111 Video analysis unit, 112, 212 User input reception unit, 113 , 113 # 1, 213 related information control unit, 114, 114 # 2 related information buffer, 115, 115 # 2 related information superimposing unit, 115a, 115a # 2 video data buffer, 116 video output unit, 117 metadata analysis unit, 218 audio data buffer, 219 audio analysis unit, 120 video display unit, 130 data synchronization control unit.
Claims (38)
前記映像データのフレーム画像が重要なシーンの画像であるか否かを判断し、前記映像データのフレーム画像が重要なシーンの画像ではない場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示するために、前記関連情報保持部から前記関連情報を出力させるとともに、前記映像データのフレーム画像が重要なシーンの画像である場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示させないために、前記関連情報保持部から前記関連情報を出力させない制御部と、を備えること
を特徴とする情報処理装置。 A related information holding unit for holding related information of video data;
It is determined whether the frame image of the video data is an image of an important scene. If the frame image of the video data is not an image of an important scene, the image of the related information is used as the frame image of the video data. And displaying the related information from the related information holding unit and displaying the image of the related information together with the frame image of the video data when the frame image of the video data is an image of an important scene. An information processing apparatus comprising: a control unit that does not output the related information from the related information holding unit so as not to be displayed.
を特徴とする請求項1に記載の情報処理装置。 The information according to claim 1, wherein the control unit determines that the frame image of the video data is an image of an important scene when the frame image of the video data is a scene-changed image. Processing equipment.
前記映像データを解析して、前記映像データのフレーム画像の重要度を算出する映像解析部と、
前記映像解析部で算出された重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持部から前記関連情報を出力させるとともに、前記映像解析部で算出された重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持部から前記関連情報を出力させない関連情報制御部と、を備えること
を特徴とする請求項2に記載の情報処理装置。 The controller is
Analyzing the video data and calculating the importance of the frame image of the video data;
When the importance calculated by the video analysis unit is smaller than a predetermined threshold, it is determined that the frame image of the video data is not an image of an important scene, and the related information is obtained from the related information holding unit. When the importance calculated by the video analysis unit is greater than or equal to a predetermined threshold, the frame data of the video data is determined to be an important scene image, and the related information holding unit The information processing apparatus according to claim 2, further comprising: a related information control unit that does not output the related information.
前記映像データのフレーム画像の重要度を時刻毎に示すメタデータを解析して、当該時刻に基づいて、前記映像データのフレーム画像毎に前記重要度を特定するメタデータ解析部と、
前記メタデータ解析部で特定された重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持部から前記関連情報を出力させるとともに、前記メタデータ解析部で特定された重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持部から前記関連情報を出力させない関連情報制御部と、を備えること
を特徴とする請求項2に記載の情報処理装置。 The controller is
Analyzing metadata indicating the importance of the frame image of the video data for each time, and based on the time, a metadata analysis unit for specifying the importance for each frame image of the video data;
When the importance specified by the metadata analysis unit is smaller than a predetermined threshold, it is determined that the frame image of the video data is not an image of an important scene, and the related information is stored from the related information holding unit. When the importance specified by the metadata analysis unit is greater than or equal to a predetermined threshold, it is determined that the frame image of the video data is an image of an important scene, and the related information is retained The information processing apparatus according to claim 2, further comprising: a related information control unit that does not output the related information from a unit.
を特徴とする請求項3又は4に記載の情報処理装置。 The information processing apparatus according to claim 3, wherein the importance is a frame difference value indicating a difference between consecutive frame images.
を特徴とする請求項3から5の何れか一項に記載の情報処理装置。 The information processing according to any one of claims 3 to 5, wherein the control unit further includes a user input receiving unit that receives the predetermined threshold as user input data input from a user. apparatus.
を特徴とする請求項1に記載の情報処理装置。 The control unit includes a frame of the video data in at least one of a case where the frame image of the video data is a scene-changed image and a case where the frame image of the video data is a conversation scene image. The information processing apparatus according to claim 1, wherein the image is determined to be an image of an important scene.
前記映像データを解析して、前記映像データのフレーム画像の第1重要度を算出する映像解析部と、
前記映像データに付属する音声データを解析して、前記映像データのフレーム画像の第2重要度を算出する音声解析部と、
前記映像解析部で算出された第1重要度、及び、前記音声解析部で算出された第2重要度を合わせた第3重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持部から前記関連情報を出力させるとともに、当該第3重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持部から前記関連情報を出力させない関連情報制御部と、を備えること
を特徴とする請求項7に記載の情報処理装置。 The controller is
A video analysis unit that analyzes the video data and calculates a first importance of a frame image of the video data;
An audio analysis unit that analyzes audio data attached to the video data and calculates a second importance of a frame image of the video data;
When the third importance calculated by combining the first importance calculated by the video analysis unit and the second importance calculated by the audio analysis unit is smaller than a predetermined threshold, the video data When it is determined that the frame image is not an image of an important scene, the related information is output from the related information holding unit, and the third importance is equal to or greater than a predetermined threshold, the frame of the video data The information processing apparatus according to claim 7, further comprising: a related information control unit that determines that the image is an image of an important scene and does not output the related information from the related information holding unit.
前記映像データから算出された、前記映像データのフレーム画像の第1重要度及び前記映像データに付属する音声データから算出された、前記映像データのフレーム画像の第2重要度を合わせた第3重要度を時刻毎に示すメタデータを解析して、当該時刻に基づいて、前記映像データのフレーム画像毎に前記第3重要度を特定するメタデータ解析部と、
前記メタデータ解析部で特定された第3重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持部から前記関連情報を出力させるとともに、前記メタデータ解析部で特定された第3重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持部から前記関連情報を出力させない関連情報制御部と、を備えること
を特徴とする請求項7に記載の情報処理装置。 The controller is
Third importance combining the first importance of the frame image of the video data calculated from the video data and the second importance of the frame image of the video data calculated from the audio data attached to the video data A metadata analysis unit that analyzes the metadata indicating the degree for each time, and identifies the third importance for each frame image of the video data based on the time;
When the third importance specified by the metadata analysis unit is smaller than a predetermined threshold, it is determined that the frame image of the video data is not an image of an important scene, and the related information holding unit And outputting the related information, and determining that the frame image of the video data is an image of an important scene when the third importance specified by the metadata analysis unit is equal to or greater than a predetermined threshold, The information processing apparatus according to claim 7, further comprising: a related information control unit that does not output the related information from the related information holding unit.
前記第2重要度は、前記映像データのフレーム画像が会話シーンの画像である確率を示す発話成分値であり、
前記第3重要度は、前記フレーム差分値と前記発話成分値との加算値であること
を特徴とする請求項8又は9に記載の情報処理装置。 The first importance is a frame difference value indicating a difference between successive frame images,
The second importance is an utterance component value indicating a probability that a frame image of the video data is an image of a conversation scene,
The information processing apparatus according to claim 8, wherein the third importance is an added value of the frame difference value and the utterance component value.
を特徴とする請求項8から10の何れか一項に記載の情報処理装置。 The information processing according to any one of claims 8 to 10, wherein the control unit further includes a user input receiving unit that receives the predetermined threshold as user input data input from a user. apparatus.
前記関連情報制御部は、前記映像解析部で算出された第1重要度、及び、前記音声解析部で算出された第2重要度に、前記ユーザ入力受付部で受け取られた算出情報で示されるそれぞれの重み値を乗算してから、これらを加算すること
を特徴とする請求項11に記載の情報処理装置。 The user input reception unit includes calculation information indicating respective weight values to be multiplied by the first importance calculated by the video analysis unit and the second importance calculated by the audio analysis unit, Further receiving as the user input data,
The related information control unit is indicated by calculation information received by the user input reception unit in the first importance calculated by the video analysis unit and the second importance calculated by the audio analysis unit. The information processing apparatus according to claim 11, wherein each weight value is multiplied and then added.
を特徴とする請求項3から6及び8から12の何れか一項に記載の情報処理装置。 When the related information control unit determines that the frame image of the video data is an important scene image, the related information control unit does not output the related information from the related information holding unit until a predetermined period elapses. The information processing apparatus according to any one of claims 3 to 6 and 8 to 12.
を特徴とする請求項1から13の何れか一項に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the related information holding unit outputs related information whose holding period has passed a predetermined period.
を特徴とする請求項1から14の何れか一項に記載の情報処理装置。 The related information holding unit outputs the related information when the data amount of the related information held exceeds a predetermined data amount. The information processing apparatus according to one item.
を特徴とする請求項1から15の何れか一項に記載の情報処理装置。 The related information superimposing unit that generates the output video data by superimposing the image of the related information output from the related information holding unit on the frame image of the video data. The information processing apparatus according to any one of the above.
を特徴とする請求項16に記載の情報処理装置。 The information processing apparatus according to claim 16, further comprising a video output unit that generates a video signal of the output video data generated by the related information superimposing unit.
を特徴とする請求項17に記載の情報処理装置。 The information processing apparatus according to claim 17, further comprising a video display unit that displays a video based on the video signal generated by the video output unit.
前記映像出力部で生成された映像信号に基づいて、映像を表示する第1映像表示部と、
前記関連情報保持部から出力された関連情報の画像を表示する第2映像表示部と、をさらに備えること
を特徴とする請求項1から15の何れか一項に記載の情報処理装置。 A video output unit for generating a video signal of the video data;
A first video display unit for displaying video based on the video signal generated by the video output unit;
The information processing apparatus according to claim 1, further comprising: a second video display unit that displays an image of the related information output from the related information holding unit.
前記映像データのフレーム画像が重要なシーンの画像であるか否かを判断し、前記映像データのフレーム画像が重要なシーンの画像ではない場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示するために、前記関連情報保持過程で保持された前記関連情報を出力させるとともに、前記映像データのフレーム画像が重要なシーンの画像である場合に、前記関連情報の画像を前記映像データのフレーム画像とともに表示させないために、前記関連情報保持過程で保持された前記関連情報を出力させない制御過程と、を有すること
を特徴とする情報処理方法。 Related information holding process for holding related information of video data;
It is determined whether the frame image of the video data is an image of an important scene. If the frame image of the video data is not an image of an important scene, the image of the related information is used as the frame image of the video data. The related information held in the related information holding process is output, and when the frame image of the video data is an image of an important scene, the image of the related information is displayed in the video data. A control process that does not output the related information held in the related information holding process so as not to be displayed together with a frame image.
を特徴とする請求項20に記載の情報処理方法。 The information according to claim 20, wherein the control process determines that the frame image of the video data is an image of an important scene when the frame image of the video data is a scene-changed image. Processing method.
前記映像データを解析して、前記映像データのフレーム画像の重要度を算出する映像解析過程と、
前記映像解析過程で算出された重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持過程で保持された前記関連情報を出力させるとともに、前記映像解析過程で算出された重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持過程で保持された前記関連情報を出力させない関連情報制御過程と、を有すること
を特徴とする請求項21に記載の情報処理方法。 The control process is
Analyzing the video data and calculating the importance of the frame image of the video data; and
When the importance calculated in the video analysis process is smaller than a predetermined threshold, it is determined that the frame image of the video data is not an image of an important scene, and the related information holding process holds the image The related information is output, and when the importance calculated in the video analysis process is equal to or greater than a predetermined threshold, it is determined that the frame image of the video data is an image of an important scene, and the related information The information processing method according to claim 21, further comprising: a related information control process that does not output the related information held in the holding process.
前記映像データのフレーム画像の重要度を時刻毎に示すメタデータを解析して、当該時刻に基づいて、前記映像データのフレーム画像毎に前記重要度を特定するメタデータ解析過程と、
前記メタデータ解析過程で特定された重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持過程で保持された前記関連情報を出力させるとともに、前記メタデータ解析過程で特定された重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持過程で保持された前記関連情報を出力させない関連情報制御過程と、を有すること
を特徴とする請求項21に記載の情報処理方法。 The control process is
Analyzing metadata indicating the importance of the frame image of the video data for each time, and based on the time, a metadata analysis process for identifying the importance for each frame image of the video data;
When the importance specified in the metadata analysis process is smaller than a predetermined threshold, it is determined that the frame image of the video data is not an important scene image, and is stored in the related information holding process The related information is output, and when the importance specified in the metadata analysis process is equal to or higher than a predetermined threshold, it is determined that the frame image of the video data is an image of an important scene, The information processing method according to claim 21, further comprising: a related information control process that does not output the related information held in the related information holding process.
を特徴とする請求項22又は23に記載の情報処理方法。 The information processing method according to claim 22 or 23, wherein the importance is a frame difference value indicating a difference between consecutive frame images.
を特徴とする請求項22から24の何れか一項に記載の情報処理方法。 The information processing according to any one of claims 22 to 24, wherein the control process further includes a user input reception process for receiving the predetermined threshold value as user input data input from a user. Method.
を特徴とする請求項20に記載の情報処理方法。 In the control process, the frame of the video data is at least one of the case where the frame image of the video data is a scene-changed image and the case where the frame image of the video data is an image of a conversation scene. The information processing method according to claim 20, wherein the image is determined to be an image of an important scene.
前記映像データを解析して、前記映像データのフレーム画像の第1重要度を算出する映像解析過程と、
前記映像データに付属する音声データを解析して、前記映像データのフレーム画像の第2重要度を算出する音声解析過程と、
前記映像解析過程で算出された第1重要度、及び、前記音声解析過程で算出された第2重要度を合わせた第3重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持過程で保持された前記関連情報を出力させるとともに、当該第3重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持過程で保持された前記関連情報を出力させない関連情報制御過程と、を有すること
を特徴とする請求項26に記載の情報処理方法。 The control process is
Analyzing the video data and calculating a first importance of a frame image of the video data;
An audio analysis process of analyzing audio data attached to the video data and calculating a second importance of a frame image of the video data;
When the first importance calculated in the video analysis process and the third importance combined with the second importance calculated in the audio analysis process are smaller than a predetermined threshold, the video data When it is determined that the frame image is not an image of an important scene, the related information held in the related information holding process is output, and the third importance is equal to or higher than a predetermined threshold, the video 27. A related information control process that determines that a frame image of data is an image of an important scene and does not output the related information held in the related information holding process. Information processing method.
前記映像データから算出された、前記映像データのフレーム画像の第1重要度及び前記映像データに付属する音声データから算出された、前記映像データのフレーム画像の第2重要度を合わせた第3重要度を時刻毎に示すメタデータを解析して、当該時刻に基づいて、前記映像データのフレーム画像毎に前記第3重要度を特定するメタデータ解析過程と、
前記メタデータ解析過程で特定された第3重要度が予め定められた閾値よりも小さい場合に、前記映像データのフレーム画像が重要なシーンの画像ではないと判断し、前記関連情報保持過程で保持された前記関連情報を出力させるとともに、前記メタデータ解析過程で特定された第3重要度が予め定められた閾値以上である場合に、前記映像データのフレーム画像が重要なシーンの画像であると判断し、前記関連情報保持過程で保持された前記関連情報を出力させない関連情報制御過程と、を有すること
を特徴とする請求項26に記載の情報処理方法。 The control process is
Third importance combining the first importance of the frame image of the video data calculated from the video data and the second importance of the frame image of the video data calculated from the audio data attached to the video data A metadata analysis process for analyzing the metadata indicating the degree for each time, and identifying the third importance for each frame image of the video data based on the time;
When the third importance specified in the metadata analysis process is smaller than a predetermined threshold, it is determined that the frame image of the video data is not an important scene image, and is stored in the related information holding process Output the related information, and when the third importance specified in the metadata analysis process is greater than or equal to a predetermined threshold, the frame image of the video data is an image of an important scene The information processing method according to claim 26, further comprising: a related information control process that determines and does not output the related information held in the related information holding process.
前記第2重要度は、前記映像データのフレーム画像が会話シーンの画像である確率を示す発話成分値であり、
前記第3重要度は、前記フレーム差分値と前記発話成分値との加算値であること
を特徴とする請求項27又は28に記載の情報処理方法。 The first importance is a frame difference value indicating a difference between successive frame images,
The second importance is an utterance component value indicating a probability that a frame image of the video data is an image of a conversation scene,
The information processing method according to claim 27 or 28, wherein the third importance is an added value of the frame difference value and the speech component value.
を特徴とする請求項21から28の何れか一項に記載の情報処理方法。 The information processing according to any one of claims 21 to 28, wherein the control step further includes a user input reception step of receiving the predetermined threshold value as user input data input from a user. Method.
前記関連情報制御過程は、前記映像解析過程で算出された第1重要度、及び、前記音声解析過程で算出された第2重要度に、前記ユーザ入力受付過程で受け取られた算出情報で示されるそれぞれの重み値を乗算してから、これらを加算すること
を特徴とする請求項30に記載の情報処理方法。 In the user input reception process, calculation information indicating respective weight values to be multiplied by the first importance calculated in the video analysis process and the second importance calculated in the audio analysis process, Further receiving as the user input data,
The related information control process is indicated by the calculation information received in the user input reception process in the first importance calculated in the video analysis process and the second importance calculated in the audio analysis process. The information processing method according to claim 30, wherein the weight values are multiplied and then added.
を特徴とする請求項22から25及び27から31の何れか一項に記載の情報処理方法。 In the related information control process, when it is determined that the frame image of the video data is an image of an important scene, the related information held in the related information holding process until a predetermined period elapses. The information processing method according to any one of claims 22 to 25 and 27 to 31, wherein the information is not output.
を特徴とする請求項20から32の何れか一項に記載の情報処理方法。 The information processing method according to any one of claims 20 to 32, wherein the related information holding step outputs related information whose holding period has passed a predetermined period.
を特徴とする請求項20から33の何れか一項に記載の情報処理方法。 The related information holding process outputs the related information when the amount of data of the related information held exceeds a predetermined amount of data. The information processing method according to one item.
を特徴とする請求項20から34の何れか一項に記載の情報処理方法。 The method further includes a related information superimposing step of generating output video data by superimposing an image of related information output after being held in the related information holding step on a frame image of the video data. Item 35. The information processing method according to any one of Items 20 to 34.
を特徴とする請求項35に記載の情報処理方法。 36. The information processing method according to claim 35, further comprising a video output process of generating a video signal of the output video data generated in the related information superimposing process.
を特徴とする請求項36に記載の情報処理方法。 The information processing method according to claim 36, further comprising a video display process of displaying a video based on the video signal generated in the video output process.
前記映像出力過程で生成された映像信号に基づいて、映像を表示する第1映像表示過程と、
前記関連情報保持過程で保持されてから出力された関連情報の画像を表示する第2映像表示過程と、をさらに有すること
を特徴とする請求項20から34の何れか一項に記載の情報処理方法。 A video output process for generating a video signal of the video data;
A first video display process for displaying video based on the video signal generated in the video output process;
The information processing according to any one of claims 20 to 34, further comprising: a second video display process for displaying an image of the related information output after being stored in the related information holding process. Method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013016549A JP2014150314A (en) | 2013-01-31 | 2013-01-31 | Information processing device and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013016549A JP2014150314A (en) | 2013-01-31 | 2013-01-31 | Information processing device and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014150314A true JP2014150314A (en) | 2014-08-21 |
JP2014150314A5 JP2014150314A5 (en) | 2015-11-05 |
Family
ID=51572999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013016549A Pending JP2014150314A (en) | 2013-01-31 | 2013-01-31 | Information processing device and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014150314A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017005287A (en) * | 2015-06-04 | 2017-01-05 | 凸版印刷株式会社 | Content reproduction system, content reproduction method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149902A (en) * | 1992-11-09 | 1994-05-31 | Matsushita Electric Ind Co Ltd | Animation image recording medium, animation image recorder and animation image reproducing device |
JP2002262246A (en) * | 2001-03-05 | 2002-09-13 | Mitsubishi Electric Corp | Device and method for controlling output information |
JP2006270793A (en) * | 2005-03-25 | 2006-10-05 | Hitachi Ltd | Digest video recording system |
JP2008103802A (en) * | 2006-10-17 | 2008-05-01 | Sharp Corp | Image compositing device |
-
2013
- 2013-01-31 JP JP2013016549A patent/JP2014150314A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06149902A (en) * | 1992-11-09 | 1994-05-31 | Matsushita Electric Ind Co Ltd | Animation image recording medium, animation image recorder and animation image reproducing device |
JP2002262246A (en) * | 2001-03-05 | 2002-09-13 | Mitsubishi Electric Corp | Device and method for controlling output information |
JP2006270793A (en) * | 2005-03-25 | 2006-10-05 | Hitachi Ltd | Digest video recording system |
JP2008103802A (en) * | 2006-10-17 | 2008-05-01 | Sharp Corp | Image compositing device |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017005287A (en) * | 2015-06-04 | 2017-01-05 | 凸版印刷株式会社 | Content reproduction system, content reproduction method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9489980B2 (en) | Video/audio synchronization apparatus and video/audio synchronization method | |
US8620142B2 (en) | Video player and video playback method | |
US20110243474A1 (en) | Video image processing apparatus and video image processing method | |
US11863814B2 (en) | Temporal placement of a rebuffering event | |
JP2009159332A (en) | Interpolation frame generation apparatus, interpolation frame generation method, and broadcast receiving apparatus | |
JP2008304905A (en) | Image quality adjustment device, method and program for image quality adjustment | |
JP2014150314A (en) | Information processing device and information processing method | |
US20110064391A1 (en) | Video-audio playback apparatus | |
JP2010161493A (en) | Image display device and image display method | |
US8947597B2 (en) | Video reproducing device, controlling method of video reproducing device, and control program product | |
US9747666B2 (en) | Apparatus and method of reproducing multi image | |
US20090021642A1 (en) | Moving image reproducing apparatus and control method of moving image reproducing apparatus | |
US10771846B2 (en) | Electronic apparatus for playing substitutional advertisement and method for controlling method thereof | |
WO2014001095A1 (en) | Method for audiovisual content dubbing | |
JP5213630B2 (en) | Video signal playback device | |
JP2013229754A (en) | Image processing device and image processing method | |
EP2887265A1 (en) | Apparatus and method of processing multimedia content | |
JP2013247611A (en) | Closed caption broadcast output device, method and program | |
JP2016052058A (en) | Image display apparatus and image processing method | |
JP2013211914A (en) | Display device, display method, program, and recording medium | |
WO2017038480A1 (en) | Content processing device, content processing method, and program | |
EP3794592A2 (en) | Systems and methods for displaying subjects of a portion of content | |
KR20110018543A (en) | Display apparatus and method for controlling lip-synchronization of display apparatus | |
JP2012222511A (en) | Moving image decorder and digital television receiver | |
JP2009253825A (en) | Electronic device, and scene enhancement method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150911 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150911 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160830 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170228 |