JP2009253825A - Electronic device, and scene enhancement method - Google Patents
Electronic device, and scene enhancement method Download PDFInfo
- Publication number
- JP2009253825A JP2009253825A JP2008101595A JP2008101595A JP2009253825A JP 2009253825 A JP2009253825 A JP 2009253825A JP 2008101595 A JP2008101595 A JP 2008101595A JP 2008101595 A JP2008101595 A JP 2008101595A JP 2009253825 A JP2009253825 A JP 2009253825A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- display
- electronic device
- moving image
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、オーディオビジュアルコンテンツデータの再生時に特定シーンを強調する電子機器およびシーン強調方法に関する。 The present invention relates to an electronic apparatus and a scene enhancement method for emphasizing a specific scene when reproducing audiovisual content data.
近年、プロセッサの処理能力向上、モニターの大型化に伴い、再生された複数のオーディオビジュアルコンテンツデータ中の動画像データを1つのモニターに表示する技術が開発されている。 2. Description of the Related Art In recent years, techniques for displaying moving image data in a plurality of reproduced audiovisual content data on a single monitor have been developed along with improvement in processor processing capacity and increase in monitor size.
特許文献1には、モニターに複数のコンテンツを表示させ、各コンテンツの盛り上がり度あるいは人気度の状態に応じて、マルチ画面の画面構成を変更し、音声に関しては、例えば、モニターの左側に表示されている番組の音声をスピーカから出力するように選択されていれば、左側に表示されている番組の音声のみがスピーカから出力され、右側の番組の音声は出力されない技術が開示されている。
しかしながら、1つのモニターに複数の動画像データが表示される場合、ユーザは再生された動画像データ中の特定シーンのみに集中して、視聴したいニーズがある。 However, when a plurality of moving image data is displayed on one monitor, there is a need for the user to concentrate on only a specific scene in the reproduced moving image data and view it.
そこで、本発明は、複数のオーディオビジュアルコンテンツデータの再生にて特定シーンをユーザに強調する電子機器およびシーン強調方法を提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an electronic device and a scene enhancement method for emphasizing a specific scene to a user by reproducing a plurality of audiovisual content data.
上記目的を達成するために、請求項1に関わる電子機器は、動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器において、再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記再生された複数のオーディオビジュアルコンテンツデータに含まれるオーディオデータの中から前記検出された特定シーンと関連付けられているオーディオデータを検出する検出手段と、再生された複数の動画像データを表示する場合に、前記検出手段によって検出された前記特定シーンを強調表示する表示部と、前記表示部に前記特定シーンを強調表示するときに、前記検出手段によって検出されたオーディオデータを音として放出するスピーカと、を具備することを特徴とする。
In order to achieve the above object, an electronic device according to
また、請求項13に関わるシーン強調方法は、動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器におけるシーン強調方法において、再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記検出された前記特定シーンと関連付けられたオーディオデータを検出し、再生された複数の動画像データを表示する状態にて、前記検出された前記特定シーンを表示部に強調表示し、前記表示部に前記特定シーンを強調表示するタイミングで、前記検出されたオーディオデータを音としてスピーカから放出する。
The scene enhancement method according to
本発明によれば、複数のオーディオビジュアルコンテンツデータの再生にて特定シーンをユーザに強調する電子機器およびシーン強調方法を提供することが可能となる。 ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the electronic device and scene enhancement method which emphasize a specific scene to a user by reproduction | regeneration of several audio visual content data.
以下、図面を参照して、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、図1乃至図3を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、デジタルテレビ1として実現されている。
First, the configuration of an electronic apparatus according to an embodiment of the present invention will be described with reference to FIGS. The electronic device of the present embodiment is realized as, for example, the
図1は、デジタルテレビの一例を示す図である。 FIG. 1 is a diagram illustrating an example of a digital television.
デジタルテレビ1は、本体部20および本体部20を支えるスタンド部21とから構成される。
The
本体部20の前面にはLCD13が組み込まれている。LCD13にはオーディオビジュアルコンテンツデータに含まれる動画像データ等が表示される。
An
さらに、本体部20はスピーカ17を内蔵する。スピーカ17は、デジタルテレビ1の前面の下部に位置するように設けられる。スピーカ17は、オーディオビジュアルコンテンツデータに含まれるオーディオデータを音として放出する。次に、デジタルテレビ1のハードウェア構成について説明する。
Further, the
図2は、デジタルテレビ1のハードウェア構成の一例について説明した図である。
FIG. 2 is a diagram illustrating an example of the hardware configuration of the
チューナ12は、チューナ12に接続されるアンテナ12aを介してストリームデータであるデジタル放送番組データを受信する。例えばMPEG2(Moving Picture Experts Group 2)といったMPEG形式でエンコードされたストリームデータを受信する。
The
映像・音声処理部11は、チューナ12を介して入力されたデジタル放送番組データを処理する。映像・音声処理部11は、動画像データおよびオーディオデータを含むオーディオビジュアルコンテンツデータであるデジタル放送番組データを、動画像データとオーディオデータとに分離処理を行い、分離処理することによって生成された夫々のデータに対してデコード処理を行い、さらに、デコード処理することで生成されたデータに対してレンダリング処理を行う。
The video /
映像・音声処理部11は、レンダリング処理後の動画像データをLCD13に出力し、一方、レンダリング処理後のオーディオデータをスピーカ15に出力する。
The video /
HDD14は、チューナ12によって受信されたデジタル放送番組データを記憶する。
The
コントローラ10は、リモコン2から送信されるコマンドをデコードし、コマンド内容に応じて各制御を実行する。
The
また、コントローラ10は、後述にて詳細に説明するが、マルチ表示アプリケーションを起動する。起動されたマルチ表示アプリケーションは、映像・音声処理部11を用いて、動画像データおよびオーディオデータを処理する。このマルチ表示アプリケーションによって行われる処理については、後述にて詳細に説明する。次に、マルチ表示アプリケーションを実行して複数の動画像データをLCD13に表示する状態について説明する。
The
図3は、マルチ表示アプリケーションを実行して複数の動画像データをLCD13に表示する状態について説明する図である。
FIG. 3 is a diagram for explaining a state in which a multi-display application is executed to display a plurality of moving image data on the
マルチ表示アプリケーションは、複数の動画像データを再生し、再生された複数の動画像データをLCD13に表示する機能を有する。
The multi-display application has a function of reproducing a plurality of moving image data and displaying the reproduced plurality of moving image data on the
図3に示すように、マルチ表示アプリケーションは、LCD13の画面領域を例えば8分割し、夫々の画面領域に、再生された動画像データmp1乃至動画像データmp8を表示する。
As shown in FIG. 3, the multi-display application divides the screen area of the
図3に示すように、マルチ表示アプリケーションを実行して、夫々の画面領域に、再生された動画像データmp1乃至動画像データmp8を表示する状態において、複数の動画像データの夫々に関連づけられている複数のオーディオデータを再生すると、複数の音が同時にスピーカ17から放出されることになる。
As shown in FIG. 3, in a state in which the multi-display application is executed and the reproduced moving image data mp1 to mp8 are displayed in the respective screen areas, they are associated with each of the plurality of moving image data. When a plurality of audio data is reproduced, a plurality of sounds are simultaneously emitted from the
そこで、マルチ表示アプリケーションは、夫々の画面領域に再生された動画像データmp1乃至動画像データmp8を表示する場合、通常、複数の動画像データの夫々に関連づけられている複数の音を同時にスピーカ17から放出しない。
Therefore, when the multi-display application displays the reproduced moving image data mp1 to mp8 in the respective screen areas, usually, a plurality of sounds associated with each of the plurality of moving image data are simultaneously displayed on the
次に、マルチ表示アプリケーションの有する機能の中で、複数の動画像データを再生・表示する場合に特定シーンをユーザに対してアピールする機能について説明する。 Next, among the functions of the multi-display application, a function for appealing a specific scene to the user when reproducing and displaying a plurality of moving image data will be described.
図4(a)は、特定シーンをユーザに対してアピールする方法の一つである特定シーンの強調表示を行うための設定について説明する流れ図である。また、図4(b)は、ユーザが強調表示方法を選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。
FIG. 4A is a flowchart for explaining setting for highlighting a specific scene, which is one of the methods for appealing the specific scene to the user. FIG. 4B is a diagram illustrating an example of a setting window displayed on the
ユーザが、特定シーンを強調表示させたい場合、ユーザはマルチ表示アプリケーションの設定機能を起動させることで、図4(b)に示される設定ウィンドウをLCD13に表示させ、ユーザはこのウィンドウに示されている複数の強調表示方法の中から一つの強調表示方法を選択する。
When the user wants to highlight a specific scene, the user activates the setting function of the multi-display application to display the setting window shown in FIG. 4B on the
マルチ表示アプリケーションが、図4(b)に示される設定ウィンドウを介してユーザによって"特定シーンを拡大表示"が指定されたことを認識した場合(ステップ S100 Yes)、マルチ表示アプリケーションは、特定シーンを拡大表示するように設定する(ステップ S101)。 When the multi-display application recognizes that the user has designated “enlarged display of specific scene” via the setting window shown in FIG. 4B (step S100 Yes), the multi-display application displays the specific scene. It sets so that it may enlarge and display (step S101).
マルチ表示アプリケーションが、"特定シーンを拡大表示"が指定されたことを認識しなかった場合(ステップ S100 No)、マルチ表示アプリケーションは、図4(b)に示される設定ウィンドウを介してユーザによって"特定シーンを点滅表示"が指定されたことを認識したか否かを判断し、"特定シーンを点滅表示"が指定されたと判断した場合(ステップ S102 Yes)、マルチ表示アプリケーションは、特定シーンを点滅表示するように設定する(ステップ S104)。 If the multi-display application does not recognize that “enlarged display of a specific scene” has been designated (No in step S100), the multi-display application can be read by the user via the setting window shown in FIG. It is determined whether or not it is recognized that “blink display of specific scene” is designated, and when it is determined that “blink display of specific scene” is designated (Yes in step S102), the multi-display application blinks the specific scene. It sets so that it may display (step S104).
マルチ表示アプリケーションが、"特定シーンを点滅表示"が指定されたことを認識しなかった場合(ステップ S102 No)、マルチ表示アプリケーションは、特定シーンを強調表示しないように設定する(ステップ S104)。 If the multi-display application does not recognize that “blink display of specific scene” has been designated (No in step S102), the multi-display application sets not to highlight the specific scene (step S104).
次に、複数の動画像データを再生する場合に強調表示されるシーンを特定するための設定例のうちの第一の実施例について説明する。 Next, a description will be given of a first example of setting examples for specifying a scene to be highlighted when reproducing a plurality of moving image data.
図5(a)は、強調表示されるシーンを特定するための設定例の一つである、顔画像に基づいてシーンを特定するための設定について説明する流れ図である。図5(b)は、顔画像に基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。図5(c)は、強調表示されるシーンの特定に用いられる顔画像をユーザが指定するためにLCD13に表示される設定ウィンドウの一例を示す図である。
FIG. 5A is a flowchart illustrating a setting for specifying a scene based on a face image, which is one of setting examples for specifying a highlighted scene. FIG. 5B is a diagram illustrating an example of a setting window displayed on the
ユーザによって指定された顔画像が含まれるシーンを特定させたい場合、ユーザは、マルチ表示アプリケーションの設定機能を起動させることで、図5(b)に示される設定ウィンドウをLCD13に表示させ、ユーザによって指定された顔画像が含まれるシーンを特定するのか否かを選択する。 When it is desired to specify a scene including the face image designated by the user, the user activates the setting function of the multi-display application to display the setting window shown in FIG. It is selected whether or not the scene including the designated face image is specified.
"指定された顔画像が含まれるシーンを特定する"ことが図5(b)に示される設定ウィンドウを介してユーザによって指定されたことを、マルチ表示アプリケーションが認識した場合(ステップ S200 Yes)、マルチ表示アプリケーションは、指定された顔画像が含まれるシーンを特定するよう設定する(ステップ S201)。 When the multi-display application recognizes that “specifying a scene including the designated face image” is designated by the user via the setting window shown in FIG. 5B (Yes in step S200), The multi-display application is set to specify a scene including the designated face image (step S201).
マルチ表示アプリケーションが、指定された顔画像が含まれるシーンを特定するように設定すると、マルチ表示アプリケーションは、図5(c)に示される設定ウィンドウをLCD13に表示する(ステップ S202)。 When the multi-display application is set to specify a scene including the designated face image, the multi-display application displays a setting window shown in FIG. 5C on the LCD 13 (step S202).
マルチ表示アプリケーションは、ステップS202にてLCD13に表示された図5(c)に示される設定ウィンドウを介してユーザによって指定された顔画像を解析する(ステップ S203)。顔画像の解析の一例として、例えば、"目"、"鼻"、"口"といった顔の特徴部分を抽出する。マルチ表示アプリケーションは、ステップS203にて解析した結果を用いて、顔画像が含まれるシーンを特定する。
The multi-display application analyzes the face image designated by the user via the setting window shown in FIG. 5C displayed on the
次に、図4を用いて説明した特定シーンの強調表示方法を選択する設定、および、図5を用いて説明した顔画像に基づくシーンを特定するための設定を終えた状態にてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する。ここで、図4を用いて説明した特定シーンの強調表示方法の選択設定にて拡大表示が選択された場合について説明する。 Next, the multi-display application in a state where the setting for selecting the highlighting method for the specific scene described with reference to FIG. 4 and the setting for specifying the scene based on the face image described with reference to FIG. An example of a reproduction process of a plurality of audiovisual content data performed by will be described. Here, a case where enlarged display is selected in the selection setting of the highlighting method for the specific scene described with reference to FIG. 4 will be described.
図6は、図4および図5を用いて説明した設定を終えた状態にてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図である。 FIG. 6 is a flowchart illustrating an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 5 is completed.
以下の説明では、HDD14に予め記憶されている例えばデジタル放送番組データといったオーディオビジュアルコンテンツデータをマルチ表示アプリケーションが複数に分割することで複数のオーディオビジュアルコンテンツデータを生成し、この生成された複数のオーディオビジュアルコンテンツデータの夫々を再生した場合を説明する。
In the following description, audio display content data such as digital broadcast program data stored in advance in the
マルチ表示アプリケーションは、映像・音声処理部11を用いて、複数のオーディオビジュアルコンテンツデータの夫々のデータを再生する(ステップ S300)。 The multi-display application reproduces each data of the plurality of audiovisual content data using the video / audio processing unit 11 (step S300).
マルチ表示アプリケーションは、再生された複数のオーディオビジュアルコンテンツデータの中の動画像データ中にユーザによって指定された顔画像が含まれているか否かを判断する(ステップ S301)。 The multi-display application determines whether or not the face image specified by the user is included in the moving image data in the reproduced plurality of audiovisual content data (step S301).
マルチ表示アプリケーションが、再生された動画像データ中にユーザによって指定された顔画像が含まれていると判断した場合(ステップ S301 Yes)、再生された動画像データ中の顔画像が含まれているシーンを特定する(ステップ S302)。 When the multi-display application determines that the reproduced moving image data includes the face image designated by the user (Yes in step S301), the reproduced moving image data includes the face image. A scene is specified (step S302).
マルチ表示アプリケーションは、ステップS302にて特定したシーンをLCD13に拡大表示する(ステップ S303)。 The multi-display application enlarges and displays the scene specified in step S302 on the LCD 13 (step S303).
ステップS303にて、特定したシーンをLCD13に拡大表示する際、マルチ表示アプリケーションは、特定したシーンに関連付けられている再生されたオーディオデータを検出し、この検出されたオーディオデータをスピーカ15から音として放出する(ステップ S304)。
In step S303, when the specified scene is enlarged and displayed on the
マルチ表示アプリケーションがステップS303およびステップS304にて実行する、特定シーンの拡大表示、および特定シーンに関連付けられている音の放出する状態について図7に示す。 FIG. 7 shows an enlarged display of a specific scene and a state in which a sound associated with the specific scene is emitted, which is executed by the multi-display application in steps S303 and S304.
このように、マルチ表示アプリケーションが、ユーザによって指定された顔画像が含まれている特定シーンをLCD13に拡大表示するとともに、特定シーンに関連づけられているオーディオデータを音としてスピーカ15から放出することで、ユーザは、LCD13に表示されている複数の動画像データの中で、自分が指定した顔画像が含まれているシーンを容易に見ることが可能となるとともに、そのシーンに関連付けられている音を聴くことが可能となる。
As described above, the multi-display application enlarges and displays the specific scene including the face image designated by the user on the
次に、複数の動画像データを再生する場合に強調表示されるシーンを特定するための設定例のうちの第二の実施例について説明する。 Next, a second embodiment of setting examples for specifying a scene to be highlighted when reproducing a plurality of moving image data will be described.
図8(a)は、強調表示されるシーンについて特定するための設定例の一つである、音の大きさに基づいてシーンを特定するための設定について説明する流れ図である。図8(b)は、音の大きさに基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。
FIG. 8A is a flowchart for explaining setting for specifying a scene based on sound volume, which is one of setting examples for specifying a highlighted scene. FIG. 8B is a diagram showing an example of a setting window displayed on the
音の大きさに基づいてシーンを特定させたい場合、ユーザは、マルチ表示アプリケーションの設定機能を起動させることで、図8(b)に示される設定ウィンドウをLCD13に表示させ、音の大きさに基づいてシーンを特定するのか否かを選択する。 When the user wants to specify a scene based on the volume of sound, the user activates the setting function of the multi-display application to display the setting window shown in FIG. Based on this, it is selected whether or not to specify a scene.
"音の大きさに基づいてシーンを特定する"ことが図8(b)に示される設定ウィンドウを介してユーザによって指定されたことを、マルチ表示アプリケーションが認識した場合(ステップ S400 Yes)、マルチ表示アプリケーションは、音の大きさに基づいてシーンを特定するよう設定する(ステップ S401)。 When the multi-display application recognizes that “specify the scene based on the volume of sound” is designated by the user via the setting window shown in FIG. 8B (Yes in step S400), The display application is set to specify the scene based on the volume of the sound (step S401).
次に、図4を用いて説明した特定シーンの強調表示方法を選択する設定、および図8を用いて説明した音の大きさに基づいてシーンを特定するための設定を終えた状態にて、マルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する。ここでは、図4を用いて説明した特定シーンの強調表示方法の選択設定にて拡大表示が選択設定された場合について説明する。 Next, in the state where the setting for selecting the highlighting method for the specific scene described with reference to FIG. 4 and the setting for specifying the scene based on the sound volume described with reference to FIG. An example of reproduction processing of a plurality of audiovisual content data performed by the multi-display application will be described. Here, a case will be described in which enlarged display is selected and set in the selection setting of the highlighting method for the specific scene described with reference to FIG.
図9は、図4および図8を用いて説明した設定を終えた状態においてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図である。 FIG. 9 is a flowchart illustrating an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 8 is completed.
以下の説明は、HDD14に予め記憶されている例えばデジタル放送番組データといったオーディオビジュアルコンテンツデータをマルチ表示アプリケーションが複数に分割することで複数のオーディオビジュアルコンテンツデータを生成し、この生成された複数のオーディオビジュアルコンテンツデータの夫々を再生した場合を説明する。
In the following description, a plurality of audiovisual content data is generated by a multi-display application dividing audiovisual content data such as digital broadcast program data stored in advance in the
マルチ表示アプリケーションは、映像・音声処理部11を用いて、複数のオーディオビジュアルコンテンツデータの夫々を再生する(ステップ S500)。 The multi-display application reproduces each of the plurality of audiovisual content data using the video / audio processing unit 11 (step S500).
マルチ表示アプリケーションは、再生された複数のオーディオビジュアルコンテンツデータの中のオーディオデータが所定の閾値よりも大きいか否かを判断する(ステップ S501)。 The multi-display application determines whether or not the audio data in the reproduced plurality of audiovisual content data is larger than a predetermined threshold value (step S501).
マルチ表示アプリケーションが、再生されたオーディオデータが所定の閾値よりも大きいと判断した場合(ステップ S501 Yes)、動画像データの中から、所定の閾値よりも大きいと判断されたオーディオデータと関連付けられているシーンを特定する(ステップ S502)。 When the multi-display application determines that the reproduced audio data is larger than the predetermined threshold (Yes in step S501), the multi-display application is associated with the audio data determined to be larger than the predetermined threshold from the moving image data. A scene is identified (step S502).
マルチ表示アプリケーションは、ステップS502にて特定したシーンをLCD13に拡大表示する(ステップ S503)。 The multi-display application enlarges and displays the scene specified in step S502 on the LCD 13 (step S503).
ステップS503にて、特定したシーンをLCD13に拡大表示する際、マルチ表示アプリケーションは、特定したシーンに関連付けられているオーディオデータ、すなわち、所定の閾値よりも大きい値を有するデータと判断されたオーディオデータをスピーカ15から音として放出する(ステップ S504)。
In step S503, when the specified scene is enlarged and displayed on the
マルチ表示アプリケーションがステップS503およびステップS504にて実行する、特定シーンの拡大表示、および特定シーンに関連付けられている音の放出の状態については、図10に示す。 The enlarged display of the specific scene and the sound emission state associated with the specific scene executed by the multi-display application in steps S503 and S504 are shown in FIG.
このように、マルチ表示アプリケーションが、特定されたシーンをLCD13に拡大表示するとともに、特定シーンに関連づけられているオーディオデータをスピーカ15から音として放出することで、ユーザは、LCD13に表示されている複数の動画像データの中で、所定の閾値よりも大きい値の音の大きさを有するシーン、例えば、歓声の大きさが大きいシーン等を容易に見ることが可能となり、さらに、そのシーンに関連付けられている音を聴くことが可能となる。
In this way, the multi-display application enlarges and displays the specified scene on the
次に、複数の動画像データを再生している状態において強調表示されるシーンを特定するための設定例のうちの第三の実施例について説明する。 Next, a description will be given of a third embodiment of setting examples for specifying a scene to be highlighted in a state where a plurality of moving image data is being reproduced.
図11(a)は、強調表示されるシーンについての特定方法の一つである、単語に基づくシーンを特定するための設定について説明する流れ図である。図11(b)は、単語に基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。図11(c)は、強調表示されるシーンの特定に用いられる単語をユーザが指定するためにLCD13に表示される設定ウィンドウの一例を示す図である。
FIG. 11A is a flowchart for explaining setting for specifying a scene based on a word, which is one of methods for specifying a highlighted scene. FIG. 11B is a diagram showing an example of a setting window displayed on the
単語に基づいてシーンを特定させたい場合、ユーザは、マルチ表示アプリケーションの設定機能を起動させることで、図11(b)に示される設定ウィンドウをLCD13に表示させ、ユーザによって指定された単語に基づいてシーンを特定するのか否かを選択する。
When the user wants to specify a scene based on a word, the user activates the setting function of the multi-display application to display the setting window shown in FIG. 11B on the
"単語に基づいてシーンを特定する"ことが図11(b)に示される設定ウィンドウを介してユーザによって指定されたことを、マルチ表示アプリケーションが認識した場合(ステップ S600 Yes)、マルチ表示アプリケーションは、ユーザによって指定された単語に基づいてシーンを特定するよう設定する(ステップ S601)。 When the multi-display application recognizes that “specify the scene based on the word” is designated by the user via the setting window shown in FIG. 11B (Yes in step S600), the multi-display application The scene is set to be specified based on the word designated by the user (step S601).
マルチ表示アプリケーションが、ユーザによって指定された単語に基づいてシーンを特定するように設定すると、マルチ表示アプリケーションは、図11(c)に示される設定ウィンドウをLCD13に表示する(ステップ S602)。 When the multi-display application is set to specify a scene based on a word designated by the user, the multi-display application displays a setting window shown in FIG. 11C on the LCD 13 (step S602).
図11(c)に示される設定ウィンドウを介してユーザによって単語が指定されたことを、マルチ表示アプリケーションが認識すると、マルチ表示アプリケーションは、シーンを特定するために用いられる単語を設定する(ステップ S603)。 When the multi-display application recognizes that a word has been designated by the user via the setting window shown in FIG. 11C, the multi-display application sets a word used for specifying a scene (step S603). ).
次に、図4を用いて説明した特定シーンの強調表示方法を選択する設定、および図11を用いて説明したユーザによって指定された単語に基づいてシーンを特定するための設定を終えた状態において、マルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する。ここでは、図4を用いて説明した特定シーンの強調表示方法の選択設定にて拡大表示が選択設定された場合について説明する。 Next, in the state where the setting for selecting the highlighting method for the specific scene described with reference to FIG. 4 and the setting for specifying the scene based on the word specified by the user described with reference to FIG. 11 are completed. An example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application will be described. Here, a case will be described in which enlarged display is selected and set in the selection setting of the highlighting method for the specific scene described with reference to FIG.
図12は、図4および図11を用いて説明した設定を終えた状態においてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図である。 FIG. 12 is a flowchart illustrating an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 11 is completed.
以下の説明は、HDD14に予め記憶されている例えばデジタル放送番組データといったオーディオビジュアルコンテンツデータをマルチ表示アプリケーションが複数に分割することで複数のオーディオビジュアルコンテンツデータを生成し、この生成された複数のオーディオビジュアルコンテンツデータの夫々を再生した場合を説明する。
In the following description, a plurality of audiovisual content data is generated by a multi-display application dividing audiovisual content data such as digital broadcast program data stored in advance in the
マルチ表示アプリケーションは、映像・音声処理部11を用いて、複数のオーディオビジュアルコンテンツデータの夫々を再生する(ステップ S700)。 The multi-display application reproduces each of the plurality of audiovisual content data using the video / audio processing unit 11 (step S700).
マルチ表示アプリケーションは、再生された複数のオーディオビジュアルコンテンツデータの中のオーディオデータにユーザによって指定された単語が含まれているか否かを判断する(ステップ S701)。 The multi-display application determines whether or not the word specified by the user is included in the audio data in the reproduced plurality of audiovisual content data (step S701).
マルチ表示アプリケーションが、再生されたオーディオデータにユーザによって指定された単語が含まれていると判断した場合(ステップ S701 Yes)、指定された単語が含まれているオーディオデータと関連付けられている動画像データ中のシーンを特定する(ステップ S702)。 If the multi-display application determines that the reproduced audio data includes the word specified by the user (Yes in step S701), the moving image associated with the audio data including the specified word A scene in the data is specified (step S702).
マルチ表示アプリケーションは、ステップS702にて特定したシーンをLCD13に拡大表示する(ステップ S703)。 The multi-display application enlarges and displays the scene specified in step S702 on the LCD 13 (step S703).
ステップS703にて、特定したシーンをLCD13に拡大表示する際、マルチ表示アプリケーションは、特定したシーンに関連付けられているオーディオデータ、すなわち、ユーザによって指定された単語が含まれているオーディオデータをスピーカ15から音として放出する(ステップ S704)。
In step S703, when the specified scene is enlarged and displayed on the
マルチ表示アプリケーションがステップS703およびステップS704にて実行する、特定シーンの拡大表示、および特定シーンに関連付けられている音の放出については、図13に示す。 The enlarged display of the specific scene and the release of the sound associated with the specific scene executed by the multi-display application in steps S703 and S704 are shown in FIG.
このように、マルチ表示アプリケーションが、特定されたシーンをLCD13に拡大表示するとともに、特定シーンに関連づけられているオーディオデータをスピーカ15から音として放出することで、ユーザは、LCD13に表示されている複数の動画像データの中で、ユーザによって指定された単語が含まれるオーディオデータと関連付けられるシーンを容易に見ることが可能となり、さらに、そのシーンに関連付けられている音を聴くことが可能となる。
In this way, the multi-display application enlarges and displays the specified scene on the
上述の実施形態では、特定シーンを強調表示する例を説明したが、これに限ること無く、特定シーンのサイズ可変表示(数秒〜数マイクロ秒おきに、対象とする特定シーンの表示サイズを交互に変えて表示する)、特定シーン以外の動画像データが表示されるLCD13の画面部分の輝度を下げる表示といった表示方法を用いて、特定シーンを強調表示してもよい。
In the above-described embodiment, an example in which a specific scene is highlighted is described. However, the present invention is not limited to this. The specific scene may be highlighted using a display method such as a display that reduces the brightness of the screen portion of the
また、上述の実施形態では、HDD14に記憶されているオーディオビジュアルコンテンツデータを複数のデータに分割して、再生された複数のデータを分割されたLCD13の画面に表示する構成を説明した。この構成は、オーディオビジュアルコンテンツデータの閲覧時間を縮小できる、といったメリットがある。しかしながら、この構成に限ることは無く、例えば、デジタルテレビ1に複数のチューナを搭載し、これら複数のチューナにて受信したオーディオビジュアルコンテンツデータを再生して、分割されたLCD13の画面に表示する構成であってもよい。
Further, in the above-described embodiment, the configuration has been described in which the audiovisual content data stored in the
また、上述の実施形態では、ユーザによって強調表示されるシーンを特定するための設定を行う構成を説明したが、この構成に限ることは無く、例えば、ユーザが選択したオーディオビジュアルコンテンツデータの種類、内容等に応じて、マルチ表示アプリケーションが強調表示されるシーンを特定するための設定を自動的に行う構成であってもよい。 In the above-described embodiment, the configuration for performing the setting for specifying the scene highlighted by the user has been described. However, the configuration is not limited to this configuration. For example, the type of audiovisual content data selected by the user, Depending on the contents and the like, the configuration may be such that the setting for specifying the scene in which the multi-display application is highlighted is automatically performed.
また、上述の実施形態にて特定のシーンを強調表示する構成について説明したが、この強調表示されるシーンをLCD13の全画面に表示したい場合、ユーザがリモコン2を用いてデジタルテレビ1に、強調表示されているシーンを全画面表示するためのコマンドを送信し、このコマンドに基づいてマルチ表示アプリケーションが強調表示されるシーンをLCD13に全画面表示する構成であってもよい。
Further, the configuration for highlighting a specific scene has been described in the above-described embodiment. However, when the scene to be highlighted is to be displayed on the entire screen of the
さらに、デジタルテレビ1に複数のチューナを搭載し、これら複数のチューナにて受信したオーディオビジュアルコンテンツデータを再生して分割されたLCD13の画面に表示させ、強調表示されるシーンをLCD13の全画面に表示させる場合、強調表示されるシーン以外のチューナにて受信されたオーディオビジュアルコンテンツデータをHDD14に自動的に記憶させる構成であってもよい。
Furthermore, a plurality of tuners are mounted on the
また、上述の実施形態において、特定のシーンを強調表示するための設定について、ユーザによる顔画像の指定、単語の指定といった構成を説明したが、これらユーザによる指定操作をリモコン2を用いて行う構成であってよい。
In the above-described embodiment, the configuration for highlighting a specific scene has been described with respect to a configuration such as designation of a face image by a user and designation of a word. Configuration in which these user designation operations are performed using the
また、上述の実施形態では、オーディオデータから単語を抽出する例について説明したが、この構成に限ることは無く、例えば、オーディオビジュアルコンテンツデータに含まれるテロップデータから単語を抽出する構成であってもよい。 In the above-described embodiment, an example of extracting a word from audio data has been described. However, the present invention is not limited to this configuration. For example, a configuration in which a word is extracted from telop data included in audiovisual content data is also possible. Good.
また、拡大表示や点滅表示のように、強調表示された動画を視聴する場合、視聴対象となっていない動画については、タイムシフト録画のような機能を用いて、見逃しを避ける構成であってもよい。 In addition, when watching a highlighted video such as enlarged display or blinking display, a video that is not the target of viewing may be configured to avoid overlooking by using a function such as time-shift recording. Good.
本発明は上記実施形態をそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示されている全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。 The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.
1…デジタルテレビ、11…映像・音声処理部、12…チューナ、
13…LCD、14…HDD、17…スピーカ、20…本体部、
21…スタンド部、
1 ... digital television, 11 ... video / audio processor, 12 ... tuner,
13 ... LCD, 14 ... HDD, 17 ... speaker, 20 ... main body,
21 ... Stand part
Claims (18)
再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記再生された複数のオーディオビジュアルコンテンツデータに含まれるオーディオデータの中から前記検出された特定シーンと関連付けられているオーディオデータを検出する検出手段と、
再生された複数の動画像データを表示する場合に、前記検出手段によって検出された前記特定シーンを強調表示する表示部と、
前記表示部に前記特定シーンを強調表示するときに、前記検出手段によって検出されたオーディオデータを音として放出するスピーカと、
を具備することを特徴とする電子機器。 In an electronic device capable of reproducing audiovisual content data including moving image data and audio data,
A specific scene is detected based on a predetermined condition from moving image data included in a plurality of reproduced audiovisual content data, and the audio data included in the reproduced plurality of audiovisual content data Detecting means for detecting audio data associated with the detected specific scene;
A display unit for highlighting the specific scene detected by the detection unit when displaying a plurality of reproduced moving image data;
A speaker that emits audio data detected by the detection means as sound when highlighting the specific scene on the display unit;
An electronic device comprising:
再生されたオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出する検出手段と、
前記検出手段によって検出された前記特定シーンと関連付けられたオーディオデータを検出する第2の検出手段と、
表示部に複数画面に区分けして夫々の画面に再生された複数の動画像データを表示する状態にて、前記検出手段によって検出された前記特定シーンを強調表示する強調表示手段と、
前記表示部に前記特定シーンを強調表示するタイミングで、前記第2の検出手段によって検出されたオーディオデータを音として放出するスピーカと、
を具備することを特徴とする電子機器。 In an electronic device capable of reproducing audiovisual content data including moving image data and audio data,
Detecting means for detecting a specific scene based on a predetermined condition from moving image data included in the reproduced audiovisual content data;
Second detection means for detecting audio data associated with the specific scene detected by the detection means;
Highlighting means for highlighting the specific scene detected by the detecting means in a state where a plurality of moving image data reproduced on each screen is displayed on a screen divided into a plurality of screens,
A speaker that emits audio data detected by the second detection means as sound at the timing of highlighting the specific scene on the display;
An electronic device comprising:
再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記検出された前記特定シーンと関連付けられたオーディオデータを検出し、
再生された複数の動画像データを表示する状態にて、前記検出された前記特定シーンを表示部に強調表示し、
前記表示部に前記特定シーンを強調表示するタイミングで、前記検出されたオーディオデータを音としてスピーカから放出するシーン強調方法。 In a scene enhancement method in an electronic device capable of reproducing audiovisual content data including moving image data and audio data,
Detecting a specific scene based on a predetermined condition from moving image data included in a plurality of reproduced audiovisual content data, and detecting audio data associated with the detected specific scene;
In a state of displaying a plurality of reproduced moving image data, the detected specific scene is highlighted on a display unit,
A scene enhancement method for emitting the detected audio data as a sound from a speaker at a timing for highlighting the specific scene on the display unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008101595A JP2009253825A (en) | 2008-04-09 | 2008-04-09 | Electronic device, and scene enhancement method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008101595A JP2009253825A (en) | 2008-04-09 | 2008-04-09 | Electronic device, and scene enhancement method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009253825A true JP2009253825A (en) | 2009-10-29 |
Family
ID=41314023
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008101595A Pending JP2009253825A (en) | 2008-04-09 | 2008-04-09 | Electronic device, and scene enhancement method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009253825A (en) |
-
2008
- 2008-04-09 JP JP2008101595A patent/JP2009253825A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4331240B2 (en) | Electronic apparatus and image display method | |
JP4170808B2 (en) | Information display device, information display method, and program | |
KR101224393B1 (en) | Video playback apparatus and method of controlling the same | |
US8396351B2 (en) | Information processing apparatus, information processing method, information processing program and imaging apparatus | |
JP2011211481A (en) | Video/audio player | |
EP3468171B1 (en) | Display apparatus and recording medium | |
JP2010206265A (en) | Device and method for controlling sound, data structure of stream, and stream generator | |
JP2007336593A (en) | Information display, information displaying method and program | |
JP2006005418A (en) | Apparatus, method, and program for receiving/reproducing information, and program recording medium | |
JP2006211488A (en) | Video reproducing apparatus | |
US9905245B2 (en) | Electronic device and control method | |
JP6803463B2 (en) | Display device and its control method | |
JP2007295100A (en) | Television receiver | |
JP5039020B2 (en) | Electronic device and video content information display method | |
KR20160093404A (en) | Method and Apparatus for Multimedia Contents Service with Character Selective Audio Zoom In | |
US8627400B2 (en) | Moving image reproducing apparatus and control method of moving image reproducing apparatus | |
JP2009253825A (en) | Electronic device, and scene enhancement method | |
JP5213630B2 (en) | Video signal playback device | |
JP2009094966A (en) | Reproducing device, reproduction method, and reproduction control program | |
JP5037060B2 (en) | Sub-screen display device | |
JP4539884B2 (en) | Reproducing apparatus, program, and method for constructing electronic screen | |
WO2016042765A1 (en) | Video audio processing device, video audio processing method, and program | |
JP5137864B2 (en) | Playback apparatus, control method thereof, and program | |
JP2007124583A (en) | Personal computer and program for controlling personal computer | |
JP4264028B2 (en) | Summary program generation device and summary program generation program |