JP2009253825A - Electronic device, and scene enhancement method - Google Patents

Electronic device, and scene enhancement method Download PDF

Info

Publication number
JP2009253825A
JP2009253825A JP2008101595A JP2008101595A JP2009253825A JP 2009253825 A JP2009253825 A JP 2009253825A JP 2008101595 A JP2008101595 A JP 2008101595A JP 2008101595 A JP2008101595 A JP 2008101595A JP 2009253825 A JP2009253825 A JP 2009253825A
Authority
JP
Japan
Prior art keywords
scene
display
electronic device
moving image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008101595A
Other languages
Japanese (ja)
Inventor
Yukie Takahashi
幸恵 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2008101595A priority Critical patent/JP2009253825A/en
Publication of JP2009253825A publication Critical patent/JP2009253825A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic device and a scene enhancement method for enhancing a particular scene to a user in replay of a plurality of audio-visual content data. <P>SOLUTION: In the electronic device which can replay the audio-visual content data including moving image data and audio data and also can display the plurality of replayed moving image data in each of split windows, the particular scene is identified from the moving image data based on a given criteria, and the audio data to be associated with the particular scene identified is identified. In addition, when highlighting the identified particular scene in the display, the audio data associated with the particular scene is released as a sound from a speaker. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、オーディオビジュアルコンテンツデータの再生時に特定シーンを強調する電子機器およびシーン強調方法に関する。   The present invention relates to an electronic apparatus and a scene enhancement method for emphasizing a specific scene when reproducing audiovisual content data.

近年、プロセッサの処理能力向上、モニターの大型化に伴い、再生された複数のオーディオビジュアルコンテンツデータ中の動画像データを1つのモニターに表示する技術が開発されている。   2. Description of the Related Art In recent years, techniques for displaying moving image data in a plurality of reproduced audiovisual content data on a single monitor have been developed along with improvement in processor processing capacity and increase in monitor size.

特許文献1には、モニターに複数のコンテンツを表示させ、各コンテンツの盛り上がり度あるいは人気度の状態に応じて、マルチ画面の画面構成を変更し、音声に関しては、例えば、モニターの左側に表示されている番組の音声をスピーカから出力するように選択されていれば、左側に表示されている番組の音声のみがスピーカから出力され、右側の番組の音声は出力されない技術が開示されている。
特開2007−311942号公報(第5,7頁、第4図)
In Patent Document 1, a plurality of contents are displayed on a monitor, and the screen configuration of a multi-screen is changed according to the state of excitement or popularity of each content. For example, audio is displayed on the left side of the monitor. A technique is disclosed in which if the audio of a program being selected is output from the speaker, only the audio of the program displayed on the left side is output from the speaker and the audio of the right program is not output.
Japanese Patent Application Laid-Open No. 2007-31942 (Pages 5, 7 and 4)

しかしながら、1つのモニターに複数の動画像データが表示される場合、ユーザは再生された動画像データ中の特定シーンのみに集中して、視聴したいニーズがある。   However, when a plurality of moving image data is displayed on one monitor, there is a need for the user to concentrate on only a specific scene in the reproduced moving image data and view it.

そこで、本発明は、複数のオーディオビジュアルコンテンツデータの再生にて特定シーンをユーザに強調する電子機器およびシーン強調方法を提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an electronic device and a scene enhancement method for emphasizing a specific scene to a user by reproducing a plurality of audiovisual content data.

上記目的を達成するために、請求項1に関わる電子機器は、動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器において、再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記再生された複数のオーディオビジュアルコンテンツデータに含まれるオーディオデータの中から前記検出された特定シーンと関連付けられているオーディオデータを検出する検出手段と、再生された複数の動画像データを表示する場合に、前記検出手段によって検出された前記特定シーンを強調表示する表示部と、前記表示部に前記特定シーンを強調表示するときに、前記検出手段によって検出されたオーディオデータを音として放出するスピーカと、を具備することを特徴とする。   In order to achieve the above object, an electronic device according to claim 1 is an electronic device capable of reproducing audiovisual content data including moving image data and audio data, and a moving image included in a plurality of reproduced audiovisual content data. A specific scene is detected from image data based on a predetermined condition, and audio data associated with the detected specific scene is selected from audio data included in the reproduced plurality of audiovisual content data. A detection unit for detecting, a display unit for highlighting the specific scene detected by the detection unit when displaying a plurality of reproduced moving image data, and a case of highlighting the specific scene on the display unit Audio data detected by the detection means. Characterized by comprising a speaker that emits a sound.

また、請求項13に関わるシーン強調方法は、動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器におけるシーン強調方法において、再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記検出された前記特定シーンと関連付けられたオーディオデータを検出し、再生された複数の動画像データを表示する状態にて、前記検出された前記特定シーンを表示部に強調表示し、前記表示部に前記特定シーンを強調表示するタイミングで、前記検出されたオーディオデータを音としてスピーカから放出する。   The scene enhancement method according to claim 13 is a scene enhancement method in an electronic device capable of reproducing audiovisual content data including moving image data and audio data, and the moving image included in a plurality of reproduced audiovisual content data. In a state where a specific scene is detected from data based on a predetermined condition, audio data associated with the detected specific scene is detected, and a plurality of reproduced moving image data is displayed. The detected specific scene is highlighted on a display unit, and the detected audio data is emitted as a sound from a speaker at the timing of highlighting the specific scene on the display unit.

本発明によれば、複数のオーディオビジュアルコンテンツデータの再生にて特定シーンをユーザに強調する電子機器およびシーン強調方法を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to provide the electronic device and scene enhancement method which emphasize a specific scene to a user by reproduction | regeneration of several audio visual content data.

以下、図面を参照して、本発明の実施形態を説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

まず、図1乃至図3を参照して、本発明の一実施形態に係る電子機器の構成を説明する。本実施形態の電子機器は、例えば、デジタルテレビ1として実現されている。   First, the configuration of an electronic apparatus according to an embodiment of the present invention will be described with reference to FIGS. The electronic device of the present embodiment is realized as, for example, the digital television 1.

図1は、デジタルテレビの一例を示す図である。   FIG. 1 is a diagram illustrating an example of a digital television.

デジタルテレビ1は、本体部20および本体部20を支えるスタンド部21とから構成される。   The digital television 1 includes a main body 20 and a stand 21 that supports the main body 20.

本体部20の前面にはLCD13が組み込まれている。LCD13にはオーディオビジュアルコンテンツデータに含まれる動画像データ等が表示される。   An LCD 13 is incorporated in the front surface of the main body 20. The LCD 13 displays moving image data included in the audiovisual content data.

さらに、本体部20はスピーカ17を内蔵する。スピーカ17は、デジタルテレビ1の前面の下部に位置するように設けられる。スピーカ17は、オーディオビジュアルコンテンツデータに含まれるオーディオデータを音として放出する。次に、デジタルテレビ1のハードウェア構成について説明する。   Further, the main body 20 has a built-in speaker 17. The speaker 17 is provided so as to be positioned at the lower part of the front surface of the digital television 1. The speaker 17 emits audio data included in the audiovisual content data as sound. Next, the hardware configuration of the digital television 1 will be described.

図2は、デジタルテレビ1のハードウェア構成の一例について説明した図である。   FIG. 2 is a diagram illustrating an example of the hardware configuration of the digital television 1.

チューナ12は、チューナ12に接続されるアンテナ12aを介してストリームデータであるデジタル放送番組データを受信する。例えばMPEG2(Moving Picture Experts Group 2)といったMPEG形式でエンコードされたストリームデータを受信する。   The tuner 12 receives digital broadcast program data that is stream data via an antenna 12 a connected to the tuner 12. For example, stream data encoded in MPEG format such as MPEG2 (Moving Picture Experts Group 2) is received.

映像・音声処理部11は、チューナ12を介して入力されたデジタル放送番組データを処理する。映像・音声処理部11は、動画像データおよびオーディオデータを含むオーディオビジュアルコンテンツデータであるデジタル放送番組データを、動画像データとオーディオデータとに分離処理を行い、分離処理することによって生成された夫々のデータに対してデコード処理を行い、さらに、デコード処理することで生成されたデータに対してレンダリング処理を行う。   The video / audio processing unit 11 processes the digital broadcast program data input via the tuner 12. The video / audio processing unit 11 separates the digital broadcast program data, which is audiovisual content data including moving image data and audio data, into moving image data and audio data, and each is generated by performing the separation processing. The decoding process is performed on the data, and the rendering process is performed on the data generated by the decoding process.

映像・音声処理部11は、レンダリング処理後の動画像データをLCD13に出力し、一方、レンダリング処理後のオーディオデータをスピーカ15に出力する。   The video / audio processing unit 11 outputs the moving image data after the rendering process to the LCD 13, while outputting the audio data after the rendering process to the speaker 15.

HDD14は、チューナ12によって受信されたデジタル放送番組データを記憶する。   The HDD 14 stores digital broadcast program data received by the tuner 12.

コントローラ10は、リモコン2から送信されるコマンドをデコードし、コマンド内容に応じて各制御を実行する。   The controller 10 decodes the command transmitted from the remote controller 2 and executes each control according to the content of the command.

また、コントローラ10は、後述にて詳細に説明するが、マルチ表示アプリケーションを起動する。起動されたマルチ表示アプリケーションは、映像・音声処理部11を用いて、動画像データおよびオーディオデータを処理する。このマルチ表示アプリケーションによって行われる処理については、後述にて詳細に説明する。次に、マルチ表示アプリケーションを実行して複数の動画像データをLCD13に表示する状態について説明する。   The controller 10 activates a multi-display application, which will be described in detail later. The activated multi-display application uses the video / audio processing unit 11 to process moving image data and audio data. Processing performed by the multi-display application will be described in detail later. Next, a state in which a multi-display application is executed to display a plurality of moving image data on the LCD 13 will be described.

図3は、マルチ表示アプリケーションを実行して複数の動画像データをLCD13に表示する状態について説明する図である。   FIG. 3 is a diagram for explaining a state in which a multi-display application is executed to display a plurality of moving image data on the LCD 13.

マルチ表示アプリケーションは、複数の動画像データを再生し、再生された複数の動画像データをLCD13に表示する機能を有する。   The multi-display application has a function of reproducing a plurality of moving image data and displaying the reproduced plurality of moving image data on the LCD 13.

図3に示すように、マルチ表示アプリケーションは、LCD13の画面領域を例えば8分割し、夫々の画面領域に、再生された動画像データmp1乃至動画像データmp8を表示する。   As shown in FIG. 3, the multi-display application divides the screen area of the LCD 13 into, for example, eight parts, and displays the reproduced moving image data mp1 to mp8 in each of the screen areas.

図3に示すように、マルチ表示アプリケーションを実行して、夫々の画面領域に、再生された動画像データmp1乃至動画像データmp8を表示する状態において、複数の動画像データの夫々に関連づけられている複数のオーディオデータを再生すると、複数の音が同時にスピーカ17から放出されることになる。   As shown in FIG. 3, in a state in which the multi-display application is executed and the reproduced moving image data mp1 to mp8 are displayed in the respective screen areas, they are associated with each of the plurality of moving image data. When a plurality of audio data is reproduced, a plurality of sounds are simultaneously emitted from the speaker 17.

そこで、マルチ表示アプリケーションは、夫々の画面領域に再生された動画像データmp1乃至動画像データmp8を表示する場合、通常、複数の動画像データの夫々に関連づけられている複数の音を同時にスピーカ17から放出しない。   Therefore, when the multi-display application displays the reproduced moving image data mp1 to mp8 in the respective screen areas, usually, a plurality of sounds associated with each of the plurality of moving image data are simultaneously displayed on the speaker 17. Does not release from.

次に、マルチ表示アプリケーションの有する機能の中で、複数の動画像データを再生・表示する場合に特定シーンをユーザに対してアピールする機能について説明する。   Next, among the functions of the multi-display application, a function for appealing a specific scene to the user when reproducing and displaying a plurality of moving image data will be described.

図4(a)は、特定シーンをユーザに対してアピールする方法の一つである特定シーンの強調表示を行うための設定について説明する流れ図である。また、図4(b)は、ユーザが強調表示方法を選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。   FIG. 4A is a flowchart for explaining setting for highlighting a specific scene, which is one of the methods for appealing the specific scene to the user. FIG. 4B is a diagram illustrating an example of a setting window displayed on the LCD 13 for the user to select a highlighting method.

ユーザが、特定シーンを強調表示させたい場合、ユーザはマルチ表示アプリケーションの設定機能を起動させることで、図4(b)に示される設定ウィンドウをLCD13に表示させ、ユーザはこのウィンドウに示されている複数の強調表示方法の中から一つの強調表示方法を選択する。   When the user wants to highlight a specific scene, the user activates the setting function of the multi-display application to display the setting window shown in FIG. 4B on the LCD 13, and the user is shown in this window. One highlighting method is selected from a plurality of highlighting methods.

マルチ表示アプリケーションが、図4(b)に示される設定ウィンドウを介してユーザによって"特定シーンを拡大表示"が指定されたことを認識した場合(ステップ S100 Yes)、マルチ表示アプリケーションは、特定シーンを拡大表示するように設定する(ステップ S101)。   When the multi-display application recognizes that the user has designated “enlarged display of specific scene” via the setting window shown in FIG. 4B (step S100 Yes), the multi-display application displays the specific scene. It sets so that it may enlarge and display (step S101).

マルチ表示アプリケーションが、"特定シーンを拡大表示"が指定されたことを認識しなかった場合(ステップ S100 No)、マルチ表示アプリケーションは、図4(b)に示される設定ウィンドウを介してユーザによって"特定シーンを点滅表示"が指定されたことを認識したか否かを判断し、"特定シーンを点滅表示"が指定されたと判断した場合(ステップ S102 Yes)、マルチ表示アプリケーションは、特定シーンを点滅表示するように設定する(ステップ S104)。   If the multi-display application does not recognize that “enlarged display of a specific scene” has been designated (No in step S100), the multi-display application can be read by the user via the setting window shown in FIG. It is determined whether or not it is recognized that “blink display of specific scene” is designated, and when it is determined that “blink display of specific scene” is designated (Yes in step S102), the multi-display application blinks the specific scene. It sets so that it may display (step S104).

マルチ表示アプリケーションが、"特定シーンを点滅表示"が指定されたことを認識しなかった場合(ステップ S102 No)、マルチ表示アプリケーションは、特定シーンを強調表示しないように設定する(ステップ S104)。   If the multi-display application does not recognize that “blink display of specific scene” has been designated (No in step S102), the multi-display application sets not to highlight the specific scene (step S104).

次に、複数の動画像データを再生する場合に強調表示されるシーンを特定するための設定例のうちの第一の実施例について説明する。   Next, a description will be given of a first example of setting examples for specifying a scene to be highlighted when reproducing a plurality of moving image data.

図5(a)は、強調表示されるシーンを特定するための設定例の一つである、顔画像に基づいてシーンを特定するための設定について説明する流れ図である。図5(b)は、顔画像に基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。図5(c)は、強調表示されるシーンの特定に用いられる顔画像をユーザが指定するためにLCD13に表示される設定ウィンドウの一例を示す図である。   FIG. 5A is a flowchart illustrating a setting for specifying a scene based on a face image, which is one of setting examples for specifying a highlighted scene. FIG. 5B is a diagram illustrating an example of a setting window displayed on the LCD 13 in order for the user to select whether or not to specify a scene based on a face image. FIG. 5C is a diagram showing an example of a setting window displayed on the LCD 13 in order for the user to specify a face image used for specifying a highlighted scene.

ユーザによって指定された顔画像が含まれるシーンを特定させたい場合、ユーザは、マルチ表示アプリケーションの設定機能を起動させることで、図5(b)に示される設定ウィンドウをLCD13に表示させ、ユーザによって指定された顔画像が含まれるシーンを特定するのか否かを選択する。   When it is desired to specify a scene including the face image designated by the user, the user activates the setting function of the multi-display application to display the setting window shown in FIG. It is selected whether or not the scene including the designated face image is specified.

"指定された顔画像が含まれるシーンを特定する"ことが図5(b)に示される設定ウィンドウを介してユーザによって指定されたことを、マルチ表示アプリケーションが認識した場合(ステップ S200 Yes)、マルチ表示アプリケーションは、指定された顔画像が含まれるシーンを特定するよう設定する(ステップ S201)。   When the multi-display application recognizes that “specifying a scene including the designated face image” is designated by the user via the setting window shown in FIG. 5B (Yes in step S200), The multi-display application is set to specify a scene including the designated face image (step S201).

マルチ表示アプリケーションが、指定された顔画像が含まれるシーンを特定するように設定すると、マルチ表示アプリケーションは、図5(c)に示される設定ウィンドウをLCD13に表示する(ステップ S202)。   When the multi-display application is set to specify a scene including the designated face image, the multi-display application displays a setting window shown in FIG. 5C on the LCD 13 (step S202).

マルチ表示アプリケーションは、ステップS202にてLCD13に表示された図5(c)に示される設定ウィンドウを介してユーザによって指定された顔画像を解析する(ステップ S203)。顔画像の解析の一例として、例えば、"目"、"鼻"、"口"といった顔の特徴部分を抽出する。マルチ表示アプリケーションは、ステップS203にて解析した結果を用いて、顔画像が含まれるシーンを特定する。   The multi-display application analyzes the face image designated by the user via the setting window shown in FIG. 5C displayed on the LCD 13 in step S202 (step S203). As an example of analysis of a face image, for example, facial features such as “eyes”, “nose”, and “mouth” are extracted. The multi-display application specifies a scene including the face image using the result analyzed in step S203.

次に、図4を用いて説明した特定シーンの強調表示方法を選択する設定、および、図5を用いて説明した顔画像に基づくシーンを特定するための設定を終えた状態にてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する。ここで、図4を用いて説明した特定シーンの強調表示方法の選択設定にて拡大表示が選択された場合について説明する。   Next, the multi-display application in a state where the setting for selecting the highlighting method for the specific scene described with reference to FIG. 4 and the setting for specifying the scene based on the face image described with reference to FIG. An example of a reproduction process of a plurality of audiovisual content data performed by will be described. Here, a case where enlarged display is selected in the selection setting of the highlighting method for the specific scene described with reference to FIG. 4 will be described.

図6は、図4および図5を用いて説明した設定を終えた状態にてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図である。   FIG. 6 is a flowchart illustrating an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 5 is completed.

以下の説明では、HDD14に予め記憶されている例えばデジタル放送番組データといったオーディオビジュアルコンテンツデータをマルチ表示アプリケーションが複数に分割することで複数のオーディオビジュアルコンテンツデータを生成し、この生成された複数のオーディオビジュアルコンテンツデータの夫々を再生した場合を説明する。   In the following description, audio display content data such as digital broadcast program data stored in advance in the HDD 14 is divided into a plurality of multi-display applications, thereby generating a plurality of audiovisual content data. A case where each of the visual content data is reproduced will be described.

マルチ表示アプリケーションは、映像・音声処理部11を用いて、複数のオーディオビジュアルコンテンツデータの夫々のデータを再生する(ステップ S300)。   The multi-display application reproduces each data of the plurality of audiovisual content data using the video / audio processing unit 11 (step S300).

マルチ表示アプリケーションは、再生された複数のオーディオビジュアルコンテンツデータの中の動画像データ中にユーザによって指定された顔画像が含まれているか否かを判断する(ステップ S301)。   The multi-display application determines whether or not the face image specified by the user is included in the moving image data in the reproduced plurality of audiovisual content data (step S301).

マルチ表示アプリケーションが、再生された動画像データ中にユーザによって指定された顔画像が含まれていると判断した場合(ステップ S301 Yes)、再生された動画像データ中の顔画像が含まれているシーンを特定する(ステップ S302)。   When the multi-display application determines that the reproduced moving image data includes the face image designated by the user (Yes in step S301), the reproduced moving image data includes the face image. A scene is specified (step S302).

マルチ表示アプリケーションは、ステップS302にて特定したシーンをLCD13に拡大表示する(ステップ S303)。   The multi-display application enlarges and displays the scene specified in step S302 on the LCD 13 (step S303).

ステップS303にて、特定したシーンをLCD13に拡大表示する際、マルチ表示アプリケーションは、特定したシーンに関連付けられている再生されたオーディオデータを検出し、この検出されたオーディオデータをスピーカ15から音として放出する(ステップ S304)。   In step S303, when the specified scene is enlarged and displayed on the LCD 13, the multi-display application detects reproduced audio data associated with the specified scene, and uses the detected audio data as sound from the speaker 15. Release (step S304).

マルチ表示アプリケーションがステップS303およびステップS304にて実行する、特定シーンの拡大表示、および特定シーンに関連付けられている音の放出する状態について図7に示す。   FIG. 7 shows an enlarged display of a specific scene and a state in which a sound associated with the specific scene is emitted, which is executed by the multi-display application in steps S303 and S304.

このように、マルチ表示アプリケーションが、ユーザによって指定された顔画像が含まれている特定シーンをLCD13に拡大表示するとともに、特定シーンに関連づけられているオーディオデータを音としてスピーカ15から放出することで、ユーザは、LCD13に表示されている複数の動画像データの中で、自分が指定した顔画像が含まれているシーンを容易に見ることが可能となるとともに、そのシーンに関連付けられている音を聴くことが可能となる。   As described above, the multi-display application enlarges and displays the specific scene including the face image designated by the user on the LCD 13 and releases the audio data associated with the specific scene from the speaker 15 as a sound. The user can easily view the scene including the face image designated by the user among the plurality of moving image data displayed on the LCD 13 and the sound associated with the scene. Can be heard.

次に、複数の動画像データを再生する場合に強調表示されるシーンを特定するための設定例のうちの第二の実施例について説明する。   Next, a second embodiment of setting examples for specifying a scene to be highlighted when reproducing a plurality of moving image data will be described.

図8(a)は、強調表示されるシーンについて特定するための設定例の一つである、音の大きさに基づいてシーンを特定するための設定について説明する流れ図である。図8(b)は、音の大きさに基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。   FIG. 8A is a flowchart for explaining setting for specifying a scene based on sound volume, which is one of setting examples for specifying a highlighted scene. FIG. 8B is a diagram showing an example of a setting window displayed on the LCD 13 for the user to select whether or not to specify a scene based on the volume of sound.

音の大きさに基づいてシーンを特定させたい場合、ユーザは、マルチ表示アプリケーションの設定機能を起動させることで、図8(b)に示される設定ウィンドウをLCD13に表示させ、音の大きさに基づいてシーンを特定するのか否かを選択する。   When the user wants to specify a scene based on the volume of sound, the user activates the setting function of the multi-display application to display the setting window shown in FIG. Based on this, it is selected whether or not to specify a scene.

"音の大きさに基づいてシーンを特定する"ことが図8(b)に示される設定ウィンドウを介してユーザによって指定されたことを、マルチ表示アプリケーションが認識した場合(ステップ S400 Yes)、マルチ表示アプリケーションは、音の大きさに基づいてシーンを特定するよう設定する(ステップ S401)。   When the multi-display application recognizes that “specify the scene based on the volume of sound” is designated by the user via the setting window shown in FIG. 8B (Yes in step S400), The display application is set to specify the scene based on the volume of the sound (step S401).

次に、図4を用いて説明した特定シーンの強調表示方法を選択する設定、および図8を用いて説明した音の大きさに基づいてシーンを特定するための設定を終えた状態にて、マルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する。ここでは、図4を用いて説明した特定シーンの強調表示方法の選択設定にて拡大表示が選択設定された場合について説明する。   Next, in the state where the setting for selecting the highlighting method for the specific scene described with reference to FIG. 4 and the setting for specifying the scene based on the sound volume described with reference to FIG. An example of reproduction processing of a plurality of audiovisual content data performed by the multi-display application will be described. Here, a case will be described in which enlarged display is selected and set in the selection setting of the highlighting method for the specific scene described with reference to FIG.

図9は、図4および図8を用いて説明した設定を終えた状態においてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図である。   FIG. 9 is a flowchart illustrating an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 8 is completed.

以下の説明は、HDD14に予め記憶されている例えばデジタル放送番組データといったオーディオビジュアルコンテンツデータをマルチ表示アプリケーションが複数に分割することで複数のオーディオビジュアルコンテンツデータを生成し、この生成された複数のオーディオビジュアルコンテンツデータの夫々を再生した場合を説明する。   In the following description, a plurality of audiovisual content data is generated by a multi-display application dividing audiovisual content data such as digital broadcast program data stored in advance in the HDD 14 into a plurality of pieces, and the plurality of generated audiovisual contents data is generated. A case where each of the visual content data is reproduced will be described.

マルチ表示アプリケーションは、映像・音声処理部11を用いて、複数のオーディオビジュアルコンテンツデータの夫々を再生する(ステップ S500)。   The multi-display application reproduces each of the plurality of audiovisual content data using the video / audio processing unit 11 (step S500).

マルチ表示アプリケーションは、再生された複数のオーディオビジュアルコンテンツデータの中のオーディオデータが所定の閾値よりも大きいか否かを判断する(ステップ S501)。   The multi-display application determines whether or not the audio data in the reproduced plurality of audiovisual content data is larger than a predetermined threshold value (step S501).

マルチ表示アプリケーションが、再生されたオーディオデータが所定の閾値よりも大きいと判断した場合(ステップ S501 Yes)、動画像データの中から、所定の閾値よりも大きいと判断されたオーディオデータと関連付けられているシーンを特定する(ステップ S502)。   When the multi-display application determines that the reproduced audio data is larger than the predetermined threshold (Yes in step S501), the multi-display application is associated with the audio data determined to be larger than the predetermined threshold from the moving image data. A scene is identified (step S502).

マルチ表示アプリケーションは、ステップS502にて特定したシーンをLCD13に拡大表示する(ステップ S503)。   The multi-display application enlarges and displays the scene specified in step S502 on the LCD 13 (step S503).

ステップS503にて、特定したシーンをLCD13に拡大表示する際、マルチ表示アプリケーションは、特定したシーンに関連付けられているオーディオデータ、すなわち、所定の閾値よりも大きい値を有するデータと判断されたオーディオデータをスピーカ15から音として放出する(ステップ S504)。   In step S503, when the specified scene is enlarged and displayed on the LCD 13, the multi-display application determines that the audio data associated with the specified scene, that is, audio data determined as data having a value larger than a predetermined threshold value. Is emitted as a sound from the speaker 15 (step S504).

マルチ表示アプリケーションがステップS503およびステップS504にて実行する、特定シーンの拡大表示、および特定シーンに関連付けられている音の放出の状態については、図10に示す。   The enlarged display of the specific scene and the sound emission state associated with the specific scene executed by the multi-display application in steps S503 and S504 are shown in FIG.

このように、マルチ表示アプリケーションが、特定されたシーンをLCD13に拡大表示するとともに、特定シーンに関連づけられているオーディオデータをスピーカ15から音として放出することで、ユーザは、LCD13に表示されている複数の動画像データの中で、所定の閾値よりも大きい値の音の大きさを有するシーン、例えば、歓声の大きさが大きいシーン等を容易に見ることが可能となり、さらに、そのシーンに関連付けられている音を聴くことが可能となる。   In this way, the multi-display application enlarges and displays the specified scene on the LCD 13 and releases the audio data associated with the specific scene as a sound from the speaker 15, so that the user is displayed on the LCD 13. Among a plurality of moving image data, it is possible to easily see a scene having a loudness value larger than a predetermined threshold value, for example, a scene with a loud cheering level, and to associate with the scene. It is possible to listen to the sound being played.

次に、複数の動画像データを再生している状態において強調表示されるシーンを特定するための設定例のうちの第三の実施例について説明する。   Next, a description will be given of a third embodiment of setting examples for specifying a scene to be highlighted in a state where a plurality of moving image data is being reproduced.

図11(a)は、強調表示されるシーンについての特定方法の一つである、単語に基づくシーンを特定するための設定について説明する流れ図である。図11(b)は、単語に基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図である。図11(c)は、強調表示されるシーンの特定に用いられる単語をユーザが指定するためにLCD13に表示される設定ウィンドウの一例を示す図である。   FIG. 11A is a flowchart for explaining setting for specifying a scene based on a word, which is one of methods for specifying a highlighted scene. FIG. 11B is a diagram showing an example of a setting window displayed on the LCD 13 for the user to select whether or not to specify a scene based on a word. FIG. 11C is a diagram showing an example of a setting window displayed on the LCD 13 for the user to specify a word used for specifying a highlighted scene.

単語に基づいてシーンを特定させたい場合、ユーザは、マルチ表示アプリケーションの設定機能を起動させることで、図11(b)に示される設定ウィンドウをLCD13に表示させ、ユーザによって指定された単語に基づいてシーンを特定するのか否かを選択する。   When the user wants to specify a scene based on a word, the user activates the setting function of the multi-display application to display the setting window shown in FIG. 11B on the LCD 13 and based on the word specified by the user. Select whether or not to specify the scene.

"単語に基づいてシーンを特定する"ことが図11(b)に示される設定ウィンドウを介してユーザによって指定されたことを、マルチ表示アプリケーションが認識した場合(ステップ S600 Yes)、マルチ表示アプリケーションは、ユーザによって指定された単語に基づいてシーンを特定するよう設定する(ステップ S601)。   When the multi-display application recognizes that “specify the scene based on the word” is designated by the user via the setting window shown in FIG. 11B (Yes in step S600), the multi-display application The scene is set to be specified based on the word designated by the user (step S601).

マルチ表示アプリケーションが、ユーザによって指定された単語に基づいてシーンを特定するように設定すると、マルチ表示アプリケーションは、図11(c)に示される設定ウィンドウをLCD13に表示する(ステップ S602)。   When the multi-display application is set to specify a scene based on a word designated by the user, the multi-display application displays a setting window shown in FIG. 11C on the LCD 13 (step S602).

図11(c)に示される設定ウィンドウを介してユーザによって単語が指定されたことを、マルチ表示アプリケーションが認識すると、マルチ表示アプリケーションは、シーンを特定するために用いられる単語を設定する(ステップ S603)。   When the multi-display application recognizes that a word has been designated by the user via the setting window shown in FIG. 11C, the multi-display application sets a word used for specifying a scene (step S603). ).

次に、図4を用いて説明した特定シーンの強調表示方法を選択する設定、および図11を用いて説明したユーザによって指定された単語に基づいてシーンを特定するための設定を終えた状態において、マルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する。ここでは、図4を用いて説明した特定シーンの強調表示方法の選択設定にて拡大表示が選択設定された場合について説明する。   Next, in the state where the setting for selecting the highlighting method for the specific scene described with reference to FIG. 4 and the setting for specifying the scene based on the word specified by the user described with reference to FIG. 11 are completed. An example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application will be described. Here, a case will be described in which enlarged display is selected and set in the selection setting of the highlighting method for the specific scene described with reference to FIG.

図12は、図4および図11を用いて説明した設定を終えた状態においてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図である。   FIG. 12 is a flowchart illustrating an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 11 is completed.

以下の説明は、HDD14に予め記憶されている例えばデジタル放送番組データといったオーディオビジュアルコンテンツデータをマルチ表示アプリケーションが複数に分割することで複数のオーディオビジュアルコンテンツデータを生成し、この生成された複数のオーディオビジュアルコンテンツデータの夫々を再生した場合を説明する。   In the following description, a plurality of audiovisual content data is generated by a multi-display application dividing audiovisual content data such as digital broadcast program data stored in advance in the HDD 14 into a plurality of pieces, and the plurality of generated audiovisual contents data is generated. A case where each of the visual content data is reproduced will be described.

マルチ表示アプリケーションは、映像・音声処理部11を用いて、複数のオーディオビジュアルコンテンツデータの夫々を再生する(ステップ S700)。   The multi-display application reproduces each of the plurality of audiovisual content data using the video / audio processing unit 11 (step S700).

マルチ表示アプリケーションは、再生された複数のオーディオビジュアルコンテンツデータの中のオーディオデータにユーザによって指定された単語が含まれているか否かを判断する(ステップ S701)。   The multi-display application determines whether or not the word specified by the user is included in the audio data in the reproduced plurality of audiovisual content data (step S701).

マルチ表示アプリケーションが、再生されたオーディオデータにユーザによって指定された単語が含まれていると判断した場合(ステップ S701 Yes)、指定された単語が含まれているオーディオデータと関連付けられている動画像データ中のシーンを特定する(ステップ S702)。   If the multi-display application determines that the reproduced audio data includes the word specified by the user (Yes in step S701), the moving image associated with the audio data including the specified word A scene in the data is specified (step S702).

マルチ表示アプリケーションは、ステップS702にて特定したシーンをLCD13に拡大表示する(ステップ S703)。   The multi-display application enlarges and displays the scene specified in step S702 on the LCD 13 (step S703).

ステップS703にて、特定したシーンをLCD13に拡大表示する際、マルチ表示アプリケーションは、特定したシーンに関連付けられているオーディオデータ、すなわち、ユーザによって指定された単語が含まれているオーディオデータをスピーカ15から音として放出する(ステップ S704)。   In step S703, when the specified scene is enlarged and displayed on the LCD 13, the multi-display application displays the audio data associated with the specified scene, that is, the audio data including the word specified by the user. Is emitted as sound (step S704).

マルチ表示アプリケーションがステップS703およびステップS704にて実行する、特定シーンの拡大表示、および特定シーンに関連付けられている音の放出については、図13に示す。   The enlarged display of the specific scene and the release of the sound associated with the specific scene executed by the multi-display application in steps S703 and S704 are shown in FIG.

このように、マルチ表示アプリケーションが、特定されたシーンをLCD13に拡大表示するとともに、特定シーンに関連づけられているオーディオデータをスピーカ15から音として放出することで、ユーザは、LCD13に表示されている複数の動画像データの中で、ユーザによって指定された単語が含まれるオーディオデータと関連付けられるシーンを容易に見ることが可能となり、さらに、そのシーンに関連付けられている音を聴くことが可能となる。   In this way, the multi-display application enlarges and displays the specified scene on the LCD 13 and releases the audio data associated with the specific scene as a sound from the speaker 15, so that the user is displayed on the LCD 13. Among a plurality of moving image data, a scene associated with audio data including a word specified by the user can be easily viewed, and further, a sound associated with the scene can be heard. .

上述の実施形態では、特定シーンを強調表示する例を説明したが、これに限ること無く、特定シーンのサイズ可変表示(数秒〜数マイクロ秒おきに、対象とする特定シーンの表示サイズを交互に変えて表示する)、特定シーン以外の動画像データが表示されるLCD13の画面部分の輝度を下げる表示といった表示方法を用いて、特定シーンを強調表示してもよい。   In the above-described embodiment, an example in which a specific scene is highlighted is described. However, the present invention is not limited to this. The specific scene may be highlighted using a display method such as a display that reduces the brightness of the screen portion of the LCD 13 on which moving image data other than the specific scene is displayed.

また、上述の実施形態では、HDD14に記憶されているオーディオビジュアルコンテンツデータを複数のデータに分割して、再生された複数のデータを分割されたLCD13の画面に表示する構成を説明した。この構成は、オーディオビジュアルコンテンツデータの閲覧時間を縮小できる、といったメリットがある。しかしながら、この構成に限ることは無く、例えば、デジタルテレビ1に複数のチューナを搭載し、これら複数のチューナにて受信したオーディオビジュアルコンテンツデータを再生して、分割されたLCD13の画面に表示する構成であってもよい。   Further, in the above-described embodiment, the configuration has been described in which the audiovisual content data stored in the HDD 14 is divided into a plurality of data and the reproduced plurality of data is displayed on the divided LCD 13 screen. This configuration has an advantage that the browsing time of the audiovisual content data can be reduced. However, the present invention is not limited to this configuration. For example, a configuration in which a plurality of tuners are mounted on the digital television 1, and audio visual content data received by the plurality of tuners is reproduced and displayed on the screen of the divided LCD 13 is displayed. It may be.

また、上述の実施形態では、ユーザによって強調表示されるシーンを特定するための設定を行う構成を説明したが、この構成に限ることは無く、例えば、ユーザが選択したオーディオビジュアルコンテンツデータの種類、内容等に応じて、マルチ表示アプリケーションが強調表示されるシーンを特定するための設定を自動的に行う構成であってもよい。   In the above-described embodiment, the configuration for performing the setting for specifying the scene highlighted by the user has been described. However, the configuration is not limited to this configuration. For example, the type of audiovisual content data selected by the user, Depending on the contents and the like, the configuration may be such that the setting for specifying the scene in which the multi-display application is highlighted is automatically performed.

また、上述の実施形態にて特定のシーンを強調表示する構成について説明したが、この強調表示されるシーンをLCD13の全画面に表示したい場合、ユーザがリモコン2を用いてデジタルテレビ1に、強調表示されているシーンを全画面表示するためのコマンドを送信し、このコマンドに基づいてマルチ表示アプリケーションが強調表示されるシーンをLCD13に全画面表示する構成であってもよい。   Further, the configuration for highlighting a specific scene has been described in the above-described embodiment. However, when the scene to be highlighted is to be displayed on the entire screen of the LCD 13, the user highlights the digital television 1 using the remote controller 2. A configuration may be used in which a command for displaying the displayed scene on the full screen is transmitted, and the scene on which the multi-display application is highlighted based on the command is displayed on the LCD 13 on the full screen.

さらに、デジタルテレビ1に複数のチューナを搭載し、これら複数のチューナにて受信したオーディオビジュアルコンテンツデータを再生して分割されたLCD13の画面に表示させ、強調表示されるシーンをLCD13の全画面に表示させる場合、強調表示されるシーン以外のチューナにて受信されたオーディオビジュアルコンテンツデータをHDD14に自動的に記憶させる構成であってもよい。   Furthermore, a plurality of tuners are mounted on the digital television 1, audio visual content data received by the plurality of tuners is reproduced and displayed on the divided LCD 13 screen, and the highlighted scene is displayed on the entire LCD 13 screen. When displaying, the audio visual content data received by the tuner other than the highlighted scene may be automatically stored in the HDD 14.

また、上述の実施形態において、特定のシーンを強調表示するための設定について、ユーザによる顔画像の指定、単語の指定といった構成を説明したが、これらユーザによる指定操作をリモコン2を用いて行う構成であってよい。   In the above-described embodiment, the configuration for highlighting a specific scene has been described with respect to a configuration such as designation of a face image by a user and designation of a word. Configuration in which these user designation operations are performed using the remote controller 2 It may be.

また、上述の実施形態では、オーディオデータから単語を抽出する例について説明したが、この構成に限ることは無く、例えば、オーディオビジュアルコンテンツデータに含まれるテロップデータから単語を抽出する構成であってもよい。   In the above-described embodiment, an example of extracting a word from audio data has been described. However, the present invention is not limited to this configuration. For example, a configuration in which a word is extracted from telop data included in audiovisual content data is also possible. Good.

また、拡大表示や点滅表示のように、強調表示された動画を視聴する場合、視聴対象となっていない動画については、タイムシフト録画のような機能を用いて、見逃しを避ける構成であってもよい。   In addition, when watching a highlighted video such as enlarged display or blinking display, a video that is not the target of viewing may be configured to avoid overlooking by using a function such as time-shift recording. Good.

本発明は上記実施形態をそのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示されている全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   The present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of components disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

本発明の一実施形態に係る電子機器の概観の例を示す斜視図。The perspective view which shows the example of the external appearance of the electronic device which concerns on one Embodiment of this invention. 同実施形態の電子機器のシステム構成の例を示すブロック図。2 is an exemplary block diagram showing an example of the system configuration of the electronic apparatus of the embodiment. FIG. マルチ表示アプリケーションを実行して複数の動画像データをLCD13に表示する状態について説明する図。The figure explaining the state which performs a multi-display application and displays several moving image data on LCD13. 図4(a)は、特定シーンをユーザに対してアピールする方法の一つである特定シーンの強調表示を行うための設定について説明する流れ図。また、図4(b)は、ユーザが強調表示方法を選択するためにLCD13に表示される設定ウィンドウの一例を示す図。FIG. 4A is a flowchart for explaining setting for highlighting a specific scene, which is one of the methods for appealing the specific scene to the user. FIG. 4B is a diagram showing an example of a setting window displayed on the LCD 13 for the user to select a highlighting method. 図5(a)は、強調表示されるシーンを特定するための設定例の一つである、顔画像に基づいてシーンを特定するための設定について説明する流れ図。図5(b)は、ユーザが顔画像に基づいてシーンを特定するか否かを選択するためにLCD13に表示される設定ウィンドウの一例を示す図。図5(c)は、強調表示されるシーンの特定に用いられる顔画像をユーザが指定するためにLCD13に表示される設定ウィンドウの一例を示す図。FIG. 5A is a flowchart illustrating a setting for specifying a scene based on a face image, which is one of setting examples for specifying a highlighted scene. FIG. 5B is a diagram showing an example of a setting window displayed on the LCD 13 in order to select whether or not the user specifies a scene based on a face image. FIG. 5C is a diagram showing an example of a setting window displayed on the LCD 13 for the user to specify a face image used for specifying a highlighted scene. 図4および図5を用いて説明した設定を終えた状態にてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図。6 is a flowchart for explaining an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 5 is completed. 特定シーンの拡大表示、および特定シーンに関連付けられている音の放出する状態を示す図。The figure which shows the state which expands and displays the enlarged display of a specific scene, and the sound linked | related with a specific scene. 図8(a)は、強調表示されるシーンについての特定するための設定例の一つである、音の大きさに基づいてシーンを特定するための設定について説明する流れ図。図8(b)は、音の大きさに基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図。FIG. 8A is a flowchart for explaining setting for specifying a scene based on sound volume, which is one of setting examples for specifying a highlighted scene. FIG. 8B shows an example of a setting window displayed on the LCD 13 for the user to select whether or not to specify a scene based on the volume of sound. 図4および図8を用いて説明した設定を終えた状態においてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図。FIG. 9 is a flowchart for explaining an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 8 is completed. 特定シーンの拡大表示、および特定シーンに関連付けられている音の放出する状態を示す図。The figure which shows the state which expands and displays the enlarged display of a specific scene, and the sound linked | related with a specific scene. 図11(a)は、強調表示されるシーンについての特定方法の一つである、単語に基づくシーンを特定するための設定について説明する流れ図。図11(b)は、単語に基づいてシーンを特定するか否かをユーザが選択するためにLCD13に表示される設定ウィンドウの一例を示す図。図11(c)は、強調表示されるシーンの特定に用いられる単語をユーザが指定するためにLCD13に表示される設定ウィンドウの一例を示す図。FIG. 11A is a flowchart for explaining setting for specifying a scene based on a word, which is one of methods for specifying a highlighted scene. FIG. 11B is a diagram showing an example of a setting window displayed on the LCD 13 for the user to select whether or not to specify a scene based on a word. FIG. 11C is a diagram showing an example of a setting window displayed on the LCD 13 for the user to specify a word used for specifying a highlighted scene. 図4および図11を用いて説明した設定を終えた状態においてマルチ表示アプリケーションが行う複数のオーディオビジュアルコンテンツデータの再生処理の一例について説明する流れ図。12 is a flowchart for explaining an example of a reproduction process of a plurality of audiovisual content data performed by the multi-display application in a state where the setting described with reference to FIGS. 4 and 11 is completed. 特定シーンの拡大表示、および特定シーンに関連付けられている音の放出する状態を示す図。The figure which shows the state which expands and displays the enlarged display of a specific scene, and the sound linked | related with a specific scene.

符号の説明Explanation of symbols

1…デジタルテレビ、11…映像・音声処理部、12…チューナ、
13…LCD、14…HDD、17…スピーカ、20…本体部、
21…スタンド部、
1 ... digital television, 11 ... video / audio processor, 12 ... tuner,
13 ... LCD, 14 ... HDD, 17 ... speaker, 20 ... main body,
21 ... Stand part

Claims (18)

動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器において、
再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記再生された複数のオーディオビジュアルコンテンツデータに含まれるオーディオデータの中から前記検出された特定シーンと関連付けられているオーディオデータを検出する検出手段と、
再生された複数の動画像データを表示する場合に、前記検出手段によって検出された前記特定シーンを強調表示する表示部と、
前記表示部に前記特定シーンを強調表示するときに、前記検出手段によって検出されたオーディオデータを音として放出するスピーカと、
を具備することを特徴とする電子機器。
In an electronic device capable of reproducing audiovisual content data including moving image data and audio data,
A specific scene is detected based on a predetermined condition from moving image data included in a plurality of reproduced audiovisual content data, and the audio data included in the reproduced plurality of audiovisual content data Detecting means for detecting audio data associated with the detected specific scene;
A display unit for highlighting the specific scene detected by the detection unit when displaying a plurality of reproduced moving image data;
A speaker that emits audio data detected by the detection means as sound when highlighting the specific scene on the display unit;
An electronic device comprising:
前記所定の条件は、ユーザによって指定された顔画像であることを特徴とする請求項1記載の電子機器。 The electronic device according to claim 1, wherein the predetermined condition is a face image designated by a user. 前記所定の条件は、音の大きさであることを特徴とする請求項1記載の電子機器。 The electronic device according to claim 1, wherein the predetermined condition is a loudness. 前記所定の条件は、ユーザによって指定された単語であることを特徴とする請求項1記載の電子機器。 The electronic device according to claim 1, wherein the predetermined condition is a word designated by a user. 前記強調表示は、拡大表示であることを特徴とする請求項1記載の電子機器。 The electronic device according to claim 1, wherein the highlighted display is an enlarged display. 前記強調表示は、点滅表示であることを特徴とする請求項1記載の電子機器。 The electronic device according to claim 1, wherein the highlighted display is a blinking display. 動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器において、
再生されたオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出する検出手段と、
前記検出手段によって検出された前記特定シーンと関連付けられたオーディオデータを検出する第2の検出手段と、
表示部に複数画面に区分けして夫々の画面に再生された複数の動画像データを表示する状態にて、前記検出手段によって検出された前記特定シーンを強調表示する強調表示手段と、
前記表示部に前記特定シーンを強調表示するタイミングで、前記第2の検出手段によって検出されたオーディオデータを音として放出するスピーカと、
を具備することを特徴とする電子機器。
In an electronic device capable of reproducing audiovisual content data including moving image data and audio data,
Detecting means for detecting a specific scene based on a predetermined condition from moving image data included in the reproduced audiovisual content data;
Second detection means for detecting audio data associated with the specific scene detected by the detection means;
Highlighting means for highlighting the specific scene detected by the detecting means in a state where a plurality of moving image data reproduced on each screen is displayed on a screen divided into a plurality of screens,
A speaker that emits audio data detected by the second detection means as sound at the timing of highlighting the specific scene on the display;
An electronic device comprising:
前記所定の条件は、ユーザによって指定された顔画像であることを特徴とする請求項7記載の電子機器。 The electronic apparatus according to claim 7, wherein the predetermined condition is a face image designated by a user. 前記所定の条件は、音の大きさであることを特徴とする請求項7記載の電子機器。 The electronic apparatus according to claim 7, wherein the predetermined condition is a loudness. 前記所定の条件は、ユーザによって指定された単語であることを特徴とする請求項7記載の電子機器。 The electronic device according to claim 7, wherein the predetermined condition is a word designated by a user. 前記強調表示は、拡大表示であることを特徴とする請求項7記載の電子機器。 The electronic device according to claim 7, wherein the highlighted display is an enlarged display. 前記強調表示は、点滅表示であることを特徴とする請求項7記載の電子機器。 The electronic device according to claim 7, wherein the highlighted display is a blinking display. 動画像データとオーディオデータを含むオーディオビジュアルコンテンツデータを再生可能な電子機器におけるシーン強調方法において、
再生された複数のオーディオビジュアルコンテンツデータに含まれる動画像データの中から所定の条件に基づいて特定シーンを検出するとともに、前記検出された前記特定シーンと関連付けられたオーディオデータを検出し、
再生された複数の動画像データを表示する状態にて、前記検出された前記特定シーンを表示部に強調表示し、
前記表示部に前記特定シーンを強調表示するタイミングで、前記検出されたオーディオデータを音としてスピーカから放出するシーン強調方法。
In a scene enhancement method in an electronic device capable of reproducing audiovisual content data including moving image data and audio data,
Detecting a specific scene based on a predetermined condition from moving image data included in a plurality of reproduced audiovisual content data, and detecting audio data associated with the detected specific scene;
In a state of displaying a plurality of reproduced moving image data, the detected specific scene is highlighted on a display unit,
A scene enhancement method for emitting the detected audio data as a sound from a speaker at a timing for highlighting the specific scene on the display unit.
前記所定の条件は、ユーザによって指定された顔画像であることを特徴とする請求項13記載のシーン強調方法。 The scene enhancement method according to claim 13, wherein the predetermined condition is a face image designated by a user. 前記所定の条件は、音の大きさであることを特徴とする請求項13記載のシーン強調方法。 The scene enhancement method according to claim 13, wherein the predetermined condition is a loudness. 前記所定の条件は、ユーザによって指定された単語であることを特徴とする請求項13記載のシーン強調方法。 14. The scene enhancement method according to claim 13, wherein the predetermined condition is a word designated by a user. 前記強調表示は、拡大表示であることを特徴とする請求項13記載のシーン強調方法。 14. The scene emphasizing method according to claim 13, wherein the emphasis display is an enlarged display. 前記強調表示は、点滅表示であることを特徴とする請求項13記載のシーン強調方法。 14. The scene emphasizing method according to claim 13, wherein the emphasis display is a blinking display.
JP2008101595A 2008-04-09 2008-04-09 Electronic device, and scene enhancement method Pending JP2009253825A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008101595A JP2009253825A (en) 2008-04-09 2008-04-09 Electronic device, and scene enhancement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008101595A JP2009253825A (en) 2008-04-09 2008-04-09 Electronic device, and scene enhancement method

Publications (1)

Publication Number Publication Date
JP2009253825A true JP2009253825A (en) 2009-10-29

Family

ID=41314023

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008101595A Pending JP2009253825A (en) 2008-04-09 2008-04-09 Electronic device, and scene enhancement method

Country Status (1)

Country Link
JP (1) JP2009253825A (en)

Similar Documents

Publication Publication Date Title
JP4331240B2 (en) Electronic apparatus and image display method
JP4170808B2 (en) Information display device, information display method, and program
KR101224393B1 (en) Video playback apparatus and method of controlling the same
US8396351B2 (en) Information processing apparatus, information processing method, information processing program and imaging apparatus
JP2011211481A (en) Video/audio player
EP3468171B1 (en) Display apparatus and recording medium
JP2010206265A (en) Device and method for controlling sound, data structure of stream, and stream generator
JP2007336593A (en) Information display, information displaying method and program
JP2006005418A (en) Apparatus, method, and program for receiving/reproducing information, and program recording medium
JP2006211488A (en) Video reproducing apparatus
US9905245B2 (en) Electronic device and control method
JP6803463B2 (en) Display device and its control method
JP2007295100A (en) Television receiver
JP5039020B2 (en) Electronic device and video content information display method
KR20160093404A (en) Method and Apparatus for Multimedia Contents Service with Character Selective Audio Zoom In
US8627400B2 (en) Moving image reproducing apparatus and control method of moving image reproducing apparatus
JP2009253825A (en) Electronic device, and scene enhancement method
JP5213630B2 (en) Video signal playback device
JP2009094966A (en) Reproducing device, reproduction method, and reproduction control program
JP5037060B2 (en) Sub-screen display device
JP4539884B2 (en) Reproducing apparatus, program, and method for constructing electronic screen
WO2016042765A1 (en) Video audio processing device, video audio processing method, and program
JP5137864B2 (en) Playback apparatus, control method thereof, and program
JP2007124583A (en) Personal computer and program for controlling personal computer
JP4264028B2 (en) Summary program generation device and summary program generation program