JP2013073392A - Display control device, display control program, and display control method - Google Patents
Display control device, display control program, and display control method Download PDFInfo
- Publication number
- JP2013073392A JP2013073392A JP2011211468A JP2011211468A JP2013073392A JP 2013073392 A JP2013073392 A JP 2013073392A JP 2011211468 A JP2011211468 A JP 2011211468A JP 2011211468 A JP2011211468 A JP 2011211468A JP 2013073392 A JP2013073392 A JP 2013073392A
- Authority
- JP
- Japan
- Prior art keywords
- image
- frame
- person
- information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、表示制御装置等に関する。 The present invention relates to a display control device and the like.
テレビ番組の視聴者は、視聴画面内の出演者に関する情報を知りたい場合がある。かかる場合に、視聴画面内の対象とする人物における顔がカーソル表示によって囲われたとき、囲われた顔の画像データ内の人物を人物情報テーブルに基づいて特定し、特定した人物についての人物情報を人物情報テーブルから抽出して表示する技術がある。人物情報テーブルには、複数の人物についての人物特定情報および人物情報があらかじめ記憶されている。これにより、視聴者は、知りたい出演者に関する人物情報を知ることができる。 A viewer of a television program may want to know information about performers in the viewing screen. In such a case, when the face of the target person in the viewing screen is enclosed by the cursor display, the person in the image data of the enclosed face is specified based on the person information table, and the person information about the specified person Is extracted from the person information table and displayed. In the person information table, person specifying information and person information for a plurality of persons are stored in advance. Thereby, the viewer can know the personal information regarding the performer who wants to know.
また、テレビ番組を再生するビデオプレイヤでは、アクションが定義された表示オブジェクトを含む動画データに基づいて動画を再生表示する技術がある。かかる技術では、ビデオプレイヤは、再生表示されている動画に含まれる表示オブジェクトの選択を視聴者から受け付けると、選択を受け付けた表示オブジェクトに定義された説明情報を自動的に表示する。これにより、視聴者は、選択を受け付けた表示オブジェクト内の知りたい出演者に関する説明情報を知ることができる。 In addition, there is a technique for reproducing and displaying a moving image based on moving image data including a display object in which an action is defined in a video player that reproduces a television program. In such a technique, when the video player receives a selection of a display object included in the reproduced and displayed moving image from the viewer, the video player automatically displays the description information defined in the display object that has received the selection. Thereby, the viewer can know the explanatory information regarding the performer who wants to know in the display object which accepted selection.
しかしながら、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できないという問題がある。すなわち、テレビ番組を再生する従来のビデオプレイヤは、番組について再生表示される動画にアクションが定義された表示オブジェクトを含んでいれば、視聴者から選択された表示オブジェクトに含まれる所望の人物の説明情報を表示できる。つまり、ビデオプレイヤは、動画の作成元で、動画に表示オブジェクトを含むように作成された番組しか、対象となる人物の情報を表示できない。さらに、ビデオプレイヤは、番組について再生表示される動画に表示オブジェクトを含んでいなければ、所望の人物の顔を視聴者がカーソル表示によって囲んでも、囲んだ人物の情報を表示できないのは同様である。 However, there is a problem that information on a desired person among persons appearing in the program cannot be displayed universally for all programs. In other words, if a conventional video player that plays a television program includes a display object in which an action is defined in a video that is played back and displayed for the program, the description of a desired person included in the display object selected by the viewer Information can be displayed. That is, the video player can display the information of the target person only for a program that is created by a moving image and includes a display object. Further, if the video player does not include a display object in the video reproduced and displayed for the program, even if the viewer surrounds the face of the desired person with the cursor display, the information on the enclosed person cannot be displayed. is there.
なお、上記課題は、番組に出演している人物に限らず、番組に出ている物品でも同様に生ずる。 In addition, the said subject arises similarly not only in the person who appears in the program but with the goods which appear in the program.
開示の技術は、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できることを目的とする。 It is an object of the disclosed technique to display information on a desired person among persons appearing in a program for all programs.
1つの側面では、表示制御装置は、供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、前記特定部によって特定された人物に対する特徴データを表示する表示部とを有する。 In one aspect, the display control device acquires the image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image, and the image acquired by the acquiring unit. Based on a storage unit that stores data and feature data for each person, a detection unit that detects a face image closest to a specified position with respect to the image, and person image data stored in the storage unit A specifying unit that specifies a person of the face image detected by the detecting unit, and a display unit that displays characteristic data for the person specified by the specifying unit.
本願の開示する表示制御装置の一つの態様によれば、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できる。 According to one aspect of the display control device disclosed in the present application, information on a desired person among persons appearing in a program can be displayed for all programs.
以下に、本願の開示する表示制御装置、表示制御プログラムおよび表示制御方法の実施例を図面に基づいて詳細に説明する。しかし、本実施例によりこの発明が限定されるものではない。 Hereinafter, embodiments of a display control device, a display control program, and a display control method disclosed in the present application will be described in detail with reference to the drawings. However, the present invention is not limited to the present embodiment.
図1は、実施例に係る表示制御システムの構成を示す機能ブロック図である。図1に示すように、表示制御システム1は、放送局2と、映像サーバ3と、番組情報サーバ4と、検索エンジン5と、情報提供サーバ6と、ネットワーク7と、表示制御装置8とを有する。表示制御装置8は、放送局2と接続し、インターネットなどのネットワーク7を介して検索エンジン5および情報提供サーバ6と接続する。放送局2は、映像サーバ3および番組情報サーバ4と接続する。
FIG. 1 is a functional block diagram illustrating the configuration of the display control system according to the embodiment. As shown in FIG. 1, the display control system 1 includes a broadcast station 2, a video server 3, a program information server 4, a
放送局2は、衛星放送波、地上波、ケーブルテレビ網、またはデータ通信網を通じてデジタルテレビ放送のデータを配信する。 The broadcast station 2 distributes digital television broadcast data through satellite broadcast waves, terrestrial waves, cable television networks, or data communication networks.
映像サーバ3は、放送局2から配信されるデジタルテレビ放送の映像データを記憶する。映像データは、MPEG規格により圧縮される。例えば、MPEG2(Moving Picture Experts Group phase2)の圧縮方式が採用される。 The video server 3 stores video data of digital television broadcast distributed from the broadcast station 2. Video data is compressed according to the MPEG standard. For example, MPEG2 (Moving Picture Experts Group phase 2) compression method is adopted.
番組情報サーバ4は、放送局2から配信されるデジタルテレビ放送の番組情報(番組表)を提供する。番組情報には、例えば番組名、放送日時、番組内容や出演者情報などが含まれる。すなわち、放送局2は、番組情報サーバ4から提供される番組情報を放送データにミックスして、ミックスした放送データを配信する。この番組情報を提供するサービスを電子番組案内(EPG:Electronic Program Guide)という。EPGは、ARIB標準規格ARIBSTD−B10「デジタル放送に使用する番組配列情報」やARIB技術資料ARIBTR−B14「地上デジタルテレビジョン放送運用規定」で規定されている。そして、EPGは、番組情報をEIT(Event Information Table)と呼ばれるデータ形式で提供する。 The program information server 4 provides digital TV broadcast program information (program guide) distributed from the broadcasting station 2. The program information includes, for example, a program name, broadcast date and time, program contents, performer information, and the like. That is, the broadcast station 2 mixes the program information provided from the program information server 4 with the broadcast data, and distributes the mixed broadcast data. This service providing program information is called an electronic program guide (EPG). The EPG is defined in the ARIB standard ARIB STD-B10 “program arrangement information used for digital broadcasting” and the ARIB technical data ARIBTR-B14 “terrestrial digital television broadcasting operation regulations”. The EPG provides program information in a data format called EIT (Event Information Table).
検索エンジン5は、ネットワーク7上にある画像などの情報を検索する機能を提供するサーバまたはシステムを含む。例えば、検索エンジン5には、画像検索の場合、Googleの画像検索、Yahooの画像検索、Bingの画像検索、Baiduの画像検索がある。情報提供サーバ6は、各種の情報を提供するサーバである。例えば、情報提供サーバ6は、人物に関する情報を提供したり、商品に関する情報を提供したりする。
The
表示制御装置8は、チューナ11と、ネットワークインタフェース部12と、表示部13と、入力部14と、記憶部15と、制御部16とを有する。チューナ11は、放送局2から配信された放送データを受信する。そして、チューナ11は、受信した放送データのうち映像データを映像処理部161に出力し、受信した放送データのうち番組情報をデータ処理部163に出力する。
The display control device 8 includes a tuner 11, a
ネットワークインタフェース部12は、ネットワーク7を介して、検索エンジン5や情報提供サーバ6とデータ通信を行う処理部である。
The
表示部13は、映像や、映像に関する情報を表示する表示装置である。例えば、表示部13は、ディスプレイ、タッチパネルに対応する。入力部14は、視聴者が各種の情報を表示制御装置8に入力するための入力装置である。この入力部14によって、視聴者が表示部13に表示された映像を指定操作できる(以下、タッチするともいう)。すなわち、入力部14は、表示部13に表示された映像の中で視聴者が知りたい人物や商品またはこれらの近辺をタッチした位置を表示制御装置8に入力する。例えば、入力部14は、キーボード、マウス、タッチパネルに対応する。
The
記憶部15は、番組情報151および出演者情報152を記憶する。記憶部15は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The storage unit 15
番組情報151は、EPGで提供される番組情報である。番組情報151は、EITで構成される。ここで、番組情報151のデータ構造について、図2を参照して説明する。図2に示すように、番組情報151には、番組名151a、項目名151b、項目内容151cが対応付けられる。
The
項目名151bおよび項目内容151cは、項目名151bの数分だけ繰り返される。番組名151aは、番組の名称であり、例えば96バイト以下且つ全角40文字以下で表される。項目名151bは、番組に関する各種項目の名称であり、例えば16バイト以下且つ全角8文字以下で表される。項目名151bに挙げられる語句には、例えば出演者を示す「出演」、司会者を示す「司会」のほか、キャスター、リポーター、解説者、コメンテーター、アナウンサー、実況、ナレーター、声の出演、通訳、ゲストなどがある。項目内容151cは、項目名に対応する項目の内容であり、例えば440バイト以下且つ全角200文字以下で表される。 The item name 151b and the item content 151c are repeated by the number of the item names 151b. The program name 151a is the name of the program, and is represented by, for example, 96 bytes or less and 40 characters or less. The item name 151b is a name of various items related to the program, and is represented by, for example, 16 bytes or less and 8 characters or less. For example, in addition to “appearance” indicating the performer and “moderator” indicating the moderator, the words and phrases listed in the item name 151b include casters, reporters, commentators, commentators, announcers, live commentaries, narrators, voice appearances, interpreters, There are guests. The item content 151c is the content of the item corresponding to the item name, and is represented by, for example, 440 bytes or less and 200 full-width characters or less.
番組情報151は、例えば以下のようなデータ構造となる。項目名151bは、‘[ ]’や‘《 》’のような括弧で括るものとする。図2の例では、‘[ ]’を採用している。また、番組名151aと項目名151bの区切り、項目内容151cと項目名151bの区切りは、‘、’や‘,’のような区切り文字を使用する。図2の例では、‘、’を採用している。
The
一例として、番組名151aが「ABCDEF」である場合、1つ目の項目名151bとして「[出演]」、項目内容151cとして「山田太郎」を記述している。2つめの項目名151bとして「[出演]」、項目内容151cとして「山田次郎」と記述している。3つめの項目名151bとして「[キャスター]」、項目内容151cとして「山田花子」と記述している。 As an example, when the program name 151a is “ABCDEF”, “[Appearance]” is described as the first item name 151b, and “Taro Yamada” is described as the item content 151c. “[Appearance]” is described as the second item name 151b, and “Jiro Yamada” is described as the item content 151c. “[Caster]” is described as the third item name 151b, and “Yamada Hanako” is described as the item content 151c.
出演者情報152は、番組に出演する出演者に関する情報である。ここで、出演者情報152のデータ構造について、図3を参照して説明する。図3に示すように、出演者情報152には、出演者名152a、出演者画像152b、特徴情報152cが対応付けられる。出演者名152aは、出演者の名前である。出演者画像152bは、出演者名152aで示される出演者の顔の静止画像である。特徴情報152cは、出演者の特徴情報であり、例えば生年月日、出身地、出演者に関連するサイトのURL(Uniform Resource Locator)を含む。出演者情報152に含まれる各種の情報は、情報取得部164によってネットワーク7を介して取得され、データ管理部165によって管理される。
The
一例として、出演者名152aが「山田太郎」である場合、出演者画像152bに山田太郎の顔画像が記憶される。また、特徴情報152cに生年月日として「1985年7月1日生まれ」、出身地として「東京都出身」、出演者に関連するサイトとして「http://〜yamadataro」が記憶される。
As an example, when the performer name 152a is “Taro Yamada”, the face image of Taro Yamada is stored in the performer image 152b. The
制御部16は、映像処理部161、映像出力部162、データ処理部163、情報取得部164、データ管理部165、表示情報生成部166および顔認識部167を有する。例えば、制御部16は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部16は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路に対応する。
The
映像処理部161は、チューナ11から出力された映像データを映像処理し、映像処理した映像データを映像出力部162に出力する。映像出力部162は、映像処理部161によって映像処理された映像データを表示部13に出力する。
The
データ処理部163は、チューナ11から出力された番組情報をデータ処理し、データ処理した番組情報を情報取得部164に出力する。
The
情報取得部164は、データ処理部163から番組情報を取得し、取得した番組情報を解析し、解析した番組情報からキーワードとなる出演者名を抽出する。例えば、情報取得部164は、番組情報から番組に出演している人物の人物名(項目内容)を抽出する。
The
また、情報取得部164は、番組の映像を配信する配信経路と異なる経路から、番組情報から抽出した人物名をキーワードとして、人物名の顔の静止画像を取得する。すなわち、情報取得部164は、番組の映像を配信する放送局2とは異なる場所から、キーワードである人物名の顔の静止画像を取得する。例えば、情報取得部164は、ネットワーク7に接続された検索エンジン5を利用し、抽出した人物名をキーワードとした人物名の顔の静止画像を検索する。また、情報取得部164は、抽出した人物名および人物名から検索した静止画像をキーワードとして、ネットワーク7に接続された情報提供サーバ6からキーワードとした人物名の人物に関する情報を検索する。人物に関する情報として、生年月日、出身地、人物名の人物に関連するサイトが含まれる。
In addition, the
なお、情報取得部164は、番組情報に含まれる番組自体が放送局2から配信されるまでに、当該番組情報を取得する。そして、情報取得部164は、番組情報に含まれる番組自体が配信されるまでに、当該番組に係る人物に関する情報を検索し、検索した情報を後述するデータ管理部165によって記憶部15に記憶する。
The
データ管理部165は、情報取得部164で解析された番組情報を、記憶部15の番組情報151に記憶する。また、データ管理部165は、情報取得部164で検索された人物の顔の静止画像や人物に関する情報を出演者情報として、記憶部15の出演者情報152に記憶する。また、データ管理部165は、後述する表示情報生成部166から各種データの要求があると、要求されるデータを出演者情報152から読み出し、読み出したデータを引き渡す。
The
表示情報生成部166は、後述する顔認識部167に、映像の画像に対して指定された位置の最も近くにある顔画像を検出させ、検出させた顔画像について顔認識をさせる。そして、表示情報生成部166は、顔認識の結果を受けて、照合が一致した顔画像の人物(出演者名)を、出演者情報152に記憶された出演者画像に基づいて特定する。そして、表示情報生成部166は、特定した人物に対する特徴情報を表示させるべく、出演者情報152に記憶された特徴情報に基づいて表示情報を生成する。
The display
また、表示情報生成部166は、データ処理部163から番組情報を取得し、取得した番組情報に記載された出演者などを所定のスイッチ操作があったとき表示させるべく、番組情報に記載された情報を含んだ表示情報を生成する。
Further, the display
顔認識部167は、動画の画像に対して指定された位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。例えば、顔認識部167は、表示部13に表示された映像の画像に対して入力部14によってタッチされると、タッチされた画像のフレームの種類に応じて、当該フレームの近くの基本フレーム(以下、Iフレームともいう。)を特定する。そして、顔認識部167は、タッチされた画像中の指定座標に対応するIフレームの座標を算出する。
The
ここで、圧縮方式がMPEG2である場合の映像のフレーム構成について説明する。図4は、MPEG2のフレーム構成を説明する図である。図4に示すように、MPEG2のフレームは、Iフレーム(Intra-coded Frame)と、Pフレーム(Predicted Frame)と、Bフレーム(Bidirectional Predicted Frame)の3種類のフレームを有する。 Here, a video frame configuration when the compression method is MPEG2 will be described. FIG. 4 is a diagram for explaining the frame structure of MPEG2. As shown in FIG. 4, an MPEG2 frame has three types of frames: an I frame (Intra-coded Frame), a P frame (Predicted Frame), and a B frame (Bidirectional Predicted Frame).
Iフレームは、単一フレームだけで圧縮され、復号(デコード)結果の品質が高くなるように生成される。すなわち、Iフレームは、フレーム間予測を用いずに符号化されるフレームである。Pフレームは、時間軸順方向(前方向)のフレーム間予測により、Iフレームを参照し、参照したフレームからの差分情報で生成される。ビットレートの配分によってデコード結果の品質はIフレームと比較して低くなる場合がある。Bフレームは、時間軸順方向(前方向)および逆方向(後方向)のフレーム間予測により、前後のPフレームまたは前後のIフレームを参照し、参照したフレームからの差分情報で生成される。デコードの結果の品質はIフレームやPフレームと比較して低くなる。 The I frame is compressed by only a single frame and is generated so that the quality of the decoding result is high. That is, an I frame is a frame that is encoded without using inter-frame prediction. The P frame is generated with difference information from the referenced frame by referring to the I frame by inter-frame prediction in the time axis forward direction (forward direction). Depending on the bit rate distribution, the quality of the decoding result may be lower than that of the I frame. The B frame is generated with difference information from the referenced frame by referring to the preceding and following P frames or the preceding and following I frames by inter-frame prediction in the forward (forward) and backward (backward) directions of the time axis. The quality of the decoding result is lower than that of the I frame or P frame.
このようなMPEG2のフレーム構成の下、オリジナルフレームが順方向に4フレーム(フレーム1〜4)あるとする。この場合、MPEG2では、例えば順方向の一番前のオリジナルのフレーム1がIフレームとして生成される。したがって、顔認識部167は、表示部13に表示された映像のIフレームに対してタッチされると、タッチされたIフレームを特定する。
It is assumed that there are four original frames (frames 1 to 4) in the forward direction under the MPEG2 frame configuration. In this case, in MPEG2, for example, the first original frame 1 in the forward direction is generated as an I frame. Therefore, when the
また、Pフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とオリジナルのフレーム4との差分情報で生成される。したがって、顔認識部167は、表示部13に表示された映像のPフレームに対してタッチされると、Pフレームが参照するIフレームを特定する。
The P frame is generated by difference information between the first original frame 1 and the original frame 4 for generating the I frame. Therefore, when the
また、最初のBフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とPフレームを生成する4番目のオリジナルのフレーム4とオリジナルのフレーム2との差分情報で生成される。さらに、次のBフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とPフレームを生成する4番目のオリジナルのフレーム4とオリジナルのフレーム3との差分情報で生成される。したがって、顔認識部167は、表示部13に表示された映像のBフレームに対してタッチされると、Bフレームが参照するPフレームを特定し、さらにPフレームが参照するIフレームを特定する。
The first B frame is generated by difference information between the first original frame 1 for generating the I frame, the fourth original frame 4 for generating the P frame, and the original frame 2. Further, the next B frame is generated by difference information between the first original frame 1 for generating the I frame, the fourth original frame 4 for generating the P frame, and the original frame 3. Therefore, when the
なお、フレーム間予測では、フレーム間の動きを補う「動き補償」の技術が用いられている。この動き補償を行うために、画像間の動きがあった部分(ブロック)の動き量を推定する「動きベクトル」を差分情報に含んで符号化される。例えば、Pフレームの動き補償が行われたブロック(以降、動き補償ブロックという。)と動きベクトルについて、図5を参照して説明する。図5は、Pフレームの動き補償ブロックと動きベクトルを説明する図である。ここでは、PフレームがIフレームを参照しているものとする。Pフレームの動き補償ブロックは、参照するIフレームの動きがあった動き補償ブロックから動きベクトル分プラスに移動した位置となる。図5の例では、Iフレームの動きがあった動き補償ブロックB1を(xa1、ya1)と(xb1、yb1)から生成される矩形とし、動きベクトルV12を(xa2−xa1、ya2−ya1)とする。すると、Pフレームの動き補償ブロックB2は、(xa2、ya2)と(xb2、yb2)から生成される矩形となる。言い換えると、Pフレームが参照するIフレームの動き補償ブロックB1は、Pフレームの動き補償ブロックB2から動きベクトルV12分マイナスに移動した位置、つまり戻した位置となる。 In the inter-frame prediction, a “motion compensation” technique that compensates for the motion between frames is used. In order to perform this motion compensation, the difference information includes a “motion vector” that estimates the amount of motion of a portion (block) in which there is motion between images. For example, a block in which P frame motion compensation has been performed (hereinafter referred to as a motion compensation block) and a motion vector will be described with reference to FIG. FIG. 5 is a diagram for explaining a motion compensation block and a motion vector of a P frame. Here, it is assumed that the P frame refers to the I frame. The motion compensation block for the P frame is a position shifted from the motion compensation block in which the motion of the I frame to be referenced has moved by a motion vector plus. In the example of FIG. 5, the motion compensation block B1 in which the motion of the I frame has occurred is a rectangle generated from (xa1, ya1) and (xb1, yb1), and the motion vector V12 is (xa2-xa1, ya2-ya1) To do. Then, the motion compensation block B2 of the P frame becomes a rectangle generated from (xa2, ya2) and (xb2, yb2). In other words, the motion compensation block B1 of the I frame referred to by the P frame is a position shifted from the motion compensation block B2 of the P frame by a motion vector V12 minus, that is, a returned position.
続いて、図5と同じ条件において、Pフレームがタッチされた場合のタッチされた座標に対応するIフレームの座標の計算方法について、図6を参照して説明する。図6および図7は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図である。図6では、動き補償ブロック内の座標がタッチされた場合についての説明であり、図7では、動き補償ブロック外の座標がタッチされた場合についての説明である。 Next, a method of calculating the coordinates of the I frame corresponding to the touched coordinates when the P frame is touched under the same conditions as in FIG. 5 will be described with reference to FIG. 6 and 7 are diagrams illustrating a method for calculating coordinates corresponding to the I frame when the P frame is touched. FIG. 6 illustrates the case where the coordinates inside the motion compensation block are touched, and FIG. 7 illustrates the case where the coordinates outside the motion compensation block are touched.
図6に示すように、顔認識部167は、タッチされた座標P2がPフレームの動き補償ブロックB2内である場合、動きベクトルV12を使ってIフレームに対応する座標P1を計算する。すなわち、顔認識部167は、Pフレームの動き補償ブロックB2内にタッチされた座標P2から動きベクトルV12分マイナスに移動した位置、つまり戻した位置をIフレームの対応する座標P1として算出する。
As shown in FIG. 6, when the touched coordinate P2 is within the motion compensation block B2 of the P frame, the
図7に示すように、顔認識部167は、タッチされた座標P3がPフレームの動き補償ブロックB2外である場合、座標P3が動きのあった部分でないので、タッチされた座標P3と同じ座標をIフレームの対応する座標として算出する。
As shown in FIG. 7, when the touched coordinate P3 is outside the motion compensation block B2 of the P frame, the
図1に戻って、顔認識部167は、特定したIフレーム内にある顔と認識できるオブジェクトを全て検出したうえで、検出したオブジェクトの中からIフレームの対応する座標の最も近くにあるオブジェクトを検出する。また、顔認識部167は、検出したオブジェクトを、出演者情報152に記憶された出演者画像と照合して顔認識を行い、顔認識の結果を表示情報生成部166に通知する。
Returning to FIG. 1, the
また、顔認識部167は、タッチされた座標について、経時的に変化する各フレームに対応する座標を計算する。例えば、顔認識部167は、タッチされた画像のフレームの種類に応じて、タッチされた画像中の指定座標に対応する各フレームの座標を算出する。
Further, the
ここで、Pフレームがタッチされた場合のタッチされた座標に対応する各フレームの座標の計算方法について、図8を参照して説明する。図8は、各フレームの対応座標を計算する方法を説明する図である。なお、タッチされたフレームはPフレームであり、タッチされた座標は、動き補償ブロックB31内の座標P00(xa0、ya0)である場合について説明する。 Here, a method of calculating the coordinates of each frame corresponding to the touched coordinates when the P frame is touched will be described with reference to FIG. FIG. 8 is a diagram for explaining a method of calculating the corresponding coordinates of each frame. The case where the touched frame is a P frame and the touched coordinates are coordinates P00 (xa0, ya0) in the motion compensation block B31 will be described.
図8に示すように、顔認識部167は、タッチされた座標P00がPフレームの動き補償ブロックB31内であるので、動きベクトルを使ってIフレームに対応する座標P01(xa1、ya1)を計算し、計算した座標を開始フレームの座標とする。すなわち、顔認識部167は、Pフレームの動き補償ブロックB31内にタッチされた座標P00から動きベクトル分マイナスに移動した位置、つまり戻した位置をIフレームの対応する座標P01として算出する。
As shown in FIG. 8, the
次に、顔認識部167は、開始フレーム以降の各Pフレームの対応座標を開始フレームの座標P00と各Pフレームの動きベクトルとから算出する。図8では、顔認識部167は、開始フレームの次のPフレームの対応座標について、開始フレームの座標P00と動きベクトルとから座標P02(xa2、ya2)を算出する。同様に、顔認識部167は、次のIフレーム前までの他のPフレームの対応座標を算出する。図8では、顔認識部167は、タッチされたPフレームの次のPフレームの対応座標をP04(xa4、ya4)と算出し、さらに次のPフレームの対応座標をP05(xa5、ya5)と算出する。そして、顔認識部167は、開始フレームの対応座標P01と最後のPフレームの対応座標P05とから算出される対応座標の移動量に基づいて、次のIフレームの対応座標P06(xa6、ya6)を予測する。図8では、顔認識部167は、以下のように予測できる。
xa6=xa1+(xa5−xa1)×5/4
ya6=ya1+(ya5−ya1)×5/4
Next, the
xa6 = xa1 + (xa5-xa1) × 5/4
ya6 = ya1 + (ya5-ya1) × 5/4
図1に戻って、顔認識部167は、さらに、経時的に変化する各フレームの、情報を表示する座標をそれぞれ計算する。例えば、顔認識部167は、検出したオブジェクトと重複する領域外の座標を、情報を表示する座標として算出する。例えば、顔認識部167は、開始フレームについて、検出したオブジェクトの位置と、タッチされた座標に対応する対応座標とに基づいて、検出したオブジェクトの位置と重ならないように情報を表示する座標を算出する。一例として、顔認識部167は、開始フレームについて、タッチされた座標に対応する対応座標が、検出したオブジェクトの位置と重ならない場合、情報を表示する座標を対応座標とする。また、顔認識部167は、開始フレームについて、タッチされた座標に対応する対応座標が、検出したオブジェクトの位置と重なる場合、情報を表示する座標を検出したオブジェクトの位置と重ならない座標にする。そして、顔認識部167は、開始フレームの情報を表示する座標と各フレームの動き補償とを利用して、各フレームの情報を表示する座標を算出する。なお、Iフレームの情報を表示する座標に対応する各フレームの座標を計算する方法については、図8で示したように、タッチされた座標に対応する各フレームの座標の計算方法と同様であるので、その説明を省略する。
Returning to FIG. 1, the
また、顔認識部167は、各フレームの情報を表示する座標を含む算出結果を表示情報生成部166に通知する。
Further, the
[実施例に係る情報取得部の処理手順]
次に、実施例に係る情報取得部の処理手順を、図9を参照して説明する。図9は、実施例に係る情報取得部の処理手順を示すフローチャートである。
[Processing Procedure of Information Acquisition Unit According to Embodiment]
Next, a processing procedure of the information acquisition unit according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating the processing procedure of the information acquisition unit according to the embodiment.
まず、情報取得部164は、番組情報を取得したか否かを判定する(ステップS11)。番組情報を取得していないと判定した場合(ステップS11;No)、情報取得部164は、番組情報を取得するまで判定処理を繰り返す。一方、番組情報を取得したと判定した場合(ステップS11;Yes)、情報取得部164は、取得した番組情報から出演者名を抽出する。
First, the
そして、情報取得部164は、番組の映像を配信する配信経路と異なる経路から、番組情報から抽出した出演者名をキーワードとして、出演者の静止画と出演者に関する情報を検索する(ステップS12)。例えば、情報取得部164は、ネットワーク7に接続された検索エンジン5を利用し、出演者名をキーワードとして出演者名の顔の静止画像を検索する。そして、情報取得部164は、出演者名および検索した静止画像をキーワードとして、ネットワーク7に接続された情報提供サーバ6から出演者に関する情報を検索する。
And the
そして、情報取得部164は、検索した情報を、データ管理部165を通じて出演者情報152に記憶する(ステップS13)。すなわち、出演者情報152には、出演者の顔の静止画像や出演者に関する情報が記憶される。
And the
[実施例に係る顔認識部の処理手順]
次に、実施例に係る顔認識部の処理手順を、図10〜図12を参照して説明する。図10〜図12は、実施例に係る顔認識部の処理手順を示すフローチャートである。なお、表示部13に番組の映像が表示されているものとする。
[Processing procedure of face recognition unit according to embodiment]
Next, the processing procedure of the face recognition unit according to the embodiment will be described with reference to FIGS. 10 to 12 are flowcharts illustrating the processing procedure of the face recognition unit according to the embodiment. It is assumed that the video of the program is displayed on the
まず、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったか否かを判定する(ステップS201)。タッチ入力がなかったと判定した場合(ステップS201;No)、顔認識部167は、タッチ入力があるまで判定処理を繰り返す。一方、タッチ入力があったと判定した場合(ステップS201;Yes)、顔認識部167は、タッチ入力で指定された座標の最も近くの基本フレーム(Iフレーム)を特定し、指定された座標に対応する基本フレームの座標を計算する(ステップS202)。
First, the
そして、顔認識部167は、特定した基本フレームで顔認識処理を行う(ステップS203)。例えば、顔認識部167は、特定した基本フレームで顔と認識できるオブジェクトを全て検出したうえで、検出したオブジェクトの中から、計算した基本フレームの座標の最も近くにあるオブジェクトを検出する。そして、顔認識部167は、検出したオブジェクトを、出演者情報152の出演者画像と照合して顔認識を行う。
Then, the
続いて、顔認識部167は、タッチ入力で指定された座標について、経時的に変化する各フレームの対応座標を計算する(ステップS204)。さらに、顔認識部167は、経時的に変化する各フレームの、情報を表示する座標をそれぞれ計算する(ステップS205)。例えば、顔認識部167は、基本フレームで検出したオブジェクトの位置と、各フレームの対応座標と、フレーム間の動き補償とを利用して、情報を表示する座標を計算する。
Subsequently, the
そして、顔認識部167は、表示情報生成部166に結果を通知する(ステップS206)。すなわち、顔認識部167は、顔認識の結果および各フレームの情報を表示する座標の計算結果を表示情報生成部166に通知する。
Then, the
その後、顔認識部167は、表示制御処理を終了したか否かを判定する(ステップS207)。表示制御処理を終了していないと判定した場合(ステップS207;No)、顔認識部167は、ステップS201に移行する。一方、表示制御処理を終了したと判定した場合(ステップS207;Yes)、顔認識部167は、顔認識処理を終了する。
Thereafter, the
[Iフレームの対応座標計算処理]
次に、図10のステップS202に示した、指定された座標に対応するIフレームの対応座標計算処理について、図11を参照して説明する。
[Corresponding coordinate calculation processing of I frame]
Next, the corresponding coordinate calculation processing of the I frame corresponding to the designated coordinates shown in step S202 of FIG. 10 will be described with reference to FIG.
まず、顔認識部167は、タッチされたフレームの種類がPフレームであるか否かを判定する(ステップS21)。タッチされたフレームの種類がPフレームであると判定した場合(ステップS21;Yes)、顔認識部167は、Pフレームが参照するIフレームを特定する(ステップS22)。さらに、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS23)。タッチされた座標が動き補償ブロック内である場合(ステップS23;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出する(ステップS24)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS23;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とする(ステップS25)。そして、顔認識部167は、タッチされたフレームの種類がPフレームであった場合のIフレームの対応座標計算処理を終了する。
First, the
ステップS21に戻って、タッチされたフレームの種類がPフレームでないと判定した場合(ステップS21;No)、顔認識部167は、タッチされたフレームの種類がBフレームであるか否かを判定する(ステップS26)。タッチされたフレームの種類がBフレームでないと判定した場合(ステップS26;No)、顔認識部167は、タッチされたフレームの種類をIフレームと特定し、タッチされた座標をIフレームの対応座標とする(ステップS27)。そして、顔認識部167は、タッチされたフレームの種類がIフレームであった場合のIフレームの対応座標計算処理を終了する。
Returning to step S21, when it is determined that the touched frame type is not a P frame (step S21; No), the
ステップS26に戻って、タッチされたフレームの種類がBフレームであると判定した場合(ステップS26;Yes)、顔認識部167は、Bフレームが参照する前方のIフレームまたはPフレームを選択する(ステップS28)。そして、顔認識部167は、選択した参照フレームがIフレームであるか否かを判定する(ステップS29)。参照フレームがIフレームであると判定した場合(ステップS29;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS30)。タッチされた座標が動き補償ブロック内である場合(ステップS30;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出する(ステップS31)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS30;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とする(ステップS32)。そして、顔認識部167は、ステップS40に移行する。
Returning to step S26, when it is determined that the type of the touched frame is the B frame (step S26; Yes), the
一方、Iフレームでない、すなわちPフレームであると判定した場合(ステップS29;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS33)。タッチされた座標が動き補償ブロック内である場合(ステップS33;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS34)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS33;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS35)。
On the other hand, when it is determined that the frame is not an I frame, that is, a P frame (step S29; No), the
続いて、顔認識部167は、Pフレームが参照するIフレームを特定する(ステップS36)。さらに、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS37)。タッチされた座標が動き補償ブロック内である場合(ステップS37;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し(ステップS38)、ステップS40に移行する。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS37;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とし(ステップS39)、ステップS40に移行する。
Subsequently, the
ステップS40では、顔認識部167は、Bフレームが参照する後方のフレームを選択したか否かを判定する(ステップS40)。Bフレームが参照する後方のフレームを選択していないと判定した場合(ステップS40;No)、顔認識部167は、Bフレームが参照する後方のIフレームまたはPフレームを選択する(ステップS41)。そして、顔認識部167は、Iフレームの対応座標計算処理を継続すべく、ステップS29に移行する。一方、Bフレームが参照する後方のフレームを選択したと判定した場合(ステップS40;Yes)、顔認識部167は、タッチされたフレームの種類がBフレームであった場合のIフレームの対応座標計算処理を終了する。
In step S40, the
[各フレームの対応座標計算処理]
次に、図10のステップS204に示した、指定された座標に対応する各フレームの対応座標計算処理について、図12を参照して説明する。
[Corresponding coordinate calculation processing of each frame]
Next, the corresponding coordinate calculation processing of each frame corresponding to the designated coordinates shown in step S204 of FIG. 10 will be described with reference to FIG.
まず、顔認識部167は、タッチされたフレームの種類がIフレームであるか否かを判定する(ステップS51)。タッチされたフレームの種類がIフレームであると判定した場合(ステップS51;Yes)、顔認識部167は、タッチされたフレームを開始フレーム、次のIフレームを終了フレームとする(ステップS52)。そして、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS53)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。
First, the
ステップS51に戻って、タッチされたフレームの種類がIフレームでないと判定した場合(ステップS51;No)、顔認識部167は、タッチされたフレームの種類がPフレームであるか否かを判定する(ステップS54)。タッチされたフレームの種類がPフレームであると判定した場合(ステップS54;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS55)。タッチされた座標が動き補償ブロック内である場合(ステップS55;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を開始フレームの座標とする(ステップS56)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS55;No)、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS57)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。
Returning to step S51, when it is determined that the touched frame type is not the I frame (step S51; No), the
ステップS54に戻って、タッチされたフレームの種類がPフレームでないと判定した場合(ステップS54;No)、顔認識部167は、タッチされたフレームがBフレームであるか否かを判定する(ステップS58)。タッチされたフレームがBフレームでないと判定した場合(ステップS58;No)、顔認識部167は、フレームが未知の種類であるので、処理を終了する。
Returning to step S54, when it is determined that the type of the touched frame is not a P frame (step S54; No), the
一方、タッチされたフレームがBフレームであると判定した場合(ステップS58;Yes)、顔認識部167は、前方の参照フレームがIフレームであるか否かを判定する(ステップS59)。前方の参照フレームがIフレームであると判定した場合(ステップS59;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS60)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS60;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を開始フレームの座標とする(ステップS61)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS60;No)、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS62)。
On the other hand, when it is determined that the touched frame is the B frame (step S58; Yes), the
ステップS59に戻って、前方の参照フレームがIフレームでない、すなわちPフレームであると判定した場合(ステップS59;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS63)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS63;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS64)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS63;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS65)。
Returning to step S59, when it is determined that the front reference frame is not an I frame, that is, a P frame (step S59; No), the
さらに、顔認識部167は、Pフレームが参照するIフレームを選択する(ステップS66)。そして、顔認識部167は、Pフレームの対応座標が動き補償ブロック内であるか否かを判定する(ステップS67)。Pフレームの対応座標が動き補償ブロック内であると判定した場合(ステップS67;Yes)、顔認識部167は、動きベクトルを使って、Iフレームの対応座標を算出し、算出した座標を開始フレームの座標候補1とする(ステップS68)。一方、Pフレームの対応座標が動き補償ブロック内でないと判定した場合(ステップS67;No)、顔認識部167は、Pフレームの対応座標を開始フレームの座標候補1とする(ステップS69)。
Furthermore, the
次に、顔認識部167は、後方の参照フレームがIフレームであるか否かを判定する(ステップS70)。後方の参照フレームがIフレームであると判定した場合(ステップS70;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS71)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS71;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を終了フレームの座標とする(ステップS72)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS71;No)、顔認識部167は、タッチされた座標を終了フレームの座標とする(ステップS73)。
Next, the
ステップS70に戻って、後方の参照フレームがIフレームでない、すなわちPフレームであると判定した場合(ステップS70;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS74)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS74;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS75)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS74;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS76)。
Returning to step S70, when it is determined that the rear reference frame is not the I frame, that is, the P frame (step S70; No), the
さらに、顔認識部167は、Pフレームが参照するIフレームを選択する(ステップS77)。そして、顔認識部167は、Pフレームの対応座標が動き補償ブロック内であるか否かを判定する(ステップS78)。Pフレームの対応座標が動き補償ブロック内であると判定した場合(ステップS78;Yes)、顔認識部167は、動きベクトルを使って、Iフレームの対応座標を算出し、算出した座標を開始フレームの座標候補2とする(ステップS79)。一方、Pフレームの対応座標が動き補償ブロック内でないと判定した場合(ステップS78;No)、顔認識部167は、Pフレームの対応座標を開始フレームの座標候補2とする(ステップS80)。
Further, the
そして、顔認識部167は、開始フレームの座標候補1と座標候補2から動き補償ブロックが指定されている方を選択し、選択した座標候補を開始フレームの座標とする(ステップS81)。
The
続いて、顔認識部167は、開始フレームから終了フレームまでの開始フレーム以降のPフレームの対応座標を、動き補償を利用して算出する(ステップS82)。そして、顔認識部167は、タッチされた座標に対応する終了フレームの対応座標を算出する(ステップS83)。例えば、顔認識部167は、タッチされた座標に対応する開始フレームの対応座標と、最後のPフレームの対応座標とから算出される対応座標の移動量に基づいて、終了フレームの対応座標を予測する。
Subsequently, the
そして、顔認識部167は、タッチされた座標に対応するBフレームの対応座標を算出する(ステップS84)。例えば、顔認識部167は、開始フレーム、終了フレームおよびPフレームの対応座標と、動き補償とを利用して算出する。そして、顔認識部167は、各フレームの対応座標計算処理を終了する。
Then, the
[表示制御装置の表示画面の一例]
次に、表示制御装置8の表示画面の一例について、図13を参照して説明する。図13は、実施例に係る表示制御装置の表示画面の一例を示す図である。なお、表示されている映像に係る番組の人物に関する情報は、番組が配信される前に記憶部15の出演者情報152に記憶されたものとする。図13に示すように、顔認識部167は、表示部13に表示されている映像の画像G1に対してタッチ入力があったか否かを判定し、ここでは、タッチ入力があったものと判定する。そして、顔認識部167は、タッチ入力で指定された座標をP11とする。
[Example of display screen of display control device]
Next, an example of the display screen of the display control device 8 will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of a display screen of the display control apparatus according to the embodiment. In addition, the information regarding the person of the program related to the displayed video is assumed to be stored in the
そして、顔認識部167は、タッチ入力で指定された座標P11の最も近くにある画像G1中の顔と認識できるオブジェクトを検出する。ここでは、顔認識部167は、座標P11の最も近くにある画像G1中の顔と認識できるオブジェクトO1を検出する。そして、顔認識部167は、検出したオブジェクトO1を、記憶部15に記憶された出演者情報152の出演者画像と照合して顔認識を行う。
Then, the
そして、表示情報生成部166は、顔認識部167による顔認識の結果、照合が一致した顔の人物を出演者情報152に基づいて特定し、特定した人物に対する特徴情報を顔の位置と重ならないように表示部13に表示させる。ここでは、画像G2にオブジェクトO1に相当する顔の位置と重ならないように、出演者名「・・・・さん」および出演者に関連するサイト「http:://・・・」が表示される。
Then, the display
なお、顔認識部167は、動画の画像に対してタッチされると、タッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。この場合、顔認識部167は、動画の画像に対してタッチされても、配信される動画の表示速度を変えない(1倍速)で、タッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。しかしながら、顔認識部167は、これに限定されず、動画の画像に対してタッチされると、タイムシフト状態に移行し、移行した状態でタッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出しても良い。ここで、タイムシフト状態とは、表示画面を一時停止し、配信されている動画を一時的に録画する状態をいう。タイムシフト状態であっても、顔認識部167は、1倍速の場合と同様、タッチされたフレームが参照するIフレームを特定し、特定したIフレームを用いてタッチされた位置の最も近くにある顔画像を検出すれば良い。
Note that when the moving image is touched, the
また、顔認識部167は、動画の画像に対してタッチされると、ゆっくり表示する状態に移行し、移行した状態でタッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出しても良い。ゆっくり表示する状態であっても、顔認識部167は、1倍速の場合と同様、タッチされたフレームが参照するIフレームを特定し、特定したIフレームを用いてタッチされた位置の最も近くにある顔画像を検出すれば良い。
Further, the
[実施例の効果]
上記実施例によれば、表示制御装置8は、配信される動画に含まれる、出演者の顔の静止画像および出演者の人物に関する情報を、動画を配信する配信経路と異なる経路から検索する。そして、表示制御装置8は、検索された出演者の顔画像および人物に関する情報を出演者毎に出演者情報152に記憶する。そして、表示制御装置8は、動画の画像に対して指定された位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像に基づいて、検出された顔画像の人物を特定する。そして、表示制御装置8は、特定した人物に関する情報を表示する。かかる構成によれば、表示制御装置8は、配信される動画に含まれる出演者の顔画像および人物に関する情報を、動画を配信する配信経路と異なる経路にある検索エンジン5などから検索して出演者情報152に記憶することとした。このため、表示制御装置8は、動画で指定された位置の最も近くにある顔画像との比較に出演者情報152の顔画像を用いることにより該当する顔画像の人物に関する情報を、動画を配信する放送局2に依存しないで、どんな動画に対しても汎用的に表示できる。つまり、表示制御装置8は、動画に出演している出演者の中で視聴者が所望の出演者の情報を、放送局2に依存しないで、どんな動画であっても提供できる。
[Effect of Example]
According to the above-described embodiment, the display control device 8 searches for information related to the still image of the performer's face and the performer's person included in the distributed moving image from a route different from the distribution route for distributing the moving image. And the display control apparatus 8 memorize | stores the information regarding the searched performer's face image and person in the
また、上記実施例によれば、表示制御装置8は、動画に含まれる出演者の名前を放送局2から取得し、取得した出演者の名前をキーワードとして、当該出演者の名前に対応する人物の顔画像および人物に関する情報を検索する。かかる構成によれば、表示制御装置8は、動画に含まれる出演者の名前を用いて、出演者の名前に対応する人物の顔画像および人物に関する情報を検索することとしたので、容易に出演者の名前に対応する人物に関する情報を取得できる。 Moreover, according to the said Example, the display control apparatus 8 acquires the name of the performer contained in a moving image from the broadcast station 2, and uses the acquired performer's name as a keyword, and the person corresponding to the name of the performer concerned. Search for information about face images and people. According to this configuration, the display control device 8 uses the name of the performer included in the video to search for the face image of the person corresponding to the name of the performer and information about the person, so that the appearance can be easily performed. Information about the person corresponding to the person's name can be acquired.
また、上記実施例によれば、表示制御装置8は、位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの当該位置に対応する位置を算出する。そして、表示制御装置8は、特定した基本フレームを用いて算出した位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像と、検出された顔画像とを照合して人物を特定する。かかる構成によれば、表示制御装置8は、位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを用いて該当する顔画像を検出するので、出演者情報152に記憶された出演者の顔画像と精度良く照合することができる。この結果、表示制御装置8は、指定した位置の最も近くにある顔画像の人物に関する正確な情報を提供できる。
Further, according to the above-described embodiment, the display control device 8 specifies the basic frame with the largest amount of information that is referred to by the frame of the image whose position is specified, and determines the position corresponding to the position of the specified basic frame. calculate. Then, the display control device 8 detects the face image closest to the position calculated using the identified basic frame. And the display control apparatus 8 collates the performer's face image memorize | stored in the
また、上記実施例によれば、表示制御装置8は、動画に含まれる出演者名を動画が配信されるまでに取得し、取得した出演者名をキーワードとして、当該出演者名に対応する人物の顔画像および人物に関する情報を、動画が配信されるまでに検索する。そして、表示制御装置8は、検索された出演者の顔画像および人物に関する情報を出演者毎に出演者情報152に記憶する。かかる構成によれば、表示制御装置8は、動画が配信されるまでに、動画に含まれる出演者名を取得し、取得した出演者名をキーワードとした情報を検索することとした。このため、表示制御装置8は、実際に動画が配信されたときに出演者情報152に反映されていれば、出演者情報152を用いて視聴者が所望の出演者の情報を高速に表示できる。
Moreover, according to the said Example, the display control apparatus 8 acquires the performer name contained in a moving image by the time a moving image is distributed, and uses the acquired performer name as a keyword and the person corresponding to the performer name. Search for information about face images and people before the video is distributed. And the display control apparatus 8 memorize | stores the information regarding the searched performer's face image and person in the
また、上記実施例によれば、表示制御装置8は、動画の画像に対して位置が指定されると、一時停止してタイムシフト状態に移行し、移行した状態で指定された位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像に基づいて、検出された顔画像の人物を特定する。かかる構成によれば、表示制御装置8は、タイムシフト状態に移行した場合であっても、検出した顔画像の人物を、出演者情報152に記憶された顔画像に基づいて特定できる。このため、表示制御装置8は、特定した顔画像の人物について、動画が配信される放送局2に依存しないで、どんな動画に対しても汎用的に表示することが可能となる。
Further, according to the above embodiment, when the position is specified for the moving image, the display control device 8 pauses and shifts to the time shift state, and is closest to the position specified in the shifted state. The face image at is detected. Then, the display control device 8 specifies the person of the detected face image based on the performer's face image stored in the
なお、上記実施例では、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の最も近くにある顔画像を検出し、検出した顔画像を出演者情報152の出演者画像と照合して顔認識を行う。そして、表示情報生成部166が、顔認識部167による顔認識の結果、照合が一致した顔の人物を出演者情報152に基づいて特定し、特定した人物に対する特徴情報を表示部13に表示させる。しかしながら、表示情報生成部166は、表示部13に表示させる対象を人物に対する情報に代えて、商品に対する情報としても良い。この場合、放送局2から配信される番組情報に、商品名を含むようにする。そして、情報取得部164は、番組情報を取得し、取得した番組情報を解析し、解析した番組情報からキーワードとなる商品名を抽出する。そして、情報取得部164は、例えばテレビショッピング等の番組を配信する配信経路と異なる経路から、商品名をキーワードとして、商品名の商品の静止画像やその他の特徴情報を取得し、出演者情報152に相当する商品情報に記憶する。そして、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の最も近くにある商品の画像を検出し、検出した商品の画像を商品情報の商品の静止画像と照合してパターン認識を行う。そして、表示情報生成部166が、顔認識部167によるパターン認識の結果、照合が一致した商品を商品情報に基づいて特定し、特定した商品に対する特徴情報を表示部13に表示させるようにすれば良い。
In the above embodiment, the
また、上記実施例では、表示制御装置8は、動画を対象にし、動画の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにした。しかしながら、表示制御装置8は、静止画を対象にし、静止画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにしても良い。 Further, in the above embodiment, the display control device 8 targets a moving image, and displays information about a face near the coordinates specified by the touch input when there is a touch input on the image of the moving image. . However, the display control device 8 may target a still image and display information related to a face near the coordinates specified by the touch input when a touch input is performed on the still image.
また、上記実施例では、表示制御装置8は、放送局2から配信された映像を対象にし、映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにした。しかしながら、表示制御装置8は、ビデオから供給された映像を対象にし、映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにしても良い。この場合、情報取得部164は、映像が供給される供給経路と異なる経路にある情報提供サーバ6から、再生するビデオのタイトルをキーワードとして、タイトルに対応する番組情報を取得する。そして、情報取得部164は、取得した番組情報を解析し、解析した番組情報からキーワードとなる人物名を抽出すれば良い。これにより、表示制御装置8は、再生するビデオの映像に含まれる人物の人物名を用いて、人物名に対応する人物の顔画像および人物に関する情報を検索でき、容易にこれらの情報を取得できる。この結果、表示制御装置8は、ビデオの動画に出演している出演者の中で視聴者が所望の出演者の情報を、映像の供給元のビデオに依存しないで、どんな動画であっても提供できる。
In the above embodiment, the display control device 8 targets the video distributed from the broadcasting station 2 and relates to a face near the coordinates specified by the touch input when the touch input is performed on the video image. Information was displayed. However, the display control device 8 targets the video supplied from the video, and displays information about the face near the coordinates specified by the touch input when there is a touch input on the video image. Also good. In this case, the
[プログラムなど]
なお、表示制御装置8は、既知のパーソナルコンピュータ、ワークステーションなどの情報処理装置に、上記した情報取得部164、データ管理部165、表示情報生成部166および顔認識部167などの各機能を搭載することによって実現することができる。
[Programs]
The display control device 8 is equipped with functions such as the
また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報取得部164とデータ管理部165とを1個の部として統合しても良い。一方、顔認識部167を、指定座標の基本フレームに対応する座標を計算する計算部と、基本フレームで顔認識する顔認識部と、指定座標の各フレームに対応する座標を計算する計算部と、表示座標の各フレームに対応する座標を計算する計算部とに分散しても良い。また、出演者情報152などを記憶する記憶部を表示制御装置8の外部装置としてネットワーク7経由で接続するようにしても良い。
In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. That is, the specific mode of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the
また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、図1に示した表示制御装置8の制御部16と同様の機能を有する表示制御プログラムを実行するコンピュータの一例を説明する。
The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a display control program having the same function as the
図14は、表示制御プログラムを実行するコンピュータの一例を示す図である。図14に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータなどとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。さらに、コンピュータ200は、放送局から配信された放送データを受信するチューナ208を有する。そして、各装置201〜208は、バス209に接続される。
FIG. 14 is a diagram illustrating an example of a computer that executes a display control program. As shown in FIG. 14, the computer 200 includes a
ハードディスク装置207には、図1に示した制御部16と同様の機能を有する表示制御プログラム207aが記憶される。また、ハードディスク装置207には、図1に示した記憶部15に記憶された各種情報に対応する表示制御関連情報207bが記憶される。
The hard disk device 207 stores a
そして、CPU201が表示制御プログラム207aをハードディスク装置207から読み出してRAM206に展開することにより、表示制御プログラム207aは、表示制御プロセス206aとして機能するようになる。そして、表示制御プロセス206aは、表示制御関連情報207bから読み出した情報などを適宜RAM206上の自身に割り当てられた領域に展開し、この展開したデータなどに基づいて各種データ処理を実行する。
Then, the
なお、表示制御プログラム207aや表示制御関連情報207bについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に表示制御プログラム207aなどを記憶させておく。そして、コンピュータ200がこれらから表示制御プログラム207aなどを読み出して実行するようにしても良い。
Note that the
以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、
前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、
前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、
前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、
前記特定部によって特定された人物に対する特徴データを表示する表示部と
を有することを特徴とする表示制御装置。
(Supplementary Note 1) An acquisition unit that acquires image data and feature data of a person included in a supplied image from a route different from a supply route for supplying an image;
A storage unit for storing image data and feature data acquired by the acquisition unit for each person;
A detection unit that detects a face image closest to a position designated with respect to the image;
A specifying unit for specifying the person of the face image detected by the detection unit based on the image data of the person stored in the storage unit;
And a display unit that displays characteristic data for the person specified by the specifying unit.
(付記2)前記取得部は、前記画像に含まれる人物の名前を前記画像が供給される供給経路または当該供給経路と異なる経路から取得し、取得した人物の名前から当該名前に対応する人物の画像データおよび特徴データを取得することを特徴とする付記1に記載の表示制御装置。 (Additional remark 2) The said acquisition part acquires the name of the person included in the said image from the supply path | route to which the said image is supplied, or a different path | route from the said supply path | route, and the person corresponding to the said name is acquired from the acquired person's name. The display control apparatus according to appendix 1, wherein image data and feature data are acquired.
(付記3)前記取得部は、前記位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの前記位置に対応する位置を算出し、特定した基本フレームを用いて前記算出した位置の最も近くにある顔画像を検出し、
前記特定部は、前記人物の画像データと、前記検出部によって検出された顔画像とを照合して人物を特定する
ことを特徴とする付記1または付記2に記載の表示制御装置。
(Additional remark 3) The said acquisition part specifies the basic frame with the most information content which the flame | frame of the image by which the said position was designated references, calculated the position corresponding to the said position of the specified basic frame, and specified Using a basic frame to detect the face image closest to the calculated position,
The display control apparatus according to appendix 1 or appendix 2, wherein the specifying unit specifies the person by collating the image data of the person with the face image detected by the detection unit.
(付記4)前記取得部は、前記画像に含まれる人物の名前を前記画像が配信されるまでに取得し、取得した人物の名前から名前に対応する人物の画像データおよび特徴データを取得することを特徴とする付記2に記載の表示制御装置。 (Supplementary Note 4) The acquisition unit acquires a name of a person included in the image until the image is distributed, and acquires image data and feature data of the person corresponding to the name from the acquired name of the person. The display control apparatus according to appendix 2, characterized by:
(付記5)前記検出部は、前記画像に対して前記位置が指定されると、一時停止してタイムシフト状態に移行し、移行した状態で指定された前記位置の最も近くにある顔画像を検出することを特徴とする付記1から付記4のいずれか1つに記載の表示制御装置。 (Supplementary Note 5) When the position is specified for the image, the detection unit pauses and shifts to a time shift state, and detects a face image closest to the position specified in the shifted state. The display control device according to any one of appendix 1 to appendix 4, wherein the display control device is detected.
(付記6)コンピュータに、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を実行させる表示制御プログラム。
(Appendix 6)
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control program for executing processing for displaying characteristic data for the specified person.
(付記7)コンピュータが表示を制御する表示制御方法であって、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を含むことを特徴とする表示制御方法。
(Appendix 7) A display control method in which a computer controls display,
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control method comprising a process of displaying characteristic data for the specified person.
1 表示制御システム
2 放送局
3 映像サーバ
4 番組情報サーバ
5 検索エンジン
6 情報提供サーバ
7 ネットワーク
8 表示制御装置
11 チューナ
12 ネットワークインタフェース部
13 表示部
14 入力部
15 記憶部
151 番組情報
152 出演者情報
16 制御部
161 映像処理部
162 映像出力部
163 データ処理部
164 情報取得部
165 データ管理部
166 表示情報生成部
167 顔認識部
DESCRIPTION OF SYMBOLS 1 Display control system 2 Broadcasting station 3 Video server 4
Claims (6)
前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、
前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、
前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、
前記特定部によって特定された人物に対する特徴データを表示する表示部と
を有することを特徴とする表示制御装置。 An acquisition unit for acquiring image data and feature data of a person included in the supplied image from a different route from the supply route for supplying the image;
A storage unit for storing image data and feature data acquired by the acquisition unit for each person;
A detection unit that detects a face image closest to a position designated with respect to the image;
A specifying unit for specifying the person of the face image detected by the detection unit based on the image data of the person stored in the storage unit;
And a display unit that displays characteristic data for the person specified by the specifying unit.
前記特定部は、前記人物の画像データと、前記検出部によって検出された顔画像とを照合して人物を特定する
ことを特徴とする請求項1または請求項2に記載の表示制御装置。 The acquisition unit specifies a basic frame having the largest amount of information that is referred to by a frame of an image with the specified position, calculates a position corresponding to the position of the specified basic frame, and uses the specified basic frame To detect the face image closest to the calculated position,
The display control apparatus according to claim 1, wherein the specifying unit specifies the person by collating the image data of the person with the face image detected by the detection unit.
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を実行させる表示制御プログラム。 On the computer,
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control program for executing processing for displaying characteristic data for the specified person.
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を含むことを特徴とする表示制御方法。 A display control method in which a computer controls display,
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control method comprising a process of displaying characteristic data for the specified person.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011211468A JP2013073392A (en) | 2011-09-27 | 2011-09-27 | Display control device, display control program, and display control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011211468A JP2013073392A (en) | 2011-09-27 | 2011-09-27 | Display control device, display control program, and display control method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013073392A true JP2013073392A (en) | 2013-04-22 |
Family
ID=48477851
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011211468A Pending JP2013073392A (en) | 2011-09-27 | 2011-09-27 | Display control device, display control program, and display control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013073392A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014205707A1 (en) | 2013-03-29 | 2014-10-02 | Fuji Jukogyo K.K. | Display device for vehicle |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1065877A1 (en) * | 1999-07-01 | 2001-01-03 | Mitsubishi Denki Kabushiki Kaisha | Segment identification for compressed video bit-streams |
JP2006301855A (en) * | 2005-04-19 | 2006-11-02 | Fuji Photo Film Co Ltd | Image detection device |
JP2008066925A (en) * | 2006-09-06 | 2008-03-21 | Seiko Epson Corp | Information providing device, display controller, display device, and information providing method |
JP2008244997A (en) * | 2007-03-28 | 2008-10-09 | Canon Inc | Image processing system |
WO2009008125A1 (en) * | 2007-07-12 | 2009-01-15 | Olympus Medical Systems Corp. | Image processing device, its operating method and its program |
JP2009048447A (en) * | 2007-08-21 | 2009-03-05 | Oki Electric Ind Co Ltd | Image processing device, image processing method, and image processing program |
JP2009232250A (en) * | 2008-03-24 | 2009-10-08 | Panasonic Corp | Program information display apparatus and program information display method |
JP2009268032A (en) * | 2008-04-30 | 2009-11-12 | Canon Inc | Imaging apparatus |
EP2172850A2 (en) * | 2008-10-01 | 2010-04-07 | Sony Corporation | Information processing apparatus, information acquisition method, recording medium recording information acquisition program, and information retrieval system |
-
2011
- 2011-09-27 JP JP2011211468A patent/JP2013073392A/en active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1065877A1 (en) * | 1999-07-01 | 2001-01-03 | Mitsubishi Denki Kabushiki Kaisha | Segment identification for compressed video bit-streams |
JP2006301855A (en) * | 2005-04-19 | 2006-11-02 | Fuji Photo Film Co Ltd | Image detection device |
JP2008066925A (en) * | 2006-09-06 | 2008-03-21 | Seiko Epson Corp | Information providing device, display controller, display device, and information providing method |
JP2008244997A (en) * | 2007-03-28 | 2008-10-09 | Canon Inc | Image processing system |
WO2009008125A1 (en) * | 2007-07-12 | 2009-01-15 | Olympus Medical Systems Corp. | Image processing device, its operating method and its program |
JP2009048447A (en) * | 2007-08-21 | 2009-03-05 | Oki Electric Ind Co Ltd | Image processing device, image processing method, and image processing program |
JP2009232250A (en) * | 2008-03-24 | 2009-10-08 | Panasonic Corp | Program information display apparatus and program information display method |
JP2009268032A (en) * | 2008-04-30 | 2009-11-12 | Canon Inc | Imaging apparatus |
EP2172850A2 (en) * | 2008-10-01 | 2010-04-07 | Sony Corporation | Information processing apparatus, information acquisition method, recording medium recording information acquisition program, and information retrieval system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102014205707A1 (en) | 2013-03-29 | 2014-10-02 | Fuji Jukogyo K.K. | Display device for vehicle |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9100701B2 (en) | Enhanced video systems and methods | |
KR101869437B1 (en) | Multi-view audio and video interactive playback | |
US8978075B1 (en) | Associating media using metadata and controlling multiple-device synchronization and rendering | |
US8466961B2 (en) | Apparatus and method for outputting video images, and purchasing system | |
KR102068790B1 (en) | Estimating and displaying social interest in time-based media | |
KR101644789B1 (en) | Apparatus and Method for providing information related to broadcasting program | |
WO2020007009A1 (en) | Method and apparatus for determining background music of video, terminal device and storage medium | |
CN101601286B (en) | Concurrent presentation of video segments enabling rapid video file comprehension | |
US20170201793A1 (en) | TV Content Segmentation, Categorization and Identification and Time-Aligned Applications | |
US20150319506A1 (en) | Displaying data associated with a program based on automatic recognition | |
US10158920B2 (en) | Interaction system and interaction method thereof | |
US20150195626A1 (en) | Augmented media service providing method, apparatus thereof, and system thereof | |
US10114893B2 (en) | Method and system for information querying | |
CN112104915B (en) | Video data processing method and device and storage medium | |
JP2006209658A (en) | Device and method for display output and computer program | |
KR20210016080A (en) | Generating a video presentation to accompany audio | |
US9558784B1 (en) | Intelligent video navigation techniques | |
US9564177B1 (en) | Intelligent video navigation techniques | |
US20150177953A1 (en) | User interface displaying scene dependent attributes | |
US20140372424A1 (en) | Method and system for searching video scenes | |
CN114095793A (en) | Video playing method and device, computer equipment and storage medium | |
JP2013073392A (en) | Display control device, display control program, and display control method | |
KR102403149B1 (en) | Electric device and method for controlling thereof | |
KR101328270B1 (en) | Annotation method and augmenting video process in video stream for smart tv contents and system thereof | |
JP2006209657A (en) | Device and method for authoring and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140603 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141126 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141216 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150216 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150616 |