JP2013073392A - Display control device, display control program, and display control method - Google Patents

Display control device, display control program, and display control method Download PDF

Info

Publication number
JP2013073392A
JP2013073392A JP2011211468A JP2011211468A JP2013073392A JP 2013073392 A JP2013073392 A JP 2013073392A JP 2011211468 A JP2011211468 A JP 2011211468A JP 2011211468 A JP2011211468 A JP 2011211468A JP 2013073392 A JP2013073392 A JP 2013073392A
Authority
JP
Japan
Prior art keywords
image
frame
person
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011211468A
Other languages
Japanese (ja)
Inventor
Takuma Yamada
琢磨 山田
Masakazu Hori
真和 堀
Hiroyuki Maekawa
裕幸 前川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011211468A priority Critical patent/JP2013073392A/en
Publication of JP2013073392A publication Critical patent/JP2013073392A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To display information of a desired person in persons appearing in a program, on all programs in a versatile manner.SOLUTION: A display control device 8 includes: an information acquiring unit 164 that acquires image data and feature data of persons included in a supplied image, from a route different from a supply route for supplying the image; performer information 152 that stores the image data and the feature data acquired by the information acquiring unit 164 for every person; a face recognition unit 167 that detects a face image located nearest to a position specified to the image; a display information generating unit 166 that specifies the person of the face image detected by the face recognition unit 167 on the basis of the image data of the person stored in the performer information 152; and a display unit 13 that displays the feature data of the specified person.

Description

本発明は、表示制御装置等に関する。   The present invention relates to a display control device and the like.

テレビ番組の視聴者は、視聴画面内の出演者に関する情報を知りたい場合がある。かかる場合に、視聴画面内の対象とする人物における顔がカーソル表示によって囲われたとき、囲われた顔の画像データ内の人物を人物情報テーブルに基づいて特定し、特定した人物についての人物情報を人物情報テーブルから抽出して表示する技術がある。人物情報テーブルには、複数の人物についての人物特定情報および人物情報があらかじめ記憶されている。これにより、視聴者は、知りたい出演者に関する人物情報を知ることができる。   A viewer of a television program may want to know information about performers in the viewing screen. In such a case, when the face of the target person in the viewing screen is enclosed by the cursor display, the person in the image data of the enclosed face is specified based on the person information table, and the person information about the specified person Is extracted from the person information table and displayed. In the person information table, person specifying information and person information for a plurality of persons are stored in advance. Thereby, the viewer can know the personal information regarding the performer who wants to know.

また、テレビ番組を再生するビデオプレイヤでは、アクションが定義された表示オブジェクトを含む動画データに基づいて動画を再生表示する技術がある。かかる技術では、ビデオプレイヤは、再生表示されている動画に含まれる表示オブジェクトの選択を視聴者から受け付けると、選択を受け付けた表示オブジェクトに定義された説明情報を自動的に表示する。これにより、視聴者は、選択を受け付けた表示オブジェクト内の知りたい出演者に関する説明情報を知ることができる。   In addition, there is a technique for reproducing and displaying a moving image based on moving image data including a display object in which an action is defined in a video player that reproduces a television program. In such a technique, when the video player receives a selection of a display object included in the reproduced and displayed moving image from the viewer, the video player automatically displays the description information defined in the display object that has received the selection. Thereby, the viewer can know the explanatory information regarding the performer who wants to know in the display object which accepted selection.

特開2008−250654号公報JP 2008-250654 A 特開2008−66925号公報JP 2008-66925 A

しかしながら、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できないという問題がある。すなわち、テレビ番組を再生する従来のビデオプレイヤは、番組について再生表示される動画にアクションが定義された表示オブジェクトを含んでいれば、視聴者から選択された表示オブジェクトに含まれる所望の人物の説明情報を表示できる。つまり、ビデオプレイヤは、動画の作成元で、動画に表示オブジェクトを含むように作成された番組しか、対象となる人物の情報を表示できない。さらに、ビデオプレイヤは、番組について再生表示される動画に表示オブジェクトを含んでいなければ、所望の人物の顔を視聴者がカーソル表示によって囲んでも、囲んだ人物の情報を表示できないのは同様である。   However, there is a problem that information on a desired person among persons appearing in the program cannot be displayed universally for all programs. In other words, if a conventional video player that plays a television program includes a display object in which an action is defined in a video that is played back and displayed for the program, the description of a desired person included in the display object selected by the viewer Information can be displayed. That is, the video player can display the information of the target person only for a program that is created by a moving image and includes a display object. Further, if the video player does not include a display object in the video reproduced and displayed for the program, even if the viewer surrounds the face of the desired person with the cursor display, the information on the enclosed person cannot be displayed. is there.

なお、上記課題は、番組に出演している人物に限らず、番組に出ている物品でも同様に生ずる。   In addition, the said subject arises similarly not only in the person who appears in the program but with the goods which appear in the program.

開示の技術は、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できることを目的とする。   It is an object of the disclosed technique to display information on a desired person among persons appearing in a program for all programs.

1つの側面では、表示制御装置は、供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、前記特定部によって特定された人物に対する特徴データを表示する表示部とを有する。   In one aspect, the display control device acquires the image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image, and the image acquired by the acquiring unit. Based on a storage unit that stores data and feature data for each person, a detection unit that detects a face image closest to a specified position with respect to the image, and person image data stored in the storage unit A specifying unit that specifies a person of the face image detected by the detecting unit, and a display unit that displays characteristic data for the person specified by the specifying unit.

本願の開示する表示制御装置の一つの態様によれば、番組に出演している人物の中で所望の人物の情報を、全ての番組に対して汎用的に表示できる。   According to one aspect of the display control device disclosed in the present application, information on a desired person among persons appearing in a program can be displayed for all programs.

図1は、実施例に係る表示制御システムの構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating the configuration of the display control system according to the embodiment. 図2は、番組情報のデータ構造の一例を示す図である。FIG. 2 is a diagram illustrating an example of a data structure of program information. 図3は、出演者情報のデータ構造の一例を示す図である。FIG. 3 is a diagram illustrating an example of a data structure of performer information. 図4は、MPEG2のフレーム構成を説明する図である。FIG. 4 is a diagram for explaining the frame structure of MPEG2. 図5は、Pフレームの動き補償ブロックと動きベクトルを説明する図である。FIG. 5 is a diagram for explaining a motion compensation block and a motion vector of a P frame. 図6は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図(1)である。FIG. 6 is a diagram (1) illustrating a method for calculating coordinates corresponding to the I frame when the P frame is touched. 図7は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図(2)である。FIG. 7 is a diagram (2) for explaining a method of calculating coordinates corresponding to the I frame when the P frame is touched. 図8は、各フレームの対応座標を計算する方法を説明する図である。FIG. 8 is a diagram for explaining a method of calculating the corresponding coordinates of each frame. 図9は、実施例に係る情報取得部の処理手順を示すフローチャートである。FIG. 9 is a flowchart illustrating the processing procedure of the information acquisition unit according to the embodiment. 図10は、実施例に係る顔認識部の処理手順を示すフローチャート(1)である。FIG. 10 is a flowchart (1) illustrating the processing procedure of the face recognition unit according to the embodiment. 図11は、実施例に係る顔認識部の処理手順を示すフローチャート(2)である。FIG. 11 is a flowchart (2) illustrating the processing procedure of the face recognition unit according to the embodiment. 図12は、実施例に係る顔認識部の処理手順を示すフローチャート(3)である。FIG. 12 is a flowchart (3) illustrating the processing procedure of the face recognition unit according to the embodiment. 図13は、実施例に係る表示制御装置の表示画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a display screen of the display control apparatus according to the embodiment. 図14は、表示制御プログラムを実行するコンピュータの一例を示す図である。FIG. 14 is a diagram illustrating an example of a computer that executes a display control program.

以下に、本願の開示する表示制御装置、表示制御プログラムおよび表示制御方法の実施例を図面に基づいて詳細に説明する。しかし、本実施例によりこの発明が限定されるものではない。   Hereinafter, embodiments of a display control device, a display control program, and a display control method disclosed in the present application will be described in detail with reference to the drawings. However, the present invention is not limited to the present embodiment.

図1は、実施例に係る表示制御システムの構成を示す機能ブロック図である。図1に示すように、表示制御システム1は、放送局2と、映像サーバ3と、番組情報サーバ4と、検索エンジン5と、情報提供サーバ6と、ネットワーク7と、表示制御装置8とを有する。表示制御装置8は、放送局2と接続し、インターネットなどのネットワーク7を介して検索エンジン5および情報提供サーバ6と接続する。放送局2は、映像サーバ3および番組情報サーバ4と接続する。   FIG. 1 is a functional block diagram illustrating the configuration of the display control system according to the embodiment. As shown in FIG. 1, the display control system 1 includes a broadcast station 2, a video server 3, a program information server 4, a search engine 5, an information providing server 6, a network 7, and a display control device 8. Have. The display control device 8 is connected to the broadcasting station 2 and is connected to the search engine 5 and the information providing server 6 via a network 7 such as the Internet. The broadcasting station 2 is connected to the video server 3 and the program information server 4.

放送局2は、衛星放送波、地上波、ケーブルテレビ網、またはデータ通信網を通じてデジタルテレビ放送のデータを配信する。   The broadcast station 2 distributes digital television broadcast data through satellite broadcast waves, terrestrial waves, cable television networks, or data communication networks.

映像サーバ3は、放送局2から配信されるデジタルテレビ放送の映像データを記憶する。映像データは、MPEG規格により圧縮される。例えば、MPEG2(Moving Picture Experts Group phase2)の圧縮方式が採用される。   The video server 3 stores video data of digital television broadcast distributed from the broadcast station 2. Video data is compressed according to the MPEG standard. For example, MPEG2 (Moving Picture Experts Group phase 2) compression method is adopted.

番組情報サーバ4は、放送局2から配信されるデジタルテレビ放送の番組情報(番組表)を提供する。番組情報には、例えば番組名、放送日時、番組内容や出演者情報などが含まれる。すなわち、放送局2は、番組情報サーバ4から提供される番組情報を放送データにミックスして、ミックスした放送データを配信する。この番組情報を提供するサービスを電子番組案内(EPG:Electronic Program Guide)という。EPGは、ARIB標準規格ARIBSTD−B10「デジタル放送に使用する番組配列情報」やARIB技術資料ARIBTR−B14「地上デジタルテレビジョン放送運用規定」で規定されている。そして、EPGは、番組情報をEIT(Event Information Table)と呼ばれるデータ形式で提供する。   The program information server 4 provides digital TV broadcast program information (program guide) distributed from the broadcasting station 2. The program information includes, for example, a program name, broadcast date and time, program contents, performer information, and the like. That is, the broadcast station 2 mixes the program information provided from the program information server 4 with the broadcast data, and distributes the mixed broadcast data. This service providing program information is called an electronic program guide (EPG). The EPG is defined in the ARIB standard ARIB STD-B10 “program arrangement information used for digital broadcasting” and the ARIB technical data ARIBTR-B14 “terrestrial digital television broadcasting operation regulations”. The EPG provides program information in a data format called EIT (Event Information Table).

検索エンジン5は、ネットワーク7上にある画像などの情報を検索する機能を提供するサーバまたはシステムを含む。例えば、検索エンジン5には、画像検索の場合、Googleの画像検索、Yahooの画像検索、Bingの画像検索、Baiduの画像検索がある。情報提供サーバ6は、各種の情報を提供するサーバである。例えば、情報提供サーバ6は、人物に関する情報を提供したり、商品に関する情報を提供したりする。   The search engine 5 includes a server or system that provides a function of searching for information such as images on the network 7. For example, in the case of an image search, the search engine 5 includes a Google image search, a Yahoo image search, a Bing image search, and a Baidu image search. The information providing server 6 is a server that provides various types of information. For example, the information providing server 6 provides information related to a person or information related to a product.

表示制御装置8は、チューナ11と、ネットワークインタフェース部12と、表示部13と、入力部14と、記憶部15と、制御部16とを有する。チューナ11は、放送局2から配信された放送データを受信する。そして、チューナ11は、受信した放送データのうち映像データを映像処理部161に出力し、受信した放送データのうち番組情報をデータ処理部163に出力する。   The display control device 8 includes a tuner 11, a network interface unit 12, a display unit 13, an input unit 14, a storage unit 15, and a control unit 16. The tuner 11 receives broadcast data distributed from the broadcast station 2. Then, the tuner 11 outputs video data of the received broadcast data to the video processing unit 161, and outputs program information of the received broadcast data to the data processing unit 163.

ネットワークインタフェース部12は、ネットワーク7を介して、検索エンジン5や情報提供サーバ6とデータ通信を行う処理部である。   The network interface unit 12 is a processing unit that performs data communication with the search engine 5 and the information providing server 6 via the network 7.

表示部13は、映像や、映像に関する情報を表示する表示装置である。例えば、表示部13は、ディスプレイ、タッチパネルに対応する。入力部14は、視聴者が各種の情報を表示制御装置8に入力するための入力装置である。この入力部14によって、視聴者が表示部13に表示された映像を指定操作できる(以下、タッチするともいう)。すなわち、入力部14は、表示部13に表示された映像の中で視聴者が知りたい人物や商品またはこれらの近辺をタッチした位置を表示制御装置8に入力する。例えば、入力部14は、キーボード、マウス、タッチパネルに対応する。   The display unit 13 is a display device that displays video and information related to the video. For example, the display unit 13 corresponds to a display and a touch panel. The input unit 14 is an input device for the viewer to input various information to the display control device 8. With this input unit 14, the viewer can specify and operate the video displayed on the display unit 13 (hereinafter also referred to as touch). In other words, the input unit 14 inputs the person or product that the viewer wants to know in the video displayed on the display unit 13 or a position where the vicinity is touched to the display control device 8. For example, the input unit 14 corresponds to a keyboard, a mouse, and a touch panel.

記憶部15は、番組情報151および出演者情報152を記憶する。記憶部15は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。   The storage unit 15 stores program information 151 and performer information 152. The storage unit 15 corresponds to, for example, a semiconductor memory device such as a random access memory (RAM), a read only memory (ROM), and a flash memory, or a storage device such as a hard disk or an optical disk.

番組情報151は、EPGで提供される番組情報である。番組情報151は、EITで構成される。ここで、番組情報151のデータ構造について、図2を参照して説明する。図2に示すように、番組情報151には、番組名151a、項目名151b、項目内容151cが対応付けられる。   The program information 151 is program information provided by EPG. The program information 151 is composed of EIT. Here, the data structure of the program information 151 will be described with reference to FIG. As shown in FIG. 2, the program information 151 is associated with a program name 151a, an item name 151b, and an item content 151c.

項目名151bおよび項目内容151cは、項目名151bの数分だけ繰り返される。番組名151aは、番組の名称であり、例えば96バイト以下且つ全角40文字以下で表される。項目名151bは、番組に関する各種項目の名称であり、例えば16バイト以下且つ全角8文字以下で表される。項目名151bに挙げられる語句には、例えば出演者を示す「出演」、司会者を示す「司会」のほか、キャスター、リポーター、解説者、コメンテーター、アナウンサー、実況、ナレーター、声の出演、通訳、ゲストなどがある。項目内容151cは、項目名に対応する項目の内容であり、例えば440バイト以下且つ全角200文字以下で表される。   The item name 151b and the item content 151c are repeated by the number of the item names 151b. The program name 151a is the name of the program, and is represented by, for example, 96 bytes or less and 40 characters or less. The item name 151b is a name of various items related to the program, and is represented by, for example, 16 bytes or less and 8 characters or less. For example, in addition to “appearance” indicating the performer and “moderator” indicating the moderator, the words and phrases listed in the item name 151b include casters, reporters, commentators, commentators, announcers, live commentaries, narrators, voice appearances, interpreters, There are guests. The item content 151c is the content of the item corresponding to the item name, and is represented by, for example, 440 bytes or less and 200 full-width characters or less.

番組情報151は、例えば以下のようなデータ構造となる。項目名151bは、‘[ ]’や‘《 》’のような括弧で括るものとする。図2の例では、‘[ ]’を採用している。また、番組名151aと項目名151bの区切り、項目内容151cと項目名151bの区切りは、‘、’や‘,’のような区切り文字を使用する。図2の例では、‘、’を採用している。   The program information 151 has the following data structure, for example. The item name 151b is enclosed in parentheses such as “[]” and “<<”. In the example of FIG. 2, “[]” is adopted. Further, delimiters such as ‘,’ and ‘,’ are used as a delimiter between the program name 151a and the item name 151b, and as a delimiter between the item content 151c and the item name 151b. In the example of FIG. 2, ',' is adopted.

一例として、番組名151aが「ABCDEF」である場合、1つ目の項目名151bとして「[出演]」、項目内容151cとして「山田太郎」を記述している。2つめの項目名151bとして「[出演]」、項目内容151cとして「山田次郎」と記述している。3つめの項目名151bとして「[キャスター]」、項目内容151cとして「山田花子」と記述している。   As an example, when the program name 151a is “ABCDEF”, “[Appearance]” is described as the first item name 151b, and “Taro Yamada” is described as the item content 151c. “[Appearance]” is described as the second item name 151b, and “Jiro Yamada” is described as the item content 151c. “[Caster]” is described as the third item name 151b, and “Yamada Hanako” is described as the item content 151c.

出演者情報152は、番組に出演する出演者に関する情報である。ここで、出演者情報152のデータ構造について、図3を参照して説明する。図3に示すように、出演者情報152には、出演者名152a、出演者画像152b、特徴情報152cが対応付けられる。出演者名152aは、出演者の名前である。出演者画像152bは、出演者名152aで示される出演者の顔の静止画像である。特徴情報152cは、出演者の特徴情報であり、例えば生年月日、出身地、出演者に関連するサイトのURL(Uniform Resource Locator)を含む。出演者情報152に含まれる各種の情報は、情報取得部164によってネットワーク7を介して取得され、データ管理部165によって管理される。   The performer information 152 is information regarding performers who appear in the program. Here, the data structure of the performer information 152 will be described with reference to FIG. As shown in FIG. 3, performer name 152a, performer image 152b, and feature information 152c are associated with performer information 152. The performer name 152a is the name of the performer. The performer image 152b is a still image of the performer's face indicated by the performer name 152a. The characteristic information 152c is characteristic information of the performer, and includes, for example, the date of birth, birthplace, and URL (Uniform Resource Locator) of the site related to the performer. Various types of information included in the performer information 152 are acquired by the information acquisition unit 164 via the network 7 and managed by the data management unit 165.

一例として、出演者名152aが「山田太郎」である場合、出演者画像152bに山田太郎の顔画像が記憶される。また、特徴情報152cに生年月日として「1985年7月1日生まれ」、出身地として「東京都出身」、出演者に関連するサイトとして「http://〜yamadataro」が記憶される。   As an example, when the performer name 152a is “Taro Yamada”, the face image of Taro Yamada is stored in the performer image 152b. The feature information 152c stores “born July 1, 1985” as the date of birth, “born in Tokyo” as the place of birth, and “http: // ~ yamadataro” as the site related to the performers.

制御部16は、映像処理部161、映像出力部162、データ処理部163、情報取得部164、データ管理部165、表示情報生成部166および顔認識部167を有する。例えば、制御部16は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部16は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などの電子回路に対応する。   The control unit 16 includes a video processing unit 161, a video output unit 162, a data processing unit 163, an information acquisition unit 164, a data management unit 165, a display information generation unit 166, and a face recognition unit 167. For example, the control unit 16 corresponds to an integrated device such as an application specific integrated circuit (ASIC) or a field programmable gate array (FPGA). Moreover, the control part 16 respond | corresponds to electronic circuits, such as CPU (Central Processing Unit) and MPU (Micro Processing Unit), for example.

映像処理部161は、チューナ11から出力された映像データを映像処理し、映像処理した映像データを映像出力部162に出力する。映像出力部162は、映像処理部161によって映像処理された映像データを表示部13に出力する。   The video processing unit 161 performs video processing on the video data output from the tuner 11 and outputs the video data subjected to the video processing to the video output unit 162. The video output unit 162 outputs the video data processed by the video processing unit 161 to the display unit 13.

データ処理部163は、チューナ11から出力された番組情報をデータ処理し、データ処理した番組情報を情報取得部164に出力する。   The data processing unit 163 performs data processing on the program information output from the tuner 11, and outputs the data processed program information to the information acquisition unit 164.

情報取得部164は、データ処理部163から番組情報を取得し、取得した番組情報を解析し、解析した番組情報からキーワードとなる出演者名を抽出する。例えば、情報取得部164は、番組情報から番組に出演している人物の人物名(項目内容)を抽出する。   The information acquisition unit 164 acquires program information from the data processing unit 163, analyzes the acquired program information, and extracts performer names as keywords from the analyzed program information. For example, the information acquisition unit 164 extracts a person name (item content) of a person who appears in the program from the program information.

また、情報取得部164は、番組の映像を配信する配信経路と異なる経路から、番組情報から抽出した人物名をキーワードとして、人物名の顔の静止画像を取得する。すなわち、情報取得部164は、番組の映像を配信する放送局2とは異なる場所から、キーワードである人物名の顔の静止画像を取得する。例えば、情報取得部164は、ネットワーク7に接続された検索エンジン5を利用し、抽出した人物名をキーワードとした人物名の顔の静止画像を検索する。また、情報取得部164は、抽出した人物名および人物名から検索した静止画像をキーワードとして、ネットワーク7に接続された情報提供サーバ6からキーワードとした人物名の人物に関する情報を検索する。人物に関する情報として、生年月日、出身地、人物名の人物に関連するサイトが含まれる。   In addition, the information acquisition unit 164 acquires a still image of the face of the person name using a person name extracted from the program information as a keyword from a route different from the delivery route for distributing the video of the program. That is, the information acquisition unit 164 acquires a still image of the face of the person name as a keyword from a location different from the broadcast station 2 that distributes the video of the program. For example, the information acquisition unit 164 uses the search engine 5 connected to the network 7 to search for a still image of a face with a person name using the extracted person name as a keyword. Further, the information acquisition unit 164 searches the information providing server 6 connected to the network 7 for information related to the person with the person name using the extracted person name and the still image searched from the person name as a keyword. Information related to a person includes a site related to the person with the date of birth, hometown, and person name.

なお、情報取得部164は、番組情報に含まれる番組自体が放送局2から配信されるまでに、当該番組情報を取得する。そして、情報取得部164は、番組情報に含まれる番組自体が配信されるまでに、当該番組に係る人物に関する情報を検索し、検索した情報を後述するデータ管理部165によって記憶部15に記憶する。   The information acquisition unit 164 acquires the program information before the program itself included in the program information is distributed from the broadcast station 2. And the information acquisition part 164 searches the information regarding the person who concerns on the said program until the program itself contained in program information is delivered, and memorize | stores the searched information in the memory | storage part 15 by the data management part 165 mentioned later. .

データ管理部165は、情報取得部164で解析された番組情報を、記憶部15の番組情報151に記憶する。また、データ管理部165は、情報取得部164で検索された人物の顔の静止画像や人物に関する情報を出演者情報として、記憶部15の出演者情報152に記憶する。また、データ管理部165は、後述する表示情報生成部166から各種データの要求があると、要求されるデータを出演者情報152から読み出し、読み出したデータを引き渡す。   The data management unit 165 stores the program information analyzed by the information acquisition unit 164 in the program information 151 of the storage unit 15. Further, the data management unit 165 stores the still image of the person's face searched by the information acquisition unit 164 and information about the person in the performer information 152 of the storage unit 15 as performer information. In addition, when there is a request for various data from the display information generation unit 166 described later, the data management unit 165 reads the requested data from the performer information 152 and delivers the read data.

表示情報生成部166は、後述する顔認識部167に、映像の画像に対して指定された位置の最も近くにある顔画像を検出させ、検出させた顔画像について顔認識をさせる。そして、表示情報生成部166は、顔認識の結果を受けて、照合が一致した顔画像の人物(出演者名)を、出演者情報152に記憶された出演者画像に基づいて特定する。そして、表示情報生成部166は、特定した人物に対する特徴情報を表示させるべく、出演者情報152に記憶された特徴情報に基づいて表示情報を生成する。   The display information generation unit 166 causes the face recognition unit 167, which will be described later, to detect the face image closest to the specified position with respect to the image of the video, and to perform face recognition on the detected face image. Then, the display information generation unit 166 receives the face recognition result, and specifies the person (performer name) of the face image whose matching is matched based on the performer image stored in the performer information 152. Then, the display information generation unit 166 generates display information based on the feature information stored in the performer information 152 in order to display the feature information for the specified person.

また、表示情報生成部166は、データ処理部163から番組情報を取得し、取得した番組情報に記載された出演者などを所定のスイッチ操作があったとき表示させるべく、番組情報に記載された情報を含んだ表示情報を生成する。   Further, the display information generation unit 166 acquires the program information from the data processing unit 163 and is described in the program information so as to display the performers described in the acquired program information when a predetermined switch operation is performed. Display information including information is generated.

顔認識部167は、動画の画像に対して指定された位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。例えば、顔認識部167は、表示部13に表示された映像の画像に対して入力部14によってタッチされると、タッチされた画像のフレームの種類に応じて、当該フレームの近くの基本フレーム(以下、Iフレームともいう。)を特定する。そして、顔認識部167は、タッチされた画像中の指定座標に対応するIフレームの座標を算出する。   The face recognizing unit 167 detects an object that can be recognized as a face in the image closest to the position designated with respect to the moving image. For example, when the face recognition unit 167 touches the image of the video displayed on the display unit 13 with the input unit 14, a basic frame ( Hereinafter, it is also referred to as an I frame). Then, the face recognition unit 167 calculates the coordinates of the I frame corresponding to the designated coordinates in the touched image.

ここで、圧縮方式がMPEG2である場合の映像のフレーム構成について説明する。図4は、MPEG2のフレーム構成を説明する図である。図4に示すように、MPEG2のフレームは、Iフレーム(Intra-coded Frame)と、Pフレーム(Predicted Frame)と、Bフレーム(Bidirectional Predicted Frame)の3種類のフレームを有する。   Here, a video frame configuration when the compression method is MPEG2 will be described. FIG. 4 is a diagram for explaining the frame structure of MPEG2. As shown in FIG. 4, an MPEG2 frame has three types of frames: an I frame (Intra-coded Frame), a P frame (Predicted Frame), and a B frame (Bidirectional Predicted Frame).

Iフレームは、単一フレームだけで圧縮され、復号(デコード)結果の品質が高くなるように生成される。すなわち、Iフレームは、フレーム間予測を用いずに符号化されるフレームである。Pフレームは、時間軸順方向(前方向)のフレーム間予測により、Iフレームを参照し、参照したフレームからの差分情報で生成される。ビットレートの配分によってデコード結果の品質はIフレームと比較して低くなる場合がある。Bフレームは、時間軸順方向(前方向)および逆方向(後方向)のフレーム間予測により、前後のPフレームまたは前後のIフレームを参照し、参照したフレームからの差分情報で生成される。デコードの結果の品質はIフレームやPフレームと比較して低くなる。   The I frame is compressed by only a single frame and is generated so that the quality of the decoding result is high. That is, an I frame is a frame that is encoded without using inter-frame prediction. The P frame is generated with difference information from the referenced frame by referring to the I frame by inter-frame prediction in the time axis forward direction (forward direction). Depending on the bit rate distribution, the quality of the decoding result may be lower than that of the I frame. The B frame is generated with difference information from the referenced frame by referring to the preceding and following P frames or the preceding and following I frames by inter-frame prediction in the forward (forward) and backward (backward) directions of the time axis. The quality of the decoding result is lower than that of the I frame or P frame.

このようなMPEG2のフレーム構成の下、オリジナルフレームが順方向に4フレーム(フレーム1〜4)あるとする。この場合、MPEG2では、例えば順方向の一番前のオリジナルのフレーム1がIフレームとして生成される。したがって、顔認識部167は、表示部13に表示された映像のIフレームに対してタッチされると、タッチされたIフレームを特定する。   It is assumed that there are four original frames (frames 1 to 4) in the forward direction under the MPEG2 frame configuration. In this case, in MPEG2, for example, the first original frame 1 in the forward direction is generated as an I frame. Therefore, when the face recognition unit 167 is touched with respect to the I frame of the video displayed on the display unit 13, the face recognition unit 167 identifies the touched I frame.

また、Pフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とオリジナルのフレーム4との差分情報で生成される。したがって、顔認識部167は、表示部13に表示された映像のPフレームに対してタッチされると、Pフレームが参照するIフレームを特定する。   The P frame is generated by difference information between the first original frame 1 and the original frame 4 for generating the I frame. Therefore, when the face recognition unit 167 is touched with respect to the P frame of the video displayed on the display unit 13, the face recognition unit 167 specifies the I frame referred to by the P frame.

また、最初のBフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とPフレームを生成する4番目のオリジナルのフレーム4とオリジナルのフレーム2との差分情報で生成される。さらに、次のBフレームは、Iフレームを生成する1番目のオリジナルのフレーム1とPフレームを生成する4番目のオリジナルのフレーム4とオリジナルのフレーム3との差分情報で生成される。したがって、顔認識部167は、表示部13に表示された映像のBフレームに対してタッチされると、Bフレームが参照するPフレームを特定し、さらにPフレームが参照するIフレームを特定する。   The first B frame is generated by difference information between the first original frame 1 for generating the I frame, the fourth original frame 4 for generating the P frame, and the original frame 2. Further, the next B frame is generated by difference information between the first original frame 1 for generating the I frame, the fourth original frame 4 for generating the P frame, and the original frame 3. Therefore, when the face recognition unit 167 is touched on the B frame of the video displayed on the display unit 13, the face recognition unit 167 specifies the P frame referred to by the B frame, and further specifies the I frame referred to by the P frame.

なお、フレーム間予測では、フレーム間の動きを補う「動き補償」の技術が用いられている。この動き補償を行うために、画像間の動きがあった部分(ブロック)の動き量を推定する「動きベクトル」を差分情報に含んで符号化される。例えば、Pフレームの動き補償が行われたブロック(以降、動き補償ブロックという。)と動きベクトルについて、図5を参照して説明する。図5は、Pフレームの動き補償ブロックと動きベクトルを説明する図である。ここでは、PフレームがIフレームを参照しているものとする。Pフレームの動き補償ブロックは、参照するIフレームの動きがあった動き補償ブロックから動きベクトル分プラスに移動した位置となる。図5の例では、Iフレームの動きがあった動き補償ブロックB1を(xa1、ya1)と(xb1、yb1)から生成される矩形とし、動きベクトルV12を(xa2−xa1、ya2−ya1)とする。すると、Pフレームの動き補償ブロックB2は、(xa2、ya2)と(xb2、yb2)から生成される矩形となる。言い換えると、Pフレームが参照するIフレームの動き補償ブロックB1は、Pフレームの動き補償ブロックB2から動きベクトルV12分マイナスに移動した位置、つまり戻した位置となる。   In the inter-frame prediction, a “motion compensation” technique that compensates for the motion between frames is used. In order to perform this motion compensation, the difference information includes a “motion vector” that estimates the amount of motion of a portion (block) in which there is motion between images. For example, a block in which P frame motion compensation has been performed (hereinafter referred to as a motion compensation block) and a motion vector will be described with reference to FIG. FIG. 5 is a diagram for explaining a motion compensation block and a motion vector of a P frame. Here, it is assumed that the P frame refers to the I frame. The motion compensation block for the P frame is a position shifted from the motion compensation block in which the motion of the I frame to be referenced has moved by a motion vector plus. In the example of FIG. 5, the motion compensation block B1 in which the motion of the I frame has occurred is a rectangle generated from (xa1, ya1) and (xb1, yb1), and the motion vector V12 is (xa2-xa1, ya2-ya1) To do. Then, the motion compensation block B2 of the P frame becomes a rectangle generated from (xa2, ya2) and (xb2, yb2). In other words, the motion compensation block B1 of the I frame referred to by the P frame is a position shifted from the motion compensation block B2 of the P frame by a motion vector V12 minus, that is, a returned position.

続いて、図5と同じ条件において、Pフレームがタッチされた場合のタッチされた座標に対応するIフレームの座標の計算方法について、図6を参照して説明する。図6および図7は、Pフレームがタッチされた場合のIフレームに対応する座標を計算する方法を説明する図である。図6では、動き補償ブロック内の座標がタッチされた場合についての説明であり、図7では、動き補償ブロック外の座標がタッチされた場合についての説明である。   Next, a method of calculating the coordinates of the I frame corresponding to the touched coordinates when the P frame is touched under the same conditions as in FIG. 5 will be described with reference to FIG. 6 and 7 are diagrams illustrating a method for calculating coordinates corresponding to the I frame when the P frame is touched. FIG. 6 illustrates the case where the coordinates inside the motion compensation block are touched, and FIG. 7 illustrates the case where the coordinates outside the motion compensation block are touched.

図6に示すように、顔認識部167は、タッチされた座標P2がPフレームの動き補償ブロックB2内である場合、動きベクトルV12を使ってIフレームに対応する座標P1を計算する。すなわち、顔認識部167は、Pフレームの動き補償ブロックB2内にタッチされた座標P2から動きベクトルV12分マイナスに移動した位置、つまり戻した位置をIフレームの対応する座標P1として算出する。   As shown in FIG. 6, when the touched coordinate P2 is within the motion compensation block B2 of the P frame, the face recognition unit 167 calculates the coordinate P1 corresponding to the I frame using the motion vector V12. That is, the face recognizing unit 167 calculates the position moved negatively by the motion vector V12 from the coordinate P2 touched in the motion compensation block B2 of the P frame, that is, the returned position as the corresponding coordinate P1 of the I frame.

図7に示すように、顔認識部167は、タッチされた座標P3がPフレームの動き補償ブロックB2外である場合、座標P3が動きのあった部分でないので、タッチされた座標P3と同じ座標をIフレームの対応する座標として算出する。   As shown in FIG. 7, when the touched coordinate P3 is outside the motion compensation block B2 of the P frame, the face recognition unit 167 has the same coordinate as the touched coordinate P3 because the coordinate P3 is not a portion that has moved. As the corresponding coordinates of the I frame.

図1に戻って、顔認識部167は、特定したIフレーム内にある顔と認識できるオブジェクトを全て検出したうえで、検出したオブジェクトの中からIフレームの対応する座標の最も近くにあるオブジェクトを検出する。また、顔認識部167は、検出したオブジェクトを、出演者情報152に記憶された出演者画像と照合して顔認識を行い、顔認識の結果を表示情報生成部166に通知する。   Returning to FIG. 1, the face recognition unit 167 detects all objects that can be recognized as faces in the specified I frame, and then selects the object closest to the corresponding coordinates of the I frame from the detected objects. To detect. In addition, the face recognition unit 167 performs face recognition by comparing the detected object with the performer image stored in the performer information 152 and notifies the display information generation unit 166 of the result of face recognition.

また、顔認識部167は、タッチされた座標について、経時的に変化する各フレームに対応する座標を計算する。例えば、顔認識部167は、タッチされた画像のフレームの種類に応じて、タッチされた画像中の指定座標に対応する各フレームの座標を算出する。   Further, the face recognition unit 167 calculates coordinates corresponding to each frame that changes with time for the touched coordinates. For example, the face recognition unit 167 calculates the coordinates of each frame corresponding to the designated coordinates in the touched image in accordance with the type of the touched image frame.

ここで、Pフレームがタッチされた場合のタッチされた座標に対応する各フレームの座標の計算方法について、図8を参照して説明する。図8は、各フレームの対応座標を計算する方法を説明する図である。なお、タッチされたフレームはPフレームであり、タッチされた座標は、動き補償ブロックB31内の座標P00(xa0、ya0)である場合について説明する。   Here, a method of calculating the coordinates of each frame corresponding to the touched coordinates when the P frame is touched will be described with reference to FIG. FIG. 8 is a diagram for explaining a method of calculating the corresponding coordinates of each frame. The case where the touched frame is a P frame and the touched coordinates are coordinates P00 (xa0, ya0) in the motion compensation block B31 will be described.

図8に示すように、顔認識部167は、タッチされた座標P00がPフレームの動き補償ブロックB31内であるので、動きベクトルを使ってIフレームに対応する座標P01(xa1、ya1)を計算し、計算した座標を開始フレームの座標とする。すなわち、顔認識部167は、Pフレームの動き補償ブロックB31内にタッチされた座標P00から動きベクトル分マイナスに移動した位置、つまり戻した位置をIフレームの対応する座標P01として算出する。   As shown in FIG. 8, the face recognition unit 167 calculates the coordinate P01 (xa1, ya1) corresponding to the I frame using the motion vector because the touched coordinate P00 is in the motion compensation block B31 of the P frame. Then, the calculated coordinates are set as the coordinates of the start frame. That is, the face recognizing unit 167 calculates the position moved negative by the motion vector from the coordinate P00 touched in the motion compensation block B31 of the P frame, that is, the returned position as the corresponding coordinate P01 of the I frame.

次に、顔認識部167は、開始フレーム以降の各Pフレームの対応座標を開始フレームの座標P00と各Pフレームの動きベクトルとから算出する。図8では、顔認識部167は、開始フレームの次のPフレームの対応座標について、開始フレームの座標P00と動きベクトルとから座標P02(xa2、ya2)を算出する。同様に、顔認識部167は、次のIフレーム前までの他のPフレームの対応座標を算出する。図8では、顔認識部167は、タッチされたPフレームの次のPフレームの対応座標をP04(xa4、ya4)と算出し、さらに次のPフレームの対応座標をP05(xa5、ya5)と算出する。そして、顔認識部167は、開始フレームの対応座標P01と最後のPフレームの対応座標P05とから算出される対応座標の移動量に基づいて、次のIフレームの対応座標P06(xa6、ya6)を予測する。図8では、顔認識部167は、以下のように予測できる。
xa6=xa1+(xa5−xa1)×5/4
ya6=ya1+(ya5−ya1)×5/4
Next, the face recognition unit 167 calculates the corresponding coordinates of each P frame after the start frame from the coordinates P00 of the start frame and the motion vector of each P frame. In FIG. 8, the face recognition unit 167 calculates coordinates P02 (xa2, ya2) from the coordinates P00 of the start frame and the motion vector for the corresponding coordinates of the P frame next to the start frame. Similarly, the face recognition unit 167 calculates corresponding coordinates of other P frames up to the next I frame. In FIG. 8, the face recognition unit 167 calculates the corresponding coordinates of the next P frame after the touched P frame as P04 (xa4, ya4), and further sets the corresponding coordinates of the next P frame as P05 (xa5, ya5). calculate. Then, the face recognition unit 167, based on the movement amount of the corresponding coordinates calculated from the corresponding coordinates P01 of the start frame and the corresponding coordinates P05 of the last P frame, the corresponding coordinates P06 (xa6, ya6) of the next I frame. Predict. In FIG. 8, the face recognition unit 167 can predict as follows.
xa6 = xa1 + (xa5-xa1) × 5/4
ya6 = ya1 + (ya5-ya1) × 5/4

図1に戻って、顔認識部167は、さらに、経時的に変化する各フレームの、情報を表示する座標をそれぞれ計算する。例えば、顔認識部167は、検出したオブジェクトと重複する領域外の座標を、情報を表示する座標として算出する。例えば、顔認識部167は、開始フレームについて、検出したオブジェクトの位置と、タッチされた座標に対応する対応座標とに基づいて、検出したオブジェクトの位置と重ならないように情報を表示する座標を算出する。一例として、顔認識部167は、開始フレームについて、タッチされた座標に対応する対応座標が、検出したオブジェクトの位置と重ならない場合、情報を表示する座標を対応座標とする。また、顔認識部167は、開始フレームについて、タッチされた座標に対応する対応座標が、検出したオブジェクトの位置と重なる場合、情報を表示する座標を検出したオブジェクトの位置と重ならない座標にする。そして、顔認識部167は、開始フレームの情報を表示する座標と各フレームの動き補償とを利用して、各フレームの情報を表示する座標を算出する。なお、Iフレームの情報を表示する座標に対応する各フレームの座標を計算する方法については、図8で示したように、タッチされた座標に対応する各フレームの座標の計算方法と同様であるので、その説明を省略する。   Returning to FIG. 1, the face recognition unit 167 further calculates coordinates for displaying information of each frame that changes over time. For example, the face recognition unit 167 calculates coordinates outside the area overlapping with the detected object as coordinates for displaying information. For example, for the start frame, the face recognition unit 167 calculates coordinates for displaying information so as not to overlap the detected object position based on the detected object position and the corresponding coordinates corresponding to the touched coordinates. To do. As an example, when the corresponding coordinate corresponding to the touched coordinate does not overlap the detected object position for the start frame, the face recognition unit 167 sets the coordinate for displaying information as the corresponding coordinate. Further, when the corresponding coordinates corresponding to the touched coordinates overlap the detected object position, the face recognition unit 167 sets the coordinates for displaying information to the coordinates that do not overlap the detected object position. Then, the face recognition unit 167 calculates coordinates for displaying the information of each frame using the coordinates for displaying the information of the start frame and the motion compensation of each frame. The method for calculating the coordinates of each frame corresponding to the coordinates for displaying the information of the I frame is the same as the method for calculating the coordinates of each frame corresponding to the touched coordinates as shown in FIG. Therefore, the description is omitted.

また、顔認識部167は、各フレームの情報を表示する座標を含む算出結果を表示情報生成部166に通知する。   Further, the face recognition unit 167 notifies the display information generation unit 166 of a calculation result including coordinates for displaying information of each frame.

[実施例に係る情報取得部の処理手順]
次に、実施例に係る情報取得部の処理手順を、図9を参照して説明する。図9は、実施例に係る情報取得部の処理手順を示すフローチャートである。
[Processing Procedure of Information Acquisition Unit According to Embodiment]
Next, a processing procedure of the information acquisition unit according to the embodiment will be described with reference to FIG. FIG. 9 is a flowchart illustrating the processing procedure of the information acquisition unit according to the embodiment.

まず、情報取得部164は、番組情報を取得したか否かを判定する(ステップS11)。番組情報を取得していないと判定した場合(ステップS11;No)、情報取得部164は、番組情報を取得するまで判定処理を繰り返す。一方、番組情報を取得したと判定した場合(ステップS11;Yes)、情報取得部164は、取得した番組情報から出演者名を抽出する。   First, the information acquisition unit 164 determines whether program information has been acquired (step S11). When it is determined that the program information has not been acquired (step S11; No), the information acquisition unit 164 repeats the determination process until the program information is acquired. On the other hand, when it determines with having acquired program information (step S11; Yes), the information acquisition part 164 extracts a performer name from the acquired program information.

そして、情報取得部164は、番組の映像を配信する配信経路と異なる経路から、番組情報から抽出した出演者名をキーワードとして、出演者の静止画と出演者に関する情報を検索する(ステップS12)。例えば、情報取得部164は、ネットワーク7に接続された検索エンジン5を利用し、出演者名をキーワードとして出演者名の顔の静止画像を検索する。そして、情報取得部164は、出演者名および検索した静止画像をキーワードとして、ネットワーク7に接続された情報提供サーバ6から出演者に関する情報を検索する。   And the information acquisition part 164 searches the information about the performer's still image and the performer from the route different from the delivery route for delivering the video of the program, using the performer name extracted from the program information as a keyword (step S12). . For example, the information acquisition unit 164 uses the search engine 5 connected to the network 7 to search for a still image of the face of the performer name using the performer name as a keyword. And the information acquisition part 164 searches the information regarding the performer from the information provision server 6 connected to the network 7 by using the performer name and the searched still image as keywords.

そして、情報取得部164は、検索した情報を、データ管理部165を通じて出演者情報152に記憶する(ステップS13)。すなわち、出演者情報152には、出演者の顔の静止画像や出演者に関する情報が記憶される。   And the information acquisition part 164 memorize | stores the searched information in the performer information 152 through the data management part 165 (step S13). That is, the performer information 152 stores a still image of the performer's face and information about the performer.

[実施例に係る顔認識部の処理手順]
次に、実施例に係る顔認識部の処理手順を、図10〜図12を参照して説明する。図10〜図12は、実施例に係る顔認識部の処理手順を示すフローチャートである。なお、表示部13に番組の映像が表示されているものとする。
[Processing procedure of face recognition unit according to embodiment]
Next, the processing procedure of the face recognition unit according to the embodiment will be described with reference to FIGS. 10 to 12 are flowcharts illustrating the processing procedure of the face recognition unit according to the embodiment. It is assumed that the video of the program is displayed on the display unit 13.

まず、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったか否かを判定する(ステップS201)。タッチ入力がなかったと判定した場合(ステップS201;No)、顔認識部167は、タッチ入力があるまで判定処理を繰り返す。一方、タッチ入力があったと判定した場合(ステップS201;Yes)、顔認識部167は、タッチ入力で指定された座標の最も近くの基本フレーム(Iフレーム)を特定し、指定された座標に対応する基本フレームの座標を計算する(ステップS202)。   First, the face recognition unit 167 determines whether or not a touch input has been made on the image of the video displayed on the display unit 13 (step S201). When it is determined that there is no touch input (step S201; No), the face recognition unit 167 repeats the determination process until there is a touch input. On the other hand, when it is determined that there is a touch input (step S201; Yes), the face recognition unit 167 identifies the basic frame (I frame) nearest to the coordinates specified by the touch input, and corresponds to the specified coordinates. The coordinates of the basic frame to be calculated are calculated (step S202).

そして、顔認識部167は、特定した基本フレームで顔認識処理を行う(ステップS203)。例えば、顔認識部167は、特定した基本フレームで顔と認識できるオブジェクトを全て検出したうえで、検出したオブジェクトの中から、計算した基本フレームの座標の最も近くにあるオブジェクトを検出する。そして、顔認識部167は、検出したオブジェクトを、出演者情報152の出演者画像と照合して顔認識を行う。   Then, the face recognition unit 167 performs face recognition processing with the identified basic frame (step S203). For example, the face recognizing unit 167 detects all objects that can be recognized as faces in the identified basic frame, and then detects an object closest to the calculated coordinates of the basic frame from the detected objects. Then, the face recognition unit 167 collates the detected object with the performer image of the performer information 152 and performs face recognition.

続いて、顔認識部167は、タッチ入力で指定された座標について、経時的に変化する各フレームの対応座標を計算する(ステップS204)。さらに、顔認識部167は、経時的に変化する各フレームの、情報を表示する座標をそれぞれ計算する(ステップS205)。例えば、顔認識部167は、基本フレームで検出したオブジェクトの位置と、各フレームの対応座標と、フレーム間の動き補償とを利用して、情報を表示する座標を計算する。   Subsequently, the face recognizing unit 167 calculates the corresponding coordinates of each frame that changes over time with respect to the coordinates designated by the touch input (step S204). Further, the face recognition unit 167 calculates coordinates for displaying information of each frame that changes over time (step S205). For example, the face recognition unit 167 calculates coordinates for displaying information using the position of the object detected in the basic frame, the corresponding coordinates of each frame, and motion compensation between frames.

そして、顔認識部167は、表示情報生成部166に結果を通知する(ステップS206)。すなわち、顔認識部167は、顔認識の結果および各フレームの情報を表示する座標の計算結果を表示情報生成部166に通知する。   Then, the face recognition unit 167 notifies the display information generation unit 166 of the result (step S206). That is, the face recognition unit 167 notifies the display information generation unit 166 of the result of face recognition and the calculation result of coordinates for displaying information of each frame.

その後、顔認識部167は、表示制御処理を終了したか否かを判定する(ステップS207)。表示制御処理を終了していないと判定した場合(ステップS207;No)、顔認識部167は、ステップS201に移行する。一方、表示制御処理を終了したと判定した場合(ステップS207;Yes)、顔認識部167は、顔認識処理を終了する。   Thereafter, the face recognition unit 167 determines whether or not the display control process has ended (step S207). If it is determined that the display control process has not ended (step S207; No), the face recognition unit 167 proceeds to step S201. On the other hand, when it is determined that the display control process has ended (step S207; Yes), the face recognition unit 167 ends the face recognition process.

[Iフレームの対応座標計算処理]
次に、図10のステップS202に示した、指定された座標に対応するIフレームの対応座標計算処理について、図11を参照して説明する。
[Corresponding coordinate calculation processing of I frame]
Next, the corresponding coordinate calculation processing of the I frame corresponding to the designated coordinates shown in step S202 of FIG. 10 will be described with reference to FIG.

まず、顔認識部167は、タッチされたフレームの種類がPフレームであるか否かを判定する(ステップS21)。タッチされたフレームの種類がPフレームであると判定した場合(ステップS21;Yes)、顔認識部167は、Pフレームが参照するIフレームを特定する(ステップS22)。さらに、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS23)。タッチされた座標が動き補償ブロック内である場合(ステップS23;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出する(ステップS24)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS23;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とする(ステップS25)。そして、顔認識部167は、タッチされたフレームの種類がPフレームであった場合のIフレームの対応座標計算処理を終了する。   First, the face recognition unit 167 determines whether or not the touched frame type is a P frame (step S21). When it is determined that the type of the touched frame is a P frame (step S21; Yes), the face recognition unit 167 identifies an I frame that is referred to by the P frame (step S22). Furthermore, the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block (step S23). When the touched coordinate is within the motion compensation block (step S23; Yes), the face recognition unit 167 calculates the corresponding coordinate of the I frame corresponding to the touched coordinate using the motion vector (step S24). . On the other hand, when the touched coordinate is not within the motion compensation block (step S23; No), the face recognition unit 167 sets the touched coordinate as the corresponding coordinate of the I frame (step S25). Then, the face recognition unit 167 ends the corresponding coordinate calculation processing for the I frame when the type of the touched frame is the P frame.

ステップS21に戻って、タッチされたフレームの種類がPフレームでないと判定した場合(ステップS21;No)、顔認識部167は、タッチされたフレームの種類がBフレームであるか否かを判定する(ステップS26)。タッチされたフレームの種類がBフレームでないと判定した場合(ステップS26;No)、顔認識部167は、タッチされたフレームの種類をIフレームと特定し、タッチされた座標をIフレームの対応座標とする(ステップS27)。そして、顔認識部167は、タッチされたフレームの種類がIフレームであった場合のIフレームの対応座標計算処理を終了する。   Returning to step S21, when it is determined that the touched frame type is not a P frame (step S21; No), the face recognition unit 167 determines whether the touched frame type is a B frame. (Step S26). When it is determined that the type of the touched frame is not the B frame (step S26; No), the face recognition unit 167 identifies the type of the touched frame as the I frame, and the touched coordinates are the corresponding coordinates of the I frame. (Step S27). Then, the face recognition unit 167 ends the corresponding coordinate calculation processing for the I frame when the type of the touched frame is the I frame.

ステップS26に戻って、タッチされたフレームの種類がBフレームであると判定した場合(ステップS26;Yes)、顔認識部167は、Bフレームが参照する前方のIフレームまたはPフレームを選択する(ステップS28)。そして、顔認識部167は、選択した参照フレームがIフレームであるか否かを判定する(ステップS29)。参照フレームがIフレームであると判定した場合(ステップS29;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS30)。タッチされた座標が動き補償ブロック内である場合(ステップS30;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出する(ステップS31)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS30;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とする(ステップS32)。そして、顔認識部167は、ステップS40に移行する。   Returning to step S26, when it is determined that the type of the touched frame is the B frame (step S26; Yes), the face recognition unit 167 selects the front I frame or P frame referred to by the B frame ( Step S28). Then, the face recognition unit 167 determines whether or not the selected reference frame is an I frame (step S29). When it is determined that the reference frame is the I frame (step S29; Yes), the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block (step S30). When the touched coordinate is within the motion compensation block (step S30; Yes), the face recognition unit 167 calculates the corresponding coordinate of the I frame corresponding to the touched coordinate using the motion vector (step S31). . On the other hand, when the touched coordinate is not within the motion compensation block (step S30; No), the face recognition unit 167 sets the touched coordinate as the corresponding coordinate of the I frame (step S32). Then, the face recognition unit 167 proceeds to step S40.

一方、Iフレームでない、すなわちPフレームであると判定した場合(ステップS29;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS33)。タッチされた座標が動き補償ブロック内である場合(ステップS33;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS34)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS33;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS35)。   On the other hand, when it is determined that the frame is not an I frame, that is, a P frame (step S29; No), the face recognition unit 167 determines whether or not the touched coordinate is within the motion compensation block (step S33). When the touched coordinate is within the motion compensation block (step S33; Yes), the face recognition unit 167 calculates the corresponding coordinate of the P frame corresponding to the touched coordinate using the motion vector (step S34). . On the other hand, when the touched coordinate is not within the motion compensation block (step S33; No), the face recognition unit 167 sets the touched coordinate as the corresponding coordinate of the P frame (step S35).

続いて、顔認識部167は、Pフレームが参照するIフレームを特定する(ステップS36)。さらに、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS37)。タッチされた座標が動き補償ブロック内である場合(ステップS37;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し(ステップS38)、ステップS40に移行する。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS37;No)、顔認識部167は、タッチされた座標をIフレームの対応座標とし(ステップS39)、ステップS40に移行する。   Subsequently, the face recognizing unit 167 specifies the I frame referred to by the P frame (step S36). Furthermore, the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block (step S37). When the touched coordinate is within the motion compensation block (step S37; Yes), the face recognition unit 167 calculates the corresponding coordinate of the I frame corresponding to the touched coordinate using the motion vector (step S38). The process proceeds to step S40. On the other hand, when the touched coordinate is not within the motion compensation block (step S37; No), the face recognition unit 167 sets the touched coordinate as the corresponding coordinate of the I frame (step S39), and proceeds to step S40.

ステップS40では、顔認識部167は、Bフレームが参照する後方のフレームを選択したか否かを判定する(ステップS40)。Bフレームが参照する後方のフレームを選択していないと判定した場合(ステップS40;No)、顔認識部167は、Bフレームが参照する後方のIフレームまたはPフレームを選択する(ステップS41)。そして、顔認識部167は、Iフレームの対応座標計算処理を継続すべく、ステップS29に移行する。一方、Bフレームが参照する後方のフレームを選択したと判定した場合(ステップS40;Yes)、顔認識部167は、タッチされたフレームの種類がBフレームであった場合のIフレームの対応座標計算処理を終了する。   In step S40, the face recognizing unit 167 determines whether or not the rear frame referred to by the B frame has been selected (step S40). When it is determined that the rear frame referred to by the B frame has not been selected (step S40; No), the face recognition unit 167 selects the rear I frame or P frame referred to by the B frame (step S41). Then, the face recognition unit 167 proceeds to step S29 in order to continue the corresponding coordinate calculation processing of the I frame. On the other hand, when it is determined that the rear frame to be referred to by the B frame is selected (step S40; Yes), the face recognition unit 167 calculates the corresponding coordinates of the I frame when the type of the touched frame is the B frame. End the process.

[各フレームの対応座標計算処理]
次に、図10のステップS204に示した、指定された座標に対応する各フレームの対応座標計算処理について、図12を参照して説明する。
[Corresponding coordinate calculation processing of each frame]
Next, the corresponding coordinate calculation processing of each frame corresponding to the designated coordinates shown in step S204 of FIG. 10 will be described with reference to FIG.

まず、顔認識部167は、タッチされたフレームの種類がIフレームであるか否かを判定する(ステップS51)。タッチされたフレームの種類がIフレームであると判定した場合(ステップS51;Yes)、顔認識部167は、タッチされたフレームを開始フレーム、次のIフレームを終了フレームとする(ステップS52)。そして、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS53)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。   First, the face recognition unit 167 determines whether or not the type of the touched frame is an I frame (step S51). When it is determined that the type of the touched frame is the I frame (step S51; Yes), the face recognition unit 167 sets the touched frame as the start frame and the next I frame as the end frame (step S52). Then, the face recognition unit 167 sets the touched coordinates as the coordinates of the start frame (step S53). Then, the face recognition unit 167 proceeds to step S82 in order to calculate the coordinates of each frame.

ステップS51に戻って、タッチされたフレームの種類がIフレームでないと判定した場合(ステップS51;No)、顔認識部167は、タッチされたフレームの種類がPフレームであるか否かを判定する(ステップS54)。タッチされたフレームの種類がPフレームであると判定した場合(ステップS54;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS55)。タッチされた座標が動き補償ブロック内である場合(ステップS55;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を開始フレームの座標とする(ステップS56)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS55;No)、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS57)。そして、顔認識部167は、各フレームの座標を算出すべく、ステップS82に移行する。   Returning to step S51, when it is determined that the touched frame type is not the I frame (step S51; No), the face recognition unit 167 determines whether the touched frame type is the P frame. (Step S54). When it is determined that the type of the touched frame is the P frame (step S54; Yes), the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block (step S55). When the touched coordinate is within the motion compensation block (step S55; Yes), the face recognition unit 167 calculates the corresponding coordinate of the I frame corresponding to the touched coordinate using the motion vector, and the calculated coordinate Is the coordinates of the start frame (step S56). Then, the face recognition unit 167 proceeds to step S82 in order to calculate the coordinates of each frame. On the other hand, when the touched coordinate is not within the motion compensation block (step S55; No), the face recognition unit 167 sets the touched coordinate as the coordinate of the start frame (step S57). Then, the face recognition unit 167 proceeds to step S82 in order to calculate the coordinates of each frame.

ステップS54に戻って、タッチされたフレームの種類がPフレームでないと判定した場合(ステップS54;No)、顔認識部167は、タッチされたフレームがBフレームであるか否かを判定する(ステップS58)。タッチされたフレームがBフレームでないと判定した場合(ステップS58;No)、顔認識部167は、フレームが未知の種類であるので、処理を終了する。   Returning to step S54, when it is determined that the type of the touched frame is not a P frame (step S54; No), the face recognition unit 167 determines whether or not the touched frame is a B frame (step S54). S58). When it is determined that the touched frame is not the B frame (step S58; No), the face recognition unit 167 ends the process because the frame is an unknown type.

一方、タッチされたフレームがBフレームであると判定した場合(ステップS58;Yes)、顔認識部167は、前方の参照フレームがIフレームであるか否かを判定する(ステップS59)。前方の参照フレームがIフレームであると判定した場合(ステップS59;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS60)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS60;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を開始フレームの座標とする(ステップS61)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS60;No)、顔認識部167は、タッチされた座標を開始フレームの座標とする(ステップS62)。   On the other hand, when it is determined that the touched frame is the B frame (step S58; Yes), the face recognition unit 167 determines whether or not the front reference frame is the I frame (step S59). When it is determined that the front reference frame is the I frame (step S59; Yes), the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block (step S60). When it is determined that the touched coordinates are within the motion compensation block (step S60; Yes), the face recognition unit 167 calculates the corresponding coordinates of the I frame corresponding to the touched coordinates using the motion vector, The calculated coordinates are set as the coordinates of the start frame (step S61). On the other hand, when the touched coordinate is not within the motion compensation block (step S60; No), the face recognition unit 167 sets the touched coordinate as the coordinate of the start frame (step S62).

ステップS59に戻って、前方の参照フレームがIフレームでない、すなわちPフレームであると判定した場合(ステップS59;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS63)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS63;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS64)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS63;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS65)。   Returning to step S59, when it is determined that the front reference frame is not an I frame, that is, a P frame (step S59; No), the face recognition unit 167 determines whether or not the touched coordinate is within the motion compensation block. Is determined (step S63). When it is determined that the touched coordinates are within the motion compensation block (step S63; Yes), the face recognition unit 167 calculates the corresponding coordinates of the P frame corresponding to the touched coordinates using the motion vector ( Step S64). On the other hand, when the touched coordinate is not within the motion compensation block (step S63; No), the face recognition unit 167 sets the touched coordinate as the corresponding coordinate of the P frame (step S65).

さらに、顔認識部167は、Pフレームが参照するIフレームを選択する(ステップS66)。そして、顔認識部167は、Pフレームの対応座標が動き補償ブロック内であるか否かを判定する(ステップS67)。Pフレームの対応座標が動き補償ブロック内であると判定した場合(ステップS67;Yes)、顔認識部167は、動きベクトルを使って、Iフレームの対応座標を算出し、算出した座標を開始フレームの座標候補1とする(ステップS68)。一方、Pフレームの対応座標が動き補償ブロック内でないと判定した場合(ステップS67;No)、顔認識部167は、Pフレームの対応座標を開始フレームの座標候補1とする(ステップS69)。   Furthermore, the face recognition unit 167 selects an I frame that is referred to by the P frame (step S66). Then, the face recognition unit 167 determines whether or not the corresponding coordinates of the P frame are within the motion compensation block (step S67). When it is determined that the corresponding coordinates of the P frame are within the motion compensation block (step S67; Yes), the face recognition unit 167 calculates the corresponding coordinates of the I frame using the motion vector, and uses the calculated coordinates as the start frame. Coordinate candidate 1 (step S68). On the other hand, when it is determined that the corresponding coordinate of the P frame is not within the motion compensation block (step S67; No), the face recognition unit 167 sets the corresponding coordinate of the P frame as the coordinate candidate 1 of the start frame (step S69).

次に、顔認識部167は、後方の参照フレームがIフレームであるか否かを判定する(ステップS70)。後方の参照フレームがIフレームであると判定した場合(ステップS70;Yes)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS71)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS71;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するIフレームの対応座標を算出し、算出した座標を終了フレームの座標とする(ステップS72)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS71;No)、顔認識部167は、タッチされた座標を終了フレームの座標とする(ステップS73)。   Next, the face recognition unit 167 determines whether or not the rear reference frame is an I frame (step S70). When it is determined that the rear reference frame is the I frame (step S70; Yes), the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block (step S71). When it is determined that the touched coordinate is within the motion compensation block (step S71; Yes), the face recognition unit 167 calculates the corresponding coordinate of the I frame corresponding to the touched coordinate using the motion vector, The calculated coordinates are set as the coordinates of the end frame (step S72). On the other hand, when the touched coordinate is not within the motion compensation block (step S71; No), the face recognition unit 167 sets the touched coordinate as the coordinate of the end frame (step S73).

ステップS70に戻って、後方の参照フレームがIフレームでない、すなわちPフレームであると判定した場合(ステップS70;No)、顔認識部167は、タッチされた座標が動き補償ブロック内であるか否かを判定する(ステップS74)。タッチされた座標が動き補償ブロック内であると判定した場合(ステップS74;Yes)、顔認識部167は、動きベクトルを使って、タッチされた座標に対応するPフレームの対応座標を算出する(ステップS75)。一方、タッチされた座標が動き補償ブロック内でない場合(ステップS74;No)、顔認識部167は、タッチされた座標をPフレームの対応座標とする(ステップS76)。   Returning to step S70, when it is determined that the rear reference frame is not the I frame, that is, the P frame (step S70; No), the face recognition unit 167 determines whether or not the touched coordinates are within the motion compensation block. Is determined (step S74). When it is determined that the touched coordinate is within the motion compensation block (step S74; Yes), the face recognition unit 167 calculates the corresponding coordinate of the P frame corresponding to the touched coordinate using the motion vector ( Step S75). On the other hand, when the touched coordinate is not within the motion compensation block (step S74; No), the face recognition unit 167 sets the touched coordinate as the corresponding coordinate of the P frame (step S76).

さらに、顔認識部167は、Pフレームが参照するIフレームを選択する(ステップS77)。そして、顔認識部167は、Pフレームの対応座標が動き補償ブロック内であるか否かを判定する(ステップS78)。Pフレームの対応座標が動き補償ブロック内であると判定した場合(ステップS78;Yes)、顔認識部167は、動きベクトルを使って、Iフレームの対応座標を算出し、算出した座標を開始フレームの座標候補2とする(ステップS79)。一方、Pフレームの対応座標が動き補償ブロック内でないと判定した場合(ステップS78;No)、顔認識部167は、Pフレームの対応座標を開始フレームの座標候補2とする(ステップS80)。   Further, the face recognition unit 167 selects an I frame that is referred to by the P frame (step S77). Then, the face recognition unit 167 determines whether or not the corresponding coordinates of the P frame are within the motion compensation block (step S78). When it is determined that the corresponding coordinates of the P frame are within the motion compensation block (step S78; Yes), the face recognition unit 167 calculates the corresponding coordinates of the I frame using the motion vector, and uses the calculated coordinates as the start frame. Coordinate candidate 2 (step S79). On the other hand, when it is determined that the corresponding coordinate of the P frame is not within the motion compensation block (step S78; No), the face recognition unit 167 sets the corresponding coordinate of the P frame as the coordinate candidate 2 of the start frame (step S80).

そして、顔認識部167は、開始フレームの座標候補1と座標候補2から動き補償ブロックが指定されている方を選択し、選択した座標候補を開始フレームの座標とする(ステップS81)。   The face recognizing unit 167 then selects the one in which the motion compensation block is designated from the coordinate candidates 1 and 2 of the start frame, and sets the selected coordinate candidate as the coordinates of the start frame (step S81).

続いて、顔認識部167は、開始フレームから終了フレームまでの開始フレーム以降のPフレームの対応座標を、動き補償を利用して算出する(ステップS82)。そして、顔認識部167は、タッチされた座標に対応する終了フレームの対応座標を算出する(ステップS83)。例えば、顔認識部167は、タッチされた座標に対応する開始フレームの対応座標と、最後のPフレームの対応座標とから算出される対応座標の移動量に基づいて、終了フレームの対応座標を予測する。   Subsequently, the face recognition unit 167 calculates the corresponding coordinates of the P frames after the start frame from the start frame to the end frame using motion compensation (step S82). Then, the face recognition unit 167 calculates the corresponding coordinates of the end frame corresponding to the touched coordinates (step S83). For example, the face recognition unit 167 predicts the corresponding coordinates of the end frame based on the movement amount of the corresponding coordinates calculated from the corresponding coordinates of the start frame corresponding to the touched coordinates and the corresponding coordinates of the last P frame. To do.

そして、顔認識部167は、タッチされた座標に対応するBフレームの対応座標を算出する(ステップS84)。例えば、顔認識部167は、開始フレーム、終了フレームおよびPフレームの対応座標と、動き補償とを利用して算出する。そして、顔認識部167は、各フレームの対応座標計算処理を終了する。   Then, the face recognition unit 167 calculates the corresponding coordinates of the B frame corresponding to the touched coordinates (step S84). For example, the face recognition unit 167 calculates using the corresponding coordinates of the start frame, the end frame, and the P frame, and motion compensation. Then, the face recognition unit 167 ends the corresponding coordinate calculation process for each frame.

[表示制御装置の表示画面の一例]
次に、表示制御装置8の表示画面の一例について、図13を参照して説明する。図13は、実施例に係る表示制御装置の表示画面の一例を示す図である。なお、表示されている映像に係る番組の人物に関する情報は、番組が配信される前に記憶部15の出演者情報152に記憶されたものとする。図13に示すように、顔認識部167は、表示部13に表示されている映像の画像G1に対してタッチ入力があったか否かを判定し、ここでは、タッチ入力があったものと判定する。そして、顔認識部167は、タッチ入力で指定された座標をP11とする。
[Example of display screen of display control device]
Next, an example of the display screen of the display control device 8 will be described with reference to FIG. FIG. 13 is a diagram illustrating an example of a display screen of the display control apparatus according to the embodiment. In addition, the information regarding the person of the program related to the displayed video is assumed to be stored in the performer information 152 of the storage unit 15 before the program is distributed. As illustrated in FIG. 13, the face recognition unit 167 determines whether or not there is a touch input on the image G1 of the video displayed on the display unit 13. Here, it is determined that there is a touch input. . Then, the face recognition unit 167 sets the coordinates designated by the touch input as P11.

そして、顔認識部167は、タッチ入力で指定された座標P11の最も近くにある画像G1中の顔と認識できるオブジェクトを検出する。ここでは、顔認識部167は、座標P11の最も近くにある画像G1中の顔と認識できるオブジェクトO1を検出する。そして、顔認識部167は、検出したオブジェクトO1を、記憶部15に記憶された出演者情報152の出演者画像と照合して顔認識を行う。   Then, the face recognition unit 167 detects an object that can be recognized as a face in the image G1 that is closest to the coordinate P11 designated by the touch input. Here, the face recognition unit 167 detects an object O1 that can be recognized as a face in the image G1 that is closest to the coordinate P11. Then, the face recognition unit 167 performs face recognition by comparing the detected object O1 with the performer image of the performer information 152 stored in the storage unit 15.

そして、表示情報生成部166は、顔認識部167による顔認識の結果、照合が一致した顔の人物を出演者情報152に基づいて特定し、特定した人物に対する特徴情報を顔の位置と重ならないように表示部13に表示させる。ここでは、画像G2にオブジェクトO1に相当する顔の位置と重ならないように、出演者名「・・・・さん」および出演者に関連するサイト「http:://・・・」が表示される。   Then, the display information generation unit 166 identifies a person whose face matches as a result of face recognition by the face recognition unit 167 based on the performer information 152, and the feature information for the identified person does not overlap the face position. As shown in FIG. Here, the name of the performer “...” and the site “http :: // ...” related to the performer are displayed in the image G2 so as not to overlap the position of the face corresponding to the object O1. The

なお、顔認識部167は、動画の画像に対してタッチされると、タッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。この場合、顔認識部167は、動画の画像に対してタッチされても、配信される動画の表示速度を変えない(1倍速)で、タッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出する。しかしながら、顔認識部167は、これに限定されず、動画の画像に対してタッチされると、タイムシフト状態に移行し、移行した状態でタッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出しても良い。ここで、タイムシフト状態とは、表示画面を一時停止し、配信されている動画を一時的に録画する状態をいう。タイムシフト状態であっても、顔認識部167は、1倍速の場合と同様、タッチされたフレームが参照するIフレームを特定し、特定したIフレームを用いてタッチされた位置の最も近くにある顔画像を検出すれば良い。   Note that when the moving image is touched, the face recognition unit 167 detects an object that can be recognized as a face in the image closest to the touched position. In this case, the face recognizing unit 167 does not change the display speed of the distributed moving image even if the moving image is touched (single speed), and the face in the image closest to the touched position is detected. Detect recognizable objects. However, the face recognition unit 167 is not limited to this, and when a moving image is touched, the face recognition unit 167 shifts to a time shift state, and the face in the image closest to the touched position in the shifted state Recognizable objects may be detected. Here, the time shift state refers to a state where the display screen is paused and the distributed video is temporarily recorded. Even in the time shift state, the face recognizing unit 167 identifies the I frame referred to by the touched frame as in the case of 1 × speed, and is closest to the touched position using the identified I frame. What is necessary is just to detect a face image.

また、顔認識部167は、動画の画像に対してタッチされると、ゆっくり表示する状態に移行し、移行した状態でタッチされた位置の最も近くにある画像中の顔と認識できるオブジェクトを検出しても良い。ゆっくり表示する状態であっても、顔認識部167は、1倍速の場合と同様、タッチされたフレームが参照するIフレームを特定し、特定したIフレームを用いてタッチされた位置の最も近くにある顔画像を検出すれば良い。   Further, the face recognition unit 167 shifts to a slowly displaying state when a moving image is touched, and detects an object that can be recognized as a face in the image closest to the touched position in the shifted state. You may do it. Even in the state of slow display, the face recognition unit 167 identifies the I frame that is referred to by the touched frame, as in the case of the 1 × speed, and is closest to the touched position using the identified I frame. A certain face image may be detected.

[実施例の効果]
上記実施例によれば、表示制御装置8は、配信される動画に含まれる、出演者の顔の静止画像および出演者の人物に関する情報を、動画を配信する配信経路と異なる経路から検索する。そして、表示制御装置8は、検索された出演者の顔画像および人物に関する情報を出演者毎に出演者情報152に記憶する。そして、表示制御装置8は、動画の画像に対して指定された位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像に基づいて、検出された顔画像の人物を特定する。そして、表示制御装置8は、特定した人物に関する情報を表示する。かかる構成によれば、表示制御装置8は、配信される動画に含まれる出演者の顔画像および人物に関する情報を、動画を配信する配信経路と異なる経路にある検索エンジン5などから検索して出演者情報152に記憶することとした。このため、表示制御装置8は、動画で指定された位置の最も近くにある顔画像との比較に出演者情報152の顔画像を用いることにより該当する顔画像の人物に関する情報を、動画を配信する放送局2に依存しないで、どんな動画に対しても汎用的に表示できる。つまり、表示制御装置8は、動画に出演している出演者の中で視聴者が所望の出演者の情報を、放送局2に依存しないで、どんな動画であっても提供できる。
[Effect of Example]
According to the above-described embodiment, the display control device 8 searches for information related to the still image of the performer's face and the performer's person included in the distributed moving image from a route different from the distribution route for distributing the moving image. And the display control apparatus 8 memorize | stores the information regarding the searched performer's face image and person in the performer information 152 for every performer. Then, the display control device 8 detects the face image closest to the position designated with respect to the moving image. Then, the display control device 8 specifies the person of the detected face image based on the performer's face image stored in the performer information 152. And the display control apparatus 8 displays the information regarding the specified person. According to such a configuration, the display control device 8 performs a search by searching for information on the face image and the person of the performer included in the distributed video from the search engine 5 on a different route from the distribution route for distributing the video. The information is stored in the person information 152. For this reason, the display control device 8 distributes the moving image information about the person of the corresponding face image by using the face image of the performer information 152 for comparison with the face image nearest to the position specified by the moving image. It can be displayed universally for any moving image without depending on the broadcasting station 2 to be used. That is, the display control device 8 can provide information on the desired performer among the performers appearing in the moving image, regardless of the broadcast station 2, regardless of the moving image.

また、上記実施例によれば、表示制御装置8は、動画に含まれる出演者の名前を放送局2から取得し、取得した出演者の名前をキーワードとして、当該出演者の名前に対応する人物の顔画像および人物に関する情報を検索する。かかる構成によれば、表示制御装置8は、動画に含まれる出演者の名前を用いて、出演者の名前に対応する人物の顔画像および人物に関する情報を検索することとしたので、容易に出演者の名前に対応する人物に関する情報を取得できる。   Moreover, according to the said Example, the display control apparatus 8 acquires the name of the performer contained in a moving image from the broadcast station 2, and uses the acquired performer's name as a keyword, and the person corresponding to the name of the performer concerned. Search for information about face images and people. According to this configuration, the display control device 8 uses the name of the performer included in the video to search for the face image of the person corresponding to the name of the performer and information about the person, so that the appearance can be easily performed. Information about the person corresponding to the person's name can be acquired.

また、上記実施例によれば、表示制御装置8は、位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの当該位置に対応する位置を算出する。そして、表示制御装置8は、特定した基本フレームを用いて算出した位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像と、検出された顔画像とを照合して人物を特定する。かかる構成によれば、表示制御装置8は、位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを用いて該当する顔画像を検出するので、出演者情報152に記憶された出演者の顔画像と精度良く照合することができる。この結果、表示制御装置8は、指定した位置の最も近くにある顔画像の人物に関する正確な情報を提供できる。   Further, according to the above-described embodiment, the display control device 8 specifies the basic frame with the largest amount of information that is referred to by the frame of the image whose position is specified, and determines the position corresponding to the position of the specified basic frame. calculate. Then, the display control device 8 detects the face image closest to the position calculated using the identified basic frame. And the display control apparatus 8 collates the performer's face image memorize | stored in the performer information 152, and the detected face image, and specifies a person. According to such a configuration, the display control device 8 detects the corresponding face image using the basic frame having the largest amount of information, which is referred to by the frame of the image whose position is specified, and therefore is stored in the performer information 152. It is possible to accurately collate with the performer's face image. As a result, the display control device 8 can provide accurate information regarding the person of the face image closest to the designated position.

また、上記実施例によれば、表示制御装置8は、動画に含まれる出演者名を動画が配信されるまでに取得し、取得した出演者名をキーワードとして、当該出演者名に対応する人物の顔画像および人物に関する情報を、動画が配信されるまでに検索する。そして、表示制御装置8は、検索された出演者の顔画像および人物に関する情報を出演者毎に出演者情報152に記憶する。かかる構成によれば、表示制御装置8は、動画が配信されるまでに、動画に含まれる出演者名を取得し、取得した出演者名をキーワードとした情報を検索することとした。このため、表示制御装置8は、実際に動画が配信されたときに出演者情報152に反映されていれば、出演者情報152を用いて視聴者が所望の出演者の情報を高速に表示できる。   Moreover, according to the said Example, the display control apparatus 8 acquires the performer name contained in a moving image by the time a moving image is distributed, and uses the acquired performer name as a keyword and the person corresponding to the performer name. Search for information about face images and people before the video is distributed. And the display control apparatus 8 memorize | stores the information regarding the searched performer's face image and person in the performer information 152 for every performer. According to such a configuration, the display control device 8 acquires the performer name included in the video before the video is distributed, and searches for information using the acquired performer name as a keyword. For this reason, the display control apparatus 8 can display the information of a desired performer at high speed using the performer information 152 if it is reflected in the performer information 152 when the moving image is actually distributed. .

また、上記実施例によれば、表示制御装置8は、動画の画像に対して位置が指定されると、一時停止してタイムシフト状態に移行し、移行した状態で指定された位置の最も近くにある顔画像を検出する。そして、表示制御装置8は、出演者情報152に記憶された出演者の顔画像に基づいて、検出された顔画像の人物を特定する。かかる構成によれば、表示制御装置8は、タイムシフト状態に移行した場合であっても、検出した顔画像の人物を、出演者情報152に記憶された顔画像に基づいて特定できる。このため、表示制御装置8は、特定した顔画像の人物について、動画が配信される放送局2に依存しないで、どんな動画に対しても汎用的に表示することが可能となる。   Further, according to the above embodiment, when the position is specified for the moving image, the display control device 8 pauses and shifts to the time shift state, and is closest to the position specified in the shifted state. The face image at is detected. Then, the display control device 8 specifies the person of the detected face image based on the performer's face image stored in the performer information 152. According to such a configuration, the display control device 8 can specify the person of the detected face image based on the face image stored in the performer information 152 even when the display control apparatus 8 shifts to the time shift state. For this reason, the display control device 8 can display the person of the specified face image for any video regardless of the broadcast station 2 to which the video is distributed.

なお、上記実施例では、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の最も近くにある顔画像を検出し、検出した顔画像を出演者情報152の出演者画像と照合して顔認識を行う。そして、表示情報生成部166が、顔認識部167による顔認識の結果、照合が一致した顔の人物を出演者情報152に基づいて特定し、特定した人物に対する特徴情報を表示部13に表示させる。しかしながら、表示情報生成部166は、表示部13に表示させる対象を人物に対する情報に代えて、商品に対する情報としても良い。この場合、放送局2から配信される番組情報に、商品名を含むようにする。そして、情報取得部164は、番組情報を取得し、取得した番組情報を解析し、解析した番組情報からキーワードとなる商品名を抽出する。そして、情報取得部164は、例えばテレビショッピング等の番組を配信する配信経路と異なる経路から、商品名をキーワードとして、商品名の商品の静止画像やその他の特徴情報を取得し、出演者情報152に相当する商品情報に記憶する。そして、顔認識部167は、表示部13に表示されている映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の最も近くにある商品の画像を検出し、検出した商品の画像を商品情報の商品の静止画像と照合してパターン認識を行う。そして、表示情報生成部166が、顔認識部167によるパターン認識の結果、照合が一致した商品を商品情報に基づいて特定し、特定した商品に対する特徴情報を表示部13に表示させるようにすれば良い。   In the above embodiment, the face recognition unit 167 detects the face image closest to the coordinates designated by the touch input when there is a touch input to the image of the image displayed on the display unit 13. Then, the detected face image is collated with the performer image of the performer information 152 to perform face recognition. Then, the display information generation unit 166 identifies the person whose face matches as a result of the face recognition by the face recognition unit 167 based on the performer information 152 and causes the display unit 13 to display the characteristic information for the identified person. . However, the display information generation unit 166 may replace the information to be displayed on the display unit 13 with the information about the person and use the information about the product. In this case, the product name is included in the program information distributed from the broadcasting station 2. And the information acquisition part 164 acquires program information, analyzes the acquired program information, and extracts the product name used as a keyword from the analyzed program information. Then, the information acquisition unit 164 acquires a still image of the product with the product name as a keyword and other feature information from a route different from the delivery route for distributing a program such as TV shopping, for example, and performs the performer information 152. Is stored in the product information corresponding to. Then, when there is a touch input on the image of the image displayed on the display unit 13, the face recognition unit 167 detects the image of the product closest to the coordinates specified by the touch input and detects Pattern recognition is performed by comparing the product image with the still image of the product in the product information. Then, if the display information generation unit 166 identifies a product that matches as a result of pattern recognition by the face recognition unit 167 based on the product information, the display unit 13 displays characteristic information for the identified product. good.

また、上記実施例では、表示制御装置8は、動画を対象にし、動画の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにした。しかしながら、表示制御装置8は、静止画を対象にし、静止画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにしても良い。   Further, in the above embodiment, the display control device 8 targets a moving image, and displays information about a face near the coordinates specified by the touch input when there is a touch input on the image of the moving image. . However, the display control device 8 may target a still image and display information related to a face near the coordinates specified by the touch input when a touch input is performed on the still image.

また、上記実施例では、表示制御装置8は、放送局2から配信された映像を対象にし、映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにした。しかしながら、表示制御装置8は、ビデオから供給された映像を対象にし、映像の画像に対してタッチ入力があったとき、タッチ入力で指定された座標の近くの顔に関する情報を表示するようにしても良い。この場合、情報取得部164は、映像が供給される供給経路と異なる経路にある情報提供サーバ6から、再生するビデオのタイトルをキーワードとして、タイトルに対応する番組情報を取得する。そして、情報取得部164は、取得した番組情報を解析し、解析した番組情報からキーワードとなる人物名を抽出すれば良い。これにより、表示制御装置8は、再生するビデオの映像に含まれる人物の人物名を用いて、人物名に対応する人物の顔画像および人物に関する情報を検索でき、容易にこれらの情報を取得できる。この結果、表示制御装置8は、ビデオの動画に出演している出演者の中で視聴者が所望の出演者の情報を、映像の供給元のビデオに依存しないで、どんな動画であっても提供できる。   In the above embodiment, the display control device 8 targets the video distributed from the broadcasting station 2 and relates to a face near the coordinates specified by the touch input when the touch input is performed on the video image. Information was displayed. However, the display control device 8 targets the video supplied from the video, and displays information about the face near the coordinates specified by the touch input when there is a touch input on the video image. Also good. In this case, the information acquisition unit 164 acquires program information corresponding to the title from the information providing server 6 on a different route from the supply route through which the video is supplied, using the title of the video to be played as a keyword. And the information acquisition part 164 should just analyze the acquired program information, and should extract the person name used as a keyword from the analyzed program information. As a result, the display control device 8 can search for information on a person's face image corresponding to the person name and information on the person using the person name included in the video to be played back, and can easily acquire such information. . As a result, the display control device 8 does not depend on the video of the video supply source for the information on the desired performer among the performers appearing in the video of the video. Can be provided.

[プログラムなど]
なお、表示制御装置8は、既知のパーソナルコンピュータ、ワークステーションなどの情報処理装置に、上記した情報取得部164、データ管理部165、表示情報生成部166および顔認識部167などの各機能を搭載することによって実現することができる。
[Programs]
The display control device 8 is equipped with functions such as the information acquisition unit 164, the data management unit 165, the display information generation unit 166, and the face recognition unit 167 in an information processing apparatus such as a known personal computer or workstation. Can be realized.

また、図示した各装置の各構成要素は、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的態様は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、情報取得部164とデータ管理部165とを1個の部として統合しても良い。一方、顔認識部167を、指定座標の基本フレームに対応する座標を計算する計算部と、基本フレームで顔認識する顔認識部と、指定座標の各フレームに対応する座標を計算する計算部と、表示座標の各フレームに対応する座標を計算する計算部とに分散しても良い。また、出演者情報152などを記憶する記憶部を表示制御装置8の外部装置としてネットワーク7経由で接続するようにしても良い。   In addition, each component of each illustrated apparatus does not necessarily need to be physically configured as illustrated. That is, the specific mode of distribution / integration of each device is not limited to that shown in the figure, and all or a part thereof may be functionally or physically distributed or arbitrarily distributed in arbitrary units according to various loads or usage conditions. Can be integrated and configured. For example, the information acquisition unit 164 and the data management unit 165 may be integrated as one unit. On the other hand, the face recognition unit 167 includes a calculation unit that calculates coordinates corresponding to a basic frame of designated coordinates, a face recognition unit that recognizes a face using basic frames, and a calculation unit that calculates coordinates corresponding to each frame of designated coordinates; Alternatively, it may be distributed to a calculation unit that calculates coordinates corresponding to each frame of display coordinates. Further, a storage unit that stores performer information 152 and the like may be connected as an external device of the display control device 8 via the network 7.

また、上記実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータで実行することによって実現することができる。そこで、以下では、図14を用いて、図1に示した表示制御装置8の制御部16と同様の機能を有する表示制御プログラムを実行するコンピュータの一例を説明する。   The various processes described in the above embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. Therefore, in the following, an example of a computer that executes a display control program having the same function as the control unit 16 of the display control device 8 illustrated in FIG. 1 will be described with reference to FIG.

図14は、表示制御プログラムを実行するコンピュータの一例を示す図である。図14に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203を有する。また、コンピュータ200は、記憶媒体からプログラム等を読取る読み取り装置204と、ネットワークを介して他のコンピュータなどとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207を有する。さらに、コンピュータ200は、放送局から配信された放送データを受信するチューナ208を有する。そして、各装置201〜208は、バス209に接続される。   FIG. 14 is a diagram illustrating an example of a computer that executes a display control program. As shown in FIG. 14, the computer 200 includes a CPU 201 that executes various arithmetic processes, an input device 202 that receives input of data from a user, and a display 203. The computer 200 also includes a reading device 204 that reads a program and the like from a storage medium, and an interface device 205 that exchanges data with other computers and the like via a network. The computer 200 also includes a RAM 206 that temporarily stores various information and a hard disk device 207. Furthermore, the computer 200 includes a tuner 208 that receives broadcast data distributed from a broadcasting station. The devices 201 to 208 are connected to the bus 209.

ハードディスク装置207には、図1に示した制御部16と同様の機能を有する表示制御プログラム207aが記憶される。また、ハードディスク装置207には、図1に示した記憶部15に記憶された各種情報に対応する表示制御関連情報207bが記憶される。   The hard disk device 207 stores a display control program 207a having the same function as the control unit 16 shown in FIG. The hard disk device 207 stores display control related information 207b corresponding to various information stored in the storage unit 15 shown in FIG.

そして、CPU201が表示制御プログラム207aをハードディスク装置207から読み出してRAM206に展開することにより、表示制御プログラム207aは、表示制御プロセス206aとして機能するようになる。そして、表示制御プロセス206aは、表示制御関連情報207bから読み出した情報などを適宜RAM206上の自身に割り当てられた領域に展開し、この展開したデータなどに基づいて各種データ処理を実行する。   Then, the CPU 201 reads the display control program 207a from the hard disk device 207 and develops it in the RAM 206, so that the display control program 207a functions as the display control process 206a. Then, the display control process 206a expands the information read from the display control related information 207b and the like in an area allocated to itself on the RAM 206 as appropriate, and executes various data processing based on the expanded data.

なお、表示制御プログラム207aや表示制御関連情報207bについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に表示制御プログラム207aなどを記憶させておく。そして、コンピュータ200がこれらから表示制御プログラム207aなどを読み出して実行するようにしても良い。   Note that the display control program 207a and the display control related information 207b are not necessarily stored in the hard disk device 207 from the beginning. For example, the display control program 207a and the like are stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 200. Then, the computer 200 may read and execute the display control program 207a and the like from these.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、
前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、
前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、
前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、
前記特定部によって特定された人物に対する特徴データを表示する表示部と
を有することを特徴とする表示制御装置。
(Supplementary Note 1) An acquisition unit that acquires image data and feature data of a person included in a supplied image from a route different from a supply route for supplying an image;
A storage unit for storing image data and feature data acquired by the acquisition unit for each person;
A detection unit that detects a face image closest to a position designated with respect to the image;
A specifying unit for specifying the person of the face image detected by the detection unit based on the image data of the person stored in the storage unit;
And a display unit that displays characteristic data for the person specified by the specifying unit.

(付記2)前記取得部は、前記画像に含まれる人物の名前を前記画像が供給される供給経路または当該供給経路と異なる経路から取得し、取得した人物の名前から当該名前に対応する人物の画像データおよび特徴データを取得することを特徴とする付記1に記載の表示制御装置。 (Additional remark 2) The said acquisition part acquires the name of the person included in the said image from the supply path | route to which the said image is supplied, or a different path | route from the said supply path | route, and the person corresponding to the said name is acquired from the acquired person's name. The display control apparatus according to appendix 1, wherein image data and feature data are acquired.

(付記3)前記取得部は、前記位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの前記位置に対応する位置を算出し、特定した基本フレームを用いて前記算出した位置の最も近くにある顔画像を検出し、
前記特定部は、前記人物の画像データと、前記検出部によって検出された顔画像とを照合して人物を特定する
ことを特徴とする付記1または付記2に記載の表示制御装置。
(Additional remark 3) The said acquisition part specifies the basic frame with the most information content which the flame | frame of the image by which the said position was designated references, calculated the position corresponding to the said position of the specified basic frame, and specified Using a basic frame to detect the face image closest to the calculated position,
The display control apparatus according to appendix 1 or appendix 2, wherein the specifying unit specifies the person by collating the image data of the person with the face image detected by the detection unit.

(付記4)前記取得部は、前記画像に含まれる人物の名前を前記画像が配信されるまでに取得し、取得した人物の名前から名前に対応する人物の画像データおよび特徴データを取得することを特徴とする付記2に記載の表示制御装置。 (Supplementary Note 4) The acquisition unit acquires a name of a person included in the image until the image is distributed, and acquires image data and feature data of the person corresponding to the name from the acquired name of the person. The display control apparatus according to appendix 2, characterized by:

(付記5)前記検出部は、前記画像に対して前記位置が指定されると、一時停止してタイムシフト状態に移行し、移行した状態で指定された前記位置の最も近くにある顔画像を検出することを特徴とする付記1から付記4のいずれか1つに記載の表示制御装置。 (Supplementary Note 5) When the position is specified for the image, the detection unit pauses and shifts to a time shift state, and detects a face image closest to the position specified in the shifted state. The display control device according to any one of appendix 1 to appendix 4, wherein the display control device is detected.

(付記6)コンピュータに、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を実行させる表示制御プログラム。
(Appendix 6)
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control program for executing processing for displaying characteristic data for the specified person.

(付記7)コンピュータが表示を制御する表示制御方法であって、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を含むことを特徴とする表示制御方法。
(Appendix 7) A display control method in which a computer controls display,
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control method comprising a process of displaying characteristic data for the specified person.

1 表示制御システム
2 放送局
3 映像サーバ
4 番組情報サーバ
5 検索エンジン
6 情報提供サーバ
7 ネットワーク
8 表示制御装置
11 チューナ
12 ネットワークインタフェース部
13 表示部
14 入力部
15 記憶部
151 番組情報
152 出演者情報
16 制御部
161 映像処理部
162 映像出力部
163 データ処理部
164 情報取得部
165 データ管理部
166 表示情報生成部
167 顔認識部
DESCRIPTION OF SYMBOLS 1 Display control system 2 Broadcasting station 3 Video server 4 Program information server 5 Search engine 6 Information provision server 7 Network 8 Display control apparatus 11 Tuner 12 Network interface part 13 Display part 14 Input part 15 Storage part 151 Program information 152 Performer information 16 Control unit 161 Video processing unit 162 Video output unit 163 Data processing unit 164 Information acquisition unit 165 Data management unit 166 Display information generation unit 167 Face recognition unit

Claims (6)

供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得する取得部と、
前記取得部によって取得された画像データおよび特徴データを人物毎に記憶する記憶部と、
前記画像に対して指定された位置の最も近くにある顔画像を検出する検出部と、
前記記憶部に記憶された人物の画像データに基づいて、前記検出部によって検出された顔画像の人物を特定する特定部と、
前記特定部によって特定された人物に対する特徴データを表示する表示部と
を有することを特徴とする表示制御装置。
An acquisition unit for acquiring image data and feature data of a person included in the supplied image from a different route from the supply route for supplying the image;
A storage unit for storing image data and feature data acquired by the acquisition unit for each person;
A detection unit that detects a face image closest to a position designated with respect to the image;
A specifying unit for specifying the person of the face image detected by the detection unit based on the image data of the person stored in the storage unit;
And a display unit that displays characteristic data for the person specified by the specifying unit.
前記取得部は、前記画像に含まれる人物の名前を前記画像が供給される供給経路または当該供給経路と異なる経路から取得し、取得した人物の名前から当該名前に対応する人物の画像データおよび特徴データを取得することを特徴とする請求項1に記載の表示制御装置。   The acquisition unit acquires a name of a person included in the image from a supply path through which the image is supplied or a path different from the supply path, and image data and characteristics of the person corresponding to the name from the acquired person name The display control apparatus according to claim 1, wherein data is acquired. 前記取得部は、前記位置が指定された画像のフレームが参照する、情報量が最も多い基本フレームを特定し、特定した基本フレームの前記位置に対応する位置を算出し、特定した基本フレームを用いて前記算出した位置の最も近くにある顔画像を検出し、
前記特定部は、前記人物の画像データと、前記検出部によって検出された顔画像とを照合して人物を特定する
ことを特徴とする請求項1または請求項2に記載の表示制御装置。
The acquisition unit specifies a basic frame having the largest amount of information that is referred to by a frame of an image with the specified position, calculates a position corresponding to the position of the specified basic frame, and uses the specified basic frame To detect the face image closest to the calculated position,
The display control apparatus according to claim 1, wherein the specifying unit specifies the person by collating the image data of the person with the face image detected by the detection unit.
前記取得部は、前記画像に含まれる人物の名前を前記画像が配信されるまでに取得し、取得した人物の名前から名前に対応する人物の画像データおよび特徴データを取得することを特徴とする請求項2に記載の表示制御装置。   The acquisition unit acquires a name of a person included in the image until the image is distributed, and acquires image data and feature data of the person corresponding to the name from the acquired name of the person. The display control apparatus according to claim 2. コンピュータに、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を実行させる表示制御プログラム。
On the computer,
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control program for executing processing for displaying characteristic data for the specified person.
コンピュータが表示を制御する表示制御方法であって、
供給される画像に含まれる人物の画像データおよび特徴データを、画像を供給する供給経路と異なる経路から取得し、
該取得した画像データおよび特徴データを人物毎に記憶し、
前記画像に対して指定された位置の最も近くにある顔画像を検出し、
該記憶した人物の画像データに基づいて、該検出した顔画像の人物を特定し、
該特定した人物に対する特徴データを表示する
処理を含むことを特徴とする表示制御方法。
A display control method in which a computer controls display,
Obtain image data and feature data of the person included in the supplied image from a different route from the supply route for supplying the image,
Storing the acquired image data and feature data for each person;
Detecting the face image closest to the specified position relative to the image;
Based on the stored image data of the person, the person of the detected face image is specified,
A display control method comprising a process of displaying characteristic data for the specified person.
JP2011211468A 2011-09-27 2011-09-27 Display control device, display control program, and display control method Pending JP2013073392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011211468A JP2013073392A (en) 2011-09-27 2011-09-27 Display control device, display control program, and display control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011211468A JP2013073392A (en) 2011-09-27 2011-09-27 Display control device, display control program, and display control method

Publications (1)

Publication Number Publication Date
JP2013073392A true JP2013073392A (en) 2013-04-22

Family

ID=48477851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011211468A Pending JP2013073392A (en) 2011-09-27 2011-09-27 Display control device, display control program, and display control method

Country Status (1)

Country Link
JP (1) JP2013073392A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014205707A1 (en) 2013-03-29 2014-10-02 Fuji Jukogyo K.K. Display device for vehicle

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1065877A1 (en) * 1999-07-01 2001-01-03 Mitsubishi Denki Kabushiki Kaisha Segment identification for compressed video bit-streams
JP2006301855A (en) * 2005-04-19 2006-11-02 Fuji Photo Film Co Ltd Image detection device
JP2008066925A (en) * 2006-09-06 2008-03-21 Seiko Epson Corp Information providing device, display controller, display device, and information providing method
JP2008244997A (en) * 2007-03-28 2008-10-09 Canon Inc Image processing system
WO2009008125A1 (en) * 2007-07-12 2009-01-15 Olympus Medical Systems Corp. Image processing device, its operating method and its program
JP2009048447A (en) * 2007-08-21 2009-03-05 Oki Electric Ind Co Ltd Image processing device, image processing method, and image processing program
JP2009232250A (en) * 2008-03-24 2009-10-08 Panasonic Corp Program information display apparatus and program information display method
JP2009268032A (en) * 2008-04-30 2009-11-12 Canon Inc Imaging apparatus
EP2172850A2 (en) * 2008-10-01 2010-04-07 Sony Corporation Information processing apparatus, information acquisition method, recording medium recording information acquisition program, and information retrieval system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1065877A1 (en) * 1999-07-01 2001-01-03 Mitsubishi Denki Kabushiki Kaisha Segment identification for compressed video bit-streams
JP2006301855A (en) * 2005-04-19 2006-11-02 Fuji Photo Film Co Ltd Image detection device
JP2008066925A (en) * 2006-09-06 2008-03-21 Seiko Epson Corp Information providing device, display controller, display device, and information providing method
JP2008244997A (en) * 2007-03-28 2008-10-09 Canon Inc Image processing system
WO2009008125A1 (en) * 2007-07-12 2009-01-15 Olympus Medical Systems Corp. Image processing device, its operating method and its program
JP2009048447A (en) * 2007-08-21 2009-03-05 Oki Electric Ind Co Ltd Image processing device, image processing method, and image processing program
JP2009232250A (en) * 2008-03-24 2009-10-08 Panasonic Corp Program information display apparatus and program information display method
JP2009268032A (en) * 2008-04-30 2009-11-12 Canon Inc Imaging apparatus
EP2172850A2 (en) * 2008-10-01 2010-04-07 Sony Corporation Information processing apparatus, information acquisition method, recording medium recording information acquisition program, and information retrieval system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014205707A1 (en) 2013-03-29 2014-10-02 Fuji Jukogyo K.K. Display device for vehicle

Similar Documents

Publication Publication Date Title
US9100701B2 (en) Enhanced video systems and methods
KR101869437B1 (en) Multi-view audio and video interactive playback
US8978075B1 (en) Associating media using metadata and controlling multiple-device synchronization and rendering
US8466961B2 (en) Apparatus and method for outputting video images, and purchasing system
KR102068790B1 (en) Estimating and displaying social interest in time-based media
KR101644789B1 (en) Apparatus and Method for providing information related to broadcasting program
WO2020007009A1 (en) Method and apparatus for determining background music of video, terminal device and storage medium
CN101601286B (en) Concurrent presentation of video segments enabling rapid video file comprehension
US20170201793A1 (en) TV Content Segmentation, Categorization and Identification and Time-Aligned Applications
US20150319506A1 (en) Displaying data associated with a program based on automatic recognition
US10158920B2 (en) Interaction system and interaction method thereof
US20150195626A1 (en) Augmented media service providing method, apparatus thereof, and system thereof
US10114893B2 (en) Method and system for information querying
CN112104915B (en) Video data processing method and device and storage medium
JP2006209658A (en) Device and method for display output and computer program
KR20210016080A (en) Generating a video presentation to accompany audio
US9558784B1 (en) Intelligent video navigation techniques
US9564177B1 (en) Intelligent video navigation techniques
US20150177953A1 (en) User interface displaying scene dependent attributes
US20140372424A1 (en) Method and system for searching video scenes
CN114095793A (en) Video playing method and device, computer equipment and storage medium
JP2013073392A (en) Display control device, display control program, and display control method
KR102403149B1 (en) Electric device and method for controlling thereof
KR101328270B1 (en) Annotation method and augmenting video process in video stream for smart tv contents and system thereof
JP2006209657A (en) Device and method for authoring and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150616