JP2012239004A - Television viewing support device - Google Patents

Television viewing support device Download PDF

Info

Publication number
JP2012239004A
JP2012239004A JP2011106128A JP2011106128A JP2012239004A JP 2012239004 A JP2012239004 A JP 2012239004A JP 2011106128 A JP2011106128 A JP 2011106128A JP 2011106128 A JP2011106128 A JP 2011106128A JP 2012239004 A JP2012239004 A JP 2012239004A
Authority
JP
Japan
Prior art keywords
unit
operation unit
image data
infrared
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011106128A
Other languages
Japanese (ja)
Other versions
JP5703120B2 (en
Inventor
Hideki Mitsumine
秀樹 三ツ峰
Masato Fujii
真人 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK filed Critical Nippon Hoso Kyokai NHK
Priority to JP2011106128A priority Critical patent/JP5703120B2/en
Publication of JP2012239004A publication Critical patent/JP2012239004A/en
Application granted granted Critical
Publication of JP5703120B2 publication Critical patent/JP5703120B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Selective Calling Equipment (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a television viewing support device capable of appropriately acquiring operation history information of an operation part by an operator by immediately identifying the operation part to be operated and the operator.SOLUTION: A television viewing support device includes an optical sensor part for imaging the face of a viewer and an operation part to be operated by the viewer and generating an infrared image signal. An operation history information acquisition part 300 includes: a face recognition processing part 303 for detecting the face image area of a viewer from infrared image data so as to identify the individual viewer, and detecting a face reference position in the face image area; an operation part position detection part 305 for detecting the operation part reference position of the operation part from the infrared image data; an identification part 308 for acquiring the individual identification information of the viewer, the face reference position, and the operation part reference position and identifying the operator of the operation part in accordance with a distance between the face reference position and the operation part reference position; an operation control information acquisition part 309 for acquiring the operation control information of the operation part from the infrared image signal; and an operation history information generation part 310 for generating operation history information by associating the individual identification information with the operation control information.

Description

本発明は、テレビジョン視聴支援装置に関する。   The present invention relates to a television viewing support apparatus.

携帯電話機、タブレットPC(Personal Computer)、スマートフォン等の携帯端末を、テレビジョン受像機(テレビ装置)を遠隔操作するリモートコントロール装置(リモコン)として機能させるためのリモコン用アプリケーションプログラムが知られている。
このリモコン用アプリケーションプログラムを実行する、携帯電話機、タブレットPC、スマートフォン等の複数の携帯端末それぞれは、一台のテレビ装置を遠隔操作することができる。
There is known a remote control application program for causing a mobile terminal such as a mobile phone, a tablet PC (Personal Computer), and a smartphone to function as a remote control device (remote control) for remotely operating a television receiver (television device).
Each of a plurality of portable terminals such as a mobile phone, a tablet PC, and a smartphone that executes the remote control application program can remotely operate one television device.

また、操作ボタンの配置等の操作環境を操作者ごとにカスタマイズすることができるリモコンが知られている(例えば、特許文献1参照)。
ところで、テレビ装置のリモコンの操作者が特定の一個人であるとは限らない。例えば、家庭に設置されたテレビ装置のリモコンは、家族内で共用されることが多い。よって、複数人分のカスタマイズデータが記憶されたリモコンを複数人で共用する場合、そのリモコンが操作者を正しく判別する必要がある。特許文献1に記載されたリモコンは、このリモコンが充電のためのクレードルから取り外されたことを検知したときに操作者の認証を開始することによって、操作者を早期に識別して特定するものである。
In addition, a remote controller that can customize the operation environment such as the arrangement of operation buttons for each operator is known (see, for example, Patent Document 1).
By the way, the operator of the remote controller of the television apparatus is not necessarily a specific individual. For example, a remote control for a television set installed in a home is often shared within a family. Therefore, when a remote controller storing customization data for a plurality of persons is shared by a plurality of persons, the remote controller needs to correctly determine the operator. The remote controller described in Patent Document 1 identifies and identifies an operator at an early stage by starting authentication of the operator when it is detected that the remote control has been removed from the cradle for charging. is there.

特開2008−28853号公報JP 2008-28853 A

しかしながら、特許文献1記載のリモコンがクレードルを経由することなく人から人に渡された場合、そのリモコンは、あらためて個人認証モードボタンが押されてからでないと操作者の認証を行うことができず、即座に操作者を特定することができない。
また、パスワード認証、携帯端末の内蔵カメラが撮像した顔画像を用いた顔認証、携帯端末が具備する指紋認証装置による指紋認証等の従来技術による個人認証は、被認証者による煩雑な操作を必要とする。よって、これらの個人認証を必要とするリモコンには、手に取ったリモコンを即座に操作することができないという問題がある。
したがって、これら従来技術によれば、複数種類のリモコンがテレビ装置を遠隔操作する操作環境において、実際に遠隔操作されるリモコンとこのリモコンの操作者とを迅速に特定し、その操作者によるそのリモコンの操作履歴情報を適切に取得することができなかった。
However, when the remote controller described in Patent Document 1 is handed over from person to person without going through the cradle, the remote controller cannot authenticate the operator until the personal authentication mode button is pressed again. The operator cannot be identified immediately.
In addition, conventional authentication such as password authentication, face authentication using a face image captured by the built-in camera of the mobile terminal, and fingerprint authentication using a fingerprint authentication device provided in the mobile terminal requires complicated operations by the person to be authenticated. And Therefore, there is a problem that these remote controllers that require personal authentication cannot immediately operate the remote controller that is picked up.
Therefore, according to these conventional techniques, in an operating environment in which a plurality of types of remote controllers remotely operate a television apparatus, a remote controller that is actually remotely operated and an operator of the remote controller are quickly identified, and the remote controller by the operator is identified. The operation history information of could not be obtained properly.

そこで、本発明は上記問題点を解決するためになされたものであり、複数種類のリモコンがテレビ装置を遠隔操作する操作環境において、実際に遠隔操作されるリモコンとこのリモコンの操作者とを即座に特定し、その操作者によるそのリモコンの操作履歴情報を適切に取得することができる、テレビジョン視聴支援装置を提供することを目的とする。   Therefore, the present invention has been made to solve the above-described problems. In an operating environment in which a plurality of types of remote controllers remotely operate a television apparatus, the remote controller that is actually remotely operated and the operator of the remote controller are immediately connected. It is an object of the present invention to provide a television viewing support apparatus that can appropriately acquire operation history information of the remote controller by the operator.

[1]上記の課題を解決するため、本発明の一態様であるテレビジョン視聴支援装置は、視聴者の顔と前記視聴者によって操作される赤外線出射型の操作部とを被写体として撮像し、一連の赤外線画像データを生成する光センサ部と、前記光センサ部が生成した前記赤外線画像データから前記視聴者の顔画像領域を検出して視聴者個人を特定し、前記赤外線画像データにおける前記顔画像領域の顔基準位置を検出する顔認識処理部と、前記赤外線画像データにおける、前記操作部に対応する赤外線画像領域の操作部基準位置を検出する操作部位置検出部と、前記顔認識処理部が特定した前記視聴者個人を示す個人識別情報および検出した前記顔基準位置と前記操作部位置検出部が検出した前記操作部基準位置とを取得し、前記赤外線画像データにおける前記顔基準位置と前記操作部基準位置との距離に応じて、前記操作部の操作者である視聴者個人を特定する特定部と、前記光センサ部が生成する一連の赤外線画像データから前記操作部の操作制御情報を取得する操作制御情報取得部と、前記特定部が特定した前記視聴者個人を示す個人識別情報と前記操作制御情報取得部が取得した前記操作制御情報とを対応付けて操作履歴情報を生成する操作履歴情報生成部と、を備えることを特徴とする。
ここで、赤外線出射型の操作部は、例えば、赤外線リモコン装置、赤外線通信機能を有する携帯電話機等である。また、光センサ部は、例えば、赤外線撮像装置である。光センサ部は、例えば、テレビジョン受像機でコンテンツを視聴する視聴者の顔とその視聴者によって保持されて操作される赤外線出射型の操作部とを撮像して一連の赤外線画像データを生成するものである。
このように構成したことにより、テレビジョン視聴支援装置は、赤外線出射型の操作部を保持しテレビジョン受像機でコンテンツを視聴している視聴者を即座に特定することができ、特定した視聴者が操作部を操作した操作履歴情報を適切に取得することができる。
すなわち、本発明の第1の態様によれば、赤外線リモコン装置、赤外線通信機能を有する携帯電話機等の赤外線出射型の操作部について、誰がどのような遠隔操作を行ったかという履歴情報を即座に且つ適切に取得することができる。
[1] In order to solve the above-described problem, a television viewing support apparatus according to an aspect of the present invention images a viewer's face and an infrared emitting operation unit operated by the viewer as subjects, An optical sensor unit for generating a series of infrared image data; and detecting the viewer's face image area from the infrared image data generated by the optical sensor unit to identify an individual viewer; and the face in the infrared image data A face recognition processing unit that detects a face reference position of an image region; an operation unit position detection unit that detects an operation unit reference position of an infrared image region corresponding to the operation unit in the infrared image data; and the face recognition processing unit. Personal identification information indicating the viewer individual identified by the user, and the detected face reference position and the operation unit reference position detected by the operation unit position detection unit, and the infrared image data From a series of infrared image data generated by the light sensor unit, a specifying unit that specifies a viewer individual who is an operator of the operation unit according to a distance between the face reference position and the operation unit reference position An operation control information acquisition unit for acquiring operation control information of the operation unit, personal identification information indicating the individual viewer specified by the specifying unit, and the operation control information acquired by the operation control information acquisition unit are associated with each other An operation history information generation unit that generates operation history information.
Here, the infrared emission type operation unit is, for example, an infrared remote control device, a mobile phone having an infrared communication function, or the like. The optical sensor unit is, for example, an infrared imaging device. The optical sensor unit, for example, captures a face of a viewer who views content on a television receiver and an infrared emission type operation unit held and operated by the viewer, and generates a series of infrared image data. Is.
With this configuration, the television viewing support apparatus can immediately identify the viewer who is holding the infrared emission type operation unit and is viewing the content on the television receiver. Can appropriately acquire the operation history information of operating the operation unit.
That is, according to the first aspect of the present invention, history information indicating who has performed what kind of remote operation on an infrared emission type operation unit such as an infrared remote control device or a mobile phone having an infrared communication function is immediately and Can be acquired appropriately.

[2]上記[1]記載のテレビジョン視聴支援装置において、前記光センサ部は、前記被写体を撮像して一連のカラー画像データをも生成し、前記光センサ部が生成した前記カラー画像データから、前記操作部位置検出部が検出した前記操作部基準位置の周辺領域の色情報に基づいて前記操作部を識別する操作部識別部をさらに備え、前記特定部は、前記顔認識処理部が特定した前記視聴者個人を示す個人識別情報および検出した前記顔基準位置と、前記操作部位置検出部が検出した前記操作部基準位置と、前記操作部識別部が識別した前記操作部の識別情報とを取得し、前記赤外線画像データにおける前記顔基準位置と前記操作部基準位置との距離に応じて前記操作部の操作者である視聴者個人を特定し、前記視聴者個人を示す個人識別情報および前記操作部の識別情報を対応付け、前記操作履歴情報生成部は、前記特定部が対応付けた前記視聴者個人を示す個人識別情報および前記操作部の識別情報と前記操作制御情報取得部が取得した前記操作制御情報とを対応付けて操作履歴情報を生成することを特徴とする。
ここで、光センサ部は、例えば、赤外線撮像装置と同一の画角、または被写体が重なるように光学調整されたカラー撮像装置を含む。
このように構成したことにより、テレビジョン視聴支援装置は、操作部を保持しテレビジョン受像機でコンテンツを視聴している視聴者を即座に特定することができ、さらに操作部を識別して、特定した視聴者が識別した操作部を操作した操作履歴情報を適切に取得することができる。
すなわち、本発明の第2の態様によれば、赤外線リモコン装置、赤外線通信機能を有する携帯電話機等の赤外線出射型の操作部について、誰が、どの操作部を用いてどのような遠隔操作を行ったかという履歴情報を即座に且つ適切に取得することができる。
[2] In the television viewing support apparatus according to [1], the optical sensor unit captures the subject to generate a series of color image data, and the color image data generated by the optical sensor unit. , Further comprising an operation unit identification unit that identifies the operation unit based on color information of a peripheral region of the operation unit reference position detected by the operation unit position detection unit, wherein the identification unit is identified by the face recognition processing unit Personal identification information indicating the viewer individual, the detected face reference position, the operation unit reference position detected by the operation unit position detection unit, and identification information of the operation unit identified by the operation unit identification unit, And identifying a viewer individual who is an operator of the operation unit according to a distance between the face reference position and the operation unit reference position in the infrared image data, and identifying personal identification information indicating the viewer individual And the operation history information generation unit includes personal identification information indicating the individual viewer associated with the specific unit, identification information of the operation unit, and the operation control information acquisition unit. The operation history information is generated by associating with the acquired operation control information.
Here, the optical sensor unit includes, for example, a color imaging device that is optically adjusted such that the same angle of view as the infrared imaging device or the subject overlaps.
With this configuration, the television viewing support apparatus can immediately identify the viewer who is holding the operation unit and watching the content on the television receiver, and further identifies the operation unit, Operation history information obtained by operating the operation unit identified by the identified viewer can be appropriately acquired.
That is, according to the second aspect of the present invention, who performed what remote operation using which operation unit for the infrared emission type operation unit such as an infrared remote control device and a mobile phone having an infrared communication function. Can be acquired immediately and appropriately.

[3]上記[1]または[2]記載のテレビジョン視聴支援装置において、前記光センサ部は、撮像光軸と同軸の照明光軸を有する同軸赤外線照明をさらに備え、赤外線非出射型の操作部をも撮像することを特徴とする。
ここで、赤外線非出射型の操作部は、例えば、タブレットPC、スマートフォン等の携帯端末である。また、その操作部を遠隔操作のために使用する際に、テレビジョン受像機側に向けられる操作部の端面には、再帰性反射材が設けられていることが好ましい。
[3] In the television viewing support apparatus according to [1] or [2], the optical sensor unit further includes coaxial infrared illumination having an illumination optical axis that is coaxial with the imaging optical axis, and operates without infrared radiation. It is also characterized in that the part is also imaged.
Here, the infrared non-emission type operation unit is, for example, a portable terminal such as a tablet PC or a smartphone. In addition, when the operation unit is used for remote operation, a retroreflecting material is preferably provided on the end surface of the operation unit directed to the television receiver side.

[4]上記[3]記載のテレビジョン視聴支援装置において、前記操作部位置検出部は、前記赤外線画像データから閉領域を抽出してクラスタ分析処理を実行し、前記赤外線画像データにおける相対距離が所定距離以下であるクラスタ同士を統合して前記操作部の赤外線画像領域とし、前記赤外線画像領域の操作部基準位置を検出することを特徴とする。
ここで、上記の所定距離は、例えば操作部を視聴者が保持する場合に、指や手等によって再帰性反射材が分断されることを考慮して決められる距離である。
[4] In the television viewing support apparatus according to [3] above, the operation unit position detection unit extracts a closed region from the infrared image data and executes cluster analysis processing, and a relative distance in the infrared image data is determined. Clusters having a predetermined distance or less are integrated to form an infrared image region of the operation unit, and an operation unit reference position of the infrared image region is detected.
Here, the predetermined distance is a distance determined in consideration of the fact that the retroreflecting material is divided by a finger, a hand, or the like when the viewer holds the operation unit.

本発明によれば、複数種類のリモコンがテレビ装置を遠隔操作する操作環境において、実際に遠隔操作されるリモコンとこのリモコンの操作者とを即座に特定し、その操作者によるそのリモコンの操作履歴情報を適切に取得することができる。   According to the present invention, in an operating environment in which a plurality of types of remote controllers remotely operate a television device, the remote controller that is actually remotely operated and the operator of the remote controller are immediately identified, and the operation history of the remote controller by the operator is identified. Information can be acquired appropriately.

本発明の第1実施形態であるテレビジョン視聴支援装置を適用したテレビ視聴システムの全体構成を示すブロック図である。1 is a block diagram showing an overall configuration of a television viewing system to which a television viewing support apparatus according to a first embodiment of the present invention is applied. 同実施形態において、光センサ部の概略構成を模式的に示す断面図である。In the embodiment, it is sectional drawing which shows typically schematic structure of an optical sensor part. 顔特徴情報のデータ構成を示す図である。It is a figure which shows the data structure of face feature information. 色ヒストグラム情報のデータ構成を示す図である。It is a figure which shows the data structure of color histogram information. 同実施形態において、操作履歴情報取得部の機能構成を示すブロック図である。3 is a block diagram showing a functional configuration of an operation history information acquisition unit in the same embodiment. FIG. 同実施形態において、操作履歴情報取得部が実行する利用操作部の特定処理全体のフローチャートである。In the same embodiment, it is the flowchart of the whole specific process of the utilization operation part which the operation history information acquisition part performs. 同実施形態において、顔認識処理部が実行する顔認識処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of face recognition processing executed by a face recognition processing unit in the embodiment. 同実施形態において、マスク画像生成部と操作部位置検出部とが連携して実行するマスク画像生成処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of mask image generation processing executed in cooperation by a mask image generation unit and an operation unit position detection unit in the embodiment. 同実施形態において、操作部位置検出部が実行する操作部位置情報取得処理の手順を示すフローチャートである。4 is a flowchart illustrating a procedure of operation unit position information acquisition processing executed by an operation unit position detection unit in the embodiment. 同実施形態において、操作部識別部と特定部とが実行する操作部特定処理の手順を示すフローチャートである。In the same embodiment, it is a flowchart which shows the procedure of the operation part specific process which an operation part identification part and a specific part perform. 同実施形態において、操作履歴情報取得部が実行する操作履歴情報の取得処理の手順を示すフローチャートである。5 is a flowchart illustrating a procedure of operation history information acquisition processing executed by an operation history information acquisition unit in the embodiment. 本発明の第2実施形態であるテレビジョン視聴支援装置を適用したテレビ視聴システムの全体構成を示すブロック図である。It is a block diagram which shows the whole structure of the television viewing system to which the television viewing assistance apparatus which is 2nd Embodiment of this invention is applied. 同実施形態において、操作部の概略の外観を示す斜視図である。In the embodiment, it is a perspective view which shows the external appearance of the outline of an operation part. 同実施形態において、光センサ部の概略構成を模式的に示す断面図である。In the embodiment, it is sectional drawing which shows typically schematic structure of an optical sensor part. 同実施形態において、操作履歴情報取得部の機能構成を示すブロック図であるIn the same embodiment, it is a block diagram which shows the function structure of the operation history information acquisition part.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
なお、以下の説明において、テレビジョンをテレビ、リモートコントロールをリモコンと略記することがある。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
In the following description, television is sometimes abbreviated as television and remote control is abbreviated as remote control.

[第1の実施の形態]
図1は、本発明の第1実施形態であるテレビジョン視聴支援装置を適用したテレビ視聴システムの全体構成を示すブロック図である。同図に示すように、テレビ視聴システム1は、テレビジョン受像機10と、操作部11と、テレビジョン視聴支援装置20とを備える。
[First Embodiment]
FIG. 1 is a block diagram showing the overall configuration of a television viewing system to which the television viewing support apparatus according to the first embodiment of the present invention is applied. As shown in the figure, the television viewing system 1 includes a television receiver 10, an operation unit 11, and a television viewing support device 20.

テレビジョン受像機10は、放送電波を受信する受信アンテナから供給される地上デジタル放送や衛星放送等の放送信号を取り込んで復調し、この復調された信号から、視聴者によって所望に選択された放送番組を抽出するチューナ部と、映像を表示する表示部と、音声を出力する音声出力部とを備えるテレビ装置である。テレビジョン受像機10は、電源の入切、選局(チャンネル切替え)、音量調節、入力信号の切替え等を、操作部11から供給される操作制御信号に基づいて行う。テレビジョン受像機10は、操作部11から供給される操作制御信号を取り込むためのインタフェースとして、赤外線受信部やネットワーク・インタフェースを備える。
テレビジョン受像機10は、例えば、チューナ部と表示部(例えば、液晶表示部)と音声出力部とを一体的に構成した液晶テレビ装置、チューナ部をセットトップボックスとして表示部から分離して構成したテレビシステム、チューナ部を備えたコンピュータ装置および表示装置等により実現される。
The television receiver 10 takes in and demodulates a broadcast signal such as terrestrial digital broadcast or satellite broadcast supplied from a receiving antenna that receives broadcast radio waves, and broadcast selected as desired by the viewer from the demodulated signal. The television apparatus includes a tuner unit that extracts a program, a display unit that displays video, and an audio output unit that outputs audio. The television receiver 10 performs power on / off, channel selection (channel switching), volume adjustment, input signal switching, and the like based on operation control signals supplied from the operation unit 11. The television receiver 10 includes an infrared receiver and a network interface as an interface for taking in an operation control signal supplied from the operation unit 11.
The television receiver 10 includes, for example, a liquid crystal television device in which a tuner unit, a display unit (for example, a liquid crystal display unit), and an audio output unit are integrally formed, and the tuner unit is separated from the display unit as a set-top box. This is realized by a television system, a computer device having a tuner unit, a display device, and the like.

操作部11は、操作部11の保持者(操作者)による操作にしたがって操作制御信号を発生し、この操作制御信号をテレビジョン受像機10とテレビジョン視聴支援装置20とに送信する遠隔操作機器である。操作部11は、パルス化した操作制御信号を赤外線Sにより送信する赤外線出射型の操作部であり、例えば、赤外線リモコン装置、赤外線通信機能を有する携帯電話機により実現される。
なお、本実施形態における携帯電話機は、この携帯電話機を赤外線リモコン装置として機能させるためのリモコン用アプリケーションプログラムを実行している状態のものである。
The operation unit 11 generates an operation control signal according to an operation by the holder (operator) of the operation unit 11 and transmits the operation control signal to the television receiver 10 and the television viewing support device 20. It is. The operation unit 11 is an infrared emission type operation unit that transmits a pulsed operation control signal using infrared rays S, and is realized by, for example, an infrared remote control device or a mobile phone having an infrared communication function.
Note that the mobile phone in the present embodiment is in a state where a remote control application program for causing the mobile phone to function as an infrared remote control device is being executed.

テレビジョン視聴支援装置20は、テレビジョン受像機10でコンテンツを視聴している一または複数の視聴者の中から、テレビジョン受像機10を遠隔操作する操作部11と、操作部11を実際に操作している視聴者とを特定し、この特定結果に基づいて、視聴者ごとの操作部11の操作履歴情報を取得する装置である。
図1に示すように、テレビジョン視聴支援装置20は、光センサ部200と、操作履歴情報取得部300とを備える。
The television viewing support device 20 actually operates the operation unit 11 for remotely operating the television receiver 10 from one or a plurality of viewers viewing content on the television receiver 10 and the operation unit 11. This is an apparatus that identifies an operating viewer and acquires operation history information of the operation unit 11 for each viewer based on the identification result.
As shown in FIG. 1, the television viewing support device 20 includes an optical sensor unit 200 and an operation history information acquisition unit 300.

光センサ部200は、テレビジョン受像機10でコンテンツを視聴する一または複数の視聴者の顔と、テレビジョン受像機10を遠隔操作する操作部11とを赤外線波長領域および可視光波長領域それぞれの波長領域で撮影し、これらの撮影により得た赤外線画像信号とカラー画像信号とを操作履歴情報取得部300に供給する。赤外線画像信号は、赤外線波長領域における撮像画像の信号である。また、カラー画像信号は、可視光波長領域における撮像画像の信号である。   The optical sensor unit 200 connects the face of one or a plurality of viewers viewing content with the television receiver 10 and the operation unit 11 for remotely operating the television receiver 10 in the infrared wavelength region and the visible light wavelength region, respectively. An image is picked up in the wavelength region, and an infrared image signal and a color image signal obtained by the image pickup are supplied to the operation history information acquisition unit 300. The infrared image signal is a signal of a captured image in the infrared wavelength region. The color image signal is a captured image signal in the visible light wavelength region.

光センサ部200は、テレビジョン受像機10でコンテンツを視聴する視聴者の略正面(正面を含む)の顔と、操作部11の赤外線送信部とを撮影可能な位置に設置される。また、操作部11が送信する赤外線Sはテレビジョン受像機10の赤外線受信部でも受信される必要があるため、光センサ部200は、テレビジョン受像機10の赤外線受信部に比較的近い位置に設置される。光センサ部200の構成の詳細については後述する。   The optical sensor unit 200 is installed at a position where the face in front of the viewer (including the front) viewing the content on the television receiver 10 and the infrared transmission unit of the operation unit 11 can be photographed. In addition, since the infrared ray S transmitted by the operation unit 11 needs to be received by the infrared receiver unit of the television receiver 10, the optical sensor unit 200 is positioned relatively close to the infrared receiver unit of the television receiver 10. Installed. Details of the configuration of the optical sensor unit 200 will be described later.

操作履歴情報取得部300は、利用操作部の特定処理と操作履歴情報の取得処理とを実行する。利用操作部の特定処理は、テレビジョン受像機10を遠隔操作する操作部11と、操作部11を操作する視聴者とを特定する処理である。特定された操作部11を利用操作部とも呼ぶ。操作履歴情報の取得処理は、特定した視聴者の操作によって利用操作部から得られる視聴者ごとの操作履歴情報を取得する処理である。   The operation history information acquisition unit 300 executes a use operation unit specifying process and an operation history information acquisition process. The use operation unit specifying process is a process of specifying the operation unit 11 for remotely operating the television receiver 10 and the viewer operating the operation unit 11. The identified operation unit 11 is also referred to as a use operation unit. The operation history information acquisition process is a process of acquiring operation history information for each viewer obtained from the use operation unit by the operation of the identified viewer.

利用操作部の特定処理において、操作履歴情報取得部300は、光センサ部200から供給される赤外線画像信号とカラー画像信号とを取り込み、これら赤外線画像信号とカラー画像信号との画像処理を行うことによって、テレビジョン受像機10を遠隔操作する操作部11と、操作部11を操作する視聴者とを特定する。   In the specifying process of the use operation unit, the operation history information acquisition unit 300 takes in the infrared image signal and the color image signal supplied from the optical sensor unit 200 and performs image processing on the infrared image signal and the color image signal. Thus, the operation unit 11 that remotely operates the television receiver 10 and the viewer who operates the operation unit 11 are specified.

また、操作履歴情報の取得処理において、操作履歴情報取得部300は、光センサ部200から供給される赤外線画像信号を取り込み、この赤外線画像信号に基づいて操作部11が送信した操作制御情報を取得する。操作履歴情報取得部300は、その操作制御情報と、利用操作部の特定処理において特定した操作部11および操作部11を操作する視聴者とを対応付けた操作履歴情報を生成する。
操作履歴情報取得部300の構成の詳細については後述する。
In the operation history information acquisition process, the operation history information acquisition unit 300 takes in the infrared image signal supplied from the optical sensor unit 200 and acquires the operation control information transmitted from the operation unit 11 based on the infrared image signal. To do. The operation history information acquisition unit 300 generates operation history information in which the operation control information is associated with the operation unit 11 specified in the use operation unit specifying process and the viewer who operates the operation unit 11.
Details of the configuration of the operation history information acquisition unit 300 will be described later.

図2は、光センサ部200の概略構成を模式的に示す断面図である。同図に示すように、光センサ部200は、光束分離部210と、赤外線撮像部220と、カラー撮像部230とを備える。
光束分離部210は、到来する光束を赤外線と可視光とに分離する光学フィルタである。光束分離部210は、例えば、赤外線Sを透過させる一方、可視光を反射させるコールドミラーにより実現される。
赤外線撮像部220は、光束分離部210を透過して到来する赤外線Sを受光して撮像し赤外線画像信号を生成する。赤外線撮像部220は、例えば赤外線ビデオカメラ装置により実現される。
カラー撮像部230は、光束分離部210から反射して到来する可視光を受光して撮像しカラー画像信号を生成する。カラー撮像部230は、例えばカラービデオカメラ装置により実現される。
なお、光束分離部210は、例えば、可視光を透過させる一方、赤外線Sを反射させるホットミラーにより実現してもよい。
FIG. 2 is a cross-sectional view schematically showing a schematic configuration of the optical sensor unit 200. As shown in the figure, the optical sensor unit 200 includes a light beam separation unit 210, an infrared imaging unit 220, and a color imaging unit 230.
The light beam separation unit 210 is an optical filter that separates an incoming light beam into infrared light and visible light. The light beam separation unit 210 is realized by, for example, a cold mirror that transmits the infrared light S and reflects visible light.
The infrared imaging unit 220 receives and captures the infrared ray S that has passed through the light beam separation unit 210 and generates an infrared image signal. The infrared imaging unit 220 is realized by, for example, an infrared video camera device.
The color imaging unit 230 receives and captures visible light that is reflected from the light beam separation unit 210 and generates a color image signal. The color imaging unit 230 is realized by a color video camera device, for example.
The light beam separation unit 210 may be realized by, for example, a hot mirror that transmits visible light while reflecting infrared S.

赤外線撮像部220およびカラー撮像部230それぞれの被写体は、テレビジョン受像機10でコンテンツを視聴する一または複数の視聴者の顔と、テレビジョン受像機10を遠隔操作している操作部11(利用操作部)とである。赤外線撮像部220およびカラー撮像部230は、それぞれのフレームの画角が一致するか、または被写体が重なるように光学調整されて設置される。   The subjects of the infrared imaging unit 220 and the color imaging unit 230 are the faces of one or a plurality of viewers viewing content on the television receiver 10 and the operation unit 11 (utilizing the remote operation of the television receiver 10). Operation section). The infrared imaging unit 220 and the color imaging unit 230 are installed with optical adjustment so that the angles of view of the respective frames match or the subjects overlap.

図3は、操作履歴情報取得部300が記憶する顔特徴情報のデータ構成を示す図である。顔特徴情報は、テレビジョン受像機10を視聴する視聴者ごとの顔の特徴を示すデータの集合である。同図に示すように、顔特徴情報は、個人識別情報と顔特徴データとの各項目を対応付けたデータテーブルである。個人識別情報は、視聴者個人を識別する情報である。顔特徴データは、あらかじめ撮像した視聴者の顔画像から得た顔の特徴データである。顔特徴データは、例えば、眉毛、目、鼻、唇等の大きさおよび相対位置、ならびに顔の輪郭等を示す特徴量である。同図に示す顔特徴情報は、4人分の顔特徴データを個人識別情報に対応付けて有している。   FIG. 3 is a diagram illustrating a data configuration of the facial feature information stored in the operation history information acquisition unit 300. The face feature information is a set of data indicating face features for each viewer who views the television receiver 10. As shown in the figure, the face feature information is a data table in which items of personal identification information and face feature data are associated with each other. The personal identification information is information for identifying an individual viewer. The face feature data is face feature data obtained from a viewer's face image captured in advance. The face feature data is, for example, a feature amount indicating the size and relative position of eyebrows, eyes, nose, lips, etc., and the face outline. The face feature information shown in the figure has face feature data for four people associated with personal identification information.

図4は、操作履歴情報取得部300が記憶する色ヒストグラム情報のデータ構成を示す図である。色ヒストグラム情報は、テレビジョン受像機10を遠隔操作する操作部11ごとの、赤外線送信部の周囲の色ヒストグラムの集合である。同図に示すように、色ヒストグラム情報は、操作部識別情報と色ヒストグラムとの各項目を対応付けたデータテーブルである。操作部識別情報は、操作部11を識別する情報である。色ヒストグラムは、色成分を級数とし画素数を度数としたヒストグラムである。同図に示す色ヒストグラム情報は、5個分の操作部11の色ヒストグラムを操作部識別情報に対応付けて有している。   FIG. 4 is a diagram illustrating a data configuration of color histogram information stored in the operation history information acquisition unit 300. The color histogram information is a set of color histograms around the infrared transmission unit for each operation unit 11 for remotely operating the television receiver 10. As shown in the figure, the color histogram information is a data table in which the items of the operation unit identification information and the color histogram are associated with each other. The operation unit identification information is information for identifying the operation unit 11. The color histogram is a histogram in which the color component is a series and the number of pixels is a frequency. The color histogram information shown in the figure has five color histograms of the operation unit 11 associated with the operation unit identification information.

図5は、操作履歴情報取得部300の機能構成を示すブロック図である。同図に示すように、操作履歴情報取得部300は、画像信号取得部301と、顔特徴情報記憶部302と、顔認識処理部303と、マスク画像生成部304と、操作部位置検出部305と、色ヒストグラム記憶部306と、操作部識別部307と、特定部308と、操作制御情報取得部309と、操作履歴情報生成部310とを備える。   FIG. 5 is a block diagram illustrating a functional configuration of the operation history information acquisition unit 300. As shown in the figure, the operation history information acquisition unit 300 includes an image signal acquisition unit 301, a face feature information storage unit 302, a face recognition processing unit 303, a mask image generation unit 304, and an operation unit position detection unit 305. A color histogram storage unit 306, an operation unit identification unit 307, a specifying unit 308, an operation control information acquisition unit 309, and an operation history information generation unit 310.

画像信号取得部301は、光センサ部200から供給される赤外線画像信号とカラー画像信号とを取り込む。   The image signal acquisition unit 301 takes in an infrared image signal and a color image signal supplied from the optical sensor unit 200.

具体的には、画像信号取得部301は、利用操作部の特定処理において、光センサ部200から供給される赤外線画像信号とカラー画像信号とをそれぞれ取り込み、毎フレーム、または複数フレームごとに、1フレーム画像分の赤外線画像データを顔認識処理部303とマスク画像生成部304と操作部位置検出部305とに供給する。また、画像信号取得部301は、毎フレーム、または複数フレームごとに、1フレーム画像分のカラー画像データを顔認識処理部303と操作部識別部307とに供給する。
また、画像信号取得部301は、操作履歴情報の取得処理において、光センサ部200から供給される赤外線画像信号を取り込み、毎フレーム、または複数フレームごとに、1フレーム画像分の赤外線画像データを操作制御情報取得部309に供給する。
Specifically, the image signal acquisition unit 301 captures the infrared image signal and the color image signal supplied from the optical sensor unit 200 in the specifying process of the use operation unit, and each frame or multiple frames has 1 Infrared image data for the frame image is supplied to the face recognition processing unit 303, the mask image generation unit 304, and the operation unit position detection unit 305. Further, the image signal acquisition unit 301 supplies color image data for one frame image to the face recognition processing unit 303 and the operation unit identification unit 307 for each frame or for each of a plurality of frames.
Further, in the operation history information acquisition process, the image signal acquisition unit 301 takes in the infrared image signal supplied from the optical sensor unit 200 and operates the infrared image data for one frame image for each frame or every plurality of frames. The information is supplied to the control information acquisition unit 309.

顔特徴情報記憶部302は、テレビジョン受像機10を利用する視聴者全員分の顔特徴情報をあらかじめ記憶する。   The face feature information storage unit 302 stores face feature information for all viewers who use the television receiver 10 in advance.

顔認識処理部303は、画像信号取得部301から供給されるカラー画像データおよび赤外線画像データと、顔特徴情報記憶部302に記憶された顔特徴情報とに基づいて、テレビジョン受像機10でコンテンツを視聴している一または複数の視聴者個人を特定する。また、顔認識処理部303は、フレーム画像における、特定した視聴者の顔の基準位置を取得する。顔認識処理部303は、特定した視聴者の個人識別情報と顔の基準位置を示す位置情報とを対応付けて、特定部308に供給する。   The face recognition processing unit 303 uses the television receiver 10 to generate content based on the color image data and infrared image data supplied from the image signal acquisition unit 301 and the face feature information stored in the face feature information storage unit 302. Identify one or more individual viewers who are watching. In addition, the face recognition processing unit 303 acquires a reference position of the identified viewer's face in the frame image. The face recognition processing unit 303 associates the identified personal identification information of the viewer with the position information indicating the reference position of the face, and supplies the information to the specifying unit 308.

具体的には、顔認識処理部303は、画像信号取得部301から供給されるカラー画像データと赤外線画像データとを取り込む。顔認識処理部303は、カラー画像データの平均輝度値(カラー画像平均輝度値)を計算する。顔認識処理部303は、カラー画像平均輝度値があらかじめ記憶した閾値を超える場合に、カラー画像データを用いて顔画像検出処理を実行し、カラー画像平均輝度値がその閾値以下である場合に、赤外線画像データを用いて顔画像検出処理を実行し、一または複数の顔画像領域を検出する。
上記の閾値は、例えば、顔認識処理部303が、カラー画像平均輝度値が異なる複数のカラー画像データそれぞれについて顔画像検出処理を実行した場合の、検出可否の結果および検出誤差に応じて決定される。
Specifically, the face recognition processing unit 303 captures color image data and infrared image data supplied from the image signal acquisition unit 301. The face recognition processing unit 303 calculates an average luminance value (color image average luminance value) of the color image data. The face recognition processing unit 303 executes face image detection processing using color image data when the color image average luminance value exceeds a threshold value stored in advance, and when the color image average luminance value is equal to or less than the threshold value, A face image detection process is executed using the infrared image data to detect one or a plurality of face image regions.
The threshold value is determined according to, for example, a detection result and a detection error when the face recognition processing unit 303 executes face image detection processing for each of a plurality of color image data having different color image average luminance values. The

顔認識処理部303は、検出した一または複数の顔画像領域から顔特徴データを抽出する処理を実行する。顔認識処理部303は、顔画像領域ごとに、その抽出した顔特徴データと、顔特徴情報記憶部302に記憶された顔特徴情報に含まれる全ての顔特徴データとの類似度をそれぞれ計算し、類似度が最も高い顔特徴データのペアに対応する個人識別情報を顔特徴情報から抽出して、その個人識別情報と当該顔画像領域とを対応付ける。
顔認識処理部303は、フレーム画像における当該顔画像領域の顔基準位置を取得し、この顔基準位置と当該顔画像領域に対応付けられた個人識別情報とを対応付けて、特定部308に供給する。顔基準位置は、例えば、顔画像領域を少なくとも含む円の中心位置である。または、顔画像領域の重心位置を顔基準位置としてもよい。
The face recognition processing unit 303 executes processing for extracting face feature data from one or more detected face image regions. The face recognition processing unit 303 calculates, for each face image area, the similarity between the extracted face feature data and all the face feature data included in the face feature information stored in the face feature information storage unit 302. The personal identification information corresponding to the pair of facial feature data having the highest similarity is extracted from the facial feature information, and the personal identification information is associated with the facial image area.
The face recognition processing unit 303 acquires the face reference position of the face image area in the frame image, associates the face reference position with the personal identification information associated with the face image area, and supplies the face identification position to the specifying unit 308. To do. The face reference position is, for example, the center position of a circle including at least the face image area. Alternatively, the gravity center position of the face image area may be used as the face reference position.

マスク画像生成部304は、画像信号取得部301から供給される赤外線画像データに基づいて、操作部位置検出部305と連携動作することによりマスク画像データを生成する。マスク画像データは、赤外線画像データから赤外線Sが照射されている領域(赤外線照射領域)を精度よく取得するためのマスクデータである。   The mask image generation unit 304 generates mask image data by operating in cooperation with the operation unit position detection unit 305 based on the infrared image data supplied from the image signal acquisition unit 301. The mask image data is mask data for accurately obtaining a region (infrared irradiation region) irradiated with infrared S from infrared image data.

具体的には、マスク画像生成部304は、画像信号取得部301から供給される赤外線画像データを取り込み、内部の記憶部(図示省略)に記憶させる。詳細には、マスク画像生成部304は、現時点から所定時間分だけ過去の赤外線画像データを上記の記憶部に記憶させる。マスク画像生成部304は、上記の記憶部に記憶された所定時間分の赤外線画像データの画素ごとの平均輝度値を計算して1フレーム画像分の平均輝度画像データを生成し、この平均輝度画像データを操作部位置検出部305に供給する。以下、この平均輝度画像データを背景画像データと呼ぶ。   Specifically, the mask image generation unit 304 takes in infrared image data supplied from the image signal acquisition unit 301 and stores it in an internal storage unit (not shown). Specifically, the mask image generation unit 304 stores the past infrared image data for a predetermined time from the current time in the storage unit. The mask image generation unit 304 calculates an average luminance value for each pixel of infrared image data for a predetermined time stored in the storage unit to generate average luminance image data for one frame image, and this average luminance image Data is supplied to the operation unit position detection unit 305. Hereinafter, this average luminance image data is referred to as background image data.

背景画像データは、光センサ部200に到来する赤外線雑音による影響を抑制または除去するために用いられる画像データである。赤外線雑音は、例えば、カーテンやブラインドを開けたことにより室外から入来する赤外線、室内の照明を点灯したときに発生する赤外線等である。上記の所定時間は、光センサ部200の周囲環境に応じて任意に設定される。   The background image data is image data used to suppress or remove the influence of infrared noise that arrives at the optical sensor unit 200. Infrared noise is, for example, infrared light that enters from the outside by opening a curtain or a blind, or infrared light that is generated when indoor lighting is turned on. The predetermined time is arbitrarily set according to the surrounding environment of the optical sensor unit 200.

また、マスク画像生成部304は、背景画像データの全画素の平均輝度値(背景画像全画素平均輝度値)を計算し、この平均輝度値を前記の記憶部に記憶させる。
また、マスク画像生成部304は、背景画像データの輝度値ヒストグラムを生成し、例えば、最低輝度値である画素を先頭として1フレーム画像分の画素の80%までを順次計数したときの最高輝度値を操作部位置検出部305に供給する。
また、マスク画像生成部304は、操作部位置検出部305から供給されるクラスタ分析処理後の赤外線画像データを取り込み、このクラスタ分析処理後の赤外線画像データをマスク画像データとして前記の記憶部に記憶させる。
Further, the mask image generation unit 304 calculates an average luminance value of all pixels of the background image data (background image all pixel average luminance value), and stores the average luminance value in the storage unit.
Further, the mask image generation unit 304 generates a luminance value histogram of the background image data. For example, the highest luminance value obtained by sequentially counting up to 80% of the pixels for one frame image starting from the pixel having the lowest luminance value. Is supplied to the operation unit position detection unit 305.
Further, the mask image generation unit 304 takes in the infrared image data after the cluster analysis processing supplied from the operation unit position detection unit 305, and stores the infrared image data after the cluster analysis processing as mask image data in the storage unit. Let

操作部位置検出部305は、画像信号取得部301から供給される赤外線画像データと、マスク画像生成部304から供給される背景画像データおよび最高輝度値とに基づいて、赤外線画像データから操作部11の赤外線送信部の位置を検出する。   Based on the infrared image data supplied from the image signal acquisition unit 301, the background image data supplied from the mask image generation unit 304, and the maximum luminance value, the operation unit position detection unit 305 operates from the infrared image data to the operation unit 11. The position of the infrared transmission unit is detected.

具体的には、操作部位置検出部305は、画像信号取得部301から供給される赤外線画像データを取り込み、マスク画像生成部304から供給される背景画像データと最高輝度値とを取り込む。そして、操作部位置検出部305は、赤外線画像データと背景画像データとの画素ごとの差分を計算し、差分絶対値和(Sum of Absolute Difference;SAD)を計算する。   Specifically, the operation unit position detection unit 305 takes in infrared image data supplied from the image signal acquisition unit 301 and takes in background image data and a maximum luminance value supplied from the mask image generation unit 304. Then, the operation unit position detection unit 305 calculates a difference for each pixel between the infrared image data and the background image data, and calculates a sum of absolute difference (SAD).

操作部位置検出部305は、差分絶対値和があらかじめ記憶した閾値以下である場合、赤外線画像データに対して一定値である第1の閾値を用いた第1の閾値処理を実行する。差分絶対値和が閾値以下であるとは、操作部11による像が赤外線画像データ内で静止しているか、または殆ど静止した状態であることを示す。
操作部位置検出部305は、マスク画像生成部304の記憶部に記憶されたマスク画像データを読み込み、第1の閾値処理後の赤外線画像データをマスク画像データでマスクする。
When the sum of absolute differences is equal to or less than the threshold value stored in advance, the operation unit position detection unit 305 executes first threshold processing using a first threshold value that is a constant value for infrared image data. That the sum of absolute differences is equal to or less than the threshold value indicates that the image by the operation unit 11 is stationary or almost stationary in the infrared image data.
The operation unit position detection unit 305 reads the mask image data stored in the storage unit of the mask image generation unit 304 and masks the infrared image data after the first threshold processing with the mask image data.

また、操作部位置検出部305は、差分絶対値和が上記の閾値を超える場合、赤外線画像データに対して最高輝度値を第2の閾値として用いた第2の閾値処理を実行する。差分絶対値和が閾値を超えるとは、操作部11による像が赤外線画像データ内で動いていることを示す。   In addition, when the sum of absolute differences exceeds the threshold value, the operation unit position detection unit 305 executes a second threshold process using the highest luminance value as the second threshold value for the infrared image data. That the sum of absolute differences exceeds the threshold indicates that the image by the operation unit 11 is moving in the infrared image data.

また、操作部位置検出部305は、マスクされた赤外線画像データまたは第2の閾値処理された赤外線画像データから閉領域を抽出してクラスタ分析処理(クラスタリング)を実行する。
操作部位置検出部305は、クラスタ分析処理後の赤外線画像データをマスク画像生成部304に供給する。
Further, the operation unit position detection unit 305 extracts a closed region from the masked infrared image data or the infrared image data subjected to the second threshold processing, and executes cluster analysis processing (clustering).
The operation unit position detection unit 305 supplies the infrared image data after the cluster analysis processing to the mask image generation unit 304.

また、操作部位置検出部305は、クラスタ分析処理後の赤外線画像データからクラスタである赤外線画像領域の操作部基準位置を計算し、この操作部基準位置を示す情報を操作部位置情報として操作部識別部307に供給する。操作部基準位置は、例えば赤外線画像領域の重心位置であり、操作部11の赤外線送信部またはその近傍を示す位置である。   Further, the operation unit position detection unit 305 calculates the operation unit reference position of the infrared image area which is a cluster from the infrared image data after the cluster analysis processing, and uses the information indicating the operation unit reference position as operation unit position information. This is supplied to the identification unit 307. The operation unit reference position is, for example, the position of the center of gravity of the infrared image region, and is a position indicating the infrared transmission unit of the operation unit 11 or the vicinity thereof.

色ヒストグラム記憶部306は、テレビジョン受像機10を遠隔操作する一または複数の操作部11の色ヒストグラム情報をあらかじめ記憶する。   The color histogram storage unit 306 stores in advance color histogram information of one or a plurality of operation units 11 for remotely operating the television receiver 10.

操作部識別部307は、画像信号取得部301から供給されるカラー画像データと、操作部位置検出部305から供給される操作部位置情報と、色ヒストグラム記憶部306に記憶された色ヒストグラム情報とに基づいて、カラー画像データ内の操作部11を識別する。   The operation unit identification unit 307 includes color image data supplied from the image signal acquisition unit 301, operation unit position information supplied from the operation unit position detection unit 305, and color histogram information stored in the color histogram storage unit 306. Based on the above, the operation unit 11 in the color image data is identified.

具体的には、操作部識別部307は、画像信号取得部301から供給されるカラー画像データを取り込み、操作部位置検出部305から供給される操作部位置情報を取り込む。操作部識別部307は、カラー画像データから操作部位置情報が示す操作部基準位置の周囲、例えば、その操作部基準位置を中心として所定距離を半径とした円領域の色情報である色ヒストグラムを生成する。所定距離は、想定される操作部11の大きさに応じて任意に決定される。
操作部識別部307は、生成した色ヒストグラムと色ヒストグラム記憶部306に記憶された色ヒストグラム情報に含まれる全ての色ヒストグラムそれぞれとのヒストグラムインターセクションを計算する。操作部識別部307は、そのヒストグラムインターセクションの計算結果について、類似度が最も高いペアに対応する操作部識別情報を色ヒストグラム情報から抽出し、その操作部識別情報と操作部位置情報とを対応付けて特定部308に供給する。この操作部識別情報に対応する操作部11が利用操作部である。
Specifically, the operation unit identification unit 307 takes in the color image data supplied from the image signal acquisition unit 301 and takes in the operation unit position information supplied from the operation unit position detection unit 305. The operation unit identification unit 307 generates a color histogram that is color information of the color of the circle around the operation unit reference position indicated by the operation unit position information from the color image data, for example, a circle having a predetermined distance from the operation unit reference position. Generate. The predetermined distance is arbitrarily determined according to the assumed size of the operation unit 11.
The operation unit identification unit 307 calculates a histogram intersection between the generated color histogram and all the color histograms included in the color histogram information stored in the color histogram storage unit 306. The operation unit identification unit 307 extracts, from the color histogram information, the operation unit identification information corresponding to the pair having the highest similarity for the calculation result of the histogram intersection, and associates the operation unit identification information with the operation unit position information. In addition, the data is supplied to the specifying unit 308. The operation unit 11 corresponding to the operation unit identification information is a use operation unit.

特定部308は、顔認識処理部303から供給される一または複数の個人識別情報と顔画像領域の顔基準位置とのペアデータと、操作部識別部307から供給される操作部識別情報と操作部位置情報とのペアデータとに基づいて、利用操作部とこの利用操作部を操作する視聴者とを特定する。   The specifying unit 308 includes pair data of one or a plurality of personal identification information supplied from the face recognition processing unit 303 and the face reference position of the face image area, operation unit identification information supplied from the operation unit identification unit 307, and operation. Based on the pair data with the part position information, the use operation unit and the viewer who operates the use operation unit are specified.

具体的には、特定部308は、顔認識処理部303から供給される一または複数の個人識別情報と顔画像領域の顔基準位置とのペアデータを取り込み、操作部識別部307から供給される操作部識別情報と操作部位置情報とのペアデータを取り込む。特定部308は、一または複数の個人識別情報と顔画像領域の顔基準位置とのペアデータと、操作部識別情報と操作部位置情報とのペアデータとの全ての組み合わせについて、顔画像領域の顔基準位置と操作部位置情報が示す赤外線画像領域の操作部基準位置との距離を計算し、距離が最も短い、または所定距離以下となる組み合わせにおける個人識別情報と操作部識別情報とを対応付けて内部の記憶部(図示省略)に記憶させる。   Specifically, the specifying unit 308 takes in pair data of one or a plurality of personal identification information supplied from the face recognition processing unit 303 and the face reference position of the face image area, and is supplied from the operation unit identification unit 307. The pair data of the operation unit identification information and the operation unit position information is captured. The identifying unit 308 determines the face image area for all combinations of pair data of one or a plurality of personal identification information and the face reference position of the face image area, and pair data of the operation part identification information and the operation part position information. The distance between the face reference position and the operation unit reference position of the infrared image area indicated by the operation unit position information is calculated, and the personal identification information and the operation unit identification information in the combination in which the distance is the shortest or less than the predetermined distance are associated. And stored in an internal storage unit (not shown).

操作制御情報取得部309は、操作履歴情報の取得処理において、画像信号取得部301から供給される赤外線画像データと、マスク画像生成部304に記憶された背景画像全画素平均輝度値とに基づいて、利用操作部である操作部11が送信した赤外線Sから操作制御情報を取得する。   The operation control information acquisition unit 309 is based on the infrared image data supplied from the image signal acquisition unit 301 and the background image all-pixel average luminance value stored in the mask image generation unit 304 in the operation history information acquisition process. Then, the operation control information is acquired from the infrared ray S transmitted by the operation unit 11 which is a use operation unit.

具体的には、操作制御情報取得部309は、マスク画像生成部304に記憶された背景画像全画素平均輝度値を読み込み、画像信号取得部301から供給される赤外線画像データを取り込む。背景画像全画素平均輝度値は、操作部11から赤外線Sが送信されていない状態を示す。   Specifically, the operation control information acquisition unit 309 reads the background image all-pixel average luminance value stored in the mask image generation unit 304 and takes in the infrared image data supplied from the image signal acquisition unit 301. The background image all-pixel average luminance value indicates a state in which the infrared ray S is not transmitted from the operation unit 11.

操作制御情報取得部309は、画像信号取得部301から供給される赤外線画像データを取り込むたびに、その赤外線画像データの平均輝度値(赤外線画像平均輝度値)を計算し、この赤外線画像平均輝度値と背景画像全画素平均輝度値とを比較する。操作制御情報取得部309は、赤外線画像平均輝度値が背景画像全画素平均輝度値よりも大きい場合、例えば、赤外線画像平均輝度値が背景画像全画素平均輝度値の1.2倍以上の輝度である場合にオン状態であると判定する。また、操作制御情報取得部309は、赤外線画像平均輝度値が背景画像全画素平均輝度値よりも小さい場合、例えば、赤外線画像平均輝度値が背景画像全画素平均輝度値の0.8倍以下の輝度である場合にオフ状態であると判定する。オン状態とは、操作部11が赤外光Sを送信している状態であり、オフ状態とは、操作部11が赤外光Sの送信を停止している状態である。   The operation control information acquisition unit 309 calculates an average luminance value (infrared image average luminance value) of the infrared image data each time the infrared image data supplied from the image signal acquisition unit 301 is captured, and this infrared image average luminance value Are compared with the average luminance value of all pixels in the background image. When the infrared image average luminance value is larger than the background image all-pixel average luminance value, for example, the operation control information acquisition unit 309 has an infrared image average luminance value of 1.2 times or more of the background image all-pixel average luminance value. In some cases, it is determined to be on. Further, when the infrared image average luminance value is smaller than the background image all-pixel average luminance value, the operation control information acquisition unit 309, for example, the infrared image average luminance value is 0.8 times or less of the background image all-pixel average luminance value. If it is luminance, it is determined to be in the off state. The on state is a state in which the operation unit 11 is transmitting the infrared light S, and the off state is a state in which the operation unit 11 has stopped transmitting the infrared light S.

操作制御情報取得部309は、時系列の赤外線画像データのオン状態またはオフ状態を判定することによって赤外線Sのパルス符号を取得し、このパルス符号を復号して操作制御情報を取得し、この操作制御情報を操作履歴情報生成部310に供給する。   The operation control information acquisition unit 309 acquires the pulse code of the infrared S by determining the on state or the off state of the time-series infrared image data, decodes the pulse code, acquires operation control information, The control information is supplied to the operation history information generation unit 310.

操作履歴情報生成部310は、特定部308の記憶部に記憶された個人識別情報と操作部識別情報とのペアを読み込み、操作制御情報取得部309から供給される操作制御情報を取り込む。操作履歴情報生成部310は、これら取り込んだ個人識別情報と操作部識別情報と操作制御情報とを関連付けた操作履歴情報を生成し、この操作履歴情報を外部の情報処理装置(図示省略)に出力したり、内部の記憶部(図示省略)に記憶させたりする。   The operation history information generation unit 310 reads the pair of the personal identification information and the operation unit identification information stored in the storage unit of the specifying unit 308 and takes in the operation control information supplied from the operation control information acquisition unit 309. The operation history information generation unit 310 generates operation history information that associates the acquired personal identification information, operation unit identification information, and operation control information, and outputs the operation history information to an external information processing apparatus (not shown). Or stored in an internal storage unit (not shown).

次に、第1実施形態であるテレビジョン視聴支援装置20の操作履歴情報取得部300の動作について説明する。
図6は、操作履歴情報取得部300が実行する利用操作部の特定処理全体のフローチャートである。
まず、初期の処理として、画像信号取得部301は、光センサ部200から供給される赤外線画像信号とカラー画像信号とをそれぞれ取り込み、これら赤外線画像信号とカラー画像信号とのフレーム同期をかける。
次に、ステップS1において、画像信号取得部301は、毎フレーム、または複数フレームごとに、1フレーム画像分の赤外線画像データおよびカラー画像データを取得する。
Next, the operation of the operation history information acquisition unit 300 of the television viewing support device 20 according to the first embodiment will be described.
FIG. 6 is a flowchart of the entire specifying process of the use operation unit executed by the operation history information acquisition unit 300.
First, as an initial process, the image signal acquisition unit 301 takes in an infrared image signal and a color image signal supplied from the optical sensor unit 200, and performs frame synchronization between the infrared image signal and the color image signal.
Next, in step S1, the image signal acquisition unit 301 acquires infrared image data and color image data for one frame image for each frame or for each of a plurality of frames.

ステップS2,S3,S4の各処理は、ステップS1の処理に続けて並列実行される。ステップS2は、顔認識処理部303が実行する顔認識処理である。ステップS3は、マスク画像生成部304と操作部位置検出部305とが連携して実行するマスク画像生成処理である。ステップS4は、操作部位置検出部305が実行する操作部位置情報取得処理である。ステップS5は、ステップS4の処理の次に、操作部識別部307と特定部308とが実行する操作部特定処理である。   Each process of steps S2, S3, and S4 is executed in parallel following the process of step S1. Step S <b> 2 is face recognition processing executed by the face recognition processing unit 303. Step S3 is a mask image generation process executed by the mask image generation unit 304 and the operation unit position detection unit 305 in cooperation. Step S4 is an operation unit position information acquisition process executed by the operation unit position detection unit 305. Step S5 is an operation unit specifying process performed by the operation unit identifying unit 307 and the specifying unit 308 after the process of step S4.

次に、ステップS2〜S5の各処理の詳細を説明する。
図7は、顔認識処理部303が実行する顔認識処理(S2)の手順を示すフローチャートである。顔認識処理部303は、画像信号取得部301から各1フレーム画像のカラー画像データと赤外線画像データとを取り込むと本フローチャートの処理を実行する。
ステップS201において、顔認識処理部303は、カラー画像データの平均輝度値であるカラー画像平均輝度値を計算する。
次に、ステップS202において、顔認識処理部303は、カラー画像平均輝度値があらかじめ記憶した閾値を超える場合(S202:YES)、ステップS203の処理に移し、カラー画像平均輝度値がその閾値以下である場合(S202:NO)、ステップS204の処理に移す。
Next, details of each processing in steps S2 to S5 will be described.
FIG. 7 is a flowchart illustrating a procedure of face recognition processing (S2) executed by the face recognition processing unit 303. When the face recognition processing unit 303 fetches color image data and infrared image data of each one-frame image from the image signal acquisition unit 301, the face recognition processing unit 303 executes the processing of this flowchart.
In step S201, the face recognition processing unit 303 calculates a color image average luminance value that is an average luminance value of the color image data.
Next, in step S202, when the color image average luminance value exceeds the threshold value stored in advance (S202: YES), the face recognition processing unit 303 moves to the process of step S203, and the color image average luminance value is equal to or less than the threshold value. If there is (S202: NO), the process proceeds to step S204.

ステップS203において、顔認識処理部303は、取り込んだカラー画像データを用いて顔画像検出処理を実行し、ステップS205の処理に移す。
一方、ステップS204において、顔認識処理部303は、取り込んだ赤外線画像データを用いて顔画像検出処理を実行し、ステップS205の処理に移す。
顔認識処理部303が実行する顔画像検出処理として、公知の顔画像検出アルゴリズムを適用する。具体的には、顔認識処理部303は、例えば、AdaBoostアルゴリズムによりカラー画像データまたは赤外線画像データから一または複数の顔画像領域を検出する。
In step S203, the face recognition processing unit 303 executes face image detection processing using the captured color image data, and the process proceeds to step S205.
On the other hand, in step S204, the face recognition processing unit 303 executes face image detection processing using the captured infrared image data, and proceeds to processing in step S205.
A known face image detection algorithm is applied as the face image detection process executed by the face recognition processing unit 303. Specifically, the face recognition processing unit 303 detects one or a plurality of face image areas from color image data or infrared image data using, for example, the AdaBoost algorithm.

ステップS205において、顔認識処理部303は、検出した一または複数の顔画像領域から顔特徴データを抽出する。
次に、顔認識処理部303は、顔画像領域ごとに、その抽出した顔特徴データと、顔特徴情報記憶部302に記憶された顔特徴情報に含まれる全ての顔特徴データとの類似度をそれぞれ計算し、類似度が最も高い顔特徴データのペアに対応する個人識別情報を顔特徴情報から抽出し、その個人識別情報と当該顔画像領域とを対応付ける。
In step S205, the face recognition processing unit 303 extracts face feature data from the detected one or more face image regions.
Next, the face recognition processing unit 303 calculates the similarity between the extracted face feature data and all the face feature data included in the face feature information stored in the face feature information storage unit 302 for each face image region. Each calculation is performed, personal identification information corresponding to a pair of face feature data having the highest similarity is extracted from the face feature information, and the personal identification information is associated with the face image area.

次に、ステップS206において、顔認識処理部303は、フレーム画像における当該顔画像領域の顔基準位置を取得し、この顔基準位置と当該顔画像領域に対応付けられた個人識別情報とを対応付けて特定部308に供給する。   Next, in step S206, the face recognition processing unit 303 acquires the face reference position of the face image area in the frame image, and associates the face reference position with the personal identification information associated with the face image area. To the specifying unit 308.

図8は、マスク画像生成部304と操作部位置検出部305とが連携して実行するマスク画像生成処理(S3)の手順を示すフローチャートである。マスク画像生成部304は、画像信号取得部301から1フレームの赤外線画像データを取り込むと本フローチャートの処理を実行する。
ステップS301において、マスク画像生成部304は、赤外線画像データを内部の記憶部(図示省略)に記憶させる。この時点で、マスク画像生成部304の上記の記憶部は、現時点から所定時間分だけ過去の赤外線画像データを記憶することとなる。
次に、ステップS302において、マスク画像生成部304は、上記の記憶部に記憶された所定時間分の赤外線画像データの画素ごとの平均輝度値を計算して1フレーム分の平均輝度画像データを生成し、この平均輝度画像データを背景画像データとして操作部位置検出部305に供給する。
FIG. 8 is a flowchart showing a procedure of mask image generation processing (S3) executed by the mask image generation unit 304 and the operation unit position detection unit 305 in cooperation with each other. When the mask image generation unit 304 captures one frame of infrared image data from the image signal acquisition unit 301, the mask image generation unit 304 executes the processing of this flowchart.
In step S301, the mask image generation unit 304 stores the infrared image data in an internal storage unit (not shown). At this time, the storage unit of the mask image generation unit 304 stores past infrared image data for a predetermined time from the current time.
Next, in step S302, the mask image generation unit 304 generates an average luminance image data for one frame by calculating an average luminance value for each pixel of the infrared image data for a predetermined time stored in the storage unit. The average luminance image data is supplied to the operation unit position detection unit 305 as background image data.

次に、ステップS303において、マスク画像生成部304は、背景画像データの全画素の平均輝度値である背景画像全画素平均輝度値を計算し、この背景画像全画素平均輝度値を前記の記憶部に記憶させる。
次に、マスク画像生成部304は、背景画像データの輝度値ヒストグラムを生成し、例えば、最低輝度値である画素を先頭として1フレーム画像分の画素の80%までを順次計数したときの最高輝度値を操作部位置検出部305に供給する。
次に、ステップS304において、マスク画像生成部304は、操作部位置検出部305から供給されるクラスタ分析処理後の赤外線画像データを取り込み、このクラスタ分析処理後の赤外線画像データをマスク画像データとして前記の記憶部に記憶させる。
Next, in step S303, the mask image generation unit 304 calculates a background image all-pixel average luminance value that is an average luminance value of all the pixels of the background image data, and the background image all-pixel average luminance value is calculated as the storage unit. Remember me.
Next, the mask image generation unit 304 generates a luminance value histogram of the background image data, for example, the highest luminance when sequentially counting up to 80% of the pixels for one frame image starting from the pixel having the lowest luminance value. The value is supplied to the operation unit position detection unit 305.
Next, in step S304, the mask image generation unit 304 takes in the infrared image data after the cluster analysis processing supplied from the operation unit position detection unit 305, and uses the infrared image data after the cluster analysis processing as the mask image data. Is stored in the storage unit.

図9は、操作部位置検出部305が実行する操作部位置情報取得処理(S4)の手順を示すフローチャートである。操作部位置検出部305は、画像信号取得部301から1フレームの赤外線画像データを取り込むと本フローチャートの処理を実行する。
ステップS401において、操作部位置検出部305は、マスク画像生成部304から供給される背景画像データと最高輝度値とを取り込む。
次に、ステップS402において、操作部位置検出部305は、赤外線画像データと背景画像データとの画素ごとの差分を計算し、差分絶対値和を計算する。
FIG. 9 is a flowchart illustrating the procedure of the operation unit position information acquisition process (S4) executed by the operation unit position detection unit 305. When the operation unit position detection unit 305 fetches one frame of infrared image data from the image signal acquisition unit 301, the operation unit position detection unit 305 executes the processing of this flowchart.
In step S <b> 401, the operation unit position detection unit 305 takes in the background image data and the maximum luminance value supplied from the mask image generation unit 304.
Next, in step S402, the operation unit position detection unit 305 calculates a difference for each pixel between the infrared image data and the background image data, and calculates a difference absolute value sum.

次に、ステップS403において、操作部位置検出部305は、差分絶対値和があらかじめ記憶した閾値以下である場合(S403:YES)は、ステップS404の処理に移す。一方、操作部位置検出部305は、差分絶対値和が上記の閾値を超える場合(ステップS403:NO)は、ステップS406の処理に移す。   Next, in step S403, if the difference absolute value sum is equal to or less than the threshold value stored in advance (S403: YES), the operation unit position detection unit 305 proceeds to the process of step S404. On the other hand, when the difference absolute value sum exceeds the threshold value (step S403: NO), the operation unit position detection unit 305 proceeds to the process of step S406.

ステップS404において、操作部位置検出部305は、赤外線画像データに対して一定値である第1の閾値を用いた第1の閾値処理を実行する。
次に、ステップS405において、操作部位置検出部305は、マスク画像生成部304の記憶部に記憶されたマスク画像データを読み込み、第1の閾値処理が実行された赤外線画像データをマスク画像データでマスクする。次に、操作部位置検出部305は、ステップS407の処理に移す。
In step S <b> 404, the operation unit position detection unit 305 executes a first threshold process using a first threshold that is a constant value for infrared image data.
Next, in step S405, the operation unit position detection unit 305 reads the mask image data stored in the storage unit of the mask image generation unit 304, and the infrared image data on which the first threshold processing has been executed is the mask image data. Mask it. Next, the operation unit position detection unit 305 proceeds to the process of step S407.

一方、ステップS406において、操作部位置検出部305は、赤外線画像データに対して最高輝度値を第2の閾値として用いた第2の閾値処理を実行する。次に、操作部位置検出部305は、ステップS407の処理に移す。   On the other hand, in step S406, the operation unit position detection unit 305 performs a second threshold process using the highest luminance value as the second threshold for the infrared image data. Next, the operation unit position detection unit 305 proceeds to the process of step S407.

ステップS407において、操作部位置検出部305は、ステップS405の処理においてマスクされた赤外線画像データ、またはステップS406の処理において第2の閾値処理された赤外線画像データから閉領域を抽出する。
次に、ステップS408において、操作部位置検出部305は、抽出した閉領域に対するクラスタ分析処理を実行する。クラスタ分析処理としては、例えばK平均法を適用する。
次に、操作部位置検出部305は、クラスタ分析処理後の赤外線画像データをマスク画像生成部304に供給する。
In step S407, the operation unit position detection unit 305 extracts a closed region from the infrared image data masked in the process of step S405 or the infrared image data subjected to the second threshold process in the process of step S406.
Next, in step S408, the operation unit position detection unit 305 executes cluster analysis processing on the extracted closed region. As the cluster analysis process, for example, a K-average method is applied.
Next, the operation unit position detection unit 305 supplies the infrared image data after the cluster analysis processing to the mask image generation unit 304.

次に、ステップS409において、操作部位置検出部305は、クラスタ分析処理後の赤外線画像データから赤外線画像領域の操作部基準位置を計算し、この操作部基準位置を示す情報を操作部位置情報として操作部識別部307に供給する。   Next, in step S409, the operation unit position detection unit 305 calculates the operation unit reference position of the infrared image region from the infrared image data after the cluster analysis process, and uses the information indicating the operation unit reference position as operation unit position information. This is supplied to the operation unit identification unit 307.

図10は、操作部識別部307と特定部308とが実行する操作部特定処理(S5)の手順を示すフローチャートである。操作部識別部307は、画像信号取得部301から1フレームのカラー画像データを取り込むと本フローチャートの処理を実行する。
ステップS501において、操作部識別部307は、カラー画像データから操作部位置情報が示す操作部基準位置の周囲、例えば、その操作部基準位置を中心として所定距離を半径とした円領域の色ヒストグラムを生成する。
FIG. 10 is a flowchart showing the procedure of the operation unit identification process (S5) executed by the operation unit identification unit 307 and the identification unit 308. When the operation unit identification unit 307 takes in one frame of color image data from the image signal acquisition unit 301, the operation unit identification unit 307 executes the processing of this flowchart.
In step S <b> 501, the operation unit identification unit 307 generates a color histogram of a circular region around the operation unit reference position indicated by the operation unit position information from the color image data, for example, a circle having a predetermined distance as a center around the operation unit reference position. Generate.

次に、ステップS502において、操作部識別部307は、ステップS501の処理において生成した色ヒストグラムと、色ヒストグラム記憶部306に記憶された色ヒストグラム情報に含まれる全ての色ヒストグラムそれぞれとのヒストグラムインターセクションを計算する。
次に、操作部識別部307は、そのヒストグラムインターセクションの計算結果について、類似度が最も高いペアに対応する操作部識別情報を色ヒストグラム情報から抽出し、その操作部識別情報と操作部位置情報とを対応付けて特定部308に供給する。
Next, in step S502, the operation unit identification unit 307 displays a histogram intersection between the color histogram generated in the process of step S501 and all the color histograms included in the color histogram information stored in the color histogram storage unit 306. Calculate
Next, the operation unit identification unit 307 extracts, from the color histogram information, operation unit identification information corresponding to the pair having the highest similarity from the calculation result of the histogram intersection, and the operation unit identification information and the operation unit position information. Are associated with each other and supplied to the specifying unit 308.

次に、ステップS503において、特定部308は、顔認識処理部303から供給される一または複数の個人識別情報と顔画像領域の顔基準位置とのペアデータを取り込み、操作部識別部307から供給される操作部識別情報と操作部位置情報とのペアデータを取り込む。
次に、特定部308は、一または複数の個人識別情報と顔画像領域の顔基準位置とのペアデータと、操作部識別情報と操作部位置情報とのペアデータとの全ての組み合わせについて、顔画像領域の顔基準位置と操作部位置情報が示す赤外線画像領域の操作部基準位置との距離を計算し、距離が最も短い、または所定距離以下となる組み合わせにおける個人識別情報と操作部識別情報とを対応付けて内部の記憶部に記憶させる。
In step S <b> 503, the specifying unit 308 takes in pair data of one or a plurality of personal identification information supplied from the face recognition processing unit 303 and the face reference position of the face image area, and supplies the pair data from the operation unit identification unit 307. The pair data of the operation unit identification information and the operation unit position information is fetched.
Next, the specifying unit 308 performs face detection for all combinations of pair data of one or a plurality of personal identification information and the face reference position of the face image area, and pair data of the operation unit identification information and the operation unit position information. The distance between the face reference position of the image area and the operation part reference position of the infrared image area indicated by the operation part position information is calculated, and the personal identification information and the operation part identification information in a combination where the distance is the shortest or less than a predetermined distance Are associated and stored in the internal storage unit.

図11は、操作履歴情報取得部300が実行する操作履歴情報の取得処理の手順を示すフローチャートである。
ステップS601において、操作制御情報取得部309は、マスク画像生成部304に記憶された背景画像全画素平均輝度値を読み込み、画像信号取得部301から供給される赤外線画像データを取り込む。
次に、ステップS602において、操作制御情報取得部309は、赤外線画像データの平均輝度値である赤外線画像平均輝度値を計算する。
FIG. 11 is a flowchart illustrating a procedure of operation history information acquisition processing executed by the operation history information acquisition unit 300.
In step S <b> 601, the operation control information acquisition unit 309 reads the background image all-pixel average luminance value stored in the mask image generation unit 304 and takes in the infrared image data supplied from the image signal acquisition unit 301.
Next, in step S602, the operation control information acquisition unit 309 calculates an infrared image average luminance value that is an average luminance value of the infrared image data.

次に、ステップS603において、操作制御情報取得部309は、赤外線画像平均輝度値と背景画像全画素平均輝度値とを比較する。
次に、ステップS604において、操作制御情報取得部309は、ステップS603の処理における比較結果がオン状態であると判定する場合(S604:YES)はステップS605の処理に移し、比較結果がオフ状態であると判定する場合(S604:NO)はステップS606の処理に移す。
具体的には、例えば、操作制御情報取得部309は、赤外線画像平均輝度値が背景画像全画素平均輝度値よりも大きい場合、例えば、赤外線画像平均輝度値が背景画像全画素平均輝度値の1.2倍以上の輝度である場合にオン状態であると判定する。また、操作制御情報取得部309は、赤外線画像平均輝度値が背景画像全画素平均輝度値よりも小さい場合、例えば、赤外線画像平均輝度値が背景画像全画素平均輝度値の0.8倍以下の輝度である場合にオフ状態であると判定する。
Next, in step S603, the operation control information acquisition unit 309 compares the infrared image average luminance value with the background image all-pixel average luminance value.
Next, in step S604, when the operation control information acquisition unit 309 determines that the comparison result in the process of step S603 is on (S604: YES), the operation control information acquisition unit 309 moves to the process of step S605, and the comparison result is off. When it determines with there (S604: NO), it moves to the process of step S606.
Specifically, for example, when the infrared image average luminance value is larger than the background image all-pixel average luminance value, the operation control information acquisition unit 309, for example, the infrared image average luminance value is 1 of the background image all-pixel average luminance value. .If the luminance is twice or more, it is determined to be on. Further, when the infrared image average luminance value is smaller than the background image all-pixel average luminance value, the operation control information acquisition unit 309, for example, the infrared image average luminance value is 0.8 times or less of the background image all-pixel average luminance value. If it is luminance, it is determined to be in the off state.

ステップS605において、操作制御情報取得部309は、オン状態を表すフラグデータ(例えば“1”)を図示しないメモリに記憶させて、ステップS607の処理に移す。
ステップS606において、操作制御情報取得部309は、オフ状態を表すフラグデータ(例えば“0(ゼロ)”)を上記のメモリに記憶させて、ステップS607の処理に移す。
In step S605, the operation control information acquisition unit 309 stores flag data (eg, “1”) indicating the ON state in a memory (not shown), and proceeds to the process of step S607.
In step S606, the operation control information acquisition unit 309 stores flag data (eg, “0 (zero)”) indicating an off state in the memory, and proceeds to the process of step S607.

ステップS607において、操作制御情報取得部309は、上記のメモリに記憶された時系列のフラグデータ(フラグデータ列)がリモコンコードを表すパルス符号であるか否かを判定する。
操作制御情報取得部309は、フラグデータ列がリモコンコードを表すパルス符号であると判定した場合(ステップS607:YES)はステップS608の処理に移し、フラグデータ列がリモコンコードを表すパルス符号でないと判定した場合(ステップS607:NO)はステップS601の処理に戻す。
ステップS608において、操作制御情報取得部309は、リモコンコードを復号して操作制御情報を取得し、この操作制御情報を操作履歴情報生成部310に供給する。
In step S607, the operation control information acquisition unit 309 determines whether the time-series flag data (flag data string) stored in the memory is a pulse code representing a remote control code.
If the operation control information acquisition unit 309 determines that the flag data string is a pulse code representing a remote control code (step S607: YES), the operation control information acquisition unit 309 proceeds to the process of step S608, and the flag data string is not a pulse code representing a remote control code. When it determines (step S607: NO), it returns to the process of step S601.
In step S608, the operation control information acquisition unit 309 decodes the remote control code to acquire operation control information, and supplies this operation control information to the operation history information generation unit 310.

次に、ステップS609において、操作履歴情報生成部310は、特定部308の記憶部に記憶された個人識別情報と操作部識別情報とのペアを読み込み、操作制御情報取得部309から供給される操作制御情報を取り込む。
次に、操作履歴情報生成部310は、これら取り込んだ個人識別情報と操作部識別情報と操作制御情報とを関連付けた操作履歴情報を生成し、この操作履歴情報を外部の情報処理装置に出力したり、内部の記憶部に記憶させたりする。
Next, in step S <b> 609, the operation history information generation unit 310 reads a pair of personal identification information and operation unit identification information stored in the storage unit of the specifying unit 308 and performs an operation supplied from the operation control information acquisition unit 309. Capture control information.
Next, the operation history information generation unit 310 generates operation history information that associates the acquired personal identification information, operation unit identification information, and operation control information, and outputs the operation history information to an external information processing apparatus. Or stored in an internal storage unit.

以上詳述したとおり、本発明の第1実施形態であるテレビジョン視聴支援装置20において、光センサ部200は、テレビジョン受像機10でコンテンツを視聴する一または複数の視聴者の顔といずれかの視聴者によって保持されて操作される赤外線出射型の操作部11とを撮像して赤外線画像信号およびカラー画像信号を生成する。   As described above in detail, in the television viewing support apparatus 20 according to the first embodiment of the present invention, the optical sensor unit 200 is either one or a plurality of viewers' faces who view content on the television receiver 10. An infrared emission type operation unit 11 that is held and operated by a viewer of the viewer is imaged to generate an infrared image signal and a color image signal.

また、操作履歴情報取得部300において、顔認識処理部303は、カラー画像データまたは赤外線画像データから、一または複数の視聴者の顔画像領域を検出して視聴者個人を特定し、検出した顔画像領域における顔基準位置を検出する。また、操作部位置検出部305は、赤外線画像データから、操作部11の赤外線画像領域における操作部基準位置を検出する。また、操作部識別部307は、カラー画像データから、操作部位置検出部305が検出した操作部基準位置の周辺領域の色ヒストグラムに基づいて操作部11を識別する。   Further, in the operation history information acquisition unit 300, the face recognition processing unit 303 detects one or a plurality of viewer face image areas from the color image data or infrared image data, identifies the viewer individual, and detects the detected face. A face reference position in the image area is detected. The operation unit position detection unit 305 detects the operation unit reference position in the infrared image region of the operation unit 11 from the infrared image data. In addition, the operation unit identification unit 307 identifies the operation unit 11 from the color image data based on the color histogram of the peripheral region of the operation unit reference position detected by the operation unit position detection unit 305.

また、特定部308は、顔認識処理部303が特定した視聴者個人を示す個人識別情報および検出した顔基準位置と、操作部位置検出部305が検出した操作部基準位置と、操作部識別部307が識別した操作部11の操作部識別情報とを取得し、顔基準位置と操作部基準位置との距離に応じて操作部11の操作者である視聴者個人を特定し、視聴者個人を示す個人識別情報および操作部11の操作部識別情報を対応付ける。また、操作履歴情報生成部310は、特定部308が対応付けた視聴者個人を示す個人識別情報および操作部11の操作部識別情報と操作制御情報取得部309が取得した操作制御情報とを対応付けて操作履歴情報を生成する。   Further, the specifying unit 308 includes personal identification information indicating the individual viewer identified by the face recognition processing unit 303, the detected face reference position, the operation unit reference position detected by the operation unit position detection unit 305, and the operation unit identification unit. The operation unit identification information of the operation unit 11 identified by 307 is acquired, the viewer individual who is the operator of the operation unit 11 is specified according to the distance between the face reference position and the operation unit reference position, and the viewer individual is identified. The personal identification information shown is associated with the operation unit identification information of the operation unit 11. Further, the operation history information generation unit 310 associates the personal identification information indicating the individual viewer associated with the specifying unit 308, the operation unit identification information of the operation unit 11, and the operation control information acquired by the operation control information acquisition unit 309. In addition, operation history information is generated.

このように構成したことにより、テレビジョン視聴支援装置20は、操作部11を保持しテレビジョン受像機10でコンテンツを視聴している視聴者を即座に特定することができ、さらに操作部11を識別して、特定した視聴者が識別した操作部11を操作した操作履歴情報を適切に取得することができる。
すなわち、本発明の第1実施形態によれば、赤外線リモコン装置、赤外線通信機能を有する携帯電話機等の赤外線出射型の操作部11について、誰が、どの操作部11を用いてどのような遠隔操作を行ったかという履歴情報を即座に且つ適切に取得することができる。
With this configuration, the television viewing support apparatus 20 can hold the operation unit 11 and immediately identify a viewer who is viewing content on the television receiver 10. It is possible to appropriately acquire operation history information obtained by operating the operation unit 11 identified by the identified viewer.
That is, according to the first embodiment of the present invention, who uses which operation unit 11 to perform what kind of remote operation with respect to the infrared emission type operation unit 11 such as an infrared remote control device and a mobile phone having an infrared communication function. It is possible to immediately and appropriately acquire history information indicating whether or not the user has performed.

[第2の実施の形態]
上述した第1実施形態において、操作部11は、例えば、パルス化した操作制御信号を赤外線Sにより送信する、赤外線リモコン装置、赤外線通信機能を有する携帯電話機等であるものとして説明した。本発明の第2実施形態では、IP(Internet Protocol)パケット化した操作制御信号を、電気通信回線を介して送信する、タブレットPC(Personal Computer)、スマートフォン等の携帯端末を操作部として用いた例について説明する。
なお、本実施形態において、第1実施形態と同一の構成については同一の符号を付し、その説明を省略する。
[Second Embodiment]
In the first embodiment described above, the operation unit 11 has been described as being, for example, an infrared remote control device that transmits a pulsed operation control signal by infrared S, a mobile phone having an infrared communication function, or the like. In the second embodiment of the present invention, an example in which a portable terminal such as a tablet PC (Personal Computer) or a smartphone that transmits an operation control signal in an IP (Internet Protocol) packet via an electric communication line is used as an operation unit. Will be described.
In the present embodiment, the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.

図12は、本発明の第2実施形態であるテレビジョン視聴支援装置を適用したテレビ視聴システムの全体構成を示すブロック図である。同図に示すように、テレビ視聴システム1aは、テレビジョン受像機10と、操作部11aと、テレビジョン視聴支援装置20aとを、ネットワーク30を介して接続した構成を有する。   FIG. 12 is a block diagram showing the overall configuration of a television viewing system to which the television viewing support apparatus according to the second embodiment of the present invention is applied. As shown in the figure, the television viewing system 1a has a configuration in which a television receiver 10, an operation unit 11a, and a television viewing support device 20a are connected via a network 30.

ネットワーク30は、有線および無線またはいずれか一方によるコンピュータネットワークである。ネットワーク30は、例えばホームネットワーク等のLAN(Local Area Network)やインターネットである。   The network 30 is a wired and / or wireless computer network. The network 30 is, for example, a LAN (Local Area Network) such as a home network or the Internet.

操作部11aは、操作部11aの保持者(操作者)による操作にしたがって操作制御信号を発生させ、この操作制御信号を、ネットワーク30を介してテレビジョン受像機10および操作履歴情報取得部300aに送信する遠隔操作機器である。操作部11aは、IPパケット化した操作制御信号を、ネットワーク30を介して送信する赤外線非出射型の操作部であり、例えば、タブレットPC、スマートフォン等の携帯端末により実現される。
なお、本実施形態における携帯端末は、この携帯端末を赤外線リモコン装置として機能させるためのリモコン用アプリケーションプログラムを実行している状態のものである。
The operation unit 11a generates an operation control signal according to an operation by a holder (operator) of the operation unit 11a, and the operation control signal is transmitted to the television receiver 10 and the operation history information acquisition unit 300a via the network 30. It is a remote control device that transmits. The operation unit 11a is an infrared non-emission-type operation unit that transmits an operation control signal in the form of IP packets via the network 30, and is realized by a mobile terminal such as a tablet PC or a smartphone.
Note that the mobile terminal in the present embodiment is in a state where a remote control application program for causing the mobile terminal to function as an infrared remote control device is being executed.

また、詳しくは後述するが、操作部11aの外装部分には、再帰性反射材が取り付けられている。再帰性反射材は、入射光を入射方向に反射させる再帰性の性質を有した反射材である。   Moreover, although mentioned later in detail, the retroreflection material is attached to the exterior part of the operation part 11a. The retroreflective material is a reflective material having a retroreflective property that reflects incident light in the incident direction.

テレビジョン視聴支援装置20aは、光センサ部200aと、操作履歴情報取得部300aとを備える。
光センサ部200aは、第1実施形態における光センサ部200と同様に、テレビジョン受像機10でコンテンツを視聴する一または複数の視聴者の顔と、テレビジョン受像機10を遠隔操作する操作部11aとを赤外線波長領域および可視光波長領域それぞれの波長領域で撮影し、これらの撮影により得た赤外線画像信号とカラー画像信号とを、操作履歴情報取得部300aに供給する。
また、光センサ部200aは、上記の撮影方向に赤外光を照明する。光センサ部200aの構成の詳細については後述する。
The television viewing support device 20a includes an optical sensor unit 200a and an operation history information acquisition unit 300a.
Similar to the optical sensor unit 200 in the first embodiment, the optical sensor unit 200a includes one or a plurality of viewer faces for viewing content on the television receiver 10 and an operation unit for remotely operating the television receiver 10. 11a is imaged in each of the infrared wavelength region and the visible wavelength region, and the infrared image signal and the color image signal obtained by the imaging are supplied to the operation history information acquisition unit 300a.
In addition, the optical sensor unit 200a illuminates infrared light in the shooting direction. Details of the configuration of the optical sensor unit 200a will be described later.

操作履歴情報取得部300aは、第1実施形態における操作履歴情報取得部300と同様に、利用操作部の特定処理と操作履歴情報の取得処理とを実行する。
利用操作部の特定処理において、操作履歴情報取得部300aは、光センサ部200aから供給される赤外線画像信号とカラー画像信号とを取り込み、これら赤外線画像信号とカラー画像信号との画像処理を行うことによって、テレビジョン受像機10を遠隔操作する操作部11aと、操作部11aを操作する視聴者とを特定する。
Similar to the operation history information acquisition unit 300 in the first embodiment, the operation history information acquisition unit 300a executes a use operation unit specifying process and an operation history information acquisition process.
In the specifying process of the use operation unit, the operation history information acquisition unit 300a takes in the infrared image signal and the color image signal supplied from the optical sensor unit 200a, and performs image processing on the infrared image signal and the color image signal. Thus, the operation unit 11a for remotely operating the television receiver 10 and the viewer for operating the operation unit 11a are specified.

また、操作履歴情報の取得処理において、操作履歴情報取得部300aは、ネットワーク30を介して、操作部11aが送信した操作制御情報を取得する。操作履歴情報取得部300aは、その操作制御情報と、利用操作部の特定処理において特定した操作部11aと操作部11aを操作する視聴者とを対応付けた操作履歴情報を生成する。
操作履歴情報取得部300aの構成の詳細については後述する。
In the operation history information acquisition process, the operation history information acquisition unit 300 a acquires the operation control information transmitted by the operation unit 11 a via the network 30. The operation history information acquisition unit 300a generates operation history information in which the operation control information is associated with the operation unit 11a identified in the specifying process of the use operation unit and the viewer who operates the operation unit 11a.
Details of the configuration of the operation history information acquisition unit 300a will be described later.

図13は、操作部11aの概略の外観を示す斜視図である。同図は、操作部11aとしてスマートフォンを用いた例を示している。同図において、操作部11aを遠隔操作のために使用する際に、テレビジョン受像機10側に向けられる操作部11aの端面には、再帰性反射材101が設けられている。再帰性反射材101は、例えば、ビーズタイプやプリズムタイプの再帰性反射テープや再帰性反射パネルであり、操作部11aの端面に貼付される。
なお、操作部11aのケースカバーを再帰性反射材により形成したり、操作部11aの外装ケースを再帰性反射材により形成したりしてもよい。
FIG. 13 is a perspective view showing a schematic appearance of the operation unit 11a. The figure shows an example in which a smartphone is used as the operation unit 11a. In this figure, when the operation unit 11a is used for remote operation, a retroreflecting material 101 is provided on the end surface of the operation unit 11a directed to the television receiver 10 side. The retroreflective material 101 is, for example, a bead type or prism type retroreflective tape or a retroreflective panel, and is attached to the end surface of the operation unit 11a.
Note that the case cover of the operation unit 11a may be formed of a retroreflective material, or the outer case of the operation unit 11a may be formed of a retroreflective material.

図14は、光センサ部200aの概略構成を模式的に示す断面図である。同図に示すように、光センサ部200aは、第1実施形態における光センサ部200に、同軸赤外線照明240を備えたものである。
同軸赤外線照明240は、赤外照明光を照射する同軸照明である。同軸照明とは、照明光軸と撮像光軸とが同軸となる照明である。同軸赤外線照明240は、赤外線出射部241と、ハーフミラー242とを備える。赤外線出射部241は、赤外線を出射する発光部であり、例えば、赤外線LED(Light Emitting Diode)により実現される。ハーフミラー242は、赤外線出射部241から到来する赤外照明光を反射させる一方、外部から到来する赤外線Sを透過させる。
同軸赤外線照明240は、赤外線出射部241が出射する赤外照明光の光軸と、赤外線撮像部220の撮像光軸とが一致するように設けられる。
FIG. 14 is a cross-sectional view schematically showing a schematic configuration of the optical sensor unit 200a. As shown in the figure, the optical sensor unit 200a includes a coaxial infrared illumination 240 in addition to the optical sensor unit 200 in the first embodiment.
The coaxial infrared illumination 240 is a coaxial illumination that irradiates infrared illumination light. The coaxial illumination is illumination in which the illumination optical axis and the imaging optical axis are coaxial. The coaxial infrared illumination 240 includes an infrared emitting unit 241 and a half mirror 242. The infrared emitting unit 241 is a light emitting unit that emits infrared rays, and is realized by, for example, an infrared LED (Light Emitting Diode). The half mirror 242 reflects the infrared illumination light coming from the infrared emitting unit 241 while transmitting the infrared light S coming from the outside.
The coaxial infrared illumination 240 is provided so that the optical axis of the infrared illumination light emitted from the infrared emitting unit 241 coincides with the imaging optical axis of the infrared imaging unit 220.

図15は、操作履歴情報取得部300aの機能構成を示すブロック図である。同図に示すように、操作履歴情報取得部300aは、第1実施形態における操作履歴情報取得部300に対して、操作部位置検出部305と操作制御情報取得部309とを、操作部位置検出部305aと操作制御情報取得部309aとに変更した構成を有する。   FIG. 15 is a block diagram illustrating a functional configuration of the operation history information acquisition unit 300a. As shown in the figure, the operation history information acquisition unit 300a detects the operation unit position detection unit 305 and the operation control information acquisition unit 309 with respect to the operation history information acquisition unit 300 in the first embodiment. It has the structure changed into the part 305a and the operation control information acquisition part 309a.

操作部位置検出部305aは、第1実施形態における操作部位置検出部305と同様に、画像信号取得部301から供給される赤外線画像データと、マスク画像生成部304から供給される背景画像データおよび最高輝度値とに基づいて、赤外線画像データから操作部11aの再帰性反射材の画像領域を検出する。   Similar to the operation unit position detection unit 305 in the first embodiment, the operation unit position detection unit 305a includes infrared image data supplied from the image signal acquisition unit 301, background image data supplied from the mask image generation unit 304, and Based on the maximum luminance value, the image area of the retroreflecting material of the operation unit 11a is detected from the infrared image data.

ただし、操作部位置検出部305aは、クラスタ分析処理後の赤外線画像データについて、相対距離が所定距離以下であるクラスタ同士を統合する。この所定距離は、例えば操作部11aを視聴者が保持する場合に、指や手等によって再帰性反射材が分断されることを考慮して決められる。例えば、所定距離は、成人男性の頭の幅の寸法と操作部11aの一辺の寸法との比に基づいて決められる距離である。
操作部位置検出部305aは、このクラスタ統合処理後の赤外線画像データをマスク画像生成部304に供給する。
However, the operation unit position detection unit 305a integrates clusters whose relative distances are equal to or less than a predetermined distance in the infrared image data after the cluster analysis processing. For example, when the viewer holds the operation unit 11a, the predetermined distance is determined in consideration of the fact that the retroreflective material is divided by a finger or a hand. For example, the predetermined distance is a distance determined based on a ratio between the width of the head of an adult male and the size of one side of the operation unit 11a.
The operation unit position detection unit 305 a supplies the infrared image data after the cluster integration process to the mask image generation unit 304.

また、操作部位置検出部305aは、クラスタ統合処理後の赤外線画像データから赤外線画像領域の操作部基準位置を計算し、この操作部基準位置を示す情報を操作部位置情報として操作部識別部307に供給する。   Further, the operation unit position detection unit 305a calculates the operation unit reference position of the infrared image region from the infrared image data after the cluster integration process, and uses the information indicating the operation unit reference position as operation unit position information as the operation unit identification unit 307. To supply.

操作制御情報取得部309aは、操作履歴情報の取得処理において、第1実施形態における操作制御情報取得部309と同様に、画像信号取得部301から供給される赤外線画像データと、マスク画像生成部304に記憶された背景画像全画素平均輝度値とに基づいて、利用操作部(赤外線リモコン装置)が送信した赤外線Sから操作制御情報を取得する。また、操作制御情報取得部309aは、操作履歴情報の取得処理において、操作部11aが送信する操作制御データを、ネットワーク30を介して受信し、この操作制御データを操作制御情報として取得する。   Similar to the operation control information acquisition unit 309 in the first embodiment, the operation control information acquisition unit 309a uses the infrared image data supplied from the image signal acquisition unit 301 and the mask image generation unit 304 in the operation history information acquisition process. The operation control information is acquired from the infrared ray S transmitted by the use operation unit (infrared remote control device) based on the average luminance value of all pixels stored in the background image. Further, in the operation history information acquisition process, the operation control information acquisition unit 309a receives the operation control data transmitted from the operation unit 11a via the network 30, and acquires the operation control data as operation control information.

次に、第2実施形態であるテレビジョン視聴支援装置20aの操作履歴情報取得部300aの動作について説明する。ここでは、第1実施形態であるテレビジョン視聴支援装置20の動作と異なる動作についてのみ説明する。   Next, the operation of the operation history information acquisition unit 300a of the television viewing support apparatus 20a according to the second embodiment will be described. Here, only an operation different from the operation of the television viewing support apparatus 20 according to the first embodiment will be described.

マスク画像生成部304と操作部位置検出部305とが連携して実行するマスク画像生成処理のステップS304の処理において、マスク画像生成部304は、操作部位置検出部305aから供給されるクラスタ統合処理後の赤外線画像データを取り込み、このクラスタ分析処理後の赤外線画像データをマスク画像データとして内部の記憶部に記憶させる。   In the process of step S304 of the mask image generation process executed in cooperation by the mask image generation unit 304 and the operation unit position detection unit 305, the mask image generation unit 304 performs cluster integration processing supplied from the operation unit position detection unit 305a. The later infrared image data is taken in, and the infrared image data after the cluster analysis processing is stored in the internal storage unit as mask image data.

また、操作部位置検出部305aが実行する操作部位置情報取得処理のステップS408の処理において、操作部位置検出部305aは、抽出した閉領域に対するクラスタ分析処理を実行する。次に、操作部位置検出部305aは、クラスタ分析処理後の赤外線画像データについて、相対距離が所定距離以下にあるクラスタ同士を統合する。
次に、操作部位置検出部305aは、クラスタ統合処理後の赤外線画像データをマスク画像生成部304に供給する。
In the process of step S408 of the operation unit position information acquisition process executed by the operation unit position detection unit 305a, the operation unit position detection unit 305a executes a cluster analysis process on the extracted closed region. Next, the operation unit position detection unit 305a integrates clusters having a relative distance equal to or less than a predetermined distance in the infrared image data after the cluster analysis processing.
Next, the operation unit position detection unit 305 a supplies the infrared image data after the cluster integration processing to the mask image generation unit 304.

また、操作履歴情報取得部300aが実行する操作履歴情報の取得処理において、操作制御情報取得部309aは、操作部11aが送信する操作制御データを、ネットワーク30を介して受信し、この操作制御データを操作制御情報として操作履歴情報生成部310に供給する。   In the operation history information acquisition process executed by the operation history information acquisition unit 300a, the operation control information acquisition unit 309a receives the operation control data transmitted from the operation unit 11a via the network 30, and this operation control data. Is supplied to the operation history information generation unit 310 as operation control information.

以上詳述したとおり、本発明の第2実施形態であるテレビジョン視聴支援装置20aにおいて、光センサ部200aは、テレビジョン受像機10でコンテンツを視聴する一または複数の視聴者の顔といずれかの視聴者によって保持されて操作される赤外線非出射型の操作部11aとを撮像して赤外線画像信号およびカラー画像信号を生成する。   As described above in detail, in the television viewing support apparatus 20a according to the second embodiment of the present invention, the optical sensor unit 200a is either one or more of the faces of viewers viewing content on the television receiver 10. The infrared non-emission-type operation unit 11a that is held and operated by the viewers is imaged to generate an infrared image signal and a color image signal.

また、操作履歴情報取得部300aにおいて、顔認識処理部303は、カラー画像データまたは赤外線画像データから、一または複数の視聴者の顔画像領域を検出して視聴者個人を特定し、検出した顔画像領域における顔基準位置を検出する。また、操作部位置検出部305aは、赤外線画像データから、操作部11aの赤外線画像領域における操作部基準位置を検出する。また、操作部識別部307は、カラー画像データから、操作部位置検出部305aが検出した操作部基準位置の周辺領域の色ヒストグラムに基づいて操作部11aを識別する。   In the operation history information acquisition unit 300a, the face recognition processing unit 303 detects one or a plurality of viewer face image areas from the color image data or infrared image data, identifies the viewer individual, and detects the detected face. A face reference position in the image area is detected. The operation unit position detection unit 305a detects the operation unit reference position in the infrared image region of the operation unit 11a from the infrared image data. Further, the operation unit identification unit 307 identifies the operation unit 11a from the color image data based on the color histogram of the peripheral region of the operation unit reference position detected by the operation unit position detection unit 305a.

また、特定部308は、顔認識処理部303が特定した視聴者個人を示す個人識別情報および検出した顔基準位置と、操作部位置検出部305aが検出した操作部基準位置と、操作部識別部307が識別した操作部11aの操作部識別情報とを取得し、顔基準位置と操作部基準位置との距離に応じて操作部11aの操作者である視聴者個人を特定し、視聴者個人を示す個人識別情報および操作部11aの操作部識別情報を対応付ける。また、操作履歴情報生成部310は、特定部308が対応付けた視聴者個人を示す個人識別情報および操作部11aの操作部識別情報と操作制御情報取得部309aが取得した操作制御情報とを対応付けて操作履歴情報を生成する。   Further, the specifying unit 308 includes personal identification information indicating the individual viewer identified by the face recognition processing unit 303, the detected face reference position, the operation unit reference position detected by the operation unit position detection unit 305a, and the operation unit identification unit. The operation unit identification information of the operation unit 11a identified by 307 is acquired, the viewer individual who is the operator of the operation unit 11a is specified according to the distance between the face reference position and the operation unit reference position, and the viewer individual is identified. The personal identification information shown is associated with the operation unit identification information of the operation unit 11a. Further, the operation history information generation unit 310 associates the personal identification information indicating the individual viewer associated with the specifying unit 308, the operation unit identification information of the operation unit 11a, and the operation control information acquired by the operation control information acquisition unit 309a. In addition, operation history information is generated.

このように構成したことにより、テレビジョン視聴支援装置20aは、操作部11aを保持しテレビジョン受像機10でコンテンツを視聴している視聴者を即座に特定することができ、さらに操作部11aを識別して、特定した視聴者が識別した操作部11aを操作した操作履歴情報を適切に取得することができる。
すなわち、本発明の第2実施形態によれば、タブレットPC、スマートフォン等の赤外線非出射型の操作部11aについて、誰が、どの操作部11aを用いてどのような遠隔操作を行ったかという履歴情報を即座に且つ適切に取得することができる。
With this configuration, the television viewing support device 20a can immediately identify a viewer who is holding the operation unit 11a and is viewing content on the television receiver 10, and further includes the operation unit 11a. It is possible to appropriately acquire operation history information obtained by operating the operation unit 11a identified by the identified viewer.
That is, according to the second embodiment of the present invention, the history information indicating who performed what remote operation using which operation unit 11a for the infrared non-emission type operation unit 11a such as a tablet PC or a smartphone. It can be acquired immediately and appropriately.

[応用例]
次に、前述した第1実施形態および第2実施形態におけるテレビジョン視聴支援装置20,20aが取得した操作履歴情報を用いる応用例について説明する。
第1の例は、情報処理装置(例えば、コンピュータ装置)が操作履歴情報と電子番組ガイドとに基づいてコンテンツ推薦リストを生成する例である。具体的には、情報処理装置は、操作履歴情報取得部300,300aから操作履歴情報を取り込み、また、テレビジョン受像機10または外部の電子番組ガイドサーバから電子番組ガイドを取り込む。情報処理装置は、操作履歴情報と電子番組ガイドとに基づいて、視聴者ごとに、視聴したコンテンツの属性と、遠隔操作によってコンテンツを切り替えるタイミングとを取得する。そして、情報処理装置は、切替間隔が短いほど当該コンテンツに興味がなく、切替時間が長いほど当該コンテンツに興味があると判定する。そして、情報処理装置は、興味があると判定したコンテンツの属性に同一または類似するコンテンツを、推薦順位を高くする一方、興味がないと判定したコンテンツの属性に同一または類似するコンテンツを、推薦順位を低くしたコンテンツ推薦リストを作成する。そして、情報処理装置は、このコンテンツ推薦リストを表示装置に表示させたり、テレビジョン受像機10に供給したりする。
[Application example]
Next, an application example using the operation history information acquired by the television viewing support apparatuses 20 and 20a in the first embodiment and the second embodiment will be described.
In the first example, an information processing apparatus (for example, a computer apparatus) generates a content recommendation list based on operation history information and an electronic program guide. Specifically, the information processing apparatus captures operation history information from the operation history information acquisition units 300 and 300a, and captures an electronic program guide from the television receiver 10 or an external electronic program guide server. Based on the operation history information and the electronic program guide, the information processing apparatus acquires, for each viewer, the attributes of the viewed content and the timing for switching the content by remote operation. The information processing apparatus determines that the shorter the switching interval, the less interested the content, and the longer the switching time, the more interested in the content. Then, the information processing apparatus increases the recommendation order for content that is the same or similar to the attribute of the content that is determined to be interested, while recommending the content that is the same or similar to the attribute of the content that is determined not to be interested Create a content recommendation list with low The information processing apparatus displays the content recommendation list on the display device or supplies the content recommendation list to the television receiver 10.

上記の第1の例において、情報処理装置は、取得した属性(例えば、ジャンル)からキーワードを抽出して、このキーワードに基づいて視聴者個人の趣味や嗜好を推定し、この推定結果を用いてコンテンツ推薦リストを生成してもよい。   In the first example, the information processing apparatus extracts a keyword from the acquired attribute (for example, genre), estimates a viewer's personal hobbies and preferences based on the keyword, and uses the estimation result. A content recommendation list may be generated.

第2の例は、情報処理装置が操作履歴情報から視聴者ごとの周期性がある履歴を取得し、この取得結果に基づいた遠隔操作を行う例である。周期性がある履歴とは、例えば、ある視聴者は、毎週水曜日の21時から特定の放送番組を視聴していることが示された履歴である。情報処理装置は、周期性がある履歴を取得した場合、その周期にしたがった内容の操作制御データを、ネットワーク30を介してテレビジョン受像機10に供給する。   The second example is an example in which the information processing apparatus acquires a history having periodicity for each viewer from the operation history information and performs a remote operation based on the acquisition result. The history having periodicity is, for example, a history indicating that a certain viewer is watching a specific broadcast program from 21:00 every Wednesday. When the information processing apparatus acquires a history having periodicity, the information processing apparatus supplies operation control data having contents according to the period to the television receiver 10 via the network 30.

第3の例は、 操作部11aが、操作パネルのGUI(Graphical User Interface)を、視聴者ごとの操作履歴情報に基づいて変更する例である。具体的には、操作部11aは、操作履歴情報取得部300aから操作履歴情報を取り込む。操作部11aは、操作履歴情報に基づいて、使用頻度が高いGUIボタンを使用頻度が低いGUIボタンよりも大きく表示したりする。   The third example is an example in which the operation unit 11a changes a GUI (Graphical User Interface) of the operation panel based on operation history information for each viewer. Specifically, the operation unit 11a takes in the operation history information from the operation history information acquisition unit 300a. Based on the operation history information, the operation unit 11a displays a GUI button with a high use frequency larger than a GUI button with a low use frequency.

なお、第1実施形態であるテレビジョン視聴支援装置20において、カラー画像信号を用いない構成とすることもできる。このように構成する場合、光センサ部200は、光束分離部210とカラー撮像部230とを省略することができる。また、顔認識処理部300は、赤外線画像データのみを用いて顔画像検出処理を実行する。第2実施形態についても同様である。   Note that the television viewing support apparatus 20 according to the first embodiment may be configured not to use a color image signal. In the case of such a configuration, the optical sensor unit 200 can omit the light beam separation unit 210 and the color imaging unit 230. In addition, the face recognition processing unit 300 executes face image detection processing using only infrared image data. The same applies to the second embodiment.

また、色ヒストグラム記憶部306と操作部識別部307とを省略することができる。このように構成する場合、操作履歴情報生成部310は、個人識別情報と操作制御情報とを関連付けた操作履歴情報を生成する。つまり、操作部11はあらかじめ識別されていることが前提となる。第2実施形態についても同様である。   Further, the color histogram storage unit 306 and the operation unit identification unit 307 can be omitted. When configured in this way, the operation history information generation unit 310 generates operation history information in which personal identification information and operation control information are associated with each other. That is, it is assumed that the operation unit 11 has been identified in advance. The same applies to the second embodiment.

また、第1実施形態および第2実施形態では、テレビジョン受像機10とテレビジョン視聴支援装置20,20aとを分離してテレビ視聴システム1,1aを構成したが、これ以外にも、テレビジョン受像機10とテレビジョン視聴支援装置20,20aとを一体的に構成してもよい。   In the first embodiment and the second embodiment, the television receiver 10 and the television viewing support devices 20 and 20a are separated to configure the television viewing system 1 and 1a. The receiver 10 and the television viewing support devices 20 and 20a may be configured integrally.

以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.

1,1a テレビ視聴システム
10 テレビジョン受像機
11,11a 操作部
20,20a テレビジョン視聴支援装置
30 ネットワーク
101 再帰性反射材
200,200a 光センサ部
210 光束分離部
220 赤外線撮像部
230 カラー撮像部
240 同軸赤外線照明
241 赤外線出射部
242 ハーフミラー
300,300a 操作履歴情報取得部
301 画像信号取得部
302 顔特徴情報記憶部
303 顔認識処理部
304 マスク画像生成部
305,305a 操作部位置検出部
306 色ヒストグラム記憶部
307 操作部識別部
308 特定部
309,309a 操作制御情報取得部
310 操作履歴情報生成部
DESCRIPTION OF SYMBOLS 1,1a Television viewing system 10 Television receiver 11, 11a Operation part 20, 20a Television viewing assistance apparatus 30 Network 101 Retroreflective material 200, 200a Optical sensor part 210 Light beam separation part 220 Infrared imaging part 230 Color imaging part 240 Coaxial infrared illumination 241 Infrared emission unit 242 Half mirror 300, 300a Operation history information acquisition unit 301 Image signal acquisition unit 302 Face feature information storage unit 303 Face recognition processing unit 304 Mask image generation unit 305, 305a Operation unit position detection unit 306 Color histogram Storage unit 307 Operation unit identification unit 308 Identification unit 309, 309a Operation control information acquisition unit 310 Operation history information generation unit

Claims (4)

視聴者の顔と前記視聴者によって操作される赤外線出射型の操作部とを被写体として撮像し、一連の赤外線画像データを生成する光センサ部と、
前記光センサ部が生成した前記赤外線画像データから前記視聴者の顔画像領域を検出して視聴者個人を特定し、前記赤外線画像データにおける前記顔画像領域の顔基準位置を検出する顔認識処理部と、
前記赤外線画像データにおける、前記操作部に対応する赤外線画像領域の操作部基準位置を検出する操作部位置検出部と、
前記顔認識処理部が特定した前記視聴者個人を示す個人識別情報および検出した前記顔基準位置と前記操作部位置検出部が検出した前記操作部基準位置とを取得し、前記赤外線画像データにおける前記顔基準位置と前記操作部基準位置との距離に応じて、前記操作部の操作者である視聴者個人を特定する特定部と、
前記光センサ部が生成する一連の赤外線画像データから前記操作部の操作制御情報を取得する操作制御情報取得部と、
前記特定部が特定した前記視聴者個人を示す個人識別情報と前記操作制御情報取得部が取得した前記操作制御情報とを対応付けて操作履歴情報を生成する操作履歴情報生成部と、
を備えることを特徴とするテレビジョン視聴支援装置。
An optical sensor unit that captures an image of a viewer's face and an infrared emitting operation unit operated by the viewer as a subject, and generates a series of infrared image data;
A face recognition processing unit that detects the viewer's face image region from the infrared image data generated by the optical sensor unit, identifies the viewer's individual, and detects a face reference position of the face image region in the infrared image data When,
An operation unit position detection unit for detecting an operation unit reference position of an infrared image region corresponding to the operation unit in the infrared image data;
The personal identification information indicating the viewer individual specified by the face recognition processing unit, the detected face reference position and the operation unit reference position detected by the operation unit position detection unit are acquired, and the infrared image data in the infrared image data A specifying unit for specifying a viewer individual who is an operator of the operation unit according to a distance between a face reference position and the operation unit reference position;
An operation control information acquisition unit for acquiring operation control information of the operation unit from a series of infrared image data generated by the optical sensor unit;
An operation history information generating unit that generates operation history information by associating personal identification information indicating the individual viewer specified by the specifying unit with the operation control information acquired by the operation control information acquiring unit;
A television viewing support apparatus comprising:
前記光センサ部は、前記被写体を撮像して一連のカラー画像データをも生成し、
前記光センサ部が生成した前記カラー画像データから、前記操作部位置検出部が検出した前記操作部基準位置の周辺領域の色情報に基づいて前記操作部を識別する操作部識別部をさらに備え、
前記特定部は、前記顔認識処理部が特定した前記視聴者個人を示す個人識別情報および検出した前記顔基準位置と、前記操作部位置検出部が検出した前記操作部基準位置と、前記操作部識別部が識別した前記操作部の識別情報とを取得し、前記赤外線画像データにおける前記顔基準位置と前記操作部基準位置との距離に応じて前記操作部の操作者である視聴者個人を特定し、前記視聴者個人を示す個人識別情報および前記操作部の識別情報を対応付け、
前記操作履歴情報生成部は、前記特定部が対応付けた前記視聴者個人を示す個人識別情報および前記操作部の識別情報と前記操作制御情報取得部が取得した前記操作制御情報とを対応付けて操作履歴情報を生成する
ことを特徴とする請求項1記載のテレビジョン視聴支援装置。
The optical sensor unit images the subject to generate a series of color image data,
An operation unit identifying unit for identifying the operation unit based on color information of a peripheral region of the operation unit reference position detected by the operation unit position detection unit from the color image data generated by the optical sensor unit;
The identification unit includes personal identification information indicating the viewer individual identified by the face recognition processing unit, the detected face reference position, the operation unit reference position detected by the operation unit position detection unit, and the operation unit The identification information of the operation unit identified by the identification unit is acquired, and the individual viewer who is the operator of the operation unit is specified according to the distance between the face reference position and the operation unit reference position in the infrared image data The personal identification information indicating the viewer individual and the identification information of the operation unit are associated with each other,
The operation history information generation unit associates personal identification information indicating the viewer individual associated with the specifying unit, identification information of the operation unit, and the operation control information acquired by the operation control information acquisition unit. 2. The television viewing support apparatus according to claim 1, wherein operation history information is generated.
前記光センサ部は、撮像光軸と同軸の照明光軸を有する同軸赤外線照明をさらに備え、
赤外線非出射型の操作部をも撮像する
ことを特徴とする請求項1または2記載のテレビジョン視聴支援装置。
The optical sensor unit further includes coaxial infrared illumination having an illumination optical axis coaxial with the imaging optical axis,
The television viewing support apparatus according to claim 1, wherein the infrared non-emission type operation unit is also imaged.
前記操作部位置検出部は、前記赤外線画像データから閉領域を抽出してクラスタ分析処理を実行し、前記赤外線画像データにおける相対距離が所定距離以下であるクラスタ同士を統合して前記操作部の赤外線画像領域とし、前記赤外線画像領域の操作部基準位置を検出する
ことを特徴とする請求項3記載のテレビジョン視聴支援装置。
The operation unit position detection unit extracts a closed region from the infrared image data, executes a cluster analysis process, integrates clusters whose relative distances in the infrared image data are equal to or less than a predetermined distance, and adds infrared rays of the operation unit The television viewing support apparatus according to claim 3, wherein an operation region reference position of the infrared image region is detected as an image region.
JP2011106128A 2011-05-11 2011-05-11 Television viewing support device Expired - Fee Related JP5703120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011106128A JP5703120B2 (en) 2011-05-11 2011-05-11 Television viewing support device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011106128A JP5703120B2 (en) 2011-05-11 2011-05-11 Television viewing support device

Publications (2)

Publication Number Publication Date
JP2012239004A true JP2012239004A (en) 2012-12-06
JP5703120B2 JP5703120B2 (en) 2015-04-15

Family

ID=47461532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011106128A Expired - Fee Related JP5703120B2 (en) 2011-05-11 2011-05-11 Television viewing support device

Country Status (1)

Country Link
JP (1) JP5703120B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015177944A1 (en) * 2014-05-19 2015-11-26 三菱電機株式会社 Operation control device, operation control method, and reproduction device
US9542602B2 (en) 2014-01-21 2017-01-10 Fujitsu Limited Display control device and method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048479A (en) * 2007-08-21 2009-03-05 Hitachi Ltd Equipment operation device
JP2009118423A (en) * 2007-11-09 2009-05-28 Canon Inc Display device, and control method
JP2010068385A (en) * 2008-09-12 2010-03-25 Sony Corp Image display device and detection method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009048479A (en) * 2007-08-21 2009-03-05 Hitachi Ltd Equipment operation device
JP2009118423A (en) * 2007-11-09 2009-05-28 Canon Inc Display device, and control method
JP2010068385A (en) * 2008-09-12 2010-03-25 Sony Corp Image display device and detection method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9542602B2 (en) 2014-01-21 2017-01-10 Fujitsu Limited Display control device and method
WO2015177944A1 (en) * 2014-05-19 2015-11-26 三菱電機株式会社 Operation control device, operation control method, and reproduction device
US9948718B2 (en) 2014-05-19 2018-04-17 Mitsubishi Electric Corporation Operation control device and operation control method

Also Published As

Publication number Publication date
JP5703120B2 (en) 2015-04-15

Similar Documents

Publication Publication Date Title
WO2021017561A1 (en) Face recognition method and apparatus, electronic device, and storage medium
US20210357623A1 (en) Method and device to speed up face recognition
US9189611B2 (en) Adapting content and monitoring user behavior based on facial recognition
CN108399349B (en) Image recognition method and device
US20090174805A1 (en) Digital camera focusing using stored object recognition
WO2017059634A1 (en) Method and device for adjusting displayed image
US20070253604A1 (en) Face authentication apparatus, control method and program, electronic device having the same, and program recording medium
KR20120051209A (en) Method for providing display image in multimedia device and thereof
EP2453596A2 (en) Multimedia device, multiple image sensors having different types and method for controlling the same
KR101906748B1 (en) Iris image acquisition method and apparatus, and iris recognition device
WO2015131589A1 (en) Colour cast compensation device and display device
KR20180104970A (en) Terminal and method of controlling the same
KR20170001430A (en) Display apparatus and image correction method thereof
KR20120051211A (en) Method for recognizing user gesture in multimedia device and multimedia device thereof
US9046921B2 (en) Display apparatus and control method thereof
JP5703120B2 (en) Television viewing support device
US11574502B2 (en) Method and device for identifying face, and computer-readable storage medium
KR20120050615A (en) Multimedia device, multiple image sensors having different types and the method for controlling the same
KR20120051210A (en) Method and apparatus for providing optimized viewing conditions in multimedia device
CN105847654B (en) Information processing method and device
CN105959563A (en) Image storing method and image storing apparatus
KR101478560B1 (en) A mobile terminal for photographing image by remote control and a method therefor
US20150178589A1 (en) Apparatus for processing digital image and method of controlling the same
US10193991B2 (en) Methods and apparatuses for providing information of video capture device
CN106713782B (en) A kind of method and apparatus of image taking

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140108

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20141028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150223

R150 Certificate of patent or registration of utility model

Ref document number: 5703120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees