JP2012128766A - Information processing apparatus, information processing system, information processing method, and television receiver - Google Patents

Information processing apparatus, information processing system, information processing method, and television receiver Download PDF

Info

Publication number
JP2012128766A
JP2012128766A JP2010281344A JP2010281344A JP2012128766A JP 2012128766 A JP2012128766 A JP 2012128766A JP 2010281344 A JP2010281344 A JP 2010281344A JP 2010281344 A JP2010281344 A JP 2010281344A JP 2012128766 A JP2012128766 A JP 2012128766A
Authority
JP
Japan
Prior art keywords
operator
indicator
image
information processing
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2010281344A
Other languages
Japanese (ja)
Inventor
Hiroaki Takahashi
寛明 高橋
Tetsuo Shida
哲郎 志田
Hideaki Kosaka
英明 小坂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010281344A priority Critical patent/JP2012128766A/en
Publication of JP2012128766A publication Critical patent/JP2012128766A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately specify an instruction position, even when a plurality of people are included in a captured image.SOLUTION: An information processing apparatus includes: an image acquisition part 41 for acquiring an image in which an indicator for indicating a position and an operator holding the indicator are captured; an operator specification part 44 for, when a plurality of people are included in the image, specifying the operator holding the indicator from the plurality of people; and a position specification part 45 for, on the basis of a position of the specified operator in the image and a position of the indicator in the image, specifying a position instructed with the indicator by the operator.

Description

本発明は、情報処理装置、情報処理システム、情報処理方法、及びテレビ受像機に関する。   The present invention relates to an information processing apparatus, an information processing system, an information processing method, and a television receiver.

特許文献1には、コンピュータやゲーム機において、表示スクリーンの前に位置する人等の画像を画像取得装置により取得し、当該画像を解析して、人の頭の位置と、当該人の手に保持されている物体の位置とを特定し、画像取得装置から観察したときの、人の頭の位置と物体の位置の間の相対位置を特定し、当該相対位置を用いて物体のポイント方向を決定し、当該ポイント方向を表示スクリーン上に表示するものが開示されている。   In Patent Document 1, in a computer or game machine, an image of a person or the like located in front of a display screen is acquired by an image acquisition device, the image is analyzed, and the position of the person's head and the person's hand are analyzed. The position of the held object is specified, the relative position between the position of the person's head and the position of the object when observed from the image acquisition device is specified, and the point direction of the object is determined using the relative position. A method for determining and displaying the point direction on a display screen is disclosed.

特表2009−519553号公報Special table 2009-515553 米国特許出願公開第2002/0102024号明細書US Patent Application Publication No. 2002/0102024

ところで、撮像された画像における操作者の位置と指示器の位置とに基づき、操作者により指示器で指示された指示位置を特定する構成では、画像に複数の人物が含まれる場合、適切に指示位置を特定できないことが考えられる。例えば、実際には指示器を保持していない人物(すなわち操作者ではない人物)の位置に基づいて指示位置を特定してしまい、正しい指示位置を特定できない可能性がある。   By the way, in the configuration in which the indication position specified by the operator by the operator is specified based on the position of the operator and the position of the indicator in the captured image, an appropriate indication is given when the image includes a plurality of persons. It is conceivable that the position cannot be specified. For example, there is a possibility that the indicated position is specified based on the position of a person who does not actually hold the indicator (that is, a person who is not the operator), and the correct indicated position cannot be specified.

そこで、本発明は、撮像された画像に複数の人物が含まれる場合であっても、適切に指示位置を特定することができる情報処理装置、情報処理システム、情報処理方法、及びテレビ受像機を提供することを目的とする。   Therefore, the present invention provides an information processing apparatus, an information processing system, an information processing method, and a television receiver that can appropriately specify a designated position even when a captured image includes a plurality of persons. The purpose is to provide.

本発明に係る情報処理装置は、位置を指示するための指示器と当該指示器を保持している操作者とが撮像された画像を取得する画像取得手段と、前記画像に複数の人物が含まれている場合に、当該複数の人物の中から前記指示器を保持している前記操作者を特定する操作者特定手段と、前記画像における前記特定された操作者の位置と、前記画像における前記指示器の位置とに基づき、前記操作者により前記指示器で指示された位置を特定する位置特定手段とを備えることを特徴とする。   An information processing apparatus according to the present invention includes an image acquisition unit that acquires an image of an indicator for indicating a position and an operator holding the indicator, and the image includes a plurality of persons. The operator specifying means for specifying the operator holding the indicator from the plurality of persons, the position of the specified operator in the image, and the image in the image. And a position specifying means for specifying a position instructed by the operator based on the position of the indicator.

また、本発明に係る情報処理システムは、上記情報処理装置と、前記指示器と、前記指示器および前記操作者を撮像し、前記画像を前記画像取得手段に出力する撮像装置と、画像を表示する表示装置と、前記位置特定手段により特定された位置に基づいて前記表示装置に表示される画像を制御する表示制御手段とを備えることを特徴とする。   In addition, an information processing system according to the present invention includes the information processing device, the indicator, the imaging device that captures the indicator and the operator, and outputs the image to the image acquisition unit. And a display control means for controlling an image displayed on the display device based on the position specified by the position specifying means.

また、本発明に係る情報処理方法は、位置を指示するための指示器と当該指示器を保持している操作者とが撮像された画像を取得するステップと、前記画像に複数の人物が含まれている場合に、当該複数の人物の中から前記指示器を保持している前記操作者を特定するステップと、前記画像における前記特定された操作者の位置と、前記画像における前記指示器の位置とに基づき、前記操作者により前記指示器で指示された位置を特定するステップとを含むことを特徴とする。   Further, the information processing method according to the present invention includes a step of acquiring an image obtained by capturing an image of an indicator for indicating a position and an operator holding the indicator, and the image includes a plurality of persons. The operator holding the indicator from the plurality of persons, the position of the specified operator in the image, and the indicator of the indicator in the image. And a step of specifying the position indicated by the indicator by the operator based on the position.

また、本発明に係るテレビ受像機は、上記情報処理装置と、画像を表示する表示装置と、前記位置特定手段により特定された位置に基づいて前記表示装置に表示される画像を制御する表示制御手段とを備えることを特徴とする。   The television receiver according to the present invention includes a display control for controlling an image displayed on the display device based on the information processing device, a display device for displaying an image, and a position specified by the position specifying means. Means.

本発明によれば、撮像された画像に複数の人物が含まれる場合であっても、適切に指示位置を特定することができる。   According to the present invention, it is possible to appropriately specify the designated position even when a plurality of persons are included in the captured image.

実施の形態1における情報処理システムの構成の一例を示すブロック図である。1 is a block diagram illustrating an example of a configuration of an information processing system in a first embodiment. 実施の形態1における情報処理システムの構成の一例を示す概略外観図である。1 is a schematic external view showing an example of a configuration of an information processing system in Embodiment 1. FIG. 指示器の構成の一例を示す概略斜視図である。It is a schematic perspective view which shows an example of a structure of an indicator. 情報処理装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of information processing apparatus. 人物検出情報の一例を示す図である。It is a figure which shows an example of person detection information. 操作者の特定を説明するための、撮像画像の一例を示す図である。It is a figure which shows an example of the captured image for demonstrating identification of an operator. 指示位置の特定を説明するための、撮像画像の一例を示す図である。It is a figure which shows an example of the captured image for demonstrating specification of an instruction | indication position. 表示装置に表示される内容の一例を示す図である。It is a figure which shows an example of the content displayed on a display apparatus. 実施の形態1におけるカーソルの表示に関する情報処理装置の処理の手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a processing procedure of the information processing apparatus related to cursor display in the first embodiment. 決定ボタンの押下に基づく画面遷移に関する情報処理装置の処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the process of the information processing apparatus regarding the screen transition based on pressing of a determination button. 実施の形態2におけるカーソルの表示に関する情報処理装置の処理の手順の一例を示すフローチャートである。11 is a flowchart illustrating an example of a processing procedure of the information processing apparatus related to cursor display in the second embodiment. 実施の形態3における情報処理装置の構成の一例を示すブロック図である。11 is a block diagram illustrating an example of a configuration of an information processing device in Embodiment 3. FIG. 実施の形態3におけるカーソルの表示に関する情報処理装置の処理の手順の第1の例を示すフローチャートである。15 is a flowchart illustrating a first example of a processing procedure of the information processing apparatus related to cursor display in the third embodiment. 実施の形態3におけるカーソルの表示に関する情報処理装置の処理の手順の第2の例を示すフローチャートである。15 is a flowchart illustrating a second example of a processing procedure of the information processing apparatus related to cursor display in the third embodiment.

以下、本発明の実施の形態を図面に従って説明する。
実施の形態1.
図1は、実施の形態1における情報処理システム100の構成の一例を示すブロック図である。図2は、実施の形態1における情報処理システム100の構成の一例を示す概略外観図である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram illustrating an example of the configuration of the information processing system 100 according to the first embodiment. FIG. 2 is a schematic external view showing an example of the configuration of the information processing system 100 according to the first embodiment.

図1において、情報処理システム100は、指示器11、受光装置12、撮像装置13、表示装置14、および情報処理装置15を有する。受光装置12、撮像装置13、および表示装置14は、それぞれ情報処理装置15に有線または無線により接続されている。受光装置12、撮像装置13、表示装置14、および情報処理装置15は、物理的に一体であってもよいし、互いに分離されていてもよい。図2の例では、受光装置12、表示装置14、および情報処理装置15は、一つの筐体21に収納され、テレビ受像機を構成している。撮像装置13は、筐体21の上部に設置されている。   In FIG. 1, the information processing system 100 includes an indicator 11, a light receiving device 12, an imaging device 13, a display device 14, and an information processing device 15. The light receiving device 12, the imaging device 13, and the display device 14 are connected to the information processing device 15 by wire or wirelessly. The light receiving device 12, the imaging device 13, the display device 14, and the information processing device 15 may be physically integrated, or may be separated from each other. In the example of FIG. 2, the light receiving device 12, the display device 14, and the information processing device 15 are housed in a single casing 21 and constitute a television receiver. The imaging device 13 is installed on the top of the housing 21.

情報処理システム100は、指示器11が操作者により操作され、情報処理装置15が指示器11で指示される位置を特定するものである。具体的には、情報処理システム100は、操作者が指示器11を実空間内で移動させることにより、情報処理装置15に対し、所定の空間内の位置(具体的には所定の座標空間における座標)の入力を行う位置(または座標)入力システムである。   The information processing system 100 specifies a position where the indicator 11 is operated by an operator and the information processing device 15 is indicated by the indicator 11. Specifically, the information processing system 100 causes the information processing device 15 to move to the information processing apparatus 15 by moving the indicator 11 in the real space (specifically, in the predetermined coordinate space). This is a position (or coordinate) input system for inputting coordinates.

図2の例では、表示装置14の表示画面Sの前方には人物A,Bが存在し、指示器11は操作者である人物Aの手に保持されている。操作者Aは、指示器11を実空間内で移動させる操作により、表示画面S上の位置を指示する。情報処理装置15は、撮像装置13により撮像された画像に基づき、操作者Aにより指示器11で指示された位置を特定し、表示画面S上の当該特定された位置にカーソルCを表示させる。したがって、操作者Aが指示器11の空間位置を変化させると、表示画面SにおけるカーソルCの表示位置が、指示器11の空間位置の変化に合わせて移動する。さらに、指示器11は、操作者Aのボタン操作に応じて発光するように構成されており、情報処理装置15は、指示器11の発光が受光装置12により検知された場合に、当該ボタン操作に応じた処理を実行するように構成されている。   In the example of FIG. 2, persons A and B exist in front of the display screen S of the display device 14, and the indicator 11 is held in the hand of the person A who is an operator. The operator A instructs the position on the display screen S by an operation of moving the indicator 11 in the real space. The information processing device 15 specifies the position indicated by the indicator 11 by the operator A based on the image picked up by the image pickup device 13 and displays the cursor C at the specified position on the display screen S. Therefore, when the operator A changes the spatial position of the indicator 11, the display position of the cursor C on the display screen S moves in accordance with the change in the spatial position of the indicator 11. Further, the indicator 11 is configured to emit light in response to the button operation of the operator A, and the information processing device 15 is configured to operate the button when the light emission of the indicator 11 is detected by the light receiving device 12. It is comprised so that the process according to may be performed.

以下、指示器11、受光装置12、撮像装置13、表示装置14、および情報処理装置15について順に説明する。   Hereinafter, the indicator 11, the light receiving device 12, the imaging device 13, the display device 14, and the information processing device 15 will be described in order.

指示器11は、位置を指示するためのものであり、操作者により保持されて操作される。具体的には、指示器11は、情報処理装置15に対して、表示画面S上の位置など、所定空間における位置を指示するためのものである。   The indicator 11 is for indicating a position, and is held and operated by an operator. Specifically, the indicator 11 is for instructing the information processing device 15 of a position in a predetermined space, such as a position on the display screen S.

ここでは、指示器11は、情報処理装置15をリモート操作するためのリモートコントローラ(リモコン)であり、具体的にはテレビ受像機を操作するためのテレビリモコンである。図3に示されるように、指示器11は、操作部31および発光部32を備えており、操作部31に対する操作に応じて発光部32が発光するように構成されている。具体的には、操作部31は、操作者からの押下操作を受け付ける複数の操作ボタンを含み、発光部32は、操作部31の操作ボタンが押下された場合に、当該操作ボタンに対して予め定められたパターンで明滅する。操作ボタンとしては、例えば表示画面S上での項目の選択を決定するための決定ボタン31aがある。発光部32は、例えば、発光ダイオードなどの発光素子を含み、赤外線を出力する。さらに、指示器11は、情報処理装置15での指示器11の検出を容易にするため、指示器検出用の光を発する発光部33を備えている。発光部33は、例えば、発光ダイオードなどの発光素子を含み、赤外線または可視線を出力する。   Here, the indicator 11 is a remote controller (remote controller) for remotely operating the information processing apparatus 15, and specifically, a television remote controller for operating the television receiver. As shown in FIG. 3, the indicator 11 includes an operation unit 31 and a light emitting unit 32, and is configured such that the light emitting unit 32 emits light in response to an operation on the operation unit 31. Specifically, the operation unit 31 includes a plurality of operation buttons that accept a pressing operation from the operator, and the light emitting unit 32 is previously set with respect to the operation buttons when the operation button of the operation unit 31 is pressed. Blinks in a defined pattern. As an operation button, for example, there is a determination button 31a for determining selection of an item on the display screen S. The light emitting unit 32 includes, for example, a light emitting element such as a light emitting diode, and outputs infrared rays. Further, the indicator 11 includes a light emitting unit 33 that emits light for detecting the indicator in order to facilitate the detection of the indicator 11 by the information processing device 15. The light emitting unit 33 includes, for example, a light emitting element such as a light emitting diode, and outputs infrared rays or visible rays.

受光装置12は、指示器11から発光される光を受光し、指示器11の何れかの操作ボタンに対応する明滅パターンを検知すると、当該明滅パターンに対応した操作ボタンが押下されたことを示す情報(以下、「ボタン入力情報」と称す)を情報処理装置15に通知する。   When the light receiving device 12 receives light emitted from the indicator 11 and detects a blinking pattern corresponding to any operation button of the indicator 11, it indicates that the operation button corresponding to the blinking pattern has been pressed. Information (hereinafter referred to as “button input information”) is notified to the information processing apparatus 15.

撮像装置13は、指示器11および当該指示器11を保持している操作者を撮像し、得られた画像(具体的にはデジタル画像データ)を情報処理装置15に出力する。撮像装置13の撮像範囲に操作者を含む複数の人物が存在する場合には、撮像装置13は、操作者を含む複数の人物および指示器11を撮像する。例えば、図2では、撮像装置13は、指示器11、操作者A、および人物Bを撮像する。撮像装置13による撮像および画像の出力は、繰り返し行われ、例えば毎秒30回で実施される。   The imaging device 13 images the indicator 11 and the operator holding the indicator 11 and outputs the obtained image (specifically, digital image data) to the information processing device 15. When there are a plurality of persons including the operator in the imaging range of the imaging apparatus 13, the imaging apparatus 13 images the plurality of persons including the operator and the indicator 11. For example, in FIG. 2, the imaging device 13 images the indicator 11, the operator A, and the person B. Imaging and image output by the imaging device 13 are repeatedly performed, for example, 30 times per second.

ここでは、撮像装置13は、CCD(Charge Coupled Device)素子およびレンズ等により構成され、解像度320×240ピクセルのグレースケール画像を取得する。ただし、撮像装置13は、CMOS(Complementary Metal Oxide Semiconductor)素子など、CCD素子以外の撮像素子を利用するものでもよい。また、撮像装置13は、グレースケール画像ではなく、カラー画像を取得するものでもよい。また、画像の解像度も、320×240ピクセルに限られず、人物および指示器11の検出が可能である限りは、より高い解像度でも、より低い解像度でもよい。なお、撮像装置13の画角によるが、一般的に解像度が高いほど、遠くの人物を検出できるようになるほか、情報処理装置15により特定される位置の空間分解能が向上する。   Here, the imaging device 13 includes a CCD (Charge Coupled Device) element, a lens, and the like, and acquires a grayscale image having a resolution of 320 × 240 pixels. However, the imaging device 13 may use an imaging element other than a CCD element, such as a CMOS (Complementary Metal Oxide Semiconductor) element. Further, the imaging device 13 may acquire a color image instead of a grayscale image. Further, the resolution of the image is not limited to 320 × 240 pixels, and may be a higher resolution or a lower resolution as long as the person and the indicator 11 can be detected. Note that although depending on the angle of view of the imaging device 13, in general, the higher the resolution, the more distant a person can be detected and the spatial resolution of the position specified by the information processing device 15 is improved.

図2の例では、撮像装置13は、表示画面Sの前方が撮像範囲となるように設置されている。具体的には、撮像装置13は、表示画面Sの前方の操作者を撮像できるように、筐体21の上部に、表示画面Sの前方に向けて設置されている。ただし、撮像装置13が設置される位置は、筐体21の上部に限られず、操作者を撮像できる位置であればよい。   In the example of FIG. 2, the imaging device 13 is installed so that the front of the display screen S is an imaging range. Specifically, the imaging device 13 is installed on the upper part of the housing 21 so as to face the front of the display screen S so that an operator in front of the display screen S can be imaged. However, the position where the imaging device 13 is installed is not limited to the upper part of the casing 21 and may be a position where the operator can be imaged.

表示装置14は、画像を表示する装置であり、例えば液晶ディスプレイ装置である。表示装置14の表示画面Sに表示される画像は、情報処理装置15によって制御される。   The display device 14 is a device that displays an image, for example, a liquid crystal display device. The image displayed on the display screen S of the display device 14 is controlled by the information processing device 15.

情報処理装置15は、撮像装置13により撮像された画像に基づき、操作者により指示器11で指示された位置(以下、「指示位置」と称す)を特定する。本例では、情報処理装置15は、特定された指示位置に基づき、カーソルCの表示位置の制御など、表示装置14の表示画面Sに表示される内容の制御を行う。また、情報処理装置15は、受光装置12により検知される指示器11に対するボタン操作に応じて、表示画面Sの画面遷移など、所定の処理を実行する。   The information processing apparatus 15 specifies a position (hereinafter referred to as “indicated position”) designated by the operator 11 based on the image captured by the imaging apparatus 13. In this example, the information processing device 15 controls the content displayed on the display screen S of the display device 14, such as control of the display position of the cursor C, based on the specified indication position. In addition, the information processing device 15 performs predetermined processing such as screen transition of the display screen S in response to a button operation on the indicator 11 detected by the light receiving device 12.

図4は、情報処理装置15の構成の一例を示すブロック図である。以下、図4を参照して、情報処理装置15の構成の一例を説明する。   FIG. 4 is a block diagram illustrating an example of the configuration of the information processing apparatus 15. Hereinafter, an example of the configuration of the information processing apparatus 15 will be described with reference to FIG.

図4において、情報処理装置15は、画像取得部41、人物検出部42、指示器検出部43、操作者特定部44、位置特定部45、ボタン入力情報取得部46、および表示制御部47を有する。   4, the information processing apparatus 15 includes an image acquisition unit 41, a person detection unit 42, an indicator detection unit 43, an operator specification unit 44, a position specification unit 45, a button input information acquisition unit 46, and a display control unit 47. Have.

画像取得部41は、指示器11と当該指示器11を保持している操作者とが撮像された画像を取得する。具体的には、画像取得部41は、撮像装置13により撮像され出力されたデジタル画像データを取得する。画像取得部41は、取得された画像(以下、「撮像画像」と称す)を人物検出部42および指示器検出部43に出力する。   The image acquisition unit 41 acquires an image in which the indicator 11 and the operator holding the indicator 11 are captured. Specifically, the image acquisition unit 41 acquires digital image data captured and output by the imaging device 13. The image acquisition unit 41 outputs the acquired image (hereinafter referred to as “captured image”) to the person detection unit 42 and the indicator detection unit 43.

人物検出部42は、画像取得部41により取得された撮像画像から、人物を検出し、当該撮像画像における当該人物の位置および大きさを検出する。具体的には、人物検出部42は、人物の位置として、撮像画像の座標系における当該人物の顔の中心座標を検出し、人物の大きさとして、撮像画像の座標系における当該人物の顔の幅(具体的には顔の水平方向の幅)を検出する。ただし、人物検出部42は、人物の位置や大きさとして、顔の長さ(具体的には顔の垂直方向の長さ)や、肩幅、両目間の距離、両目それぞれの位置、頭の頂点の座標など、他の情報を検出してもよい。また、人物検出部42は、顔の垂直方向に対する角度など、人物の姿勢を検出してもよい。   The person detection unit 42 detects a person from the captured image acquired by the image acquisition unit 41, and detects the position and size of the person in the captured image. Specifically, the person detection unit 42 detects the center coordinates of the face of the person in the coordinate system of the captured image as the position of the person, and detects the face of the person in the coordinate system of the captured image as the size of the person. The width (specifically, the horizontal width of the face) is detected. However, the person detection unit 42 uses the face length (specifically, the length in the vertical direction of the face), the shoulder width, the distance between both eyes, the position of each eye, and the apex of the head as the position and size of the person. Other information such as the coordinates may be detected. Further, the person detection unit 42 may detect the posture of the person such as an angle with respect to the vertical direction of the face.

人物検出部42における人物の検出の手法としては、特に限定されないが、例えば、ビオラ−ジョーンズ法と呼ばれる特許文献2に示される方式がある。ビオラ−ジョーンズ法は、要約すると、画像内における小領域の位置や大きさを変えながら画像内に小領域を設定し、当該小領域から特徴量を抽出し、識別器を利用して、当該小領域が顔であるか否かを判別するものである。人物検出部42は、例えば、撮像画像にビオラ−ジョーンズ法を適用した後、顔であると判別された小領域の位置や大きさから、撮像画像の座標軸で表される顔の中心位置や顔の大きさを求めることができる。また、人物検出部42は、回転させた撮像画像に対してビオラ−ジョーンズ法を適用することにより、撮像装置13の撮像面に平行に顔が回転している場合の回転角度を求めることができる。   A method for detecting a person in the person detection unit 42 is not particularly limited, and for example, there is a method shown in Patent Document 2 called a viola-Jones method. In summary, the Viola-Jones method sets a small area in an image while changing the position and size of the small area in the image, extracts a feature amount from the small area, and uses the discriminator to extract the small area. It is determined whether or not the area is a face. For example, the person detection unit 42 applies the Viola-Jones method to the captured image, and then determines the center position and face of the face represented by the coordinate axes of the captured image from the position and size of the small area determined to be a face. Can be obtained. In addition, the person detection unit 42 can obtain the rotation angle when the face is rotating in parallel to the imaging surface of the imaging device 13 by applying the Viola-Jones method to the rotated captured image. .

人物検出部42は、撮像画像から複数の人物を検出した場合には、検出された複数の人物の各々について、撮像画像における当該人物の位置および大きさを検出する。   In a case where a plurality of persons are detected from the captured image, the person detection unit 42 detects the position and size of the person in the captured image for each of the detected plurality of persons.

人物検出部42は、検出された人物の位置および大きさを示す人物検出情報を操作者特定部44に出力する。この人物検出情報は、検出された人物の姿勢を示す情報を含んでもよい。図5には、人物検出情報の一例が示されている。図5において、「No.」は検出された人物に割り当てられた番号であり、「x座標」および「y座標」は各人物の顔の中心座標であり、「幅」は各人物の顔の幅であり、「回転角」は各人物の顔の垂直方向に対する角度である。図5には、No.1〜No.3の3人の人物が検出された場合が示されている。   The person detection unit 42 outputs person detection information indicating the position and size of the detected person to the operator specifying unit 44. This person detection information may include information indicating the posture of the detected person. FIG. 5 shows an example of person detection information. In FIG. 5, “No.” is a number assigned to the detected person, “x coordinate” and “y coordinate” are the center coordinates of the face of each person, and “width” is the face of each person. The “rotation angle” is an angle with respect to the vertical direction of each person's face. In FIG. 1-No. The case where three persons of 3 are detected is shown.

指示器検出部43は、画像取得部41により取得された撮像画像から、指示器11を検出し、当該撮像画像における指示器11の位置を検出する。ここでは、指示器検出部43は、撮像画像から、指示器11の発光部33の発光による輝点を検出し、撮像画像の座標系における当該輝点の中心座標を指示器11の位置として検出する。発光部33は、常時発光していてもよいが、指示器11の検出をより容易にするため、所定のパターンで明滅を繰り返してもよい。この場合、指示器検出部43は、一連の撮像画像に基づき、上記所定のパターンで輝度の変化が起こる位置を検出し、当該位置を指示器11の位置として特定する。   The indicator detection unit 43 detects the indicator 11 from the captured image acquired by the image acquisition unit 41, and detects the position of the indicator 11 in the captured image. Here, the indicator detection unit 43 detects a bright spot due to light emission of the light emitting unit 33 of the indicator 11 from the captured image, and detects the center coordinate of the bright spot in the coordinate system of the captured image as the position of the indicator 11. To do. Although the light emission part 33 may always light-emit, in order to make detection of the indicator 11 easier, you may repeat blinking by a predetermined pattern. In this case, the indicator detection unit 43 detects a position where the luminance change occurs in the predetermined pattern based on the series of captured images, and specifies the position as the position of the indicator 11.

指示器検出部43は、検出された指示器11の位置を示す指示器検出情報を、操作者特定部44および位置特定部45に出力する。   The indicator detection unit 43 outputs indicator detection information indicating the detected position of the indicator 11 to the operator specifying unit 44 and the position specifying unit 45.

操作者特定部44は、画像取得部41により取得された撮像画像に複数の人物が含まれる場合に、当該複数の人物の中から指示器11を保持している操作者を特定する。具体的には、操作者特定部44は、人物検出部42からの人物検出情報と、指示器検出部43からの指示器検出情報とに基づき、人物検出情報に複数の人物の情報が含まれる場合に、当該複数の人物の中から操作者を特定する。   When a plurality of persons are included in the captured image acquired by the image acquisition unit 41, the operator specifying unit 44 specifies an operator holding the indicator 11 from the plurality of persons. Specifically, the operator specifying unit 44 includes information on a plurality of persons in the person detection information based on the person detection information from the person detection unit 42 and the indicator detection information from the indicator detection unit 43. In this case, an operator is specified from the plurality of persons.

一つの態様では、操作者特定部44は、次のように操作者の特定を行う。指示器11は操作者に保持されて使用されることから、実空間内で指示器11が存在する位置は、操作者の手の届く範囲内に限られる。そのため、撮像画像において、指示器11は操作者の近傍に存在している。そこで、操作者特定部44は、撮像画像における複数の人物の各々の位置と、撮像画像における指示器11の位置とに基づき、複数の人物の中から操作者を特定する。具体的には、操作者特定部44は、撮像画像における各人物の位置と指示器11の位置との差に基づき、複数の人物の中から操作者を特定する。より具体的には、操作者特定部44は、複数の人物の各々について、人物検出情報に含まれる当該人物の位置と、指示器検出情報に含まれる指示器11の位置との差を表す評価値を求め、評価値が最小となる人物を操作者として特定する。すなわち、操作者特定部44は、複数の人物のうち、撮像画像における当該人物の位置と、撮像画像における指示器11の位置との差を表す評価値が最小となる人物を操作者として特定する。   In one aspect, the operator specifying unit 44 specifies an operator as follows. Since the indicator 11 is used by being held by the operator, the position where the indicator 11 exists in the real space is limited within the reach of the operator. Therefore, the indicator 11 exists in the vicinity of the operator in the captured image. Therefore, the operator specifying unit 44 specifies an operator from among the plurality of persons based on the positions of the plurality of persons in the captured image and the position of the indicator 11 in the captured image. Specifically, the operator specifying unit 44 specifies an operator from among a plurality of persons based on the difference between the position of each person in the captured image and the position of the indicator 11. More specifically, for each of a plurality of persons, the operator specifying unit 44 evaluates the difference between the position of the person included in the person detection information and the position of the indicator 11 included in the indicator detection information. The value is obtained, and the person with the smallest evaluation value is specified as the operator. That is, the operator specifying unit 44 specifies, as an operator, a person having the smallest evaluation value indicating the difference between the position of the person in the captured image and the position of the indicator 11 in the captured image among the plurality of persons. .

例えば、操作者特定部44は、評価値として、各人物について、撮像画像における当該人物の位置と、撮像画像における指示器11の位置との間のユークリッド距離を算出し、算出されたユークリッド距離が最小となる人物を操作者として特定する。例えば、図6に示される撮像画像が取得され、2人の人物の位置P1,P2が検出され、指示器11の位置Pdevが検出された場合、操作者特定部44は、位置P1と位置Pdevとの間のユークリッド距離L1と、位置P2と位置Pdevとの間のユークリッド距離L2(<L1)とを算出し、ユークリッド距離が最小である位置P2の人物を操作者として特定する。 For example, the operator specifying unit 44 calculates, as an evaluation value, for each person, the Euclidean distance between the position of the person in the captured image and the position of the indicator 11 in the captured image, and the calculated Euclidean distance is The smallest person is identified as the operator. For example, the acquired captured image shown in FIG. 6, the detected position of the two persons P1, P2 If the position P dev indicators 11 has been detected, the operator specifying unit 44, the position and the position P1 The Euclidean distance L1 between Pdev and the Euclidean distance L2 (<L1) between the position P2 and the position Pdev are calculated, and the person at the position P2 having the smallest Euclidean distance is specified as the operator.

ただし、操作者特定部44は、ユークリッド距離の代わりに、撮像画像における人物の位置と指示器11の位置との間のマンハッタン距離や、水平方向の距離(すなわち水平方向の位置の差の絶対値またはx座標の差の絶対値)など、他の値を評価値として用いてもよい。   However, the operator specifying unit 44 does not use the Euclidean distance, but the Manhattan distance between the position of the person and the position of the indicator 11 in the captured image and the horizontal distance (that is, the absolute value of the difference in the horizontal position). Alternatively, other values such as the absolute value of the difference between the x coordinates may be used as the evaluation value.

また、別の態様では、操作者特定部44は、次のように操作者の特定を行う。同じ人物が同じ姿勢で指示器11を保持するとした場合、実空間における撮像装置13から当該人物までの距離が大きいほど、撮像画像における当該人物の位置(例えば顔の中心位置)と指示器11の位置との差(例えばユークリッド距離)は小さくなる。すなわち、撮像画像における人物の位置と指示器11の位置との差は、実空間における撮像装置13から人物までの距離に応じて変化する。そこで、実空間内における撮像装置13から人物までの距離を考慮して、より正確に操作者を特定する観点より、操作者特定部44は、撮像画像における各人物の位置および指示器11の位置に加え、実空間における撮像装置13から各人物までの距離を表す情報(以下、「距離情報」と称す)に基づき、操作者の特定を行う。具体的には、操作者特定部44は、各人物について、撮像画像における当該人物の位置と指示器11の位置との差を、当該人物の距離情報により補正した評価値を求め、評価値が最小となる人物を操作者として特定する。一つの態様では、操作者特定部44は、各人物の距離情報として、撮像画像における各人物の大きさを用いる。   Moreover, in another aspect, the operator specific | specification part 44 specifies an operator as follows. When the same person holds the indicator 11 in the same posture, the position of the person (for example, the center position of the face) in the captured image and the indicator 11 increases as the distance from the imaging device 13 to the person in the real space increases. The difference from the position (for example, Euclidean distance) becomes small. That is, the difference between the position of the person in the captured image and the position of the indicator 11 changes according to the distance from the imaging device 13 to the person in real space. Therefore, from the viewpoint of more accurately specifying the operator in consideration of the distance from the imaging device 13 to the person in the real space, the operator specifying unit 44 determines the position of each person and the position of the indicator 11 in the captured image. In addition, the operator is identified based on information representing the distance from the imaging device 13 to each person in the real space (hereinafter referred to as “distance information”). Specifically, the operator specifying unit 44 obtains, for each person, an evaluation value obtained by correcting the difference between the position of the person in the captured image and the position of the indicator 11 with the distance information of the person, and the evaluation value is The smallest person is identified as the operator. In one aspect, the operator specifying unit 44 uses the size of each person in the captured image as the distance information of each person.

例えば、操作者特定部44は、評価値として、各人物について、撮像画像における当該人物の位置と、撮像画像における指示器11の位置との差を表す値を、撮像画像における当該人物の大きさ(例えば顔の幅)で除算した値(すなわち商)を算出し、当該値が最小となる人物を操作者として特定する。撮像画像における人物の位置と、撮像画像における指示器11の位置との差を表す値としては、上述したように、ユークリッド距離や、マンハッタン距離、水平方向の距離などがある。   For example, the operator specifying unit 44 uses, as the evaluation value, for each person, a value representing the difference between the position of the person in the captured image and the position of the indicator 11 in the captured image. A value (that is, a quotient) divided by (for example, the width of the face) is calculated, and the person having the minimum value is specified as the operator. As described above, the value representing the difference between the position of the person in the captured image and the position of the indicator 11 in the captured image includes the Euclidean distance, the Manhattan distance, the horizontal distance, and the like.

操作者特定部44は、操作者を特定する際、撮像画像における指示器11の位置の代わりに、直近の一定期間における、指示器11の位置の平均値や中央値、または指示器11の位置の最大値と最小値の和の半値を用いてもよい。例えば、操作者特定部44は、指示器検出部43からの指示器検出情報の履歴を一定期間記録しておき、撮像画像における指示器11の位置の代わりに、上記記録された一定期間における指示器11の位置の平均値や中央値、または最大値と最小値の和の半値を用いてもよい。上記指示器11の位置の平均値、中央値、および半値は、例えば、x座標およびy座標のそれぞれの、平均値、中央値、および半値を求めることにより求められる。   When the operator specifying unit 44 specifies the operator, instead of the position of the indicator 11 in the captured image, the average value or the median value of the position of the indicator 11 or the position of the indicator 11 in the most recent fixed period. A half value of the sum of the maximum value and the minimum value may be used. For example, the operator specifying unit 44 records the history of the indicator detection information from the indicator detector 43 for a certain period, and instead of the position of the indicator 11 in the captured image, the instruction for the recorded period is recorded. The average value or median value of the position of the vessel 11 or a half value of the sum of the maximum value and the minimum value may be used. The average value, median value, and half value of the position of the indicator 11 are obtained by, for example, obtaining the average value, median value, and half value of each of the x coordinate and the y coordinate.

操作者特定部44は、上記操作者の特定結果として、特定された操作者を示す情報を位置特定部45に出力する。ここでは、操作者特定部44は、人物検出部42からの人物検出情報に含まれる複数の人物の情報のうち、特定された操作者の情報のみを位置特定部45に出力する。   The operator specifying unit 44 outputs information indicating the specified operator to the position specifying unit 45 as the operator specifying result. Here, the operator specifying unit 44 outputs only the information on the specified operator among the information of the plurality of persons included in the person detection information from the person detecting unit 42 to the position specifying unit 45.

操作者特定部44は、操作者が特定されない場合に、操作者が特定されないことを示す情報、または操作者が存在しないことを示す情報を位置特定部45に出力してもよい。例えば、操作者特定部44は、すべての人物について評価値が予め定められた閾値以上である場合には、評価値が最小となる人物を操作者として特定するのではなく、操作者が特定されないことを示す情報、または操作者が存在しないことを示す情報を出力してもよい。なお、操作者が特定されない場合としては、指示器11がどの人物によっても保持されていない場合や、指示器11の位置の検出に誤りがあった場合などがある。   When the operator is not specified, the operator specifying unit 44 may output information indicating that the operator is not specified or information indicating that no operator is present to the position specifying unit 45. For example, when the evaluation value for all persons is equal to or greater than a predetermined threshold, the operator specifying unit 44 does not specify the person who has the smallest evaluation value as the operator, but does not specify the operator. Or information indicating that there is no operator may be output. Note that there are cases where the operator is not specified, such as when the indicator 11 is not held by any person, or when the position of the indicator 11 is detected incorrectly.

一つの態様では、撮像画像に含まれる人物が1人である場合も、操作者特定部44は、操作者の特定を行う。具体的には、操作者特定部44は、人物検出部42により検出された人物の数が1である場合、当該人物が操作者であるか否かを判断する。例えば、操作者特定部44は、当該人物について評価値を算出し、評価値が予め定められた閾値未満である場合には、当該人物を操作者として特定し、評価値が閾値以上である場合には、操作者が特定されないことを示す情報、または操作者が存在しないことを示す情報を出力する。ただし、操作者特定部44は、撮像画像に含まれる人物が1人である場合、当該人物を操作者として特定してもよい。この場合、操作者特定部44での操作者の特定の処理量が低減される。   In one aspect, even when there is only one person included in the captured image, the operator specifying unit 44 specifies the operator. Specifically, when the number of persons detected by the person detecting unit 42 is 1, the operator specifying unit 44 determines whether or not the person is an operator. For example, the operator specifying unit 44 calculates an evaluation value for the person, and when the evaluation value is less than a predetermined threshold, specifies the person as an operator, and the evaluation value is greater than or equal to the threshold. Outputs information indicating that no operator is specified or information indicating that no operator exists. However, when there is one person included in the captured image, the operator specifying unit 44 may specify the person as the operator. In this case, the operator's specific processing amount in the operator specifying unit 44 is reduced.

位置特定部45は、撮像画像における操作者特定部44により特定された操作者の位置と、撮像画像における指示器11の位置とに基づき、操作者により指示器11で指示された指示位置を特定する。具体的には、位置特定部45は、撮像画像における特定された操作者と指示器11との位置関係から指示位置を特定する。より具体的には、位置特定部45は、撮像画像における特定された操作者の位置を基準とする指示器11の相対位置に基づき、指示位置を特定する。ここでは、位置特定部45は、操作者特定部44からの操作者に関する人物検出情報と、指示器検出部43からの指示器検出情報とに基づき、指示位置を示す指示座標を算出する。指示座標は、具体的には表示装置14に表示される画像の座標系における座標である。   The position specifying unit 45 specifies the position indicated by the operator 11 with the indicator 11 based on the position of the operator specified by the operator specifying unit 44 in the captured image and the position of the indicator 11 in the captured image. To do. Specifically, the position specifying unit 45 specifies the indicated position from the positional relationship between the specified operator and the indicator 11 in the captured image. More specifically, the position specifying unit 45 specifies the indicated position based on the relative position of the indicator 11 based on the specified operator position in the captured image. Here, the position specifying unit 45 calculates the indicated coordinates indicating the indicated position based on the person detection information about the operator from the operator specifying unit 44 and the indicator detection information from the indicator detecting unit 43. The designated coordinates are specifically the coordinates in the coordinate system of the image displayed on the display device 14.

位置特定部45は、例えば、下記式(1)のように、撮像画像における操作者の位置と指示器11の位置との差を入力とする関数により指示座標を算出する。
point=(Pope−Pdev)×scaleoffset+Poffset ・・・(1)
上記の式(1)において、Ppointは指示座標を示すベクトル値、Popeは操作者の位置を示すベクトル値、Pdevは指示器11の位置を示すベクトル値である(図7を参照)。また、scaleoffsetは、指示器11の位置の変化に対する特定される指示位置の変化の感度を定める係数、すなわち指示器11の位置の変化と指示座標の変化との関係を定めるスカラー値である。Poffsetは、指示座標の座標系の原点(例えば表示装置14に表示される画像の座標系の原点)と操作者の位置(例えば顔の中心座標)との関係を定めるベクトル値である。このように、一つの態様では、指示座標を算出するための関数は、撮像画像における操作者の位置と指示器11の位置との差に対する、指示器11の位置の変化に対する指示位置の変化の感度を定める係数の乗算を含む。
For example, the position specifying unit 45 calculates the indicated coordinates using a function that receives the difference between the position of the operator and the position of the indicator 11 in the captured image, as in the following equation (1).
P point = (P ope −P dev ) × scale offset + P offset (1)
In the above equation (1), P point is a vector value indicating the indicated coordinates, P ope is a vector value indicating the position of the operator, and P dev is a vector value indicating the position of the indicator 11 (see FIG. 7). . The scaleoffset is a coefficient that determines the sensitivity of the change in the indicated position specified with respect to the change in the position of the indicator 11, that is, a scalar value that defines the relationship between the change in the position of the indicator 11 and the change in the indicated coordinate. P offset is a vector value that defines the relationship between the origin of the coordinate system of the designated coordinates (for example, the origin of the coordinate system of the image displayed on the display device 14) and the position of the operator (for example, the center coordinates of the face). As described above, in one aspect, the function for calculating the designated coordinate is a change in the designated position with respect to the change in the position of the indicator 11 with respect to the difference between the position of the operator and the position of the indicator 11 in the captured image. Includes multiplication of coefficients that define sensitivity.

撮像画像における操作者の位置と指示器11の位置との差は、実空間における撮像装置13から操作者までの距離に応じて変化する。そこで、実空間における撮像装置13から操作者までの距離を考慮して、より正確に指示位置を特定する観点より、一つの態様では、位置特定部45は、撮像画像における操作者の位置および指示器11の位置に加え、実空間における撮像装置13から操作者までの距離を表す情報(以下、「操作者の距離情報」と称す)に基づき、指示位置を特定する。位置特定部45は、操作者の距離情報として、例えば撮像画像における操作者の大きさを用いる。撮像画像における操作者の大きさとしては、例えば操作者の顔の幅が用いられるが、両目間の距離や、肩幅等が用いられてもよい。   The difference between the position of the operator in the captured image and the position of the indicator 11 changes according to the distance from the imaging device 13 to the operator in real space. Therefore, from the viewpoint of more accurately specifying the indicated position in consideration of the distance from the imaging device 13 to the operator in real space, in one aspect, the position specifying unit 45 includes the position and instruction of the operator in the captured image. In addition to the position of the device 11, the designated position is specified based on information indicating the distance from the imaging device 13 to the operator in the real space (hereinafter referred to as “operator distance information”). The position specifying unit 45 uses, for example, the size of the operator in the captured image as the distance information of the operator. As the size of the operator in the captured image, for example, the width of the operator's face is used, but a distance between both eyes, a shoulder width, or the like may be used.

当該態様では、位置特定部45は、例えば、下記式(2)のように、撮像画像における操作者の位置と指示器11の位置との差、および撮像画像における操作者の大きさを入力とする関数により指示座標を算出する。
point=(Pope−Pdev)/scale×scaleoffset+Poffset ・・・(2)
上記の式(2)において、scaleは、撮像画像における操作者の大きさ(例えば顔の水平方向の幅)を示すスカラー値である(図7を参照)。Ppoint、Pope、Pdev、scaleoffset、およびPoffsetは、式(1)と同様である。このように、一つの態様では、指示座標を算出するための関数は、撮像画像における操作者の位置と指示器11の位置との差に対する、撮像画像における操作者の大きさによる除算と、指示器11の位置の変化に対する指示位置の変化の感度を定める係数の乗算とを含む。
In this aspect, the position specifying unit 45 receives, for example, the difference between the position of the operator in the captured image and the position of the indicator 11 and the size of the operator in the captured image as in the following formula (2). The indicated coordinates are calculated by the function to perform.
P point = (P ope −P dev ) / scale × scale offset + P offset (2)
In the above equation (2), scale is a scalar value indicating the size of the operator (for example, the horizontal width of the face) in the captured image (see FIG. 7). P point , P ope , P dev , scaleoffset, and P offset are the same as in equation (1). Thus, in one aspect, the function for calculating the designated coordinates includes a division by the size of the operator in the captured image with respect to the difference between the position of the operator in the captured image and the position of the indicator 11, And a multiplication of a coefficient that determines the sensitivity of the change of the indicated position to the change of the position of the device 11.

上記の式(1)、(2)において、scaleoffsetおよびPoffsetの値は、一つの態様では、予め設定された固定値である。この場合、式(1)のscaleoffsetおよびPoffsetの値は、例えば、撮像装置13から標準的な距離だけ離れた位置で、標準的な大きさの人が指示器11を上下左右の限界の位置まで動かしたときに、算出される指示座標が表示装置14の表示画面Sのそれぞれ上下左右の端の位置を示す座標となるように設定される。当該値の設定は、表示装置14の解像度と、上記標準的な位置で上記標準的な人が指示器11を動かした時の、撮像画像における当該人の顔の中心座標および指示器11の上下左右の限界の位置の座標とに基づいて行われる。式(2)のscaleoffsetおよびPoffsetの値は、例えば、標準的な大きさの人が指示器11を上下左右の限界の位置まで動かしたときに、算出される指示座標が表示装置14の表示画面Sのそれぞれ上下左右の端の位置を示す座標となるように設定される。当該値の設定は、表示装置14の解像度と、上記標準的な人が指示器11を動かした時の、撮像画像における当該人の大きさ、顔の中心座標、および指示器11の上下左右の限界の位置の座標とに基づいて行われる。 Above formula (1), (2), the value of scaleoffset and P offset, in one embodiment, a preset fixed value. In this case, the value of scaleoffset and P offset of the formula (1) may, for example, at a position apart a standard distance from the imaging device 13, the position of the limit of the human standard magnitude indicator 11 up, down, left and right Is set so that the calculated instruction coordinates become the coordinates indicating the positions of the upper, lower, left and right ends of the display screen S of the display device 14, respectively. The setting of the value includes the resolution of the display device 14, the center coordinates of the person's face in the captured image when the standard person moves the indicator 11 at the standard position, and the top and bottom of the indicator 11. This is based on the coordinates of the left and right limit positions. The value of scaleoffset and P offset of the formula (2), for example, when a person of standard size moves the indicator 11 to the position of the vertical and horizontal limits, display instruction coordinates calculated in the display device 14 The coordinates are set to indicate the positions of the upper, lower, left and right edges of the screen S. The values are set according to the resolution of the display device 14, the size of the person in the captured image when the standard person moves the indicator 11, the center coordinates of the face, and the top, bottom, left, and right of the indicator 11. Based on the coordinates of the limit position.

別の態様では、上記の式(1)、(2)におけるscaleoffsetおよびPoffsetの値は、操作者の操作に応じて変化する可変値である。例えば、位置特定部45は、当該位置特定部45により特定される指示位置が予め設定された範囲内に収まるように、操作者による指示器11の操作に応じて、scaleoffset(すなわち指示器11の位置の変化に対する指示位置の変化の感度を定める係数)を調整する。具体的には、scaleoffsetの初期値が上記の固定値よりも大きい値に設定され(すなわち感度が高めに設定され)、位置特定部45は、算出される指示座標が表示装置14の水平方向の座標範囲または垂直方向の座標範囲を超える場合に、すなわち表示装置14の表示可能な座標範囲を超える場合に、一定の割合でscaleoffsetの値を減少させる(すなわち感度を下げる)。 In another embodiment, the values of scaleoffset and P offset in the above formula (1), (2) is a variable value that varies in accordance with operation by the operator. For example, the position specifying unit 45 sets the scaleoffset (that is, the indicator 11 of the indicator 11) according to the operation of the indicator 11 by the operator so that the indication position specified by the position specifying unit 45 falls within a preset range. The coefficient that determines the sensitivity of the change of the indicated position with respect to the change of the position is adjusted. Specifically, the initial value of the scaleoffset is set to a value larger than the fixed value (that is, the sensitivity is set to be higher), and the position specifying unit 45 determines that the indicated coordinates to be calculated are in the horizontal direction of the display device 14. When the coordinate range or the coordinate range in the vertical direction is exceeded, that is, when the coordinate range that can be displayed on the display device 14 is exceeded, the value of the scaleoffset is decreased at a certain rate (that is, the sensitivity is lowered).

位置特定部45は、算出された指示座標が予め設定された有効範囲を超える場合、当該指示座標に最も近い有効範囲内の座標を最終的な指示座標として特定してもよい。もしくは、位置特定部45は、算出された指示座標が予め設定された有効範囲を超える場合、操作者が操作を行っていないとみなして、指示座標を出力しないようにしてもよい。上記有効範囲は、例えば表示装置14の表示画面S上のカーソルCを表示可能な範囲である。   When the calculated designated coordinate exceeds the preset effective range, the position specifying unit 45 may specify the coordinate within the effective range closest to the designated coordinate as the final designated coordinate. Alternatively, the position specifying unit 45 may assume that the operator is not performing an operation and does not output the instruction coordinates when the calculated instruction coordinates exceed the preset effective range. The effective range is, for example, a range in which the cursor C on the display screen S of the display device 14 can be displayed.

位置特定部45は、特定された指示位置を示す情報を表示制御部47に出力する。ここでは、位置特定部45は、表示装置14の表示画面S上の位置を示す指示座標を表示制御部47に出力する。   The position specifying unit 45 outputs information indicating the specified pointing position to the display control unit 47. Here, the position specifying unit 45 outputs instruction coordinates indicating the position on the display screen S of the display device 14 to the display control unit 47.

ボタン入力情報取得部46は、受光装置12から、指示器11の操作ボタンが押下されたことを示す情報(ボタン入力情報)を取得し、表示制御部47に通知する。   The button input information acquisition unit 46 acquires information (button input information) indicating that the operation button of the indicator 11 has been pressed from the light receiving device 12 and notifies the display control unit 47 of the information.

表示制御部47は、位置特定部45により特定された指示位置に基づき、表示装置14に表示される画像を制御する。ここでは、表示制御部47は、位置特定部45により特定された指示座標と、ボタン入力情報取得部46により取得されたボタン入力情報とを用いて、表示装置14に表示される内容を制御する。具体的には、表示制御部47は、表示装置14に表示されるGUI(Graphical User Interface)画面を制御する。   The display control unit 47 controls the image displayed on the display device 14 based on the designated position specified by the position specifying unit 45. Here, the display control unit 47 controls the content displayed on the display device 14 by using the designated coordinates specified by the position specifying unit 45 and the button input information acquired by the button input information acquisition unit 46. . Specifically, the display control unit 47 controls a GUI (Graphical User Interface) screen displayed on the display device 14.

例えば、表示制御部47は、図8に示されるように、表示装置14の表示画面S上の所定の位置に複数の選択可能な領域81a〜81fを表示させ、位置特定部45により特定された指示座標の位置にカーソルCを表示させる。ここで、操作者が指示器11の決定ボタン31aを押下すると、ボタン入力情報取得部46により決定ボタン31aが押下されたことを示すボタン入力情報が表示制御部47に通知される。表示制御部47は、当該ボタン入力情報の通知を受けると、カーソルCが表示されている位置に存在している選択可能な領域81cが選択されたと判断し、領域81cに予め割り当てられた処理(例えば表示画面Sの画面遷移)を行う。   For example, as shown in FIG. 8, the display control unit 47 displays a plurality of selectable areas 81 a to 81 f at predetermined positions on the display screen S of the display device 14 and is specified by the position specifying unit 45. The cursor C is displayed at the position of the designated coordinates. Here, when the operator presses the enter button 31a of the indicator 11, the button input information acquisition unit 46 notifies the display control unit 47 of button input information indicating that the enter button 31a has been pressed. Upon receiving the notification of the button input information, the display control unit 47 determines that the selectable area 81c existing at the position where the cursor C is displayed has been selected, and the process ( For example, screen transition of the display screen S) is performed.

図9は、カーソルCの表示に関する情報処理装置15の処理の手順の一例を示すフローチャートである。以下、図9を参照して、カーソルCの表示に関する情報処理装置15の処理の手順を説明する。この処理は、例えば、撮像装置13の撮像の周期と同じ周期で繰り返し行われる。ただし、N(Nは2以上の整数)個の撮像画像につき1回など、撮像の周期より長い周期で行われてもよい。   FIG. 9 is a flowchart illustrating an example of a processing procedure of the information processing apparatus 15 regarding display of the cursor C. Hereinafter, with reference to FIG. 9, a processing procedure of the information processing apparatus 15 related to the display of the cursor C will be described. This process is repeatedly performed at the same cycle as the imaging cycle of the imaging device 13, for example. However, it may be performed in a cycle longer than the cycle of imaging, such as once per N (N is an integer of 2 or more) captured images.

まず、情報処理装置15は、撮像装置13から撮像画像を取得する(S11)。次に、情報処理装置15は、取得された撮像画像から人物を検出し、撮像画像における当該人物の位置および大きさを検出する(S12)。また、情報処理装置15は、取得された撮像画像から指示器11を検出し、撮像画像における指示器11の位置を検出する(S13)。そして、情報処理装置15は、検出された指示器11の位置と、検出された人物の位置および大きさに基づき、検出された人物からの操作者の特定を行う(S14)。ここでは、検出された人物が1つであっても複数であっても操作者の特定が行われる。また、操作者が特定される代わりに、操作者が特定されないこともある。   First, the information processing device 15 acquires a captured image from the imaging device 13 (S11). Next, the information processing apparatus 15 detects a person from the acquired captured image, and detects the position and size of the person in the captured image (S12). Further, the information processing apparatus 15 detects the indicator 11 from the acquired captured image, and detects the position of the indicator 11 in the captured image (S13). Then, the information processing device 15 specifies an operator from the detected person based on the detected position of the indicator 11 and the detected position and size of the person (S14). Here, the operator is specified regardless of whether the number of detected persons is one or plural. Further, instead of specifying the operator, the operator may not be specified.

次に、情報処理装置15は、ステップS14で操作者が特定されたか否かを判断する(S15)。   Next, the information processing apparatus 15 determines whether or not an operator is specified in step S14 (S15).

操作者が特定されたと判断された場合(S15:YES)、情報処理装置15は、検出された指示器11の位置と、特定された操作者の位置および大きさに基づき、指示位置を特定する(S16)。そして、情報処理装置15は、表示装置14の表示画面Sの特定された指示位置にカーソルCを表示させ(S17)、処理を終了させる。   When it is determined that the operator has been identified (S15: YES), the information processing device 15 identifies the designated position based on the detected position of the indicator 11 and the identified position and size of the operator. (S16). Then, the information processing device 15 displays the cursor C at the specified position on the display screen S of the display device 14 (S17), and ends the process.

一方、操作者が特定されなかったと判断された場合(S15:NO)、情報処理装置15は、指示位置の特定やカーソルCの表示を行わずに処理を終了させる。   On the other hand, when it is determined that the operator has not been specified (S15: NO), the information processing apparatus 15 ends the process without specifying the indicated position or displaying the cursor C.

図10は、決定ボタン31aの押下に基づく画面遷移に関する情報処理装置15の処理の手順の一例を示すフローチャートである。以下、図10を参照して、決定ボタン31aの押下に基づく画面遷移に関する情報処理装置15の処理の手順を説明する。なお、この処理は、上述の図10の処理とは独立したものであり、情報処理装置15は、図9,10の2つの処理を同時に実行しても、交互に実行してもよい。また、それぞれの処理を行う頻度に差があってもよい。   FIG. 10 is a flowchart illustrating an example of a processing procedure of the information processing apparatus 15 regarding screen transition based on pressing of the determination button 31a. Hereinafter, with reference to FIG. 10, a processing procedure of the information processing apparatus 15 related to screen transition based on pressing of the determination button 31 a will be described. This process is independent of the process of FIG. 10 described above, and the information processing apparatus 15 may execute the two processes of FIGS. 9 and 10 simultaneously or alternately. Further, there may be a difference in the frequency of performing each process.

まず、情報処理装置15は、受光装置12からボタン入力情報を取得する(S21)。次に、情報処理装置15は、取得されたボタン入力情報に基づき、決定ボタン31aが押下されたか否かを判断し(S22)、押下されていないと判断された場合には(S22:NO)、処理を終了させる。   First, the information processing device 15 acquires button input information from the light receiving device 12 (S21). Next, the information processing apparatus 15 determines whether or not the determination button 31a is pressed based on the acquired button input information (S22), and when it is determined that the determination button 31a is not pressed (S22: NO). The process is terminated.

一方、決定ボタン31aが押下されたと判断された場合(S22:YES)、情報処理装置15は、表示画面S上のカーソルCが表示されている位置(すなわち現在の指示位置)に選択可能な領域81a〜81fのいずれかが存在するか否かを判断する(S23)。   On the other hand, when it is determined that the determination button 31a has been pressed (S22: YES), the information processing apparatus 15 can select an area on the display screen S where the cursor C is displayed (that is, the current designated position). It is determined whether any of 81a to 81f exists (S23).

選択可能な領域81a〜81fのいずれも存在しないと判断された場合(S23:NO)、情報処理装置15は、処理を終了させる。   When it is determined that none of the selectable areas 81a to 81f exists (S23: NO), the information processing apparatus 15 ends the process.

一方、選択可能な領域81a〜81fのいずれかが存在すると判断された場合は(S23:YES)、情報処理装置15は、カーソルCの位置に存在する選択可能な領域(図8では領域81c)に割り当てられた画面遷移を実行し(S24)、処理を終了させる。   On the other hand, when it is determined that any of the selectable areas 81a to 81f exists (S23: YES), the information processing apparatus 15 selects the selectable area existing in the position of the cursor C (area 81c in FIG. 8). The screen transition assigned to is executed (S24), and the process is terminated.

以上説明した本実施の形態1によれば、下記(1)〜(8)の効果が得られ得る。
(1)情報処理装置は、撮像画像に複数の人物が含まれている場合に、当該複数の人物の中から指示器を保持している操作者を特定し、撮像画像における特定された操作者の位置と、撮像画像における指示器の位置とに基づき、操作者により指示器で指示された指示位置を特定する。このため、撮像画像に複数の人物が含まれる場合であっても、適切に指示位置を特定することができる。
According to the first embodiment described above, the following effects (1) to (8) can be obtained.
(1) When the captured image includes a plurality of persons, the information processing apparatus identifies an operator holding the indicator from the plurality of persons, and identifies the operator in the captured image Based on the position of the indicator and the position of the indicator in the captured image, the indicated position indicated by the operator with the indicator is specified. For this reason, even if it is a case where a picked-up image contains a several person, an instruction | indication position can be specified appropriately.

具体的には、撮像画像に複数の人物が含まれる場合において、実際には操作者ではない人物の位置を基に誤った指示位置を特定してしまうことを防ぐことができる。   Specifically, when a plurality of persons are included in the captured image, it is possible to prevent an erroneous designated position from being specified based on the positions of persons who are not actually operators.

また、撮像画像における操作者と指示器との位置関係から指示位置を求めることが可能となる。より具体的には、撮像画像における操作者の位置を基準とする指示器の相対位置から指示位置を求めることが可能となる。これにより、例えば操作者の操作感が向上する。具体的には、単純に撮像画像における指示器の位置から指示位置を求める構成では、操作者が同じ姿勢で指示器を保持していても、操作者の位置が異なる場合は、撮像画像における指示器の位置が異なるため、指示位置(例えばカーソル位置)が異なってしまう。すなわち、操作者の位置が変わると、操作者に対する指示器の相対位置と指示位置との対応関係が変化してしまい、操作感を損ねてしまう。これに対し、撮像画像における操作者の位置を基準とする指示器の相対位置から指示位置を求める構成では、操作者の位置によらず、操作者に対する指示器の相対位置と指示位置との対応関係を一定とすることが可能となり、操作者の位置によって操作感が変わることを回避または軽減することが可能となる。   In addition, the indicated position can be obtained from the positional relationship between the operator and the indicator in the captured image. More specifically, the indicated position can be obtained from the relative position of the indicator based on the position of the operator in the captured image. Thereby, for example, the operational feeling of the operator is improved. Specifically, in the configuration in which the indication position is simply obtained from the position of the indicator in the captured image, even if the operator holds the indicator in the same posture, the instruction in the captured image is different if the operator's position is different. Since the position of the container is different, the indicated position (for example, the cursor position) is different. That is, when the position of the operator changes, the correspondence between the relative position of the indicator with respect to the operator and the indicated position changes, and the operational feeling is impaired. On the other hand, in the configuration in which the indicated position is obtained from the relative position of the indicator based on the position of the operator in the captured image, the correspondence between the relative position of the indicator and the indicated position with respect to the operator regardless of the position of the operator. It becomes possible to make the relationship constant, and it is possible to avoid or reduce the change in operational feeling depending on the position of the operator.

(2)操作者特定部は、撮像画像における複数の人物の各々の位置と、撮像画像における指示器の位置とに基づき、複数の人物の中から操作者を特定する。これにより、撮像画像における各人物と指示器との位置関係から操作者を特定することができる。   (2) The operator specifying unit specifies an operator from the plurality of persons based on the positions of the plurality of persons in the captured image and the position of the indicator in the captured image. Thereby, the operator can be identified from the positional relationship between each person and the indicator in the captured image.

(3)操作者特定部は、撮像画像における複数の人物の各々の位置および指示器の位置のほか、さらに実空間における撮像装置から複数の人物の各々までの距離を表す情報に基づき、複数の人物の中から操作者を特定する。これにより、実空間における撮像装置から各人物までの距離を考慮して、より正確に操作者を特定することができる。   (3) The operator specifying unit includes a plurality of positions based on information representing a distance from the imaging device to each of the plurality of persons in the real space, in addition to the positions of the plurality of persons and the position of the indicator in the captured image. The operator is identified from among the persons. Accordingly, the operator can be specified more accurately in consideration of the distance from the imaging device to each person in the real space.

(4)操作者特定部は、撮像画像における複数の人物の各々の位置および指示器の位置のほか、さらに撮像画像における複数の人物の各々の大きさに基づき、複数の人物の中から操作者を特定する。これにより、簡易な構成で、実空間における撮像装置から各人物までの距離を考慮して、より正確に操作者を特定することができる。具体的には、複数の撮像装置によりステレオ画像を取得して人物までの距離を計測する構成や、距離を計測する機能を有する特殊な撮像装置を利用する構成などと比較して、構成の簡易化やコストの低減が可能である。   (4) The operator specifying unit may select an operator from among a plurality of persons based on the positions of the plurality of persons in the captured image and the positions of the indicators, as well as the sizes of the plurality of persons in the captured image. Is identified. Thereby, it is possible to more accurately identify the operator with a simple configuration in consideration of the distance from the imaging device to each person in real space. Specifically, the configuration is simple compared to a configuration in which a stereo image is acquired by a plurality of imaging devices and the distance to a person is measured, or a configuration using a special imaging device having a function of measuring the distance is used. And cost reduction.

(5)位置特定部は、撮像画像における特定された操作者の位置および指示器の位置のほか、さらに実空間における撮像装置から特定された操作者までの距離を表す情報に基づき、指示位置を特定する。これにより、実空間における撮像装置から操作者までの距離を考慮して、より適切な指示位置を特定することができる。具体的には、実空間内で操作者から見て同じ位置に指示器が存在する場合、実空間における撮像装置から操作者までの距離によらず、略同じ指示位置を特定することが可能となる。これにより、実空間における撮像装置から操作者までの距離による操作感の変化を回避または軽減することが可能となる。   (5) The position specifying unit determines the indicated position based on information indicating the distance from the imaging device to the specified operator in the real space, in addition to the specified operator position and indicator position in the captured image. Identify. Accordingly, it is possible to specify a more appropriate designated position in consideration of the distance from the imaging device to the operator in real space. Specifically, when the indicator exists at the same position as viewed from the operator in the real space, it is possible to specify substantially the same indicated position regardless of the distance from the imaging device to the operator in the real space. Become. As a result, it is possible to avoid or reduce a change in operational feeling due to the distance from the imaging device to the operator in real space.

(6)位置特定部は、撮像画像における特定された操作者の位置および指示器の位置のほか、さらに撮像画像における特定された操作者の大きさに基づき、指示位置を特定する。これにより、簡易な構成で、実空間における撮像装置から操作者までの距離を考慮して、より適切な指示位置を特定することができる。具体的には、複数の撮像装置によりステレオ画像を取得して操作者までの距離を計測する構成や、距離を計測する機能を有する特殊な撮像装置を利用する構成などと比較して、構成の簡易化やコストの低減が可能である。   (6) The position specifying unit specifies the indicated position based on the specified operator position and the indicator position in the captured image, and also based on the specified operator size in the captured image. Thereby, it is possible to specify a more appropriate indication position with a simple configuration in consideration of the distance from the imaging device to the operator in real space. Specifically, compared to a configuration in which a stereo image is acquired by a plurality of imaging devices and the distance to the operator is measured, or a configuration in which a special imaging device having a function to measure the distance is used, the configuration Simplification and cost reduction are possible.

(7)操作者特定部は、撮像画像に含まれる人物が1つである場合でも、操作者の特定を行う。すなわち、当該人物が操作者か否かを判断する。これにより、実際には操作者ではない人物の位置を基に誤った指示位置を特定してしまうことを防ぐことができる。   (7) The operator specifying unit specifies the operator even when the captured image includes one person. That is, it is determined whether the person is an operator. As a result, it is possible to prevent an erroneous designated position from being specified based on the position of a person who is not actually an operator.

(8)操作者特定部は、撮像画像における指示器の位置の代わりに、直近の一定期間における、指示器の位置の平均値や中央値、または指示器の位置の最大値と最小値の和の半値を用いる。これにより、複数の人物が互いに近い位置に存在する場合などに、実際には指示器を保持していない人物を誤って操作者として特定してしまう可能性を低減させることが可能となる。   (8) The operator specifying unit, instead of the position of the indicator in the captured image, calculates the average value or the median value of the indicator position or the sum of the maximum value and the minimum value of the indicator position in the last fixed period. The half value of is used. Accordingly, when a plurality of persons are present at positions close to each other, it is possible to reduce the possibility that a person who does not actually hold the indicator is erroneously specified as an operator.

なお、上記の説明では、指示器11が操作部31および発光部32を備える構成を例示したが、指示器11は情報処理装置15により検出可能であればよく、操作部31および発光部32は省略されてもよい。この場合、受光装置12およびボタン入力情報取得部46も省略可能である。また、この場合、情報処理装置15は、決定ボタン31aによる領域の選択の代わりに、表示画面S上のカーソルCの位置が複数の選択可能な領域のうちいずれかの領域の中に一定時間以上ある場合、当該領域が選択されたとみなして、当該領域に割り当てられた画面遷移を行ってもよい。   In the above description, the indicator 11 includes the operation unit 31 and the light emitting unit 32. However, the indicator 11 may be detected by the information processing apparatus 15, and the operation unit 31 and the light emitting unit 32 may be It may be omitted. In this case, the light receiving device 12 and the button input information acquisition unit 46 can also be omitted. Further, in this case, the information processing apparatus 15 determines that the position of the cursor C on the display screen S is longer than a predetermined time in any one of the plurality of selectable areas instead of selecting the area by the determination button 31a. In some cases, it may be considered that the area has been selected, and a screen transition assigned to the area may be performed.

また、上記の説明では、指示器11がテレビリモコンである場合を例示したが、指示器11は、銃を模した形状のものや、杖を模した形状のもの、指先に嵌めて使用できるものなど、他の態様のものであってもよい。   Moreover, although the case where the indicator 11 was a television remote control was illustrated in said description, the indicator 11 is a thing imitating a gun, a thing imitating a cane, and a thing which can be used by being fitted to a fingertip. Other embodiments may be used.

また、上記の説明では、指示器検出部43が指示器11の発光部33からの発光を利用して指示器11の位置を検出する場合を例示したが、指示器検出部43は、他の方法で指示器11の位置の検出を行ってもよい。例えば、指示器11に反射材が設けられ、指示器11とは別の箇所に発光部が設けられ、指示器検出部43が、当該発光部から発光され当該反射材により反射された光を検出することにより、指示器11の位置を検出する構成であってもよい。また、指示器検出部43は、指示器11の外観の特徴(例えば指示器11に設けられた識別マーク)を用いて指示器11の位置を検出してもよい。これらの場合、発光部33は省略されてもよい。   Moreover, in the above description, the case where the indicator detection unit 43 detects the position of the indicator 11 using the light emission from the light emitting unit 33 of the indicator 11 is exemplified. The position of the indicator 11 may be detected by a method. For example, the indicator 11 is provided with a reflecting material, and a light emitting unit is provided at a location different from the indicator 11, and the indicator detecting unit 43 detects light emitted from the light emitting unit and reflected by the reflecting material. By doing so, the structure which detects the position of the indicator 11 may be sufficient. Further, the indicator detection unit 43 may detect the position of the indicator 11 using the appearance characteristic of the indicator 11 (for example, an identification mark provided on the indicator 11). In these cases, the light emitting unit 33 may be omitted.

また、図9,11,13,14では、例えば図9のS15において操作者が特定されなかった場合に、処理を終了させることとしたが、情報処理装置15は、操作者が特定されなかった場合、今回の処理で検出された指示器11の位置に代えて、前回の処理で検出された指示器11の位置を利用して、操作者の特定および指示位置の特定を行ってもよい。この場合、指示器11の位置の検出に誤りがあった場合でも、指示位置の特定が可能となる。具体的には、今回の処理で指示器11の位置の検出に誤りがあり、その結果として操作者が特定されなかった場合、当該誤って検出された指示器11の位置に代えて、正しく検出された可能性のある前回検出された指示器11の位置を利用することにより、操作者の特定および指示位置の特定を行うことが可能となる。これにより、指示器11の位置の誤検出の影響を軽減することができる。   9, 11, 13, and 14, for example, when the operator is not specified in S <b> 15 of FIG. 9, the processing is ended, but the information processing apparatus 15 does not specify the operator. In this case, instead of the position of the indicator 11 detected in the current process, the position of the indicator 11 detected in the previous process may be used to specify the operator and the specified position. In this case, even if there is an error in the detection of the position of the indicator 11, the indicated position can be specified. Specifically, when there is an error in the detection of the position of the indicator 11 in the current process and, as a result, the operator has not been specified, it is detected correctly instead of the position of the indicator 11 detected in error. It is possible to specify the operator and the specified position by using the previously detected position of the indicator 11 that may have been detected. Thereby, the influence of the erroneous detection of the position of the indicator 11 can be reduced.

また、上記の説明では、距離情報として撮像画像における人物の大きさを用いる場合を例示したが、距離情報は他の方法で取得されてもよい。例えば、情報処理装置15は、複数の撮像装置によりステレオ画像を取得して距離情報を求めてもよいし、距離を計測する機能を有する特殊な撮像装置を利用して距離情報を求めてもよい。   Moreover, although the case where the size of the person in the captured image is used as the distance information has been exemplified in the above description, the distance information may be acquired by other methods. For example, the information processing device 15 may obtain distance information by acquiring a stereo image with a plurality of imaging devices, or may obtain distance information using a special imaging device having a function of measuring distance. .

また、上記の説明では、情報処理装置15がテレビ受像機に適用される場合を例示したが、情報処理装置15は、コンピュータやゲーム機など、様々な装置や用途に適用可能である。   In the above description, the case where the information processing device 15 is applied to a television receiver has been exemplified. However, the information processing device 15 can be applied to various devices and uses such as a computer and a game machine.

また、上記の説明では、情報処理装置15が指示位置に基づいて表示の制御を行う構成を例示したが、情報処理装置15は、少なくとも指示位置を特定する機能を備えていればよく、表示制御部46および表示装置14は情報処理装置15の外部に設けられてもよい。また、情報処理装置15により特定された指示位置を表す情報は、表示の制御以外の用途に利用されてもよく、表示制御部46および表示装置14は省略されてもよい。   Further, in the above description, the configuration in which the information processing device 15 performs display control based on the designated position is exemplified, but the information processing device 15 may have at least a function of specifying the designated position, and the display control may be performed. The unit 46 and the display device 14 may be provided outside the information processing device 15. In addition, information indicating the designated position specified by the information processing device 15 may be used for purposes other than display control, and the display control unit 46 and the display device 14 may be omitted.

実施の形態2.
以下、実施の形態2における情報処理システムについて説明する。この情報処理システムは、実施の形態1のものと殆ど同じであるので、実施の形態1と同様の部分については、同一の符号を用い、説明を省略または簡略化することとする。
Embodiment 2. FIG.
Hereinafter, the information processing system in Embodiment 2 will be described. Since this information processing system is almost the same as that of the first embodiment, the same parts as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted or simplified.

本実施の形態では、操作者特定部44は、今回の撮像画像において検出されたいずれかの人物の位置および大きさが、前回の撮像画像において特定された操作者の位置および大きさと一致する場合には、当該一致する人物を操作者として特定する。具体的には、操作者特定部44は、人物検出部42からの人物検出情報と、所定の記憶領域に記憶された前回特定された操作者の人物検出情報とに基づき、今回検出された人物の中に、前回特定された操作者と位置および大きさが一致する人物が存在するか否かを判断し、一致する人物が存在する場合には、当該人物を操作者として特定する。ここで、位置および大きさが一致することは、位置および大きさが略一致することを含んでもよい。例えば、操作者特定部44は、両者の位置の差が所定の閾値以下であり、かつ両者の大きさの差が所定の閾値以下である場合、両者の位置および大きさが一致すると判断してもよい。   In the present embodiment, the operator specifying unit 44, when the position and size of any person detected in the current captured image matches the position and size of the operator specified in the previous captured image. Is identified as the operator. Specifically, the operator specifying unit 44 detects the person detected this time based on the person detection information from the person detection unit 42 and the person detection information of the operator specified last time stored in a predetermined storage area. It is determined whether or not there is a person whose position and size match those of the operator specified last time. If there is a person who matches, the person is specified as the operator. Here, matching the position and size may include matching the position and size substantially. For example, the operator specifying unit 44 determines that the positions and sizes of the two coincide when the difference between the two positions is equal to or smaller than a predetermined threshold value and the difference between the two sizes is equal to or smaller than the predetermined threshold value. Also good.

図11は、実施の形態2におけるカーソルCの表示に関する情報処理装置15の処理の手順の一例を示すフローチャートである。以下、図11を参照して、カーソルCの表示に関する情報処理装置15の処理の手順を説明する。この処理は、例えば、撮像装置13の撮像の周期と同じ周期で繰り返し行われる。   FIG. 11 is a flowchart illustrating an example of a processing procedure of the information processing apparatus 15 regarding the display of the cursor C in the second embodiment. Hereinafter, with reference to FIG. 11, a processing procedure of the information processing apparatus 15 related to the display of the cursor C will be described. This process is repeatedly performed at the same cycle as the imaging cycle of the imaging device 13, for example.

まず、情報処理装置15は、撮像装置13から撮像画像を取得する(S31)。次に、情報処理装置15は、取得された撮像画像から人物を検出し、撮像画像における当該人物の位置および大きさを検出する(S32)。また、情報処理装置15は、取得された撮像画像から指示器11を検出し、撮像画像における指示器11の位置を検出する(S33)。   First, the information processing apparatus 15 acquires a captured image from the imaging apparatus 13 (S31). Next, the information processing apparatus 15 detects a person from the acquired captured image, and detects the position and size of the person in the captured image (S32). Further, the information processing apparatus 15 detects the indicator 11 from the acquired captured image, and detects the position of the indicator 11 in the captured image (S33).

次に、情報処理装置15は、ステップS32で検出された各人物の位置および大きさが、前回の図11の処理で特定された操作者の位置および大きさと一致するかを判断することにより、前回特定された操作者と位置および大きさが一致する人物が存在するか否かを判断する(S34)。なお、前回の図11の処理で操作者が特定されなかった場合、情報処理装置15は、一致する人物は存在しないと判断する。   Next, the information processing apparatus 15 determines whether the position and size of each person detected in step S32 matches the position and size of the operator specified in the previous process of FIG. It is determined whether there is a person whose position and size match the operator specified last time (S34). If the operator is not specified in the previous process of FIG. 11, the information processing apparatus 15 determines that there is no matching person.

一致する人物が存在すると判断された場合(S34:YES)、情報処理装置15は、当該人物を操作者であると特定し(S35)、処理をステップS38に進める。   If it is determined that there is a matching person (S34: YES), the information processing apparatus 15 identifies the person as an operator (S35), and the process proceeds to step S38.

一方、一致する人物が存在しないと判断された場合(S34:NO)、情報処理装置15は、検出された指示器11の位置と、検出された人物の位置および大きさに基づき、検出された人物からの操作者の特定を行う(S36)。そして、情報処理装置15は、操作者が特定されたか否かを判断し(S37)、操作者が特定されたと判断された場合には(S37:YES)、処理をステップS38に進め、操作者が特定されなかったと判断された場合には(S37:NO)、処理を終了させる。   On the other hand, if it is determined that there is no matching person (S34: NO), the information processing apparatus 15 detects the position based on the detected position of the indicator 11 and the position and size of the detected person. The operator is identified from the person (S36). Then, the information processing apparatus 15 determines whether or not the operator has been specified (S37). If it is determined that the operator has been specified (S37: YES), the process proceeds to step S38, and the operator Is determined not to be specified (S37: NO), the process is terminated.

ステップS38では、情報処理装置15は、検出された指示器11の位置と、特定された操作者の位置および大きさに基づき、指示位置を特定する。そして、情報処理装置15は、表示装置14の表示画面Sの特定された指示位置にカーソルCを表示させ(S39)、処理を終了させる。   In step S <b> 38, the information processing apparatus 15 identifies the designated position based on the detected position of the indicator 11 and the identified position and size of the operator. Then, the information processing device 15 displays the cursor C at the specified indication position on the display screen S of the display device 14 (S39), and ends the process.

以上説明した通り、本実施の形態では、情報処理装置15は、今回の撮像画像における各人物の位置および大きさと、前回の撮像画像における操作者の位置および大きさとに基づき、操作者の特定を行う。このように、操作者の特定は、実施の形態1に示された方法以外の方法で行われてもよい。他にも、例えば、情報処理装置15は、予め記憶された操作者の外観の特徴と、撮像画像から認識される各人物の特徴との類似度を求め、類似度が最も高い人物を操作者として特定することも可能である。   As described above, in the present embodiment, the information processing apparatus 15 identifies the operator based on the position and size of each person in the current captured image and the position and size of the operator in the previous captured image. Do. As described above, the operator may be specified by a method other than the method shown in the first embodiment. In addition, for example, the information processing device 15 obtains a similarity between the feature of the appearance of the operator stored in advance and the feature of each person recognized from the captured image, and determines the person with the highest similarity as the operator. It is also possible to specify as

実施の形態3.
以下、実施の形態3における情報処理システムについて説明する。この情報処理システムは、実施の形態1のものと殆ど同じであるので、実施の形態1と同様の部分については、同一の符号を用い、説明を省略または簡略化することとする。
Embodiment 3 FIG.
Hereinafter, the information processing system in Embodiment 3 will be described. Since this information processing system is almost the same as that of the first embodiment, the same parts as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted or simplified.

図12は、実施の形態3における情報処理装置15の構成の一例を示すブロック図である。図12に示されるように、本実施の形態では、情報処理装置15は、検出対象領域設定部121をさらに有する。この検出対象領域設定部121は、撮像画像における特定された操作者の位置、または位置および大きさに基づき、指示器11の位置の検出の対象となる検出対象領域を設定する。指示器検出部43は、撮像画像のうち検出対象領域設定部121により設定された検出対象領域を検出の対象として、指示器11の位置の検出を行う。   FIG. 12 is a block diagram illustrating an example of the configuration of the information processing apparatus 15 according to the third embodiment. As illustrated in FIG. 12, in the present embodiment, the information processing apparatus 15 further includes a detection target region setting unit 121. The detection target area setting unit 121 sets a detection target area that is a target for detecting the position of the indicator 11 based on the position of the specified operator in the captured image, or the position and size. The indicator detection unit 43 detects the position of the indicator 11 using the detection target region set by the detection target region setting unit 121 in the captured image as a detection target.

具体的には、検出対象領域設定部121は、予め設定された有効範囲内の指示位置が特定されるような指示器11の位置の範囲を検出対象領域として設定する。上記有効範囲は、例えば表示装置14の表示画面S上のカーソルCを表示可能な範囲である。   Specifically, the detection target area setting unit 121 sets a position range of the indicator 11 such that the indicated position within a preset effective range is specified as the detection target area. The effective range is, for example, a range in which the cursor C on the display screen S of the display device 14 can be displayed.

例えば、指示座標の算出に上記式(1)が用いられる場合には、検出対象領域設定部121は、当該式(1)と、ベクトルPpointの有効範囲(すなわち指示位置の有効範囲であり、例えば表示装置14の解像度で決まる)と、ベクトルPope(すなわち特定された操作者の位置)とに基づいて、ベクトルPpointが有効範囲内となるベクトルPdevの範囲(すなわち指示器11の位置の範囲)を検出対象領域として設定する。 For example, when the above equation (1) is used for calculation of the designated coordinates, the detection target region setting unit 121 determines that the equation (1) and the effective range of the vector P point (that is, the effective range of the indicated position) For example, based on the resolution of the display device 14) and the vector P ope (that is, the position of the specified operator), the range of the vector P dev within which the vector P point is within the effective range (that is, the position of the indicator 11) Is set as the detection target area.

また、指示座標の算出に上記式(2)が用いられる場合には、検出対象領域設定部121は、当該式(2)と、ベクトルPpointの有効範囲(すなわち指示位置の有効範囲であり、例えば表示装置14の解像度で決まる)と、ベクトルPope(すなわち特定された操作者の位置)と、スカラーscale(すなわち特定された操作者の大きさ)とに基づいて、ベクトルPpointが有効範囲内となるベクトルPdevの範囲(すなわち指示器11の位置の範囲)を検出対象領域として設定する。 When the above equation (2) is used to calculate the designated coordinates, the detection target region setting unit 121 determines that the equation (2) and the effective range of the vector P point (that is, the effective range of the designated position) For example, based on the resolution of the display device 14, the vector P ope (that is, the position of the specified operator), and the scalar scale (that is, the size of the specified operator), the vector P point is an effective range. The range of the inner vector P dev (that is, the range of the position of the indicator 11) is set as the detection target region.

一つの態様では、操作者特定部44は、指示器11の位置を用いずに、例えば実施の形態2に記載の方法で操作者を特定する。検出対象領域設定部121は、当該特定された操作者の位置、または位置および大きさに基づき、検出対象領域を設定する。指示器検出部43は、撮像画像のうち当該検出対象領域から指示器11の位置を検出し、当該位置を示す指示器検出情報を位置特定部45に出力する。この場合、指示器検出部43は、操作者特定部44には指示器検出情報を出力しなくてもよい。当該態様における処理の一例は、後に図13に従って説明される。   In one aspect, the operator specifying unit 44 specifies an operator by the method described in the second embodiment, for example, without using the position of the indicator 11. The detection target area setting unit 121 sets the detection target area based on the position of the identified operator or the position and size. The indicator detection unit 43 detects the position of the indicator 11 from the detection target region in the captured image, and outputs indicator detection information indicating the position to the position specifying unit 45. In this case, the indicator detection unit 43 may not output the indicator detection information to the operator specifying unit 44. An example of processing in this aspect will be described later according to FIG.

別の態様では、検出対象領域設定部121は、位置特定部45により指示位置が特定された場合に、特定された操作者の位置、または位置および大きさに基づき、次回の処理のための検出対象領域を設定する。そして、次回の処理において、操作者特定部44は、実施の形態2と同様に、今回検出された人物の中に、前回特定された操作者と位置および大きさが一致する人物が存在するか否かを判断し、一致する人物が存在する場合には、当該人物を操作者として特定する。また、操作者特定部44により一致する人物が存在すると判断された場合、指示器検出部43は、撮像画像のうち前回の処理で設定された検出対象領域から指示器11の位置を検出し、当該位置を示す指示器検出情報を位置特定部45に出力する。この場合、指示器検出部43は、操作者特定部44には指示器検出情報を出力しなくてもよい。当該態様における処理の一例は、後に図14に従って説明される。   In another aspect, when the position specifying unit 45 specifies the designated position, the detection target region setting unit 121 performs detection for the next process based on the specified operator position or position and size. Set the target area. Then, in the next process, the operator specifying unit 44 determines whether there is a person whose position and size match the operator specified last time among the persons detected this time, as in the second embodiment. If there is a matching person, the person is specified as the operator. When the operator specifying unit 44 determines that there is a matching person, the indicator detection unit 43 detects the position of the indicator 11 from the detection target area set in the previous process in the captured image, Indicator detection information indicating the position is output to the position specifying unit 45. In this case, the indicator detection unit 43 may not output the indicator detection information to the operator specifying unit 44. An example of processing in this aspect will be described later according to FIG.

図13は、実施の形態3におけるカーソルCの表示に関する情報処理装置15の処理の手順の第1の例を示すフローチャートである。以下、図13を参照して、カーソルCの表示に関する処理の第1の例を説明する。この処理は、例えば、撮像装置13の撮像の周期と同じ周期で繰り返し行われる。   FIG. 13 is a flowchart illustrating a first example of a processing procedure of the information processing apparatus 15 regarding the display of the cursor C in the third embodiment. Hereinafter, a first example of processing related to the display of the cursor C will be described with reference to FIG. This process is repeatedly performed at the same cycle as the imaging cycle of the imaging device 13, for example.

まず、情報処理装置15は、撮像装置13から撮像画像を取得する(S41)。次に、情報処理装置15は、取得された撮像画像から人物を検出し、撮像画像における当該人物の位置および大きさを検出する(S42)。   First, the information processing device 15 acquires a captured image from the imaging device 13 (S41). Next, the information processing apparatus 15 detects a person from the acquired captured image, and detects the position and size of the person in the captured image (S42).

次に、情報処理装置15は、ステップS42で検出された各人物の位置および大きさが、前回の図13の処理で特定された操作者の位置および大きさと一致するかを判断することにより、前回特定された操作者と位置および大きさが一致する人物が存在するか否かを判断する(S43)。   Next, the information processing apparatus 15 determines whether the position and size of each person detected in step S42 matches the position and size of the operator specified in the previous process of FIG. It is determined whether or not there is a person whose position and size match the operator specified last time (S43).

一致する人物が存在すると判断された場合(S43:YES)、情報処理装置15は、当該人物を操作者であると特定し(S44)、当該人物の位置および大きさと、表示装置14の解像度とに基づき、検出対象領域を算出する(S45)。そして、情報処理装置15は、撮像画像のうち当該検出対象領域のみを対象として指示器11の検出を行い、撮像画像における指示器11の位置を検出し(S46)、処理をステップS50に進める。   When it is determined that there is a matching person (S43: YES), the information processing apparatus 15 identifies the person as an operator (S44), and determines the position and size of the person and the resolution of the display device 14. Based on the above, a detection target region is calculated (S45). Then, the information processing apparatus 15 detects the indicator 11 for only the detection target region in the captured image, detects the position of the indicator 11 in the captured image (S46), and advances the processing to step S50.

一方、一致する人物が存在しないと判断された場合(S43:NO)、情報処理装置15は、撮像画像の全領域を対象として指示器11の検出を行い、撮像画像における指示器11の位置を検出する(S47)。そして、情報処理装置15は、検出された指示器11の位置と、検出された人物の位置および大きさに基づき、検出された人物からの操作者の特定を行う(S48)。次に、情報処理装置15は、操作者が特定されたか否かを判断し(S49)、操作者が特定されたと判断された場合には(S49:YES)、処理をステップS50に進め、操作者が特定されなかったと判断された場合には(S49:NO)、処理を終了させる。   On the other hand, when it is determined that there is no matching person (S43: NO), the information processing apparatus 15 detects the indicator 11 for the entire area of the captured image, and determines the position of the indicator 11 in the captured image. It is detected (S47). Then, the information processing device 15 identifies an operator from the detected person based on the detected position of the indicator 11 and the detected position and size of the person (S48). Next, the information processing apparatus 15 determines whether or not an operator has been specified (S49). If it is determined that an operator has been specified (S49: YES), the process proceeds to step S50, and the operation is performed. If it is determined that the person has not been identified (S49: NO), the process is terminated.

ステップS50では、情報処理装置15は、検出された指示器11の位置と、特定された操作者の位置および大きさに基づき、指示位置を特定する。そして、情報処理装置15は、表示装置14の表示画面Sの特定された指示位置にカーソルCを表示させ(S51)、処理を終了させる。   In step S50, the information processing device 15 specifies the indicated position based on the detected position of the indicator 11 and the specified position and size of the operator. Then, the information processing device 15 displays the cursor C at the specified indication position on the display screen S of the display device 14 (S51), and ends the processing.

図14は、実施の形態3における、カーソルCの表示に関する情報処理装置15の処理の手順の第2の例を示すフローチャートである。以下、図14を参照して、カーソルCの表示に関する処理の第2の例を説明する。この処理は、例えば、撮像装置13の撮像の周期と同じ周期で繰り返し行われる。   FIG. 14 is a flowchart illustrating a second example of the processing procedure of the information processing apparatus 15 related to the display of the cursor C in the third embodiment. Hereinafter, with reference to FIG. 14, a second example of processing related to the display of the cursor C will be described. This process is repeatedly performed at the same cycle as the imaging cycle of the imaging device 13, for example.

まず、情報処理装置15は、撮像装置13から撮像画像を取得する(S61)。次に、情報処理装置15は、取得された撮像画像から人物を検出し、撮像画像における当該人物の位置および大きさを検出する(S62)。   First, the information processing apparatus 15 acquires a captured image from the imaging apparatus 13 (S61). Next, the information processing apparatus 15 detects a person from the acquired captured image, and detects the position and size of the person in the captured image (S62).

次に、情報処理装置15は、ステップS62で検出された各人物の位置および大きさが、前回の図14の処理で特定された操作者の位置および大きさと一致するかを判断することにより、前回特定された操作者と位置および大きさが一致する人物が存在するか否かを判断する(S63)。   Next, the information processing apparatus 15 determines whether the position and size of each person detected in step S62 matches the position and size of the operator specified in the previous processing of FIG. It is determined whether there is a person whose position and size match the operator specified last time (S63).

一致する人物が存在すると判断された場合(S63:YES)、情報処理装置15は、当該人物を操作者であると特定する(S64)。また、情報処理装置15は、撮像画像のうち、前回の図14の処理のステップS70(後述)で設定された検出対象領域のみを対象として指示器11の検出を行い、撮像画像における指示器11の位置を検出し(S65)、処理をステップS69に進める。   When it is determined that there is a matching person (S63: YES), the information processing apparatus 15 identifies the person as an operator (S64). Further, the information processing apparatus 15 detects the indicator 11 only for the detection target region set in step S70 (described later) of the previous processing of FIG. 14 in the captured image, and indicates the indicator 11 in the captured image. Is detected (S65), and the process proceeds to step S69.

一方、一致する人物が存在しないと判断された場合(S63:NO)、情報処理装置15は、撮像画像の全領域を対象として指示器11の検出を行い、撮像画像における指示器11の位置を検出する(S66)。そして、情報処理装置15は、検出された指示器11の位置と、検出された人物の位置および大きさに基づき、検出された人物からの操作者の特定を行う(S67)。次に、情報処理装置15は、操作者が特定されたか否かを判断し(S68)、操作者が特定されたと判断された場合には(S68:YES)、処理をステップS69に進め、操作者が特定されなかったと判断された場合には(S68:NO)、処理を終了させる。   On the other hand, when it is determined that there is no matching person (S63: NO), the information processing apparatus 15 detects the indicator 11 for the entire area of the captured image, and determines the position of the indicator 11 in the captured image. It is detected (S66). Then, the information processing apparatus 15 identifies an operator from the detected person based on the detected position of the indicator 11 and the detected position and size of the person (S67). Next, the information processing apparatus 15 determines whether or not an operator has been specified (S68). If it is determined that an operator has been specified (S68: YES), the process proceeds to step S69, and the operation is performed. If it is determined that the person has not been identified (S68: NO), the process is terminated.

ステップS69では、情報処理装置15は、検出された指示器11の位置と、特定された操作者の位置および大きさに基づき、指示位置を特定する。そして、情報処理装置15は、特定された操作者の位置および大きさと、表示装置14の解像度とに基づき、検出対象領域を算出する(S70)。当該算出された検出対象領域は、次回の図14の処理においてステップS65で利用される。また、情報処理装置15は、表示装置14の表示画面Sの特定された指示位置にカーソルCを表示させ(S71)、処理を終了させる。   In step S <b> 69, the information processing apparatus 15 identifies the designated position based on the detected position of the indicator 11 and the identified position and size of the operator. Then, the information processing device 15 calculates a detection target region based on the identified position and size of the operator and the resolution of the display device 14 (S70). The calculated detection target area is used in step S65 in the next process of FIG. Further, the information processing device 15 displays the cursor C at the specified indication position on the display screen S of the display device 14 (S71), and ends the process.

以上説明した本実施の形態3によれば、下記(9)の効果が得られ得る。
(9)情報処理装置は、指示位置の特定に用いられる撮像画像における指示器の位置を検出する指示器検出部と、撮像画像における特定された操作者の位置、または位置および大きさに基づき、指示器の位置の検出の対象となる検出対象領域を設定する検出対象領域設定部とを有し、指示器検出部は、撮像画像のうち上記検出対象領域を検出の対象として、指示器の位置の検出を行う。このため、撮像画像のうち操作者の位置に応じた適切な範囲から指示器の位置の検出を行うことができる。これにより、指示器の位置の検出の処理の負荷を軽減することや、指示器の位置の検出の誤りの発生を低減することができる。また、有効範囲内の指示位置が得られるように検出対象領域を設定することにより、無効な指示位置が特定されることを回避することができる。
According to the third embodiment described above, the following effect (9) can be obtained.
(9) The information processing apparatus, based on the indicator detection unit that detects the position of the indicator in the captured image used for specifying the indication position, and the position of the specified operator in the captured image, or the position and size, A detection target region setting unit that sets a detection target region that is a target for detection of the position of the indicator, and the indicator detection unit uses the detection target region in the captured image as a detection target, and the position of the indicator Detection is performed. For this reason, the position of the indicator can be detected from an appropriate range corresponding to the position of the operator in the captured image. As a result, it is possible to reduce the load of the process for detecting the position of the indicator, and to reduce the occurrence of an error in the detection of the position of the indicator. Further, by setting the detection target region so that the designated position within the effective range can be obtained, it is possible to avoid specifying the invalid designated position.

以上説明した実施の形態1〜3において、情報処理装置15の機能は、電子回路などのハードウェア資源のみにより実現されてもよいし、ハードウェア資源とソフトウェアとの協働により実現されてもよい。ハードウェア資源とソフトウェアとの協働により実現される場合、情報処理装置15の機能は、例えば情報処理プログラムがコンピュータにより実行されることによって実現される。より具体的には、情報処理装置15の機能は、ROM(Read Only Memory)等の記録媒体に記録された情報処理プログラムが主記憶装置に読み出されて中央処理装置(CPU: Central Processing Unit)により実行されることによって実現される。情報処理プログラムは、光ディスク等のコンピュータ読み取り可能な記録媒体に記録されて提供されてもよいし、インターネット等の通信回線を介して提供されてもよい。   In the first to third embodiments described above, the function of the information processing apparatus 15 may be realized only by hardware resources such as an electronic circuit, or may be realized by cooperation of hardware resources and software. . When realized by the cooperation of hardware resources and software, the functions of the information processing apparatus 15 are realized by, for example, an information processing program being executed by a computer. More specifically, the function of the information processing device 15 is that a central processing unit (CPU) is read by reading an information processing program recorded in a recording medium such as a ROM (Read Only Memory) into a main storage device. It is realized by being executed. The information processing program may be provided by being recorded on a computer-readable recording medium such as an optical disk, or may be provided via a communication line such as the Internet.

なお、本発明は、上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の態様で実施することができる。   In addition, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it can implement with a various aspect.

11 指示器、 12 受光装置、 13 撮像装置、 14 表示装置、 15 情報処理装置、 41 画像取得部、 42 人物検出部、 43 指示器検出部、 44 操作者特定部、 45 位置特定部、 46 ボタン入力情報取得部、 47 表示制御部、 100 情報処理システム、 121 検出対象領域設定部。   DESCRIPTION OF SYMBOLS 11 Indicator, 12 Light receiving device, 13 Imaging apparatus, 14 Display apparatus, 15 Information processing apparatus, 41 Image acquisition part, 42 Person detection part, 43 Indicator detection part, 44 Operator specific part, 45 Position specific part, 46 button An input information acquisition unit, 47 display control unit, 100 information processing system, 121 detection target region setting unit.

Claims (17)

位置を指示するための指示器と当該指示器を保持している操作者とが撮像された画像を取得する画像取得手段と、
前記画像に複数の人物が含まれている場合に、当該複数の人物の中から前記指示器を保持している前記操作者を特定する操作者特定手段と、
前記画像における前記特定された操作者の位置と、前記画像における前記指示器の位置とに基づき、前記操作者により前記指示器で指示された位置を特定する位置特定手段と、
を備えることを特徴とする情報処理装置。
An image acquisition means for acquiring an image captured by an indicator for indicating a position and an operator holding the indicator;
An operator specifying means for specifying the operator holding the indicator from the plurality of persons when the image includes a plurality of persons;
Position specifying means for specifying a position instructed by the operator by the operator based on the position of the specified operator in the image and the position of the indicator in the image;
An information processing apparatus comprising:
前記操作者特定手段は、前記画像における前記複数の人物の各々の位置と、前記画像における前記指示器の位置とに基づき、前記複数の人物の中から前記操作者を特定することを特徴とする請求項1に記載の情報処理装置。   The operator specifying means specifies the operator from the plurality of persons based on the position of each of the plurality of persons in the image and the position of the indicator in the image. The information processing apparatus according to claim 1. 前記操作者特定手段は、さらに前記画像における前記複数の人物の各々の大きさに基づき、前記複数の人物の中から前記操作者を特定することを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the operator specifying unit further specifies the operator from the plurality of persons based on a size of each of the plurality of persons in the image. . 前記位置特定手段は、さらに前記画像における前記特定された操作者の大きさに基づき、前記位置を特定することを特徴とする請求項1から3のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the position specifying unit further specifies the position based on the size of the specified operator in the image. 前記位置特定手段に用いられる前記画像における前記指示器の位置を検出する指示器検出手段と、
前記画像における前記特定された操作者の位置、または位置および大きさに基づき、前記指示器の位置の検出の対象となる検出対象領域を設定する検出対象領域設定手段と、
をさらに備え、
前記指示器検出手段は、前記画像のうち前記検出対象領域を検出の対象として、前記指示器の位置の検出を行う、
ことを特徴とする請求項1から4のいずれかに記載の情報処理装置。
Indicator detecting means for detecting the position of the indicator in the image used for the position specifying means;
A detection target region setting means for setting a detection target region that is a target of detection of the position of the indicator based on the position of the specified operator in the image, or the position and size;
Further comprising
The indicator detection means detects the position of the indicator with the detection target region of the image as a detection target.
The information processing apparatus according to claim 1, wherein the information processing apparatus is an information processing apparatus.
前記操作者特定手段は、前記複数の人物のうち、前記画像における当該人物の位置と、前記画像における前記指示器の位置との間の水平方向の距離が最小となる人物を前記操作者として特定することを特徴とする請求項2に記載の情報処理装置。   The operator specifying means specifies, as the operator, a person having a minimum horizontal distance between the position of the person in the image and the position of the indicator in the image. The information processing apparatus according to claim 2. 前記操作者特定手段は、前記複数の人物のうち、前記画像における当該人物の位置と、前記画像における前記指示器の位置との間のユークリッド距離が最小となる人物を前記操作者として特定することを特徴とする請求項2に記載の情報処理装置。   The operator specifying means specifies, as the operator, a person having a minimum Euclidean distance between the position of the person in the image and the position of the indicator in the image among the plurality of persons. The information processing apparatus according to claim 2. 前記操作者特定手段は、前記複数の人物のうち、前記画像における当該人物の位置と、前記画像における前記指示器の位置との間の水平方向の距離を前記画像における当該人物の大きさで除算した商が最小となる人物を前記操作者として特定することを特徴とする請求項3に記載の情報処理装置。   The operator specifying unit divides a horizontal distance between the position of the person in the image and the position of the indicator in the image by the size of the person in the image. The information processing apparatus according to claim 3, wherein a person having the smallest quotient is specified as the operator. 前記操作者特定手段は、前記複数の人物のうち、前記画像における当該人物の位置と、前記画像における前記指示器の位置との間のユークリッド距離を前記画像における当該人物の大きさで除算した商が最小となる人物を前記操作者として特定することを特徴とする請求項3に記載の情報処理装置。   The operator specifying unit is a quotient obtained by dividing the Euclidean distance between the position of the person in the image and the position of the indicator in the image by the size of the person in the image. The information processing apparatus according to claim 3, wherein a person having a minimum is specified as the operator. 前記位置特定手段は、前記画像における前記特定された操作者の位置と前記指示器の位置との差、および前記画像における前記特定された操作者の大きさを入力とする関数により前記位置を算出することを特徴とする請求項4に記載の情報処理装置。   The position specifying means calculates the position by a function having as input a difference between the position of the specified operator in the image and the position of the indicator, and a size of the specified operator in the image. The information processing apparatus according to claim 4, wherein: 前記関数は、前記画像における前記特定された操作者の位置と前記指示器の位置との差に対する、前記画像における前記特定された操作者の大きさによる除算と、前記指示器の位置の変化に対する前記特定される位置の変化の感度を定める係数の乗算とを含むことを特徴とする請求項10に記載の情報処理装置。   The function is based on the difference between the position of the specified operator in the image and the position of the indicator, the division by the size of the specified operator in the image, and the change in the position of the indicator. The information processing apparatus according to claim 10, further comprising: multiplication of a coefficient that determines sensitivity of the change in the specified position. 前記位置特定手段は、当該位置特定手段により特定される位置が予め設定された範囲内に収まるように、前記操作者による前記指示器の操作に応じて前記感度を定める係数を調整することを特徴とする請求項11に記載の情報処理装置。   The position specifying means adjusts a coefficient for determining the sensitivity according to an operation of the indicator by the operator so that a position specified by the position specifying means falls within a preset range. The information processing apparatus according to claim 11. 前記画像における前記特定された操作者の大きさは、前記画像における前記特定された操作者の顔の幅により定義されることを特徴とする請求項4、10、11、または12に記載の情報処理装置。   The information according to claim 4, 10, 11, or 12, wherein the size of the specified operator in the image is defined by a width of the face of the specified operator in the image. Processing equipment. 前記画像における前記特定された操作者の大きさは、前記画像における前記特定された操作者の両目間の距離により定義されることを特徴とする請求項4、10、11、または12に記載の情報処理装置。   The size of the specified operator in the image is defined by a distance between both eyes of the specified operator in the image. Information processing device. 請求項1から14のいずれかに記載の情報処理装置と、
前記指示器と、
前記指示器および前記操作者を撮像し、前記画像を前記画像取得手段に出力する撮像装置と、
画像を表示する表示装置と、
前記位置特定手段により特定された位置に基づいて前記表示装置に表示される画像を制御する表示制御手段と、
を備えることを特徴とする情報処理システム。
An information processing apparatus according to any one of claims 1 to 14,
The indicator;
An imaging device that images the indicator and the operator and outputs the image to the image acquisition means;
A display device for displaying an image;
Display control means for controlling an image displayed on the display device based on the position specified by the position specifying means;
An information processing system comprising:
位置を指示するための指示器と当該指示器を保持している操作者とが撮像された画像を取得するステップと、
前記画像に複数の人物が含まれている場合に、当該複数の人物の中から前記指示器を保持している前記操作者を特定するステップと、
前記画像における前記特定された操作者の位置と、前記画像における前記指示器の位置とに基づき、前記操作者により前記指示器で指示された位置を特定するステップと、
を含むことを特徴とする情報処理方法。
A step of acquiring an image in which an indicator for indicating a position and an operator holding the indicator are captured;
When the image includes a plurality of persons, identifying the operator holding the indicator from the plurality of persons;
Identifying a position indicated by the operator by the indicator based on the position of the specified operator in the image and the position of the indicator in the image;
An information processing method comprising:
請求項1から14のいずれかに記載の情報処理装置と、
画像を表示する表示装置と、
前記位置特定手段により特定された位置に基づいて前記表示装置に表示される画像を制御する表示制御手段と、
を備えることを特徴とするテレビ受像機。
An information processing apparatus according to any one of claims 1 to 14,
A display device for displaying an image;
Display control means for controlling an image displayed on the display device based on the position specified by the position specifying means;
A television receiver comprising:
JP2010281344A 2010-12-17 2010-12-17 Information processing apparatus, information processing system, information processing method, and television receiver Withdrawn JP2012128766A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010281344A JP2012128766A (en) 2010-12-17 2010-12-17 Information processing apparatus, information processing system, information processing method, and television receiver

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010281344A JP2012128766A (en) 2010-12-17 2010-12-17 Information processing apparatus, information processing system, information processing method, and television receiver

Publications (1)

Publication Number Publication Date
JP2012128766A true JP2012128766A (en) 2012-07-05

Family

ID=46645688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010281344A Withdrawn JP2012128766A (en) 2010-12-17 2010-12-17 Information processing apparatus, information processing system, information processing method, and television receiver

Country Status (1)

Country Link
JP (1) JP2012128766A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012157486A1 (en) * 2011-05-17 2012-11-22 ソニー株式会社 Display control device, method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012157486A1 (en) * 2011-05-17 2012-11-22 ソニー株式会社 Display control device, method, and program
US9817485B2 (en) 2011-05-17 2017-11-14 Sony Semiconductor Solutions Corporation Display control device, method, and program

Similar Documents

Publication Publication Date Title
KR101603017B1 (en) Gesture recognition device and gesture recognition device control method
JP4927021B2 (en) Cursor control device and control method for image display device, and image system
US8350896B2 (en) Terminal apparatus, display control method, and display control program
JP4609557B2 (en) Information processing apparatus and information processing method
US9134800B2 (en) Gesture input device and gesture input method
US10091489B2 (en) Image capturing device, image processing method, and recording medium
CN104364733A (en) Position-of-interest detection device, position-of-interest detection method, and position-of-interest detection program
KR20100046066A (en) Image projection apparatus and control method for same
JP6123694B2 (en) Information processing apparatus, information processing method, and program
JP2002351603A (en) Portable information processor
US20180204340A1 (en) A depth map generation apparatus, method and non-transitory computer-readable medium therefor
JP2013069224A (en) Motion recognition apparatus, motion recognition method, operation apparatus, electronic apparatus, and program
KR101514170B1 (en) Input device, input method and recording medium
US9836130B2 (en) Operation input device, operation input method, and program
EP2894851B1 (en) Image processing device, image processing method, program, and computer-readable storage medium
JP2012238293A (en) Input device
CN110520822B (en) Control device, information processing system, control method, and program
WO2015111655A1 (en) Head-mounted display device
KR101016095B1 (en) Method and apparatus for detecting changes in background of images using binary images thereof and hough transform
KR100749033B1 (en) A method for manipulating a terminal using user&#39;s glint, and an apparatus
JP6977823B2 (en) Information processing equipment, control methods, and programs
JP2015184906A (en) Skin color detection condition determination device, skin color detection condition determination method and skin color detection condition determination computer program
JP2012128766A (en) Information processing apparatus, information processing system, information processing method, and television receiver
KR102059114B1 (en) Image compensation device for matching virtual space and real space and image matching system using the same
KR101227875B1 (en) Display device based on user motion

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140304