JP2012226507A - Emitter identification device, emitter identification method and emitter identification program - Google Patents

Emitter identification device, emitter identification method and emitter identification program Download PDF

Info

Publication number
JP2012226507A
JP2012226507A JP2011092679A JP2011092679A JP2012226507A JP 2012226507 A JP2012226507 A JP 2012226507A JP 2011092679 A JP2011092679 A JP 2011092679A JP 2011092679 A JP2011092679 A JP 2011092679A JP 2012226507 A JP2012226507 A JP 2012226507A
Authority
JP
Japan
Prior art keywords
image
emission color
color
light
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011092679A
Other languages
Japanese (ja)
Inventor
Shinichiro Iseri
真一郎 井芹
Yoshiki Tokita
芳樹 鴇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SKYWORKERS KK
Original Assignee
SKYWORKERS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SKYWORKERS KK filed Critical SKYWORKERS KK
Priority to JP2011092679A priority Critical patent/JP2012226507A/en
Publication of JP2012226507A publication Critical patent/JP2012226507A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To define the emission of an emitter as input information, and to identify the input information with a simple procedure on the basis of the emission color of the emitter.SOLUTION: An emitter identification device 100 includes: an image acquisition part 112 for acquiring an IR image and a color image respectively obtained by simultaneously imaging the same object by an IR camera 150 and a color camera 152; a position information acquisition part 114 for detecting a first pixel whose luminance value is equal to or more than a predetermined threshold as the existing position of the emitter from the IR image, and for acquiring first position information showing the existing position; an emission color determination area selection part 116 for selecting the emission color determination area of the emitter including a second pixel at a position corresponding to the first position from the color image on the basis of the first position information acquired by the position information acquisition part 114; and an emission color determination part 118 for determining the emission color of the emitter on the basis of the color component information of the pixel included in the emission color determination area of the color image.

Description

本発明は、発光体識別装置、発光体識別方法、および発光体識別プログラムに関する。   The present invention relates to a light emitter identification device, a light emitter identification method, and a light emitter identification program.

近年、ユーザに模擬的なペンを用いて電子黒板等への描画を行わせ、ペンの軌跡を取得してプロジェクタ等で画像データを表示する技術が開発されている。   In recent years, a technique has been developed in which a user draws on an electronic blackboard using a simulated pen, acquires the pen trajectory, and displays image data using a projector or the like.

たとえば、特許文献1(特開2002−079792号公報)には、弾性波振動を伝達する振動伝達板と、該振動伝達板に弾性波振動を入力する振動入力手段(振動入力ペン)と、振動伝達板の外縁に設けた、弾性波振動を検出する振動検出手段と、振動入力手段からの弾性波振動が振動検出手段まで到達する時間に応じて、振動入力手段の振動伝達板上の座標位置を算出する座標算出手段とを備えた電子黒板装置が記載されている。ここで、振動入力ペンは、インクで描画することができるマーカーペンとしても機能する構成とすることが記載されている。   For example, Patent Document 1 (Japanese Patent Application Laid-Open No. 2002-079792) discloses a vibration transmission plate that transmits elastic wave vibration, vibration input means (vibration input pen) that inputs elastic wave vibration to the vibration transmission plate, and vibration. Coordinate positions on the vibration transmission plate of the vibration input means according to the vibration detection means provided on the outer edge of the transmission plate and the time for the elastic wave vibration from the vibration input means to reach the vibration detection means. There is described an electronic blackboard device provided with a coordinate calculating means for calculating. Here, it is described that the vibration input pen functions as a marker pen that can draw with ink.

また、特許文献2(特開2005−135081号公報)には、撮像素子による画像取り込みによってポインタの座標を取得するスクリーンに用いるライトペンであって、ポインタの先端に設けた発光手段と、前記ポインタの先端が前記スクリーンに押圧されていることを検知する押圧検知手段と、前記発光手段を制御する発光制御手段とを備えるライトペンが記載されている。これによりライトペンの動作を受光素子によって知ることができ、プロジェクタに対して画像データを生成することができるとされている。   Japanese Patent Laid-Open No. 2005-135081 discloses a light pen used for a screen that acquires the coordinates of a pointer by capturing an image with an image sensor, and a light emitting means provided at the tip of the pointer, and the pointer. There is described a light pen that includes a pressure detection means for detecting that the tip of the light is being pressed by the screen, and a light emission control means for controlling the light emission means. Thus, the operation of the light pen can be known by the light receiving element, and image data can be generated for the projector.

また、ゲームを行う際に、ユーザが手に持って操作するコントローラが用いられている。たとえば特許文献3(特開2007−313354号公報)には、片手でも安定して操作できることを目的としたコントローラ(ゲーム用操作装置)の構成が記載されている。ここでは、ゲーム機とコントローラとが、Bluetoothによる無線通信を行う例が記載されている。当該文献に記載の技術においては、コントローラとゲーム機とが初期設定等により互いのBluetoothアドレスを予め記憶した構成とすることにより、ゲーム機に対して複数のコントローラを接続可能としている。   In addition, a controller is used that is operated by a user with a hand when playing a game. For example, Patent Document 3 (Japanese Patent Application Laid-Open No. 2007-313354) describes a configuration of a controller (game operation device) for the purpose of stable operation with one hand. Here, an example is described in which a game machine and a controller perform wireless communication by Bluetooth. In the technique described in the document, a plurality of controllers can be connected to the game machine by configuring the controller and the game machine to store each other's Bluetooth address in advance by initial setting or the like.

特開2002−079792号公報JP 2002-079792 A 特開2005−135081号公報Japanese Patent Laying-Open No. 2005-135081 特開2007−313354号公報JP 2007-313354 A

しかし、従来、ペンやコントローラ等の入力手段を複数のユーザがそれぞれ用いる場合に、簡易な手順でそれら複数の入力手段を区別する方法がなかった。たとえば特許文献3に記載されたように、Bluetoothによる無線通信を用いて予めBluetoothアドレスを記憶しておく構成とすることにより、各入力手段を区別することが可能となる。しかし、このような方法では、入力手段側にも無線通信機能を持たせる必要があり、構成が複雑となる。   However, conventionally, when a plurality of users use input means such as a pen and a controller, there has been no method for distinguishing the plurality of input means by a simple procedure. For example, as described in Patent Document 3, it is possible to distinguish each input unit by using a configuration in which a Bluetooth address is stored in advance using Bluetooth wireless communication. However, in such a method, it is necessary to provide a wireless communication function on the input means side, and the configuration becomes complicated.

本発明は上記事情に鑑みてなされたものであり、その目的とするところは、発光体の発光を入力情報として、発光体の発光色に基づき簡易な手順で入力情報を識別する技術を提供することにある。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a technique for identifying input information in a simple procedure based on light emission color of a light emitter, using light emission of the light emitter as input information. There is.

本発明によれば、
IRカメラおよびカラーカメラで同一の対象物を同時に撮像してそれぞれ得たIR画像およびカラー画像を取得する画像取得部と、
前記IR画像から、輝度値が所定の閾値以上となる第1の画素を発光体の存在位置として検出して、当該存在位置を示す第1の位置情報を取得する位置情報取得部と、
前記位置情報取得部が取得した前記第1の位置情報に基づき、前記カラー画像から前記第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域を選択する発光色判定領域選択部と、
前記発光色判定領域選択部が選択した前記カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定する発光色判定部と、
を含む発光体識別装置が提供される。
According to the present invention,
An image acquisition unit for acquiring an IR image and a color image obtained by simultaneously imaging the same object with an IR camera and a color camera;
A position information acquisition unit that detects, from the IR image, a first pixel having a luminance value equal to or greater than a predetermined threshold as the presence position of the light emitter, and acquires first position information indicating the presence position;
Based on the first position information acquired by the position information acquisition unit, a light emission color determination for selecting a light emission color determination region of a light emitter including a second pixel at a position corresponding to the first position from the color image. An area selector;
A light emission color determination unit that determines a light emission color of the light emitter based on color component information of pixels included in the light emission color determination region of the color image selected by the light emission color determination region selection unit;
A light emitter identification device is provided.

本発明によれば、
IRカメラおよびカラーカメラで同一の対象物を同時に撮像してそれぞれ得たIR画像およびカラー画像を取得する工程と、
前記IR画像から、輝度値が所定の閾値以上となる第1の画素を発光体の存在位置として検出して、当該存在位置を示す第1の位置情報を取得する工程と、
前記第1の位置情報を取得する工程で取得された前記第1の位置情報に基づき、前記カラー画像から前記第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域を選択する工程と、
前記発光色判定領域を選択する工程で選択された前記カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定する工程と、
を含む発光体識別方法が提供される。
According to the present invention,
Obtaining an IR image and a color image respectively obtained by simultaneously imaging the same object with an IR camera and a color camera;
Detecting, from the IR image, a first pixel having a luminance value equal to or greater than a predetermined threshold as an existing position of the light emitter, and obtaining first position information indicating the existing position;
Based on the first position information acquired in the step of acquiring the first position information, an emission color determination region of a light emitter including a second pixel at a position corresponding to the first position from the color image. A process of selecting
Determining a light emission color of the light emitter based on color component information of pixels included in the light emission color determination region of the color image selected in the step of selecting the light emission color determination region;
A light emitter identification method is provided.

発光体を含む風景をIRカメラで撮像して得たIR画像は近赤外線だけを取得しているため、照明等の環境光の影響を低減することができ、カラーカメラで得られたカラー画像に比べてノイズを低減することができ、画素の輝度値に基づき、発光体とそれ以外の部分との違いを判断しやすい。本発明の発光体識別装置および発光体識別方法によると、まずIR画像から発光体の存在位置を検出するので、発光体の検出を精度よく迅速に行うことができる。その後、カラー画像の対応する位置の色成分情報に基づき発光色判定処理を行うので、発光体の発光色判定も精度よく簡易に行うことができる。このような構成によれば、たとえば発光色を異ならせた複数の発光体を準備した場合、各発光体の発光色判定を行い、各発光体を発光色に基づき識別する処理を簡易に行うことができる。そのため、発光体を入力デバイスとして用いた際に、複数の入力デバイスを簡易に識別することができる。   The IR image obtained by capturing the landscape including the illuminant with an IR camera acquires only near-infrared light. Therefore, the influence of ambient light such as illumination can be reduced, and the color image obtained with the color camera can be reduced. As compared with the above, noise can be reduced, and it is easy to determine the difference between the light emitter and other portions based on the luminance value of the pixel. According to the illuminant identification device and the illuminant identification method of the present invention, since the location of the illuminant is first detected from the IR image, the illuminant can be detected accurately and quickly. Thereafter, since the emission color determination process is performed based on the color component information at the corresponding position of the color image, the emission color determination of the light emitter can be easily performed with high accuracy. According to such a configuration, for example, when a plurality of light emitters having different light emission colors are prepared, the light emission color of each light emitter is determined, and the process of identifying each light emitter based on the light emission color is easily performed. Can do. Therefore, when the light emitter is used as an input device, a plurality of input devices can be easily identified.

本発明の発光体識別装置において、前記発光色判定部は、前記発光体の発光色と前記IR画像の第1の位置情報または前記カラー画像の前記第2の画素の位置を示す第2の位置情報とを対応付けて出力することができる。このようにすれば、発光体を識別する発光色が発光体により特定される第1の位置情報または第2の位置情報とともに得られるので、たとえばディスプレイの対応する位置に識別された発光体による出力を行うようにすることができる。   In the light emitter identification device of the present invention, the light emission color determination unit includes a second position indicating a light emission color of the light emitter and first position information of the IR image or a position of the second pixel of the color image. Information can be output in association with the information. In this way, the luminescent color for identifying the illuminant can be obtained together with the first position information or the second position information specified by the illuminant, so that, for example, output from the illuminant identified at the corresponding position on the display Can be done.

また、本発明の発光体識別装置は、前記発光色判定部が出力した前記発光体の発光色および前記第1の位置情報または前記第2の位置情報に基づき、当該発光色で識別される入力デバイスから当該第1の位置情報または当該第2の位置情報への入力があったことを受け付ける入力受付部をさらに含むことができる。このようにすれば、入力デバイスによる入力情報を発光体の位置情報に基づき受け付けるとともに、カラー画像の色成分情報から判定された発光色に応じて入力デバイスを識別することができる。そのため、発光色の異なる発光体をそれぞれ含む複数の入力デバイスを用いて複数のユーザにより入力される入力情報をそれぞれ識別することができる。   Also, the light emitter identification device of the present invention is an input that is identified by the light emission color based on the light emission color of the light emitter output from the light emission color determination unit and the first position information or the second position information. An input receiving unit that receives an input from the device to the first position information or the second position information can be further included. In this way, input information from the input device can be received based on the position information of the light emitter, and the input device can be identified according to the light emission color determined from the color component information of the color image. Therefore, it is possible to identify input information input by a plurality of users using a plurality of input devices each including a light-emitting body having a different emission color.

本発明の発光体識別装置において、
前記発光色判定領域選択部は、選択した前記発光色判定領域に含まれる画素の輝度値Yiが所定の必要輝度値Yd以上か否かを判定し、前記輝度値Yiが前記必要輝度値Ydより低い場合に当該発光色判定領域をノイズであると判定するとともに、前記輝度値Yiが前記必要輝度値Yd以上の場合に当該発光色判定領域をノイズでないと判定することができ、
前記発光色判定部は、前記発光色判定領域選択部により前記発光色判定領域がノイズでないと判定された場合に、当該カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定することができ、
前記必要輝度値Ydは、前記カラー画像の中心部と前記発光色判定領域との距離Diに応じて当該距離Diが大きい方が値が低くなるように設定することができる。
In the light emitter identification device of the present invention,
The light emission color determination region selection unit determines whether or not a luminance value Yi of a pixel included in the selected light emission color determination region is equal to or greater than a predetermined necessary luminance value Yd, and the luminance value Yi is greater than the necessary luminance value Yd. When the luminance value Yi is not less than noise when the luminance value Yi is equal to or greater than the necessary luminance value Yd, it is possible to determine that the emission color determination region is not noise.
The light emission color determination unit, when the light emission color determination region selection unit determines that the light emission color determination region is not noise, based on the color component information of the pixels included in the light emission color determination region of the color image, The emission color of the light emitter can be determined,
The required luminance value Yd can be set such that the larger the distance Di is, the lower the value is, according to the distance Di between the center of the color image and the emission color determination area.

発光体がカメラのレンズの中心軸の延長上付近にあり、カメラレンズへの入射角が小さい場合には輝度値が比較的大きくなるが、発光体がカメラのレンズの中心軸の延長上から離れた位置にあり、カメラレンズへの入射角が大きい場合には輝度値が小さくなってしまう。以上の構成によれば、カラー画像の発光色判定領域のノイズ判定処理において、判定に用いる必要輝度値Ydは、カラー画像の中心部と発光色判定領域との距離Diに応じて距離Diが大きい方、すなわちカメラレンズへの入射角が大きい場合には値が低くなるように設定されるので、発光体が検出される場所における輝度値の出方の特性も考慮して精度よくノイズを除去することができる。   When the illuminant is near the extension of the central axis of the camera lens and the incident angle to the camera lens is small, the luminance value is relatively large, but the illuminant is far from the extension of the central axis of the camera lens. If the incident angle to the camera lens is large, the luminance value becomes small. According to the above configuration, the required luminance value Yd used for the determination in the noise determination process of the emission color determination region of the color image has a large distance Di according to the distance Di between the center of the color image and the emission color determination region. On the other hand, that is, when the incident angle to the camera lens is large, the value is set to be low, so that noise is accurately removed in consideration of the characteristic of the luminance value at the place where the illuminant is detected. be able to.

本発明によれば、上記発光体識別装置と、発光色が異なる複数の発光体と、前記発光体を撮像するIRカメラと、カラーカメラと、を含む発光体識別システムが提供される。   According to the present invention, there is provided a light emitter identification system including the light emitter identification device, a plurality of light emitters having different emission colors, an IR camera that images the light emitter, and a color camera.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラム等の間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、発光体の発光を入力情報として、発光体の発光色に基づき簡易な手順で入力情報を識別することができる。   According to the present invention, it is possible to identify input information in a simple procedure based on the light emission color of the light emitter using light emission of the light emitter as input information.

本発明の実施の形態における発光体識別システムの構成の一例を模式的に示す図である。It is a figure which shows typically an example of a structure of the light-emitting body identification system in embodiment of this invention. 本発明の実施の形態における入力デバイスの構成の一例を模式的に示す図である。It is a figure which shows typically an example of a structure of the input device in embodiment of this invention. 本発明の実施の形態における入力デバイスにより描かれた軌跡が発光体識別装置から出力されて描画ボードに表示された状態を示す図である。It is a figure which shows the state where the locus | trajectory drawn with the input device in embodiment of this invention was output from the light-emitting body identification device, and was displayed on the drawing board. 本発明の実施の形態における発光体識別装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the light-emitting body identification device in embodiment of this invention. 対応記憶部の構成の一例を示す図である。It is a figure which shows an example of a structure of a corresponding | compatible memory | storage part. 本発明の実施の形態における発光体識別装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the light-emitting body identification device in embodiment of this invention. 本発明の実施の形態における暗化撮像条件決定部による処理を説明するための模式図である。It is a schematic diagram for demonstrating the process by the dark imaging condition determination part in embodiment of this invention. 本発明の実施の形態における暗化撮像条件決定部による処理を説明するための模式図である。It is a schematic diagram for demonstrating the process by the dark imaging condition determination part in embodiment of this invention. 図6のステップS18の処理手順を詳細に示すフローチャートである。It is a flowchart which shows the process sequence of step S18 of FIG. 6 in detail. IR画像およびカラー画像への処理の一例を模式的に示す図である。It is a figure which shows typically an example of the process to IR image and a color image. IR画像およびカラー画像への処理の他の例を模式的に示す図である。It is a figure which shows typically the other example of the process to IR image and a color image. 図6のステップS20の処理手順を詳細に示すフローチャートである。It is a flowchart which shows the process sequence of step S20 of FIG. 6 in detail. 図12のステップS130の処理手順の一例を詳細に示すフローチャートである。It is a flowchart which shows an example of the process sequence of step S130 of FIG. 12 in detail. 図12のステップS134の処理手順の一例を詳細に示すフローチャートである。It is a flowchart which shows an example of the process sequence of FIG.12 S134 in detail. 図12のステップS136の処理手順の一例を詳細に示すフローチャートである。It is a flowchart which shows in detail an example of the process sequence of step S136 of FIG. 設定値記憶部の構成の一例を示す図である。It is a figure which shows an example of a structure of a setting value memory | storage part. 前処理時にプロジェクタ用投影フィルムに投影され、描画ボードの描画面側にいるユーザに表示される画面の一例を示す図である。It is a figure which shows an example of the screen which is projected on the projection film for projectors at the time of a pre-processing, and is displayed for the user who exists in the drawing surface side of a drawing board. シャッタスピードの設定手順において、設定者であるユーザに提示される画面の一例を示す図である。It is a figure which shows an example of the screen shown to the user who is a setting person in the setting procedure of shutter speed. 図6に示したフローチャートのステップS16からステップS20の処理の変形例を示すフローチャートである。It is a flowchart which shows the modification of the process of step S16 to step S20 of the flowchart shown in FIG.

以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In all the drawings, the same reference numerals are given to the same components, and the description will be omitted as appropriate.

まず、本実施の形態における発光体識別システム10の構成を簡単に説明する。図1は、本実施の形態における発光体識別システム10の構成の一例を模式的に示す図である。
発光体識別システム10は、支持台162により支持された描画ボード160、撮像手段148、プロジェクタ154、複数の入力デバイス170および発光体識別装置100を含む。図1(a)は、ユーザが入力デバイス170により描画を行う描画面から見た描画ボード160の平面図、図1(b)は、描画ボード160の側面図である。
First, the configuration of the light emitter identification system 10 according to the present embodiment will be briefly described. FIG. 1 is a diagram schematically illustrating an example of a configuration of a light emitter identification system 10 according to the present embodiment.
The light emitter identification system 10 includes a drawing board 160 supported by a support stand 162, an imaging unit 148, a projector 154, a plurality of input devices 170, and a light emitter identification device 100. FIG. 1A is a plan view of the drawing board 160 viewed from the drawing surface on which the user draws with the input device 170, and FIG. 1B is a side view of the drawing board 160.

本実施の形態において、撮像手段148は、IRカメラ150(赤外線カメラ)およびカラーカメラ152を含む構成とすることができる。ここで、IRカメラ150およびカラーカメラ152は、それぞれ動画を取得する。IRカメラ150は、対象物を赤外線で撮像してIR画像を得る。カラーカメラ152は、対象物を可視光で撮像してカラー画像を得る。本実施の形態において、IRカメラ150で撮像したIR画像は、発光体の位置情報(座標)を検出するために用いられる。本実施の形態において、カラーカメラ152で撮像したカラー画像は、発光体の発光色を判定するために用いられる。   In the present embodiment, the imaging unit 148 may include an IR camera 150 (infrared camera) and a color camera 152. Here, the IR camera 150 and the color camera 152 each acquire a moving image. The IR camera 150 captures an object with infrared rays to obtain an IR image. The color camera 152 captures an object with visible light and obtains a color image. In the present embodiment, the IR image captured by the IR camera 150 is used to detect the position information (coordinates) of the light emitter. In the present embodiment, the color image captured by the color camera 152 is used to determine the emission color of the light emitter.

また、IRカメラ150とカラーカメラ152とは、同一の対象物を略同時に撮像可能に配置される。つまり、IRカメラ150とカラーカメラ152とが略同じ方向を向くように配置しておく。たとえば、IRカメラ150とカラーカメラ152とを上下に並べたり、IRカメラ150とカラーカメラ152とを左右に並べて配することができる。   Further, the IR camera 150 and the color camera 152 are arranged so that the same object can be imaged substantially simultaneously. That is, the IR camera 150 and the color camera 152 are arranged so as to face substantially the same direction. For example, the IR camera 150 and the color camera 152 can be arranged vertically and the IR camera 150 and the color camera 152 can be arranged side by side.

また、本実施の形態において、IRカメラ150およびカラーカメラ152は、描画ボード160から距離を隔てて設置され、それぞれその撮像可能な領域内に描画ボード160が収まるとともに、領域内のほぼ全体に描画ボード160が撮像されるように配置することができる。IRカメラ150およびカラーカメラ152は、たとえば描画ボード160の中心部と重なる位置に配置することができる。これにより、IRカメラ150またはカラーカメラ152のレンズの中心軸の延長上の対象物がIRカメラ150またはカラーカメラ152により取得される画像の中心部に撮像されるようになる。   In the present embodiment, the IR camera 150 and the color camera 152 are installed at a distance from the drawing board 160, and the drawing board 160 is within the imageable area, and drawing is performed on almost the entire area. The board 160 can be arranged to be imaged. For example, the IR camera 150 and the color camera 152 can be arranged at a position overlapping the center of the drawing board 160. As a result, the object on the extension of the central axis of the lens of the IR camera 150 or the color camera 152 is captured at the center of the image acquired by the IR camera 150 or the color camera 152.

IRカメラ150は、たとえば光学フィルタにより可視光をカットすることにより構成することができる。IRカメラ150は、たとえば920nm以下の可視光をカットした構成とすることができる。カラーカメラ152は、たとえば光学フィルタにより近赤外線および赤外線をカットすることにより構成することができる。ただし、IRカメラ150およびカラーカメラ152は、入力デバイス170の発光体172として用いるLED(Light Emitting Diode)等の発光体を検出可能に構成される。   The IR camera 150 can be configured by cutting visible light with an optical filter, for example. The IR camera 150 can be configured to cut visible light of 920 nm or less, for example. The color camera 152 can be configured by cutting near infrared rays and infrared rays with an optical filter, for example. However, the IR camera 150 and the color camera 152 are configured to detect a light emitter such as an LED (Light Emitting Diode) used as the light emitter 172 of the input device 170.

本実施の形態において、IRカメラ150およびカラーカメラ152は、たとえば同じ構成のカメラを用いて、カットする光の波長がそれぞれ異なる光学フィルタを設けることにより準備することもできる。一例として、IRカメラ150およびカラーカメラ152は、それぞれ640×480ピクセルのVGA(Video Graphics Array)や1280×960ピクセルのXGA等を用いることができる。   In the present embodiment, the IR camera 150 and the color camera 152 can be prepared by providing optical filters having different wavelengths of light to be cut using, for example, cameras having the same configuration. As an example, each of the IR camera 150 and the color camera 152 can use a VGA (Video Graphics Array) of 640 × 480 pixels, an XGA of 1280 × 960 pixels, or the like.

本実施の形態において、描画ボード160は、たとえば透明アクリル板により構成することができる。また、描画ボード160の描画面と反対側の面には、プロジェクタ154から投影するデータを表示するためのプロジェクタ用投影フィルム164を設けた構成とすることができる。発光体識別装置100から出力されるデータは、プロジェクタ154からプロジェクタ用投影フィルム164に投影されて描画ボード160の描画面側のユーザに表示される。また、本実施の形態において、ユーザは、プロジェクタ用投影フィルム164に投影される画面を見て、入力デバイス170を用いて各種入力操作を行う。   In the present embodiment, the drawing board 160 can be made of a transparent acrylic plate, for example. Further, a projector projection film 164 for displaying data projected from the projector 154 can be provided on the surface opposite to the drawing surface of the drawing board 160. Data output from the light emitter identification device 100 is projected from the projector 154 onto the projector projection film 164 and displayed to the user on the drawing surface side of the drawing board 160. In the present embodiment, the user performs various input operations using the input device 170 while viewing the screen projected onto the projector projection film 164.

図2は、入力デバイス170の構成の一例を模式的に示す図である。入力デバイス170は、先端に発光体172が取り付けられた構成とすることができる。また、入力デバイス170には、発光体172の発光のオンオフを制御するスイッチ174が設けられている。ここで、スイッチ174は、たとえばユーザがスイッチ174を押している間だけ発光体172が発光する構成とすることができる。これにより、ユーザが入力デバイス170のスイッチ174を瞬間的に押すことにより発光体172を瞬間的に発光させることができ、クリックボタンを有するマウス等と同様に用いることができる。また、スイッチ174は、発光体172を連続的に発光させておくモードに切り替え可能に構成することもできる。これにより、入力デバイス170をたとえばユーザが文字や絵を描いたりするためのペンとしても簡易に用いることができるようになる。本実施の形態において、発光体172は、LEDにより構成することができる。なお、入力デバイス170の構成はこれに限られず、たとえばスイッチ174は、発光体172と本体との間に設けられ、入力デバイス170の発光体172を描画ボード160に押しつけることにより、スイッチ174がオンとされる構成として、発光体172が発光するようにすることもできる。このようにすれば、ユーザが入力デバイス170の発光体172を描画ボード160に押しつけるだけで発光体172を発光させることができ、ユーザが入力デバイス170で描画する動作をスムーズにすることができる。   FIG. 2 is a diagram schematically illustrating an example of the configuration of the input device 170. The input device 170 may have a configuration in which a light emitter 172 is attached to the tip. In addition, the input device 170 is provided with a switch 174 that controls on / off of light emission of the light emitter 172. Here, the switch 174 can be configured such that, for example, the light emitter 172 emits light only while the user presses the switch 174. As a result, when the user momentarily presses the switch 174 of the input device 170, the light emitter 172 can be caused to emit light instantaneously and can be used in the same manner as a mouse having a click button. In addition, the switch 174 can be configured to be switchable to a mode in which the light emitter 172 emits light continuously. As a result, the input device 170 can be easily used as, for example, a pen for a user to draw characters and pictures. In this embodiment mode, the light emitter 172 can be formed of an LED. The configuration of the input device 170 is not limited to this. For example, the switch 174 is provided between the light emitter 172 and the main body, and the switch 174 is turned on by pressing the light emitter 172 of the input device 170 against the drawing board 160. As a configuration, the light emitter 172 can emit light. In this way, the user can cause the light emitter 172 to emit light simply by pressing the light emitter 172 of the input device 170 against the drawing board 160, and the user can smoothly perform the drawing operation using the input device 170.

図1に戻り、本実施の形態における発光体識別システム10では、発光色の異なる発光体をそれぞれ含む複数の入力デバイス170が用いられる構成とすることができる。たとえば、本実施の形態において、発光体識別システム10は、入力デバイス170として、発光体172が白色LEDである白色入力デバイス170a、発光体172が青色LEDである青色入力デバイス170b、発光体172が緑色LEDである緑色入力デバイス170c、および発光体172が赤色LEDである赤色入力デバイス170dを含む構成とすることができる。   Returning to FIG. 1, the light emitter identification system 10 according to the present embodiment may be configured to use a plurality of input devices 170 each including light emitters having different emission colors. For example, in the present embodiment, the light emitter identification system 10 includes, as the input device 170, a white input device 170a in which the light emitter 172 is a white LED, a blue input device 170b in which the light emitter 172 is a blue LED, and a light emitter 172. The green input device 170c, which is a green LED, and the red input device 170d, in which the light emitter 172 is a red LED, can be used.

本実施の形態において、発光体識別装置100は、各発光体172の発光色を判定し、発光色に応じて入力デバイス170を識別する。これにより、発光体識別装置100は、複数のユーザがそれぞれ入力デバイス170を用いて入力操作を行う場合でも、発光色に基づき入力デバイス170を識別することができるので、各入力デバイス170による入力操作を区別して把握することができる。   In the present embodiment, the light emitter identification device 100 determines the light emission color of each light emitter 172 and identifies the input device 170 according to the light emission color. As a result, the light emitter identification device 100 can identify the input device 170 based on the emission color even when a plurality of users perform input operations using the input device 170, respectively. Can be distinguished and understood.

このような状態で、ユーザは、入力デバイス170の発光体172を描画ボード160に押し当てて、発光体172を発光させたまま文字や図形等を描画したり、発光体172を点滅させたりする。発光体識別装置100は、発光体172を撮像手段148で撮像して得られた画像から輝度値に基づき発光体172の存在およびその位置情報を入力操作として取得する。発光体識別装置100は、検出した発光体172の入力操作に基づき制御されるデータをプロジェクタ154に出力する。プロジェクタ154から出力されたデータは、プロジェクタ用投影フィルム164に投影され、描画ボード160に表示される。   In such a state, the user presses the light emitter 172 of the input device 170 against the drawing board 160 and draws characters, figures, or the like while the light emitter 172 emits light, or blinks the light emitter 172. . The illuminant identification device 100 acquires the presence and position information of the illuminant 172 as an input operation based on the luminance value from an image obtained by imaging the illuminant 172 with the imaging unit 148. The light emitter identification device 100 outputs data controlled based on the detected input operation of the light emitter 172 to the projector 154. The data output from the projector 154 is projected onto the projector projection film 164 and displayed on the drawing board 160.

図3は、入力デバイス170により描かれた軌跡166および軌跡168が発光体識別装置100から出力されて描画ボード160に表示された状態を示す図である。
ここで、たとえば軌跡166は白色入力デバイス170aにより描かれた軌跡、軌跡168は青色入力デバイス170bにより描かれた軌跡であるとする。本実施の形態において、発光体識別装置100は、これらの軌跡を白色入力デバイス170aの発光体172の発光色と青色入力デバイス170bの発光体172の発光色とに基づき識別して、それぞれ区別して出力するようにすることができる。
FIG. 3 is a diagram illustrating a state in which the locus 166 and the locus 168 drawn by the input device 170 are output from the light emitter identification device 100 and displayed on the drawing board 160.
Here, for example, the locus 166 is assumed to be a locus drawn by the white input device 170a, and the locus 168 is assumed to be a locus drawn by the blue input device 170b. In the present embodiment, the illuminant identification device 100 identifies these trajectories based on the emission color of the illuminant 172 of the white input device 170a and the emission color of the illuminant 172 of the blue input device 170b. Can be output.

図4は、本実施の形態における発光体識別装置100の構成の一例を示すブロック図である。発光体識別装置100は、たとえばパーソナルコンピュータ等により構成することができる。
発光体識別装置100は、IR画像入力部102、カラー画像入力部104、データ出力部106、画像取得部112、位置情報取得部114、発光色判定領域選択部116、発光色判定部118、暗化撮像条件決定部120、入力受付部122、プログラム実行処理部124、設定値記憶部130、発光色判定情報記憶部132、対応記憶部134、および画像記憶部136を含む。
FIG. 4 is a block diagram showing an example of the configuration of the illuminant identification device 100 in the present embodiment. The illuminator identification device 100 can be configured by a personal computer, for example.
The illuminant identification device 100 includes an IR image input unit 102, a color image input unit 104, a data output unit 106, an image acquisition unit 112, a position information acquisition unit 114, an emission color determination region selection unit 116, an emission color determination unit 118, a dark An imaging condition determination unit 120, an input reception unit 122, a program execution processing unit 124, a setting value storage unit 130, a light emission color determination information storage unit 132, a correspondence storage unit 134, and an image storage unit 136.

IR画像入力部102は、IRカメラ150とUSBやシリアルポート等の接続インタフェースを介して接続されており、IRカメラ150が撮像したIR画像を入力する。カラー画像入力部104は、カラーカメラ152とUSBやシリアルポート等の接続インタフェースを介して接続されており、カラーカメラ152が撮像したカラー画像を入力する。   The IR image input unit 102 is connected to the IR camera 150 via a connection interface such as a USB or a serial port, and inputs an IR image captured by the IR camera 150. The color image input unit 104 is connected to the color camera 152 via a connection interface such as a USB or a serial port, and inputs a color image captured by the color camera 152.

データ出力部106は、発光体識別装置100の各種データを外部のディスプレイに出力する。本実施の形態において、データ出力部106は、プロジェクタ154とアナログRGBコネクタ(ディスプレイポート)等の接続インタフェースを介して接続されており、プロジェクタ154にデータを出力する。なお、IRカメラ150とIR画像入力部102との間、カラーカメラ152とカラー画像入力部104との間、およびデータ出力部106とプロジェクタ154との間の画像の送受信の接続インタフェースはとくに限定されず、他の例において、たとえばそれぞれ無線通信等により行う構成とすることもできる。   The data output unit 106 outputs various data of the light emitter identification device 100 to an external display. In the present embodiment, the data output unit 106 is connected to the projector 154 via a connection interface such as an analog RGB connector (display port), and outputs data to the projector 154. Note that connection interfaces for image transmission / reception between the IR camera 150 and the IR image input unit 102, between the color camera 152 and the color image input unit 104, and between the data output unit 106 and the projector 154 are particularly limited. However, in another example, for example, it may be configured to perform wireless communication or the like.

画像取得部112は、IRカメラ150およびカラーカメラ152で同一の対象物を略同時に撮像して得たIR画像およびカラー画像を取得する。画像取得部112は、IR画像入力部102を介してIRカメラ150からIR画像を、カラー画像入力部104を介してカラーカメラ152からカラー画像を取得する。画像取得部112が取得したIR画像およびカラー画像は、画像記憶部136に記憶される。   The image acquisition unit 112 acquires an IR image and a color image obtained by imaging the same object with the IR camera 150 and the color camera 152 substantially simultaneously. The image acquisition unit 112 acquires an IR image from the IR camera 150 via the IR image input unit 102 and a color image from the color camera 152 via the color image input unit 104. The IR image and color image acquired by the image acquisition unit 112 are stored in the image storage unit 136.

位置情報取得部114は、画像取得部112が取得したIR画像から、発光体172の存在位置を検出する。発光色判定領域選択部116は、位置情報取得部114がIR画像から検出した入力デバイス170の存在位置の位置情報に基づき、そのIR画像と略同時に取得されたカラー画像の対応する位置を含む発光色判定領域を選択する。発光色判定部118は、発光色判定領域選択部116により選択されたカラー画像の発光色判定領域の色成分情報に基づき、発光体172の発光色を判定する。暗化撮像条件決定部120は、IRカメラ150およびカラーカメラ152の撮像条件を決定する。   The position information acquisition unit 114 detects the presence position of the light emitter 172 from the IR image acquired by the image acquisition unit 112. The light emission color determination region selection unit 116 is a light emission including a corresponding position of a color image acquired almost simultaneously with the IR image based on the position information of the position of the input device 170 detected by the position information acquisition unit 114 from the IR image. Select a color judgment area. The light emission color determination unit 118 determines the light emission color of the light emitter 172 based on the color component information in the light emission color determination region of the color image selected by the light emission color determination region selection unit 116. The dark imaging condition determination unit 120 determines imaging conditions for the IR camera 150 and the color camera 152.

入力受付部122は、発光色判定部118が判定した発光体172の発光色およびその位置情報に基づき、当該発光色で識別される入力デバイス170から当該位置情報への入力操作があったことを受け付ける。   Based on the emission color of the illuminant 172 determined by the emission color determination unit 118 and its position information, the input reception unit 122 indicates that there has been an input operation to the position information from the input device 170 identified by the emission color. Accept.

対応記憶部134は、入力デバイス170の発光体172の発光色と、入力デバイスの識別情報との対応付けを記憶する。図5は、対応記憶部134の構成の一例を示す図である。ここでは、発光体172の発光色にそれぞれ入力デバイスIDが対応付けられている。たとえば、発光色「白色」が入力デバイスID「1」、発光色「青色」が入力デバイスID「2」、発光色「緑色」が入力デバイスID「3」、発光色「赤色」が入力デバイスID「4」となっている。入力受付部122は、対応記憶部134にアクセスして、発光色判定部118が判定した発光色に対応する入力デバイスIDを取得する。入力受付部122は、識別した結果に基づき、対応する位置に識別した入力デバイス170のポインタ等が表示されるような表示データをデータ出力部106から出力するようにすることもできる。   The correspondence storage unit 134 stores a correspondence between the emission color of the light emitter 172 of the input device 170 and the identification information of the input device. FIG. 5 is a diagram illustrating an example of the configuration of the correspondence storage unit 134. Here, the input device ID is associated with the light emission color of the light emitter 172. For example, the emission color “white” is the input device ID “1”, the emission color “blue” is the input device ID “2”, the emission color “green” is the input device ID “3”, and the emission color “red” is the input device ID. It is “4”. The input reception unit 122 accesses the correspondence storage unit 134 and acquires an input device ID corresponding to the emission color determined by the emission color determination unit 118. Based on the identified result, the input receiving unit 122 can output display data from the data output unit 106 so that a pointer or the like of the identified input device 170 is displayed at a corresponding position.

プログラム実行処理部124は、入力受付部122が受け付けた入力操作に基づき、プログラムを実行する。   The program execution processing unit 124 executes the program based on the input operation received by the input receiving unit 122.

設定値記憶部130は、位置情報取得部114、発光色判定領域選択部116、および暗化撮像条件決定部120等が画像の輝度値を判定する際や、その他の各種判定を行う際に参照する基準値等の設定値や各種設定を記憶する。発光色判定情報記憶部132は、発光色判定部118が発光体の発光色を判定する際に参照する基準値等の設定値や各種設定を記憶する。   The setting value storage unit 130 is referred to when the position information acquisition unit 114, the emission color determination region selection unit 116, the dark imaging condition determination unit 120, and the like determine the luminance value of the image or perform other various determinations. The set value such as a reference value to be set and various settings are stored. The light emission color determination information storage unit 132 stores setting values such as a reference value and various settings that are referred to when the light emission color determination unit 118 determines the light emission color of the light emitter.

次に、本実施の形態における発光体識別装置100の処理手順を詳細に説明する。図6は、本実施の形態における発光体識別装置100の処理手順を示すフローチャートである。   Next, the processing procedure of the illuminant identification device 100 in the present embodiment will be described in detail. FIG. 6 is a flowchart showing a processing procedure of the illuminant identification device 100 in the present embodiment.

(前処理:暗化撮像条件決定)
まず、前処理として、発光体172の発光による入力を受け付ける際に発光体識別装置100を実際に適用する環境(以下適用環境という。)に応じて、IRカメラ150およびカラーカメラ152が撮像する画像に環境光が映り込まないように画像を暗化する暗化撮像条件を決定する(S4)。
(Preprocessing: Darkening imaging condition determination)
First, as preprocessing, an image captured by the IR camera 150 and the color camera 152 in accordance with an environment (hereinafter referred to as an application environment) in which the illuminator identification device 100 is actually applied when receiving an input by light emission of the illuminant 172. Darkening imaging conditions for darkening the image are determined so that ambient light is not reflected on the screen (S4).

発光体172の発光による入力を受け付ける際に、IRカメラ150およびカラーカメラ152が撮像する画像中に目的の発光体172だけでなく、照明やプロジェクタ154からプロジェクタ用投影フィルム164に投影されるデータの光等の環境光が映り込むと、環境光を発光体172の発光として誤検出する可能性が高くなってしまう。そこで、本実施の形態において、環境光が存在している適用環境において発光体172の発光がないときにIRカメラ150およびカラーカメラ152で撮像した画像の画素値が全体にわたって、一般的な画像処理の色判定において黒と判定される値となるように画像を暗化する暗化撮像条件を予め決定しておく。このように決定した暗化撮像条件で発光体172を発光させてIRカメラ150およびカラーカメラ152で撮像した画像では発光体172の存在位置以外の画素値は黒となるので、発光体172の検出を精度よく行うようにすることができる。暗化撮像条件は、たとえば、IRカメラ150やカラーカメラ152のシャッタスピード、絞り量、ゲイン調整量、または露光量等とすることができる。ただし、発光体172の発光強度は環境光の発光強度より充分強く、IRカメラ150およびカラーカメラ152で撮像した画像に環境光が映り込まない暗化撮像条件で撮像した画像においてもある程度の輝度値やRGB値等の画素値を有するものとする。   When receiving an input by the light emission of the light emitter 172, not only the target light emitter 172 but also the data projected from the projector 154 to the projector projection film 164 in the image captured by the IR camera 150 and the color camera 152. When ambient light such as light is reflected, there is a high possibility that the ambient light is erroneously detected as light emission from the light emitter 172. Therefore, in the present embodiment, the pixel values of the images captured by the IR camera 150 and the color camera 152 when there is no light emission of the light emitter 172 in an application environment where ambient light is present are general image processing. Darkening imaging conditions for darkening the image are determined in advance so that the value determined to be black in the color determination. In the image captured by the IR camera 150 and the color camera 152 with the illuminant 172 emitted under the dark imaging conditions determined as described above, the pixel value other than the position where the illuminant 172 exists is black. Can be performed with high accuracy. The dark imaging condition can be, for example, the shutter speed, aperture amount, gain adjustment amount, or exposure amount of the IR camera 150 or the color camera 152. However, the luminous intensity of the illuminant 172 is sufficiently higher than the luminous intensity of the ambient light, and a certain luminance value is obtained even in an image captured under dark imaging conditions in which ambient light is not reflected in the images captured by the IR camera 150 and the color camera 152. And a pixel value such as an RGB value.

以下、暗化撮像条件としてIRカメラ150およびカラーカメラ152のシャッタスピードを制御する構成を例として説明する。
まず、カラーカメラ152のシャッタスピードの決定手順を説明する。
環境光が存在している適用環境に発光体識別システム10を設置し、目的の発光体172の発光がない状態をカラーカメラ152のシャッタスピードを適宜変更しながら順次撮像する。ここで、シャッタスピードは、スピードが速くなる方向に適宜変更していくようにすることができる。画像取得部112は、カラーカメラ152により撮像されたカラー画像である第1の前処理画像をカラー画像入力部104を介して取得する。暗化撮像条件決定部120は、画像取得部112が取得した第1の前処理画像をその画像が撮像されたときのカラーカメラ152のシャッタスピードに対応付けて取得する。シャッタスピード制御部120は、第1の前処理画像に含まれる複数の位置の画素値をそれぞれ当該画素値が黒色か否かを判定するための所定値sと比較する。所定値sは、予め設定値記憶部130に記憶しておくことができ、暗化撮像条件決定部120は、設定値記憶部130にアクセスして複数の位置の画素値を所定値sと比較する。所定値sとは、環境光の色情報がほとんどない状態、たとえば一般的な画像処理の色判定において黒と判定される値とすることができる。画素値はRGB値とすることができる。この場合、所定値sは、RGB値のすべてがそれぞれほぼゼロとなる値、たとえば20以上30以下(RGB値それぞれが0から255の値をとる場合)程度とすることができる。暗化撮像条件決定部120は、複数の位置の画素値すべてが所定値s以下となる第1のシャッタスピードをこの適用環境におけるカラーカメラ152の暗化撮像条件として決定する。ここで、第1の前処理画像に含まれる複数の位置は、たとえば中心部とその周囲の外周部を含む。
Hereinafter, a configuration for controlling the shutter speeds of the IR camera 150 and the color camera 152 as dark imaging conditions will be described as an example.
First, the procedure for determining the shutter speed of the color camera 152 will be described.
The illuminant identification system 10 is installed in an application environment where ambient light is present, and a state in which the target illuminant 172 does not emit light is sequentially imaged while appropriately changing the shutter speed of the color camera 152. Here, the shutter speed can be appropriately changed in the direction of increasing the speed. The image acquisition unit 112 acquires a first preprocessed image that is a color image captured by the color camera 152 via the color image input unit 104. The dark imaging condition determination unit 120 acquires the first preprocessed image acquired by the image acquisition unit 112 in association with the shutter speed of the color camera 152 when the image is captured. The shutter speed control unit 120 compares the pixel values at a plurality of positions included in the first preprocessed image with a predetermined value s 1 for determining whether or not the pixel value is black. The predetermined value s 1 can be stored in the setting value storage unit 130 in advance, and the dark imaging condition determination unit 120 accesses the setting value storage unit 130 and sets the pixel values at a plurality of positions to the predetermined value s 1. Compare with The predetermined value s 1, the color information of the ambient light is hardly state may be a value determined to be a black example, in color determination of the general image processing. The pixel value can be an RGB value. In this case, the predetermined value s 1 can be set to a value at which all of the RGB values are substantially zero, for example, about 20 to 30 (when each of the RGB values takes a value of 0 to 255). The dark imaging condition determination unit 120 determines the first shutter speed at which the pixel values at a plurality of positions are all equal to or less than the predetermined value s 1 as the dark imaging conditions of the color camera 152 in this application environment. Here, the plurality of positions included in the first preprocessed image include, for example, a central portion and a peripheral portion around the central portion.

目的の発光体172の発光がない状態をカラーカメラ152のシャッタスピードをたとえば1/125秒として撮像して得られた第1の前処理画像に含まれる複数の位置の画素値のいずれかが所定値s以下でない場合、カラーカメラ152のシャッタスピードをさらに速くし、たとえば1/250秒とする。次いで、カラーカメラ152のシャッタスピードを1/250秒として撮像して得られた第1の前処理画像に含まれる複数の位置の画素値すべてが所定値s以下となるか否かを判定する。このようにして、複数の位置の画素値すべてが所定値s以下となるシャッタスピードを検出する。シャッタスピードは、連続的に変更してもよいが、たとえば1/60秒、1/125秒、1/250秒、1/500秒等、カメラのシャッタスピードとして一般的に多く用いられているシャッタスピードに段階的に変更するようにすることもできる。 Any of the pixel values at a plurality of positions included in the first preprocessed image obtained by imaging the state in which the target light emitter 172 does not emit light with the shutter speed of the color camera 152 being 1/125 seconds, for example, is predetermined. When the value is not less than 1 , the shutter speed of the color camera 152 is further increased, for example, 1/250 seconds. Next, it is determined whether or not all the pixel values at a plurality of positions included in the first preprocessed image obtained by imaging with the shutter speed of the color camera 152 being 1/250 seconds are equal to or less than the predetermined value s 1. . In this way, the shutter speed at which all the pixel values at a plurality of positions are equal to or less than the predetermined value s 1 is detected. Although the shutter speed may be changed continuously, for example, 1/60 seconds, 1/125 seconds, 1/250 seconds, 1/500 seconds, and the like, which are generally used as camera shutter speeds. You can change the speed step by step.

図7は、画像取得部112が取得した描画ボード160のカラー画像である第1の前処理画像180を模式的に示す図である。ここでは、第1の前処理画像180のほぼ全体に描画ボード160の画像182が表示されている。暗化撮像条件決定部120は、たとえば画像の中心部eと、その周囲の外周部の位置aから位置dおよび位置fから位置iの計9箇所のそれぞれのRGB値を取得することができる。また、複数の位置は、たとえば画像182を均等に等分した各領域の中心位置とすることもできる。たとえば、複数の位置は、画像182を縦×横を3×3の9等分にした各領域の中心位置としてもよい。各位置のRGB値は、順次取得するようにしてもよいが、略リアルタイムで取得するようにすることもできる。暗化撮像条件決定部120は、位置aから位置iのすべてでそれぞれ所定値s以下となる第1のシャッタスピードを検出し、当該第1のシャッタスピードを暗化撮像条件として決定する。 FIG. 7 is a diagram schematically showing a first preprocessed image 180 that is a color image of the drawing board 160 acquired by the image acquisition unit 112. Here, the image 182 of the drawing board 160 is displayed on almost the entire first preprocessed image 180. The darkening imaging condition determination unit 120 can acquire, for example, the respective RGB values of a total of nine locations from the center e of the image and the positions a to d of the periphery and a position i to f of the periphery. Further, the plurality of positions may be the center positions of the respective regions obtained by equally dividing the image 182, for example. For example, the plurality of positions may be the center positions of the respective regions obtained by dividing the image 182 into 9 equal parts of length × width 3 × 3. The RGB values at each position may be acquired sequentially, but may be acquired in substantially real time. The dark imaging condition determination unit 120 detects first shutter speeds that are equal to or less than the predetermined value s 1 in all positions a to i, and determines the first shutter speed as the dark imaging conditions.

次に、IRカメラ150のシャッタスピードの決定手順を説明する。
この手順も、基本的にはカラーカメラ152のシャッタスピードの決定手順と同様とすることができる。環境光が存在している適用環境に発光体識別システム10を設置し、目的の発光体172の発光がない状態をIRカメラ150のシャッタスピードを適宜変更しながら順次撮像する。画像取得部112は、IRカメラ150により撮像されたIR画像である第2の前処理画像をIR画像入力部102を介して取得する。暗化撮像条件決定部120は、画像取得部112が取得した第2の前処理画像をその画像が撮像されたときのIRカメラ150のシャッタスピードに対応付けて取得する。シャッタスピード制御部120は、第2の前処理画像に含まれる複数の位置の画素値をそれぞれ当該画素値が黒色か否かを判定するための所定値sと比較する。所定値sは、予め設定値記憶部130に記憶しておくことができ、暗化撮像条件決定部120は、設定値記憶部130にアクセスして複数の位置の画素値を所定値sと比較する。所定値sとは、環境光の色情報がほとんどない状態、たとえば一般的な画像処理の色判定において黒と判定される値とすることができる。画素値はRGB値とすることができる。この場合、所定値sは、RGB値のすべてがそれぞれほぼゼロとなる値、たとえば25以上40以下(RGB値それぞれが0から255の値をとる場合)程度とすることができる。暗化撮像条件決定部120は、複数の位置の画素値すべてが所定値s以下となる第2のシャッタスピードをこの適用環境におけるIRカメラ150の暗化撮像条件として決定する。ここで、第2の前処理画像に含まれる複数の位置は、たとえば中心部とその周囲の外周部を含む。
なお、所定値sおよび所定値sは、RGB値それぞれに対して一定ではなく、R値、G値、およびB値それぞれに対して異なる値とすることもできる。また、これらの所定値sおよび所定値sは、判定すべき位置が画像の中心部か外周部によって、異なる値とすることもできる。たとえば、後述するように、同じ光源を撮像した場合、画像の中心部において画像の周辺部よりも輝度が大きくなる。そのため、画像の周辺部において所定値sおよび所定値sの値を中心部よりも厳しく、すなわち小さい値に設定することもできる。
以上の処理において、IRカメラ150およびカラーカメラ152のシャッタスピードは、ユーザが手動で制御する構成とすることもでき、また暗化撮像条件決定部120により自動制御される構成とすることもできる。
Next, the procedure for determining the shutter speed of the IR camera 150 will be described.
This procedure can also be basically the same as the procedure for determining the shutter speed of the color camera 152. The illuminant identification system 10 is installed in an application environment where ambient light is present, and a state in which the target illuminant 172 does not emit light is sequentially imaged while appropriately changing the shutter speed of the IR camera 150. The image acquisition unit 112 acquires a second preprocessed image that is an IR image captured by the IR camera 150 via the IR image input unit 102. The dark imaging condition determination unit 120 acquires the second preprocessed image acquired by the image acquisition unit 112 in association with the shutter speed of the IR camera 150 when the image is captured. Shutter speed control unit 120, respectively the pixel values a plurality of positions of the pixel values included in the second pre-processing the image is compared with a predetermined value s 2 for determining black or not. The predetermined value s 2 can be stored in the setting value storage unit 130 in advance, and the dark imaging condition determination unit 120 accesses the setting value storage unit 130 and sets the pixel values at a plurality of positions to the predetermined value s 2. Compare with The predetermined value s 2 can be a value that is determined to be black in a state in which there is almost no color information of ambient light, for example, color determination in general image processing. The pixel value can be an RGB value. In this case, the predetermined value s 2 can be set to a value at which all of the RGB values are substantially zero, for example, about 25 to 40 (when each of the RGB values takes a value from 0 to 255). The dark imaging condition determining unit 120 determines the second shutter speed at which all the pixel values at a plurality of positions are equal to or less than the predetermined value s 2 as the dark imaging condition of the IR camera 150 in this application environment. Here, the plurality of positions included in the second preprocessed image include, for example, a central portion and a peripheral portion around the central portion.
Note that the predetermined value s 1 and the predetermined value s 2 are not constant for each of the RGB values, and may be different values for each of the R value, the G value, and the B value. Further, the predetermined value s 1 and the predetermined value s 2 can be set to different values depending on whether the position to be determined is the central portion or the outer peripheral portion of the image. For example, as will be described later, when the same light source is imaged, the luminance is higher in the central portion of the image than in the peripheral portion of the image. Therefore, the values of the predetermined value s 1 and the predetermined value s 2 can be set to be stricter than the central portion, that is, a smaller value in the peripheral portion of the image.
In the above processing, the shutter speeds of the IR camera 150 and the color camera 152 can be manually controlled by the user, or can be automatically controlled by the dark imaging condition determining unit 120.

(前処理:閾値、所定値決定)
図6に戻り、IRカメラ150およびカラーカメラ152の暗化撮像条件であるシャッタスピードが決定された後、決定されたシャッタスピードに応じて以下で説明する各種判定で用いる閾値や所定値を決定し、設定値記憶部130や発光色判定情報記憶部132に記憶する(S6)。各閾値や所定値の具体例や決定方法は後述する。
以上で前処理が終了する。
(Preprocessing: Threshold value, predetermined value determined)
Returning to FIG. 6, after the shutter speed, which is a dark imaging condition of the IR camera 150 and the color camera 152, is determined, threshold values and predetermined values used in various determinations described below are determined according to the determined shutter speed. Then, it is stored in the set value storage unit 130 and the emission color determination information storage unit 132 (S6). Specific examples and determination methods of each threshold value and predetermined value will be described later.
Thus, the preprocessing is completed.

(暗化撮像条件設定)
次いで、発光体172の発光による入力を受け付ける処理の開始に先立ち、IRカメラ150およびカラーカメラ152をステップS4で決定した暗化撮像条件に設定する(S8)。具体的には、IRカメラ150のシャッタスピードを第1のシャッタスピードに、カラーカメラ152のシャッタスピードを第2のシャッタスピードに設定する。このIRカメラ150およびカラーカメラ152のシャッタスピードも、ユーザが手動で制御する構成とすることもでき、また暗化撮像条件決定部120により自動制御される構成とすることもできる。
(Darkening imaging condition setting)
Next, prior to the start of the process of accepting input by light emission of the light emitter 172, the IR camera 150 and the color camera 152 are set to the dark imaging condition determined in step S4 (S8). Specifically, the shutter speed of the IR camera 150 is set to the first shutter speed, and the shutter speed of the color camera 152 is set to the second shutter speed. The shutter speeds of the IR camera 150 and the color camera 152 can also be configured to be manually controlled by the user, or can be configured to be automatically controlled by the dark imaging condition determining unit 120.

(IR画像およびカラー画像取得)
以上の設定処理が終了した後、発光体172の発光による入力の受け付ける処理を開始する(S10)。画像取得部112は、IRカメラ150およびカラーカメラ152で同一の対象物を略同時に撮像して得たIR画像およびカラー画像を取得する(S12)。画像取得部112は、略同時に得られたIR画像およびカラー画像をそれぞれ、フレーム数、取得時刻、撮像時刻、またはタイムコード等の対応関係を示す情報に対応付けて取得することができる。なお、IRカメラ150およびカラーカメラ152は、同じフレームレートで動画を取得する構成とすることができる。略同時とは、ユーザが入力デバイス170により描画を行う際の発光体172の移動をIRカメラ150およびカラーカメラ152でそれぞれ撮像した場合に、発光体172の位置が互いに対応する位置に存在するよう認識し得る状態とすることができる。たとえば、画像取得部112は、IR画像入力部102およびカラー画像入力部104から略同時に取得したIR画像およびカラー画像に同じフレーム数を順次付与してもよい。また、画像取得部112は、IR画像入力部102およびカラー画像入力部104から取得したIR画像およびカラー画像に、それぞれの画像を取得した取得時刻を付与してもよい。また、他の例として、発光体識別システム10は、たとえば同期発生器を有する構成とすることができ、同期発生器によりIRカメラ150およびカラーカメラ152がそれぞれ撮像した画像に撮像時刻やタイムコード等を付与するようにすることもできる。以下では、画像取得部112がIR画像入力部102およびカラー画像入力部104から略同時に取得したIR画像およびカラー画像に同じフレーム数を順次付与する場合を例として説明する。画像取得部112は、IR画像およびカラー画像をそれぞれ対応関係を示す情報に対応付けて画像記憶部136に記憶する。
(IR image and color image acquisition)
After the above setting process is completed, a process of accepting an input by light emission of the light emitter 172 is started (S10). The image acquisition unit 112 acquires an IR image and a color image obtained by imaging the same object with the IR camera 150 and the color camera 152 substantially simultaneously (S12). The image acquisition unit 112 can acquire the IR image and the color image obtained at substantially the same time in association with information indicating a correspondence relationship such as the number of frames, acquisition time, imaging time, or time code. Note that the IR camera 150 and the color camera 152 can be configured to acquire moving images at the same frame rate. The term “substantially simultaneous” means that the positions of the light emitters 172 exist at positions corresponding to each other when the IR camera 150 and the color camera 152 respectively capture the movement of the light emitter 172 when the user performs drawing with the input device 170. The state can be recognized. For example, the image acquisition unit 112 may sequentially assign the same number of frames to the IR image and the color image acquired from the IR image input unit 102 and the color image input unit 104 substantially simultaneously. Further, the image acquisition unit 112 may give the acquisition time when the respective images are acquired to the IR image and the color image acquired from the IR image input unit 102 and the color image input unit 104. As another example, the illuminant identification system 10 may be configured to include, for example, a synchronization generator, and an imaging time, a time code, and the like are captured in images captured by the IR camera 150 and the color camera 152 by the synchronization generator. Can also be given. In the following, a case will be described as an example where the image acquisition unit 112 sequentially assigns the same number of frames to the IR image and the color image acquired from the IR image input unit 102 and the color image input unit 104 substantially simultaneously. The image acquisition unit 112 stores the IR image and the color image in the image storage unit 136 in association with information indicating the corresponding relationship.

(IR画像から発光体の存在位置検出)
つづいて、位置情報取得部114は、画像取得部112が取得して画像記憶部136に記憶されたIR画像から、輝度値が所定の閾値t以上となる第1の画素を発光体として検出して、当該第1の画素の位置を示す第1の位置情報を取得する(S14)。具体的には、第1の位置情報として第1の画素の座標(ピクセル座標)を取得する。IR画像の輝度値は、各画素のRGB値に基づき、たとえば「輝度値=0.298912×R+0.586611×G+0.114478×B(R、B、GはそれぞれR値、B値、G値)」から算出することができる。閾値tは、たとえば60以上100以下程度の値とすることができる。閾値tは、図6のステップS6において決定することができ、設定値記憶部130に記憶しておくことができる。
(Detecting the location of the light emitter from the IR image)
Subsequently, the position information acquisition unit 114, the image acquisition unit 112 acquires from the stored IR image in the image storage unit 136, detects a first pixel luminance value becomes a predetermined threshold value t 1 or more as emitters Then, the first position information indicating the position of the first pixel is acquired (S14). Specifically, the coordinates (pixel coordinates) of the first pixel are acquired as the first position information. The luminance value of the IR image is based on the RGB value of each pixel. For example, “luminance value = 0.298912 × R + 0.586611 × G + 0.114478 × B (R, B, and G are R value, B value, and G value, respectively) It can be calculated from The threshold t 1 can be set to a value of about 60 or more and 100 or less, for example. The threshold t 1 can be determined in step S 6 of FIG. 6, and can be stored in the set value storage unit 130.

図10は、IR画像およびカラー画像への処理の一例を模式的に示す図である。以下、図10も適宜参照して説明する。
図10(a)に示すように、IR画像200の横方向の座標をx座標、縦方向の座標をy座標とする。位置情報取得部114は、IR画像200の全画素を順次走査して各画素の輝度値が閾値t以上か否かを順次判断する。ここで、輝度値が閾値t以上となる第1の画素があると、当該第1の画素を発光体172の存在位置として検出する。そして、その第1の画素の位置を示す第1の位置情報としてその座標(xi,yi)を取得する。たとえばIRカメラ150が640×480ピクセルのVGAで構成されており、IR画像の解像度が640×480ピクセルの場合、xiは0以上640未満の実数、yiは0以上480未満の実数となる。次いで、位置情報取得部114は、第1の位置情報およびそのIR画像のフレーム数を発光色判定領域選択部116に通知する。これにより、発光色判定領域選択部116において後述する発光色判定領域の選択処理が行われる。位置情報取得部114は、この処理を、画像取得部112が取得したIR画像200の全画素に対して順次行っていく。
FIG. 10 is a diagram schematically illustrating an example of processing for an IR image and a color image. Hereinafter, description will be made with reference to FIG. 10 as appropriate.
As shown in FIG. 10A, the horizontal coordinate of the IR image 200 is taken as the x coordinate and the vertical coordinate is taken as the y coordinate. Position information acquisition unit 114, the luminance value of the sequential scanning to the pixels all the pixels of the IR image 200 sequentially determines whether the threshold value t 1 or more. Here, if there is a first pixel whose luminance value is equal to or greater than the threshold value t 1 , the first pixel is detected as the presence position of the light emitter 172. Then, the coordinates (xi, yi) are acquired as the first position information indicating the position of the first pixel. For example, when the IR camera 150 is configured with a VGA of 640 × 480 pixels and the resolution of the IR image is 640 × 480 pixels, xi is a real number from 0 to less than 640, and yi is a real number from 0 to less than 480. Next, the position information acquisition unit 114 notifies the light emission color determination region selection unit 116 of the first position information and the number of frames of the IR image. Thereby, the light emission color determination region selection unit 116 performs a light emission color determination region selection process which will be described later. The position information acquisition unit 114 sequentially performs this process on all the pixels of the IR image 200 acquired by the image acquisition unit 112.

(カラー画像から発光色判定領域選択)
図6に戻り、発光色判定領域選択部116は、位置情報取得部114からIR画像の第1の位置情報およびそのIR画像のフレーム数が通知されると、画像記憶部136にアクセスして対応するフレーム数のカラー画像から第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域を選択する(S16)。
(Select emission color judgment area from color image)
Returning to FIG. 6, when the first position information of the IR image and the number of frames of the IR image are notified from the position information acquisition unit 114, the light emission color determination region selection unit 116 accesses the image storage unit 136 to respond. The light emission color determination area of the light emitter including the second pixel at the position corresponding to the first position is selected from the color image of the number of frames to be processed (S16).

図10(b)に示すように、カラー画像202の横方向の座標をm座標、縦方向の座標をn座標とする。発光色判定領域選択部116は、位置情報取得部114が取得したIR画像の第1の位置情報(xi,yi)に基づき、カラー画像から第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域204を選択する。ここで、IR画像の第1の画素の座標(xi,yi)に対応するカラー画像の第2の画素の座標(ピクセル座標)を(mi,ni)とする。   As shown in FIG. 10B, the horizontal coordinate of the color image 202 is assumed to be m coordinate, and the vertical coordinate is assumed to be n coordinate. Based on the first position information (xi, yi) of the IR image acquired by the position information acquisition unit 114, the light emission color determination region selection unit 116 selects the second pixel at the position corresponding to the first position from the color image. The luminescent color determination area 204 of the illuminant to be included is selected. Here, the coordinates (pixel coordinates) of the second pixel of the color image corresponding to the coordinates (xi, yi) of the first pixel of the IR image are (mi, ni).

ここで、たとえばステップS6において、IRカメラ150により撮像されるIR画像の解像度およびカラーカメラ152により撮像されるカラー画像の解像度も予め設定値記憶部130に記憶しておくことができる。発光色判定領域選択部116は、設定値記憶部130に記憶されたIR画像の解像度とカラー画像の解像度との比に基づき、IR画像の第1の画素に対応するカラー画像の第2の画素の座標を決定することができる。たとえばカラーカメラ152が640×480ピクセルのVGAで構成されており、IR画像の解像度が640×480ピクセルの場合、miは0以上640未満の実数、niは0以上480未満の実数となる。また、画像取得部112が取得するIR画素の解像度とカラー画像の解像度とが等しい場合、mi=xi、ni=yiとなる。   Here, for example, in step S 6, the resolution of the IR image captured by the IR camera 150 and the resolution of the color image captured by the color camera 152 can also be stored in advance in the set value storage unit 130. The light emission color determination area selection unit 116, based on the ratio of the resolution of the IR image stored in the setting value storage unit 130 and the resolution of the color image, the second pixel of the color image corresponding to the first pixel of the IR image. Can be determined. For example, when the color camera 152 is configured with a VGA of 640 × 480 pixels and the resolution of the IR image is 640 × 480 pixels, mi is a real number from 0 to less than 640, and ni is a real number from 0 to less than 480. Further, when the resolution of the IR pixel acquired by the image acquisition unit 112 is equal to the resolution of the color image, mi = xi and ni = yi.

発光色判定領域選択部116が選択する発光色判定領域は、図10(b)に示したように、位置情報取得部114が取得したIR画像の第1の画素に対応する位置の第2の画素のみを含む構成とすることもできるが、第2の画素を含むさらに多くの画素を含む構成とすることもできる。たとえば発光色判定領域選択部116は、発光色判定領域として、第2の画素とその周囲の所定数の画素とを含む広い範囲の画素を選択することができる。   As shown in FIG. 10B, the emission color determination area selected by the emission color determination area selection unit 116 is the second position at the position corresponding to the first pixel of the IR image acquired by the position information acquisition unit 114. Although it can be configured to include only pixels, it can also be configured to include more pixels including the second pixel. For example, the light emission color determination region selection unit 116 can select a wide range of pixels including the second pixel and a predetermined number of pixels around it as the light emission color determination region.

図11は、IR画像200およびカラー画像202への処理の他の例を模式的に示す図である。図11(b)に示すように、発光色判定領域選択部116は、第2の画素とその周囲の画素を含む領域を発光色判定領域204として選択することもできる。どのような範囲を発光色判定領域204として選択するかの設定範囲は、予め設定値記憶部130に記憶しておくことができる。発光色判定領域選択部116は、設定値記憶部130に記憶された設定範囲に基づき、発光色判定領域204を選択することができる。   FIG. 11 is a diagram schematically illustrating another example of the processing for the IR image 200 and the color image 202. As illustrated in FIG. 11B, the light emission color determination region selection unit 116 can also select a region including the second pixel and surrounding pixels as the light emission color determination region 204. A setting range as to which range is selected as the light emission color determination area 204 can be stored in the setting value storage unit 130 in advance. The emission color determination area selection unit 116 can select the emission color determination area 204 based on the setting range stored in the setting value storage unit 130.

なお、発光色判定領域選択部116は、IRカメラ150が取得するIR画像とカラーカメラ152が取得するカラー画像にずれが生じる場合は、そのずれ部分を補正して対応する第2の画素を選択して第2の位置情報を取得する構成とすることができる。IR画像およびカラー画像中の発光体の存在位置のずれは、たとえば前処理として描画ボード160をIRカメラ150およびカラーカメラ152でそれぞれ撮像し、取得したIR画像およびカラー画像中の描画ボード160の位置のずれを検出することにより、同様にずれが生じているとして設定することができる。IR画像およびカラー画像中の描画ボード160の位置のずれは、パターンマッチング等のソフトウェアプログラムを用いて自動的に補正するようにしたり、IR画像およびカラー画像中の描画ボード160の位置をユーザに指定させた後にソフトウェアプログラムで補正するようにすることができる。   If the IR image acquired by the IR camera 150 and the color image acquired by the color camera 152 are misaligned, the light emission color determination region selecting unit 116 corrects the misaligned portion and selects the corresponding second pixel. Thus, the second position information can be obtained. For example, as a pre-process, the position of the drawing board 160 in the IR image and the color image obtained by imaging the drawing board 160 with the IR camera 150 and the color camera 152, respectively, is pre-processed. Similarly, by detecting the deviation, it can be set that the deviation has occurred. Misalignment of the drawing board 160 in the IR image and the color image is automatically corrected using a software program such as pattern matching, or the position of the drawing board 160 in the IR image and the color image is designated by the user. Then, it can be corrected by a software program.

(カラー画像に対するノイズ除去)
図6に戻り、発光色判定領域選択部116は、選択した発光色判定領域の輝度値に基づきノイズ除去を行う(S18)。具体的には、発光色判定領域選択部116は、選択した発光色判定領域に含まれる画素の輝度値Yiが所定の必要輝度値Yd以上か否かを判定し、輝度値が必要輝度値Ydより低い場合に当該発光色判定領域をノイズであると判定するとともに、輝度値が必要輝度値Yd以上の場合に当該発光色判定領域をノイズでないと判定する。
(Noise removal for color images)
Returning to FIG. 6, the light emission color determination region selection unit 116 performs noise removal based on the luminance value of the selected light emission color determination region (S18). Specifically, the light emission color determination region selection unit 116 determines whether or not the luminance value Yi of the pixel included in the selected light emission color determination region is equal to or greater than a predetermined necessary luminance value Yd, and the luminance value is the necessary luminance value Yd. When the luminance value is lower, the emission color determination area is determined to be noise, and when the luminance value is equal to or greater than the necessary luminance value Yd, the emission color determination area is determined not to be noise.

発光体をカラーカメラ152で撮像した場合、発光体の明るさが同じであっても、その発光体の光点の中心部と外周部では得られた画像中の輝度が異なる。とくに、LEDのような指向性が高い発光体を用いた場合、発光体がカメラのレンズの中心軸の延長上付近にあり、カメラレンズへの入射角が小さい場合には発光体の光点の中心部が撮像されて輝度値が大きくなる。一方、発光体がカメラのレンズの中心軸の延長上から離れた位置にあり、カメラレンズへの入射角が大きい場合には光点の外周部が撮像されて輝度値が小さくなってしまう。とくに、カラー画像の場合この傾向は顕著に現れる。つまり、同じ発光体を撮像した場合でも、発光体がカラーカメラ152で撮像したカラー画像の中心部に存在する場合は、その発光体の光点の中心部が撮像されることになるのでその発光体の輝度値が大きくなる。一方、発光体がカラーカメラ152で撮像したカラー画像の外周部に存在する場合は、その発光体の光点の外周部が撮像されることになるのでその発光体の輝度値が小さくなる。そのため、カラー画像の中心部と外周部とで同じ必要輝度値を用いた場合、たとえば外周部では発光体の存在が検出されにくくなる一方、中心部ではノイズまでもを発光体であると判定してしまう可能性が高くなる。そこで、本実施の形態においては、発光色判定領域選択部116が判定に用いる必要輝度値Ydは、カラー画像の中心部と発光色判定領域との距離Diに応じて距離Diが大きい方が値が低くなるように設定する。   When the illuminant is imaged by the color camera 152, even if the illuminant has the same brightness, the luminance in the obtained image is different between the central portion and the outer peripheral portion of the light spot of the illuminant. In particular, when a light emitting body having high directivity such as LED is used, the light emitting body is in the vicinity of an extension of the central axis of the camera lens, and the light spot of the light emitting body is small when the incident angle to the camera lens is small. The central part is imaged and the luminance value increases. On the other hand, when the light emitter is located away from the extension of the center axis of the lens of the camera and the incident angle to the camera lens is large, the outer peripheral portion of the light spot is imaged and the luminance value becomes small. This tendency is particularly noticeable in the case of color images. That is, even when the same illuminant is imaged, if the illuminant is present at the center of the color image captured by the color camera 152, the center of the light spot of the illuminant will be imaged, so the light emission The brightness value of the body increases. On the other hand, when the illuminant is present in the outer peripheral part of the color image captured by the color camera 152, the outer peripheral part of the light spot of the illuminant is imaged, so that the luminance value of the illuminant decreases. For this reason, when the same required luminance value is used for the central portion and the outer peripheral portion of the color image, for example, it is difficult to detect the presence of the light emitter in the outer peripheral portion, but even the noise is determined to be the light emitter in the central portion. There is a high possibility that Therefore, in the present embodiment, the necessary luminance value Yd used for the determination by the light emission color determination region selection unit 116 is greater when the distance Di is larger according to the distance Di between the center of the color image and the light emission color determination region. Is set to be low.

図9は、この手順を詳細に示すフローチャートである。
まず、発光色判定領域選択部116は、カラー画像の発光色判定領域の輝度値Yiを算出する(S104)。カラー画像の輝度値は、各画素のRGB値に基づき、たとえば「輝度値=0.298912×R+0.586611×G+0.114478×B(R、G、BはそれぞれR値、G値、B値)」から算出することができる。ここで、発光色判定領域に複数の画素が含まれる場合、発光色判定領域選択部116は、発光色判定領域に含まれる画素の輝度値Yiとして、複数の画素の輝度値の平均値を用いることもでき、また複数の画素の中の中心に位置する画素の輝度値を用いることもできる。また、複数の画素のうち、中心に位置する画素の輝度値ほど貢献比率が高くなるような加重平均値を用いることもできる。
FIG. 9 is a flowchart showing this procedure in detail.
First, the light emission color determination region selection unit 116 calculates the luminance value Yi of the light emission color determination region of the color image (S104). The luminance value of the color image is based on the RGB value of each pixel. For example, “luminance value = 0.298912 × R + 0.586611 × G + 0.114478 × B (R, G, B are R value, G value, B value, respectively) It can be calculated from Here, when a plurality of pixels are included in the emission color determination area, the emission color determination area selection unit 116 uses the average value of the luminance values of the plurality of pixels as the luminance value Yi of the pixels included in the emission color determination area. It is also possible to use the luminance value of the pixel located at the center of the plurality of pixels. Also, a weighted average value such that the contribution ratio increases as the luminance value of the pixel located at the center among the plurality of pixels can be used.

次いで、発光色判定領域選択部116は、カラー画像の中心部と発光色判定領域との距離Diを算出する(S106)。ここで、発光色判定領域に複数の画素が含まれる場合、発光色判定領域選択部116は、距離Diとして、カラー画像の中心部と発光色判定領域の中心部との距離を用いることができる。   Next, the light emission color determination area selection unit 116 calculates a distance Di between the center of the color image and the light emission color determination area (S106). Here, when a plurality of pixels are included in the emission color determination region, the emission color determination region selection unit 116 can use the distance between the center of the color image and the center of the emission color determination region as the distance Di. .

距離Diは、カラー画像の中心座標を(mc,nc)とすると、
Di=sqrt((mi−mc)+(ni−nc)
から算出することができる(ただし、sqrtは平方根を求める関数)。
The distance Di is (mc, nc) when the center coordinates of the color image are
Di = sqrt ((mi-mc) 2 + (ni-nc) 2 )
(Where sqrt is a function for obtaining the square root).

図10(c)および図11(c)に示すように、発光色判定領域選択部116は、カラー画像202の中心座標(mc,nc)から発光色判定領域204の中心座標までの距離Diに基づき、必要輝度値Ydを算出して発光色判定領域204のノイズ判定を行う。   As shown in FIGS. 10C and 11C, the light emission color determination region selection unit 116 sets the distance Di from the center coordinates (mc, nc) of the color image 202 to the center coordinates of the light emission color determination region 204. Based on this, the necessary luminance value Yd is calculated and noise determination of the emission color determination area 204 is performed.

図9に戻り、この後、発光色判定領域選択部116は、距離Diに基づき、必要輝度値Ydを算出する(S108)。必要輝度値Ydは、たとえば以下の式に基づき算出することができる。以下の式に基づけば、必要輝度値Ydは、距離Diが大きい程値が連続的に低くなるように設定される。   Returning to FIG. 9, thereafter, the light emission color determination region selection unit 116 calculates the necessary luminance value Yd based on the distance Di (S108). The required luminance value Yd can be calculated based on the following equation, for example. Based on the following formula, the required luminance value Yd is set so that the value continuously decreases as the distance Di increases.

Yd=(Yf−Yc)×Di/Df+Yc (式1)   Yd = (Yf−Yc) × Di / Df + Yc (Formula 1)

ここで、「Yc」はカラー画像の中心部における必要輝度値、「Yf」はカラー画像の最外周部における必要輝度値、「Df」は、カラー画像の中心部から最外周部までの距離である(Yf<Yc)。Ycは、たとえば80以上120以下程度の値とすることができる。Yfの値はDfの値にもよるが、たとえばカラー画像の解像度が640×480ピクセルでDf=640ピクセルの場合、15以上30以下程度の値とすることができる。必要輝度値YcおよびYfは、図6のステップS6において決定することができ、設定値記憶部130に記憶しておくことができる。式1やその他の値についても予め設定値記憶部130に記憶しておくことができる。   Here, “Yc” is a required luminance value at the center of the color image, “Yf” is a required luminance value at the outermost periphery of the color image, and “Df” is a distance from the center of the color image to the outermost periphery. Yes (Yf <Yc). Yc can be set to a value of about 80 to 120, for example. Although the value of Yf depends on the value of Df, for example, when the resolution of the color image is 640 × 480 pixels and Df = 640 pixels, the value can be set to about 15 or more and 30 or less. The necessary luminance values Yc and Yf can be determined in step S6 of FIG. 6 and can be stored in the set value storage unit 130. Formula 1 and other values can also be stored in the set value storage unit 130 in advance.

なお、以上の例では、必要輝度値Ydがカラー画像の中心部と発光色判定領域との距離Diに応じて連続的に変化する例を示したが、カラー画像の中心部と発光色判定領域との距離Diに応じて距離Diが大きい方が値が低くなるように設定されていれば、他の例において、必要輝度値Ydは、距離Diの範囲に応じて段階的に変更されるように設定することもできる。   In the above example, the example in which the required luminance value Yd continuously changes in accordance with the distance Di between the center portion of the color image and the emission color determination region is shown. However, the center portion of the color image and the emission color determination region are shown. In other examples, the necessary luminance value Yd is changed stepwise according to the range of the distance Di, if the distance Di is set so as to be lower according to the distance Di. Can also be set.

つづいて、発光色判定領域選択部116は、輝度値Yiが必要輝度値Yd以上か否かを判定する(S110)。輝度値Yiが必要輝度Yd以上の場合(S110のYES)、発光色判定領域選択部116は、この発光色判定領域で発光体が検出されたと判定し(S112)、発光色判定部118にその旨通知する。この後、発光色判定部118は、図6のステップS20の発光色判定処理を行う。一方、ステップS110において、輝度値Yiが必要輝度値Yd以上でない場合(S110のNO)、発光色判定領域選択部116は、この発光色判定領域がノイズであると判定し(S114)、処理を終了する。   Subsequently, the light emission color determination region selection unit 116 determines whether or not the luminance value Yi is equal to or greater than the necessary luminance value Yd (S110). If the luminance value Yi is equal to or higher than the required luminance Yd (YES in S110), the light emission color determination area selection unit 116 determines that a light emitter is detected in this light emission color determination area (S112), and the light emission color determination part 118 Notify that. Thereafter, the light emission color determination unit 118 performs the light emission color determination processing in step S20 of FIG. On the other hand, if the luminance value Yi is not equal to or greater than the required luminance value Yd in step S110 (NO in S110), the light emission color determination region selection unit 116 determines that this light emission color determination region is noise (S114), and performs the process. finish.

(発光色の判定)
図6に戻り、ステップS18で発光体検出判定が行われ、発光色判定領域選択部116から通知があると、発光色判定部118は、発光色判定領域選択部116が選択したカラー画像の発光色判定領域に含まれる画素の色成分情報(RGB値)に基づき、発光体の発光色を判定する(S20)。ここで、画素の色成分情報は、RGB値とすることができる。
(Determination of emission color)
Returning to FIG. 6, when the illuminant detection determination is performed in step S <b> 18 and a notification is received from the emission color determination region selection unit 116, the emission color determination unit 118 emits the color image selected by the emission color determination region selection unit 116. Based on the color component information (RGB values) of the pixels included in the color determination area, the light emission color of the light emitter is determined (S20). Here, the color component information of the pixel can be an RGB value.

図12は、図6のステップS20の処理手順を詳細に示すフローチャートである。
ここで、発光体172の発光色が白色、青色、緑色、および赤色のいずれかである場合を例として説明する。このような場合、発光色判定部118は、まず発光体の発光色が白色か否かの判定から行う。発光体の発光色が白色の場合、RGB値のいずれかが突出するという傾向が少なく、RGB値のバランスを考慮して白色か否かを判定する。そのため、R値、G値、B値の出方にばらつきが生じるような場合でも誤判定される可能性を低減することができ、判定精度を向上させることができる。
FIG. 12 is a flowchart showing in detail the processing procedure of step S20 of FIG.
Here, the case where the luminescent color of the light emitter 172 is any one of white, blue, green, and red will be described as an example. In such a case, the light emission color determination unit 118 first determines whether or not the light emission color of the light emitter is white. When the luminescent color of the illuminant is white, there is little tendency for any of the RGB values to protrude, and it is determined whether the color is white in consideration of the balance of the RGB values. For this reason, the possibility of erroneous determination can be reduced even when variations in the output of the R value, G value, and B value occur, and the determination accuracy can be improved.

(白色判定)
発光体が白色の場合は、RGB値それぞれの値が同じように平均的となるとともに、これらの平均値の値が比較的高くなるという特徴がある。
(White judgment)
When the illuminant is white, the RGB values are similarly averaged, and the average value is relatively high.

まず、発光色判定部118は、発光色判定領域に含まれる画素の色成分情報(RGB値)に基づき、RGB値の平均値aveCが所定値sより大きいか否かを判定する(S122)。ここで、発光色判定領域に含まれる画素のRGB値をそれぞれsR、sG、sBとすると、RGB値の平均値aveC=(sR+sG+sB)/3となる。なお、図11(b)および図11(c)を参照して説明した例のように、発光色判定領域204が複数の画素を含む場合、たとえばsR、sG、およびsBは、複数の画素の平均値とすることができる。また、この場合、たとえば発光色判定領域204の中心に位置する画素の値が高くなるような加重平均値とすることもできる。 First, the emission color determination section 118, the color component information of the pixels contained in the luminescent color determination area based on (RGB value), the average value aveC RGB values is equal to or greater than a predetermined value s 3 (S122) . Here, assuming that the RGB values of the pixels included in the light emission color determination region are sR, sG, and sB, respectively, the average value aveC = (sR + sG + sB) / 3 of the RGB values. Note that, as in the example described with reference to FIGS. 11B and 11C, when the emission color determination region 204 includes a plurality of pixels, for example, sR, sG, and sB are a plurality of pixels. It can be an average value. In this case, for example, a weighted average value that increases the value of the pixel located at the center of the emission color determination region 204 may be used.

RGB値の平均値aveCが所定値sより大きい場合(S122のYES)、発光色判定部118は、各成分が平均的か否かを判定する(S124)。各成分が平均的か否かの判定は、以下のように行うことができる。 If the average value aveC RGB values is larger than the predetermined value s 3 (YES in S122), the emission color determination section 118, each component is equal to or average or (S124). Determination of whether each component is average can be performed as follows.

まず、sR、sG、sBの中の最小値minCを検出する。次いで、sR、sG、sBからそれぞれminCを減じたtR=sR−minC、tG=sG−minC、tB=sB−minCをそれぞれ算出する。次いで、tR、tG、tBの平均値aveTC=(tR+tG+tB)/3を算出する。各成分が平均的な場合、sR、sG、sBの中の最小値minCをそれぞれsR、sG、sBから減じて得られるtR、tG、tBの値は小さくなる。発光色判定部118は、各成分が平均的か否かの判定として、aveTCが所定値sより小さいか否かを判定することができる。 First, the minimum value minC among sR, sG, and sB is detected. Next, tR = sR-minC, tG = sG-minC, and tB = sB-minC obtained by subtracting minC from sR, sG, and sB, respectively. Next, an average value aveTC = (tR + tG + tB) / 3 of tR, tG, and tB is calculated. When each component is average, the values of tR, tG, and tB obtained by subtracting the minimum value minC in sR, sG, and sB from sR, sG, and sB, respectively, are small. The light emission color determination unit 118 can determine whether or not aveTC is smaller than the predetermined value s 4 as a determination of whether or not each component is average.

つまり、発光色判定部118は、aveC>所定値s(S122のYES)かつaveTC<所定値s(S124のYES)の場合に、発光体の発光色が白色であると判定することができる。この場合、発光色判定部118は、発光体の発光色として白色を出力する(S126)。ここで、所定値sは、白色であると判定するための限界閾値(white_color_limit)であり、たとえば50以上70以下程度の値とすることができる。また、所定値sは、たとえば15以上25以下程度の値とすることができる。 In other words, the emission color determination section 118, when aveC> (YES in S122) a predetermined value s 3 and aveTC of <(YES in S124) predetermined value s 4, that the emission color of the light-emitting element is determined to be white it can. In this case, the light emission color determination unit 118 outputs white as the light emission color of the light emitter (S126). Here, the predetermined value s 3 is the critical threshold value for determining that the white (white_color_limit), for example, may be a value at 50 or 70 below. The predetermined value s 4 can be a value at for example 15 to 25.

以上の手順で、発光体の発光色が白色と判定できなかった場合(S122のNO、またはS124のNO)、発光色判定部118は、発光体の発光色が白色以外の青色、緑色、赤色か否かの判定を行う。   If the light emission color of the light emitter cannot be determined to be white by the above procedure (NO in S122 or NO in S124), the light emission color determination unit 118 determines that the light emission color of the light emitter is blue, green, or red other than white. It is determined whether or not.

(青色、緑色、赤色判定)
白色以外の発光色の判定処理は、発光色判定領域に含まれる画素のsR、sG、sBに応じて、最も値が大きい成分の色判定を行う。すなわち、B成分(sB)が最も大きい場合(S128のYES)、青色判定処理を行う(S130)。また、G成分(sG)が最も大きい場合(S128のNO、S132のYES)、緑色判定処理を行う(S134)。また、R成分(sR)が最も大きい場合(S132のNO)、赤色判定処理を行う(S136)。次に、各色の判定処理の具体例を説明する。
(Blue, green, red judgment)
In the determination process for the emission colors other than white, the color determination of the component having the largest value is performed according to sR, sG, and sB of the pixels included in the emission color determination area. That is, when the B component (sB) is the largest (YES in S128), blue determination processing is performed (S130). If the G component (sG) is the largest (NO in S128, YES in S132), a green color determination process is performed (S134). If the R component (sR) is the largest (NO in S132), a red determination process is performed (S136). Next, a specific example of the determination process for each color will be described.

(a)青色判定処理
まず、ステップS130の青色判定処理の一例を説明する。図13は、図12のステップS130の処理手順の一例を詳細に示すフローチャートである。
まず、発光色判定部118は、青色成分に対する緑色成分の比率perG=tG/tBを算出し、perG=tG/tBが所定値s以下か否かを判断する(S160)。ここで、所定値sは、たとえば0.2以上0.3以下程度の値とすることができる。perG=tG/tBが所定値s以下の場合(S160のYES)、発光色判定部118は、カラー画像の中心部と発光色判定領域との距離Diが所定値d以内か否かを判断する(S162)。
(A) Blue determination process First, an example of the blue determination process in step S130 will be described. FIG. 13 is a flowchart showing in detail an example of the processing procedure of step S130 of FIG.
First, the emission color determining unit 118 calculates the ratio perG = tG / tB of the green component for the blue component, perG = tG / tB is determined whether or not a predetermined value s 5 below (S160). Here, the predetermined value s 5 can be set to a value of about 0.2 or more and 0.3 or less, for example. Perg = tG / if tB is in a predetermined value s 5 below (YES in S160), the emission color determination unit 118, a distance Di between the center portion and the luminescent color determination area of the color image whether within a predetermined value d 1 Judgment is made (S162).

本発明者らの検討により、発光色が青色の場合は、発光色判定領域がカラー画像の中心部に近いと、sBが大きく出ることが明らかになった。そのため、本実施の形態において、判定対象の画素がカラー画像の中心部に位置するか否かによって判定手順を異ならせている。所定値dは、たとえばカラー画像の長辺の画素数をnとした場合に、n/20以上n/5以下の範囲の値とすることができる。たとえば、カラーカメラ152の解像度が640×480(横×縦)ピクセルのVGAサイズの場合、カラー画像の長辺である横辺の画素数n=640ピクセルとなるが、一例として、所定値dをn/10となる64ピクセルとすることができる。つまり、この場合、判定対象の画素がカラー画像の中心部から半径64ピクセル以内か否かによって判定手順が異なるようにすることができる。所定値dは、実際に青色入力デバイスを用いてカラー画像を取得し、カラー画像の各位置のsBの値を測定して、どの範囲でsBが大きく出るかを検出することにより設定することができる。 As a result of studies by the present inventors, it has been clarified that when the emission color is blue, sB is greatly increased when the emission color determination region is close to the center of the color image. For this reason, in the present embodiment, the determination procedure is different depending on whether or not the pixel to be determined is located at the center of the color image. Predetermined value d 1, for example the number of pixels of the long side of the color image when the n 1, can be set to a value of n 1/20 or more n 1/5 or less. For example, when the resolution of the color camera 152 is a VGA size of 640 × 480 (horizontal × vertical) pixels, the number of horizontal sides n 1 = 640 pixels, which is the long side of the color image, is given as an example. 1 can be a 64 pixel to be n 1/10. That is, in this case, the determination procedure can be made different depending on whether or not the determination target pixel is within a radius of 64 pixels from the center of the color image. The predetermined value d 1 is set by actually acquiring a color image using a blue input device, measuring the value of sB at each position of the color image, and detecting in which range the sB is greatly increased. Can do.

ステップS162で距離Diが所定値d以内でない場合(S162のNO)、青色判定とする(S164)。一方、距離Diが所定値d以内の場合(S162のYES)、sBが所定値s以上か否かを判断する(S166)。ここで、所定値sは、たとえば96以上120以下程度の値とすることができる。sBが所定値s以上の場合(S166のYES)、青色判定とするが(S164)、所定値s以上でない場合(S166のNO)、ノイズ判定とする(S168)。 When the distance Di is not within the predetermined value d 1 in step S162 (NO in S162), and blue determined (S164). On the other hand, (YES in S162) when the distance Di is within a predetermined value d 1, sB is determined whether the predetermined value s 6 or more (S166). Here, the predetermined value s 6 can be set to a value of about 96 to 120, for example. sB often higher than the predetermined value s 6 (YES in S166), but the blue determination (S164), if not the predetermined value s 6 or more (NO in S166), the noise determination (S168).

なお、他の例として、ステップS162で距離Diが所定値d以内でない場合、すなわち発光色判定領域がカラー画像の中心部にない場合でも、基準値を設けておき、sBが当該基準値以上か否かを判定して、基準値以上の場合のみ青色判定とし、基準値より小さい場合はノイズ判定とするようにすることもできる。この場合の基準値としては、発光色判定領域がカラー画像の中心部にある場合に用いた所定値所定値sよりも値の小さい所定値sを用いることができる。 As another example, even when the distance Di is not within the predetermined value d 1 in step S162, that is, even when the emission color determination region is not in the center of the color image, a reference value is provided and sB is equal to or greater than the reference value. It is also possible to make a blue determination only when it is greater than or equal to a reference value, and to make a noise determination when it is smaller than the reference value. As the reference value in this case, a predetermined value s 7 having a value smaller than the predetermined value predetermined value s 6 used when the emission color determination region is in the center of the color image can be used.

また、ステップS160でperG=tG/tBが所定値s以下でない場合(S160のNO)、perG=tG/tBが所定値s(ただし所定値s>所定値s)以上か否かを判定する(S170)。ここで、所定値sは、たとえば0.7以上0.9以下程度の値とすることができる。 If perG = tG / tB is not equal to or smaller than the predetermined value s 5 in step S160 (NO in S160), whether or not perG = tG / tB is equal to or larger than the predetermined value s 8 (however, the predetermined value s 8 > the predetermined value s 5 ). Is determined (S170). Here, the predetermined value s 8 may be a value at for example 0.7 to 0.9.

perG=tG/tBが所定値s以上の場合(S170のYES)、発光体の発光色が緑色である可能性が高い。この場合、発光色判定部118は、ステップS170で判定に用いたtBの値が所定値s以上であるか否かを判定する(S172)。ここで、所定値sは、たとえば30以上50以下程度の値とすることができる。tBの値があまりにも小さい場合、ノイズによってtGが微量変化してしまうと、perGが極端に変動してしまうため、tBが所定値sより小さい場合はノイズ処理とするためである。tBが所定値s以上である場合(S172のYES)、緑色判定とする(S173)。 Perg = If tG / tB is a predetermined value or more s 8 (YES in S170), the emission color of the light emitter is likely to be green. In this case, emission color determination unit 118, the value of tB used for the determination in step S170 is equal to or a predetermined value s 9 or higher (S172). Here, the predetermined value s 9 may be a value at for example 30 or more and 50 or less. If the value of tB is too small, the tG by noise is very small amount change, because perG fluctuates extremely, if tB is smaller than the predetermined value s 9 is for the noise process. tB cases the predetermined value s 9 or more (YES in S172), the green judgment (S173).

ただし、ステップS172でtBが所定値sより小さい場合でも(S172のNO)、sBが所定値s10(ただし所定値s10>所定値s)以上の場合(S174のYES)、ステップS164に進み、青色判定とする。これは、sBの値が大きい場合は、青色が明るすぎるためにカメラの色分解能力を超えてしまい、G成分が飽和状態で高く出力されてしまう可能性があることを考慮しての処理である。ここで、所定値s10は、たとえば200以上220以下程度の値とすることができる。 However, even if tB at step S172 is smaller than the predetermined value s 9 (NO in S172), sB predetermined value s 10 (although the predetermined value s 10> predetermined value s 9) For more (YES in S174), step S164 Proceed to step 4 to make blue determination. This is a process that takes into account that when the value of sB is large, the color separation capability of the camera is exceeded because blue is too bright, and the G component may be output in a saturated state. is there. Here, the predetermined value s 10 may be a value at for example 200 to 220 or less.

ステップS174でsBが所定値s10以上でない場合(S174のNO)、ノイズ判定とする(S176)。ステップS170でperG=tG/tBが所定値s以上でない場合(S170のNO)もノイズ判定とする(S178)。 If sB is not the predetermined value s 10 or more in step S174 (NO in S174), the noise determination (S176). If perG = tG / tB is not the predetermined value s 8 or more in step S170 (NO in S170) is also a noise determination (S178).

(b)緑色判定処理
次に、緑色判定処理の一例を説明する。図14は、図12のステップS134の処理の一例を詳細に示すフローチャートである。
ここでも、発光色判定部118は、緑色成分に対する赤色成分の比率perR=tR/tGを算出し、perRが所定値s11以下の場合(S180のYES)は緑色判定とする(S182)。ここで、所定値s11は、たとえば0.4以上0.6以下程度の値とすることができる。一方、ステップS180でperRが所定値s11以下でない場合(S180のNO)は、ノイズ判定とする(S184)。
(B) Green Determination Process Next, an example of the green determination process will be described. FIG. 14 is a flowchart showing in detail an example of the process in step S134 of FIG.
Again, the emission color determining unit 118 calculates the ratio perR = tR / tG of the red component to the green component, when PERR is equal to or less than the predetermined value s 11 (YES of S180) is the green determined (S182). Here, the predetermined value s 11 may, for example, may be a value at 0.4 to 0.6. On the other hand, if the perR is not less than a predetermined value s 11 at step S180 (NO in S180), the noise determination (S184).

(c)赤色判定処理
次に、赤判定処理の一例を説明する。図15は、図12のステップS136の処理手順の一例を詳細に示すフローチャートである。
ここでも、発光色判定部118は、赤色成分に対する緑色成分の比率perG=tG/tRを算出し、perGが所定値s12以下の場合(S190のYES)は赤色判定とする(S192)。ここで、所定値s12は、たとえば0.7以上0.9以下程度の値とすることができる。一方、ステップS190でperGが所定値s12以下でない場合(S190のNO)は、ノイズ判定とする(S194)。
以上により発光色の判定が終了する。発光色判定部118は、判定した発光体の発光色を示すデータを位置情報取得部114に通知する。位置情報取得部114は、発光色判定部118から取得した発光色を示すデータと、そのIR画像の第1の画素の位置を示す第1の位置情報(xi,yi)とを入力受付部122に通知する。なお、他の例において、位置情報としては、カラー画像の第2の画素の位置を示す第2の位置情報(mi,ni)を用いてもよい。
(C) Red determination process Next, an example of a red determination process will be described. FIG. 15 is a flowchart showing in detail an example of the processing procedure of step S136 of FIG.
Again, the emission color determining unit 118 calculates the ratio perG = tG / tR of the green component to red component, if Perg is a predetermined value s 12 or less (YES in S190) is a red determined (S192). Here, the predetermined value s 12 may be a value at for example 0.7 to 0.9. On the other hand, if the perG is not less than a predetermined value s 12 at step S190 (NO in S190), the noise determination (S194).
Thus, the determination of the emission color is completed. The light emission color determination unit 118 notifies the position information acquisition unit 114 of data indicating the light emission color of the determined light emitter. The position information acquisition unit 114 receives the data indicating the emission color acquired from the emission color determination unit 118 and the first position information (xi, yi) indicating the position of the first pixel of the IR image. Notify In another example, as the position information, second position information (mi, ni) indicating the position of the second pixel of the color image may be used.

(入力操作受付)
図6に戻り、入力受付部122は、発光色判定部118が出力した発光体172の発光色および第1の位置情報(または第2の位置情報)に基づき、当該発光色で識別される入力デバイス170から当該第1の位置情報(または第2の位置情報)への入力があったことを受け付ける(S22)。具体的には、入力受付部122は、対応記憶部134を参照して、発光体172の発光色を示すデータに基づき、入力情報がどの入力デバイス170によるものかを識別するとともに、IR画像の座標(xi,yi)(またはカラー画像の座標(mi,ni))への入力を受け付ける。たとえば、発光色判定部118から出力された発光色が白色の場合、入力受付部122は、対応記憶部134にアクセスして、白色に対応する入力デバイスのID「1」の入力デバイスにより、第2の位置情報への入力があったことを受け付ける。入力受付部122は、受け付けた入力をプログラム実行処理部124に通知する。
(Input operation reception)
Returning to FIG. 6, the input receiving unit 122 is identified by the emission color based on the emission color of the light emitter 172 and the first position information (or second position information) output from the emission color determination unit 118. It is accepted that there is an input from the device 170 to the first position information (or second position information) (S22). Specifically, the input receiving unit 122 refers to the correspondence storage unit 134 and identifies which input device 170 the input information is based on, based on the data indicating the emission color of the light emitter 172, and the IR image. An input to the coordinates (xi, yi) (or the coordinates (mi, ni) of the color image) is accepted. For example, when the luminescent color output from the luminescent color determination unit 118 is white, the input receiving unit 122 accesses the correspondence storage unit 134 and uses the input device with ID “1” of the input device corresponding to white to The fact that there is an input to the position information of 2 is accepted. The input receiving unit 122 notifies the program execution processing unit 124 of the received input.

その後、プログラム実行処理部124は、入力受付部122が受け付けた入力操作に応じてプログラムを実行する(S24)。プログラム実行処理部124が実行するプログラムにより形成されたデータはデータ出力部106から出力される。データ出力部106から出力されたデータは、プロジェクタ154によりプロジェクタ用投影フィルム164に投影され、描画ボード160の描画面に表示されるようにすることができる。これにより、入力デバイス170を用いて入力を行っているユーザは、描画ボード160を見ながら自己の入力が反映されたデータを確認することができる。   Thereafter, the program execution processing unit 124 executes the program according to the input operation received by the input receiving unit 122 (S24). Data formed by the program executed by the program execution processing unit 124 is output from the data output unit 106. The data output from the data output unit 106 can be projected on the projector projection film 164 by the projector 154 and displayed on the drawing surface of the drawing board 160. As a result, the user who performs input using the input device 170 can check the data reflecting his / her input while looking at the drawing board 160.

ここで、プログラム実行処理部124が実行するプログラムは、たとえばユーザが入力デバイス170を用いて図形等を描画するための描画プログラムとすることができる。この場合、たとえばプログラム実行処理部124は、画像取得部112が取得したIR画像またはカラー画像中の発光体の軌跡に対応する軌跡をデータ出力部106から出力するようにすることができる。また、プログラム実行処理部124は、各ユーザが描画した図形等の色を設定するためのカラーパレット等をたとえば描画ボード160に表示されるようにすることができる。プログラム実行処理部124は、ユーザがカラーパレットのいずれかの色を選択すると、表示しているカラーパレットの位置情報、入力デバイス170の位置情報、ユーザが入力デバイス170を用いて行う発光体172の発光タイミングの制御動作(クリックに対応)、および入力デバイス170の発光色に基づき、各ユーザが選択した色を判断して、データ出力部106から出力する発光体172の軌跡の色が選択された色となるようにすることができる。   Here, the program executed by the program execution processing unit 124 may be, for example, a drawing program for the user to draw a figure or the like using the input device 170. In this case, for example, the program execution processing unit 124 can output, from the data output unit 106, a locus corresponding to the locus of the illuminant in the IR image or color image acquired by the image acquisition unit 112. In addition, the program execution processing unit 124 can display a color palette or the like for setting a color of a graphic or the like drawn by each user on the drawing board 160, for example. When the user selects any color from the color palette, the program execution processing unit 124 displays the position information of the displayed color palette, the position information of the input device 170, and the light emitter 172 that the user performs using the input device 170. Based on the control operation of the light emission timing (corresponding to the click) and the light emission color of the input device 170, the color selected by each user is judged, and the color of the locus of the light emitter 172 output from the data output unit 106 is selected. Can be colored.

次に、本実施の形態における発光体識別装置100の効果を説明する。
本実施の形態における発光体識別装置100によれば、入力デバイスによる入力情報を発光体の位置情報に基づき受け付けるとともに、カラー画像の色成分情報から判定された発光色に応じて入力デバイスを識別することができる。そのため、発光色の異なる発光体をそれぞれ含む複数の入力デバイスを用いて複数のユーザにより入力される入力情報をそれぞれ識別することができる。また、まずIR画像から発光体の位置を検出して、カラー画像の対応する位置の色成分情報に基づき発光色判定処理を行うので、発光体の検出および発光色判定を精度よく迅速に行うことができる。
Next, effects of the light emitter identification device 100 in the present embodiment will be described.
According to the light emitter identification device 100 in the present embodiment, input information from the input device is received based on the position information of the light emitter, and the input device is identified according to the light emission color determined from the color component information of the color image. be able to. Therefore, it is possible to identify input information input by a plurality of users using a plurality of input devices each including a light-emitting body having a different emission color. In addition, since the position of the light emitter is first detected from the IR image and the light emission color determination process is performed based on the color component information at the corresponding position of the color image, the light emitter can be detected and the light emission color can be determined quickly and accurately. Can do.

また、本実施の形態において、入力デバイスの発光体としてはLEDを用いている。上述したように、カメラレンズへの発光体からの光の入射角は発光体の位置により変化する。以上の実施の形態において、カラー画像の発光色判定領域のノイズ判定処理において、判定に用いる必要輝度値Ydは、カラー画像の中心部と発光色判定領域との距離Diに応じて距離Diが大きい方が値が低くなるように設定されている。そのため、カメラレンズへの発光体からの光の入射角の違いによる発光体の輝度値の違いも考慮してノイズ除去が行われるので、精度よくノイズを除去することができる。   In this embodiment, an LED is used as the light emitter of the input device. As described above, the incident angle of light from the light emitter to the camera lens varies depending on the position of the light emitter. In the above embodiment, in the noise determination processing of the emission color determination area of the color image, the required luminance value Yd used for determination has a large distance Di according to the distance Di between the center of the color image and the emission color determination area. The value is set to be lower. For this reason, noise removal is performed in consideration of the difference in luminance value of the light emitter due to the difference in the incident angle of light from the light emitter to the camera lens, so that noise can be removed with high accuracy.

以上のような構成の発光体識別装置100を含む発光体識別システム10は、コンピュータ用ソフトウェアの操作において、発光体172をカメラ等の撮像手段148で撮像し、その座標を認識することで入力を受け付ける構成となっている。その際に、発光色の異なる発光体172を用いることにより、複数の発光体172をリアルタイムに認識し、コンピュータ用ソフトウェアの操作を多人数で同時に行えるようにする。これにより、たとえばゲーム等のエンタテインメント用ソフト、イベント用ソフト、教育用ソフト等のアプリケーションソフトの操作において、多人数同時操作を行うようにすることができる。また、これにより、入力デバイスにより、マウスやタッチパネル、タブレットのような自由で直観的な操作と同様の操作ができるようになる。   The illuminant identification system 10 including the illuminant identification device 100 having the above-described configuration is configured to input an image by illuminating the illuminant 172 with an imaging unit 148 such as a camera and recognizing the coordinates in the operation of computer software. It is configured to accept. At that time, by using the light emitters 172 having different emission colors, a plurality of light emitters 172 are recognized in real time so that the computer software can be operated simultaneously by a large number of people. As a result, for example, in the operation of application software such as entertainment software such as games, event software, and educational software, a large number of people can be operated simultaneously. This also allows the input device to perform operations similar to free and intuitive operations such as a mouse, touch panel, and tablet.

なお、図1に示した発光体識別装置100の各構成要素は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。発光体識別装置100の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスク等の記憶ユニット、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。また、発光体識別装置100の各構成要素は、一つの装置内に設けられる必要はなく、複数の装置に分散配置されて互いにネットワークを介してデータの授受を行う構成とすることもできる。   Each component of the light emitter identification device 100 shown in FIG. 1 is not a hardware unit configuration but a functional unit block. Each component of the illuminant identification device 100 includes an arbitrary computer CPU, memory, a program that realizes the components shown in the figure loaded in the memory, a storage unit such as a hard disk that stores the program, and a network connection interface. It is realized by any combination of hardware and software. It will be understood by those skilled in the art that there are various modifications to the implementation method and apparatus. In addition, each component of the light emitter identification device 100 does not need to be provided in one device, and may be configured to be distributed in a plurality of devices and exchange data with each other via a network.

以上、図面を参照して本発明の実施形態について述べたが、これらは本発明の例示であり、上記以外の様々な構成を採用することもできる。   As mentioned above, although embodiment of this invention was described with reference to drawings, these are the illustrations of this invention, Various structures other than the above are also employable.

(変形例1)
以上の実施の形態においては、図6のステップS6で説明したように、ステップS4で環境光が存在している適用環境における暗化撮像条件を決定した後に決定された暗化撮像条件に応じて各種判定で用いる閾値や所定値を決定し、設定値記憶部130や発光色判定情報記憶部132に記憶する例を示した。しかし、他の例として、各種判定で用いる閾値や所定値は、図6のステップS4の処理に先立ち、複数の撮像条件に対してそれぞれ予め決定しておき、設定値記憶部130や発光色判定情報記憶部132に記憶しておくようにすることもできる。一例を図16に示す。図16は、設定値記憶部130の内部構成の一部の一例を示す図である。ここでは、暗化撮像条件としてシャッタスピードを制御している場合を示している。たとえば、シャッタスピードとしては、1/500秒、1/250秒、1/125秒、1/60秒等が想定され、それぞれに対して用いられる閾値t、必要輝度値YfおよびYc等が記憶されている。このような構成とした場合、ステップS4で決定された暗化撮像条件であるカラーカメラ152の第1のシャッタスピードおよびIRカメラ150の第2のシャッタスピードに応じて、対応する設定値を各種判定で用いるようにすることができる。たとえば、図示した例では、IRカメラ150の暗化撮像条件である第2のシャッタスピードが1/250秒の場合、ステップS14で用いられる閾値tは70、第2のシャッタスピードが1/125秒の場合、閾値tは75等とすることができる。
(Modification 1)
In the above embodiment, as described in step S6 of FIG. 6, according to the dark imaging condition determined after determining the dark imaging condition in the application environment where ambient light exists in step S4. An example is shown in which threshold values and predetermined values used in various determinations are determined and stored in the set value storage unit 130 and the emission color determination information storage unit 132. However, as another example, threshold values and predetermined values used in various determinations are determined in advance for each of a plurality of imaging conditions prior to the process of step S4 in FIG. It can also be stored in the information storage unit 132. An example is shown in FIG. FIG. 16 is a diagram illustrating an example of a part of the internal configuration of the set value storage unit 130. Here, a case where the shutter speed is controlled as the dark imaging condition is shown. For example, the shutter speed is assumed to be 1/500 seconds, 1/250 seconds, 1/125 seconds, 1/60 seconds, etc., and the threshold value t 1 , necessary luminance values Yf and Yc used for each are stored. Has been. In the case of such a configuration, various determinations of the corresponding set values are made according to the first shutter speed of the color camera 152 and the second shutter speed of the IR camera 150, which are the darkening imaging conditions determined in step S4. Can be used. For example, in the illustrated example, when the second shutter speed which is the dark imaging condition of the IR camera 150 is 1/250 seconds, the threshold t 1 used in step S14 is 70, and the second shutter speed is 1/125. for seconds, the threshold t 1 may be a 75 or the like.

このようにすれば、図6のおよびステップS4で暗化撮像条件が決定される度にステップS6の設定値を決定する処理を行う必要がなくなる。また、発光体識別システム10をある環境下に設置した後に環境光の状態が変化した場合でも、再度設定値を決定しなおす必要がない。そのため、発光体識別システム10周囲の環境光の変化に柔軟に対応可能とすることができる。よって、発光体識別装置100を起動する度に周囲の環境光の状態に応じてIRカメラ150およびカラーカメラ152の暗化撮像条件を決定し、決定された暗化撮像条件に対応する設定値を用いて各種判定を行うようにすることができる。   In this way, it is not necessary to perform the process of determining the set value in step S6 each time the dark imaging condition is determined in FIG. 6 and step S4. Further, even if the ambient light changes after the light emitter identification system 10 is installed in a certain environment, it is not necessary to re-determine the set value. Therefore, it is possible to flexibly cope with changes in ambient light around the light emitter identification system 10. Therefore, each time the illuminator identification device 100 is activated, the dark imaging conditions of the IR camera 150 and the color camera 152 are determined according to the state of the surrounding ambient light, and setting values corresponding to the determined dark imaging conditions are set. Various determinations can be made using this method.

図8は、周囲の環境光の状態に応じてIRカメラ150およびカラーカメラ152の暗化撮像条件を決定する際にプロジェクタ用投影フィルム164に投影され、描画ボード160の描画面側にいるユーザに表示される画面の一例を示す図である。
ここでは、前処理中にユーザが入力デバイス170の発光体172を発光させないように、たとえば「準備中です。入力デバイスのスイッチを入れないでください。」等のメッセーを表示するようにすることができる。これにより、実際に発光体識別装置100を用いる場所でのそのときの環境光を考慮して暗化撮像条件を決定するすることができる。
FIG. 8 shows the projection image 164 projected on the projector when determining the dark imaging conditions of the IR camera 150 and the color camera 152 according to the ambient ambient light condition, and is provided to the user on the drawing surface side of the drawing board 160. It is a figure which shows an example of the screen displayed.
Here, in order to prevent the user from causing the light emitter 172 of the input device 170 to emit light during the preprocessing, for example, a message such as “Preparing. Do not switch on the input device” may be displayed. it can. Thereby, it is possible to determine the dark imaging condition in consideration of the ambient light at the place where the light emitter identification device 100 is actually used.

(変形例2)
以上の実施の形態においては、図6のステップS4で説明した暗化撮像条件の決定手順において、暗化撮像条件決定部120がIRカメラ150およびカラーカメラ152で撮像された第1の前処理画像および第2の前処理画像の複数の位置の画素値がそれぞれ所定値sまたは所定値s以下となるか否かを判定して暗化撮像条件を決定する例を示した。しかし、IRカメラ150およびカラーカメラ152で撮像された第1の前処理画像および第2の前処理画像に環境光が映り込まない状態となっているか否かは、ユーザが判定するようにすることもできる。この場合、暗化撮像条件決定部120は、現在のIRカメラ150またはカラーカメラ152のシャッタスピードと、画像取得部112が取得したIR画像またはカラー画像の複数の位置におけるRGB値とをデータ出力部106から出力してユーザ(設定者)に提示するようにすることができる。図17は、ユーザに提示される画面184の一例を示す図である。画面184には、描画ボードの画像186を含む画像188(カラー画像またはIR画像)が表示されている。また、画像188中の複数の位置a〜iの各位置におけるRGB値がそれぞれ表示されている。ユーザは画面184に表示された複数の位置a〜iの各位置におけるRGB値を見て、すべての位置におけるRGB値がそれぞれ所定値以下か否かによって現在のシャッタスピードを暗化撮像条件として決定するか否かを判断することができる。また、さらに他の例として、各位置におけるRGB値をグラフ化してユーザに提示するようにすることもできる。
(Modification 2)
In the above embodiment, in the procedure for determining the dark imaging condition described in step S4 of FIG. 6, the first preprocessed image captured by the dark imaging condition determination unit 120 with the IR camera 150 and the color camera 152 is used. In the example, the dark imaging conditions are determined by determining whether or not the pixel values at a plurality of positions in the second preprocessed image are equal to or smaller than the predetermined value s 1 or the predetermined value s 2, respectively. However, the user determines whether or not ambient light is not reflected in the first preprocessed image and the second preprocessed image captured by the IR camera 150 and the color camera 152. You can also. In this case, the darkening imaging condition determination unit 120 uses the current shutter speed of the IR camera 150 or the color camera 152 and the RGB values at a plurality of positions of the IR image or color image acquired by the image acquisition unit 112 as a data output unit. It can output from 106 and can be made to show to a user (setting person). FIG. 17 is a diagram illustrating an example of a screen 184 presented to the user. On the screen 184, an image 188 (color image or IR image) including the image 186 of the drawing board is displayed. Also, RGB values at each of a plurality of positions a to i in the image 188 are displayed. The user looks at the RGB values at each of a plurality of positions a to i displayed on the screen 184, and determines the current shutter speed as a dark imaging condition depending on whether or not the RGB values at all positions are less than or equal to a predetermined value. It can be determined whether or not. As still another example, the RGB values at each position can be graphed and presented to the user.

(変形例3)
入力デバイス170の発光体としてLEDを用いた場合、LEDには、製造ばらつきが生じやすいという問題がある。たとえば、青色の発光体であっても、製造ばらつきによってRGB値が大きく異なることがある。そのため、たとえば、発光体識別装置100は、前処理として、ユーザに発光色を指示して用いる予定のその発光色の入力デバイスの発光体を発光させた状態をカラーカメラ152により撮像し、各発光色の発光体の色成分情報を取得して参考値として発光色判定情報記憶部132に記憶しておくことができる。そして、発光色判定部118は、発光色の判定を行う際に、発光色判定情報記憶部132に記憶された参考値を参照して、参考値との類似度に基づき発光色の判定をすることもできる。
(Modification 3)
When an LED is used as the light emitter of the input device 170, the LED has a problem that manufacturing variation tends to occur. For example, even for a blue light emitter, RGB values may vary greatly due to manufacturing variations. Therefore, for example, as a preprocessing, the illuminant identification device 100 captures, with the color camera 152, the state in which the illuminant of the input device of the luminescent color that is scheduled to be used by instructing the luminescent color is used by the user. Color component information of the color illuminant can be acquired and stored in the luminescent color determination information storage unit 132 as a reference value. Then, when the emission color determination unit 118 determines the emission color, the emission color determination unit 118 refers to the reference value stored in the emission color determination information storage unit 132 and determines the emission color based on the similarity to the reference value. You can also

図18は、以上の前処理時にプロジェクタ用投影フィルム164に投影され、描画ボード160の描画面側にいるユーザに表示される画面の一例を示す図である。
ここでは、前処理中にユーザが各発光色の入力デバイス170の発光体172を発光させるように、たとえば「赤色の入力デバイスのスイッチを入れてこの円の中を塗ってください。」等のメッセーを表示するようにすることができる。画像取得部112は、この状態で取得した発光体の色成分情報を赤色の発光体の参考値として発光色判定情報記憶部132に記憶することができる。また、赤色以外の他の発光色についても同様の手順で参考値を取得することができる。
FIG. 18 is a diagram illustrating an example of a screen that is projected onto the projector projection film 164 and displayed to the user on the drawing surface side of the drawing board 160 during the above preprocessing.
Here, for example, a message such as “Please switch on the red input device and paint in this circle” so that the user emits the illuminant 172 of the input device 170 of each emission color during the preprocessing. Can be displayed. The image acquisition unit 112 can store the color component information of the illuminant acquired in this state in the luminescent color determination information storage unit 132 as a reference value of the red illuminant. In addition, reference values can be obtained in the same procedure for other emission colors other than red.

(変形例4)
また、以上の実施の形態では、描画ボード160を設け、ユーザが入力デバイス170の発光体172を描画ボード160に押し当てて描画等する例を示した。しかし、他の例として、ユーザが入力デバイス170の発光体172を描画ボード160に押し当てるのではなく、ユーザが入力デバイス170を手に持って自在に操ることにより描画等される構成や、発光体識別システム10が描画ボード160を含まず、IRカメラ150およびカラーカメラ152の撮像手段148が、ユーザが入力デバイス170を手に持って自在に操る状態を撮影する構成とすることもできる。
(Modification 4)
In the above embodiment, the drawing board 160 is provided, and the user presses the light emitter 172 of the input device 170 against the drawing board 160 to perform drawing. However, as another example, the user does not press the light emitter 172 of the input device 170 against the drawing board 160, but the user can freely hold the input device 170 in his / her hand and perform drawing or the like. The body identification system 10 may not include the drawing board 160, and the imaging means 148 of the IR camera 150 and the color camera 152 may be configured to capture a state in which the user can freely operate the input device 170 in his / her hand.

(変形例5)
また、以上の実施の形態において、データ出力部106から出力される情報がプロジェクタ154によりプロジェクタ用投影フィルム164に投影される例を示した。複数人でプレーするためには、表示装置としてこのような比較的大きいものを用いることが好ましい。しかし、表示装置としては、プロジェクタによる投影に限定されるものではなく、通常のディスプレイ等を用いることもできる。
(Modification 5)
Moreover, in the above embodiment, the example which the information output from the data output part 106 is projected on the projection film 164 for projectors by the projector 154 was shown. In order to play with a plurality of people, it is preferable to use such a relatively large display device. However, the display device is not limited to projection by a projector, and a normal display or the like can also be used.

(変形例6)
図6のステップS16からステップS20の処理の変形例を示す。図19にこの処理手順のフローチャートを示す。
図6のステップS14の処理においてIR画像から発光体が検出され、位置情報取得部114から当該IR画像のフレーム数(例として10)および第1の位置情報(例として(x1,y1))が通知されると(S202のYES)、発光色判定領域選択部116は、通知されたフレーム数(10)および第1の位置情報(x1,y1)を記憶部(不図示)に記憶する(S204)。この後、発光色判定領域選択部116および発光色判定部118は、この記憶部に記憶されたフレーム数(10)に対応するフレーム数(10)が対応付けられたカラー画像の第1の位置情報に対応する位置(例として(m1,n1))を対象として発光色の判定処理を行う(S206)。このフレーム数(10)のカラー画像から発光体の発光色が判定された場合(S208のYES)、この処理は終了して、図6のステップS22の処理に進む。一方、このフレーム数(10)のカラー画像から発光体の発光色が判定されない場合(S208のNO)、発光色判定領域選択部116は、フレーム数を+1増加し(S210)、ステップS204に戻って記憶部のフレーム数(11)を更新する。この後、更新されたフレーム数(11)が対応付けられたカラー画像の位置(m1,n1)を対象として発光色の判定処理を行い(S206)、カラー画像から発光体の発光色が判定されるまで同様の処理を行うことができる。
(Modification 6)
The modification of the process of step S16 to step S20 of FIG. 6 is shown. FIG. 19 shows a flowchart of this processing procedure.
In the process of step S14 in FIG. 6, the illuminant is detected from the IR image, and the number of frames (for example, 10) and the first position information (for example, (x1, y1)) of the IR image are detected from the position information acquisition unit 114. When notified (YES in S202), the light emission color determination region selecting unit 116 stores the notified number of frames (10) and the first position information (x1, y1) in a storage unit (not shown) (S204). ). Thereafter, the light emission color determination region selection unit 116 and the light emission color determination unit 118 first position of the color image associated with the number of frames (10) corresponding to the number of frames (10) stored in the storage unit. An emission color determination process is performed for a position corresponding to the information (for example, (m1, n1)) (S206). When the light emission color of the light emitter is determined from the color image of the number of frames (10) (YES in S208), this process ends and the process proceeds to step S22 in FIG. On the other hand, when the emission color of the light emitter is not determined from the color image of the number of frames (10) (NO in S208), the emission color determination area selection unit 116 increases the number of frames by 1 (S210), and returns to step S204. To update the number of frames (11) in the storage unit. Thereafter, the emission color determination process is performed for the position (m1, n1) of the color image associated with the updated number of frames (11) (S206), and the emission color of the light emitter is determined from the color image. The same processing can be performed until

ただし、フレーム数を所定数以上増加させてもカラー画像から発光体の発光色が判定されない場合は、この位置(m1,n1)に対する処理を終了するようにすることもできる。また、図6のステップS14の処理で新たなIR画像から発光体が検出され、新たなIR画像のフレーム数(例として15)および第1の位置情報(例として(x2,y2))が位置情報取得部114から通知されると(S202のYES)、カラー画像の位置(m1,n1)に対する処理はフレーム数(14)までとし、カラー画像から発光体の発光色が判定されない場合でも処理を終了するようにすることができる。   However, if the emission color of the illuminant is not determined from the color image even if the number of frames is increased by a predetermined number or more, the processing for this position (m1, n1) can be terminated. Further, the light emitter is detected from the new IR image in the process of step S14 in FIG. 6, and the number of frames (for example, 15) and the first position information (for example, (x2, y2)) of the new IR image are the positions. When notified from the information acquisition unit 114 (YES in S202), the process for the position (m1, n1) of the color image is limited to the number of frames (14), and the process is performed even when the emission color of the light emitter is not determined from the color image. Can be terminated.

10 発光体識別システム
100 発光体識別装置
102 IR画像入力部
104 カラー画像入力部
106 データ出力部
112 画像取得部
114 位置情報取得部
116 発光色判定領域選択部
118 発光色判定部
120 暗化撮像条件決定部
122 入力受付部
124 プログラム実行処理部
130 設定値記憶部
132 発光色判定情報記憶部
134 対応記憶部
136 画像記憶部
148 撮像手段
150 IRカメラ
152 カラーカメラ
154 プロジェクタ
160 描画ボード
162 支持台
164 プロジェクタ用投影フィルム
166 軌跡
168 軌跡
170 入力デバイス
170a 白色入力デバイス
170b 青色入力デバイス
170c 緑色入力デバイス
170d 赤色入力デバイス
172 発光体
174 スイッチ
182、186、188 画像
180 第1の前処理画像
184 画面
200 IR画像
202 カラー画像
204 発光色判定領域
DESCRIPTION OF SYMBOLS 10 Illuminant identification system 100 Illuminant identification device 102 IR image input unit 104 Color image input unit 106 Data output unit 112 Image acquisition unit 114 Position information acquisition unit 116 Luminescent color determination region selection unit 118 Luminous color determination unit 120 Dark imaging condition Determination unit 122 Input reception unit 124 Program execution processing unit 130 Setting value storage unit 132 Luminescent color determination information storage unit 134 Corresponding storage unit 136 Image storage unit 148 Imaging unit 150 IR camera 152 Color camera 154 Projector 160 Drawing board 162 Support base 164 Projector Projection film 166 Trajectory 168 Trajectory 170 Input device 170a White input device 170b Blue input device 170c Green input device 170d Red input device 172 Luminescent body 174 Switch 182, 186, 188 Image 180 1 preprocessed image 184 screen 200 IR image 202 color image 204 emission color determination area

Claims (8)

IRカメラおよびカラーカメラで同一の対象物を同時に撮像してそれぞれ得たIR画像およびカラー画像を取得する画像取得部と、
前記IR画像から、輝度値が所定の閾値以上となる第1の画素を発光体の存在位置として検出して、当該存在位置を示す第1の位置情報を取得する位置情報取得部と、
前記位置情報取得部が取得した前記第1の位置情報に基づき、前記カラー画像から前記第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域を選択する発光色判定領域選択部と、
前記発光色判定領域選択部が選択した前記カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定する発光色判定部と、
を含む発光体識別装置。
An image acquisition unit for acquiring an IR image and a color image obtained by simultaneously imaging the same object with an IR camera and a color camera;
A position information acquisition unit that detects, from the IR image, a first pixel having a luminance value equal to or greater than a predetermined threshold as the presence position of the light emitter, and acquires first position information indicating the presence position;
Based on the first position information acquired by the position information acquisition unit, a light emission color determination for selecting a light emission color determination region of a light emitter including a second pixel at a position corresponding to the first position from the color image. An area selector;
A light emission color determination unit that determines a light emission color of the light emitter based on color component information of pixels included in the light emission color determination region of the color image selected by the light emission color determination region selection unit;
A light emitter identification device including:
請求項1に記載の発光体識別装置において、
前記発光色判定部は、前記発光体の発光色と前記IR画像の第1の位置情報または前記カラー画像の前記第2の画素の位置を示す第2の位置情報とを対応付けて出力する発光体識別装置。
The light emitter identification device according to claim 1,
The light emission color determination unit associates and outputs the light emission color of the light emitter and the first position information of the IR image or the second position information indicating the position of the second pixel of the color image. Body identification device.
請求項2に記載の発光体識別装置において、
前記発光色判定部が出力した前記発光体の発光色および前記第1の位置情報または前記第2の位置情報に基づき、当該発光色で識別される入力デバイスから当該第1の位置情報または当該第2の位置情報への入力があったことを受け付ける入力受付部をさらに含む発光体識別装置。
The light emitter identification device according to claim 2,
Based on the emission color of the light emitter and the first position information or the second position information output by the emission color determination unit, the first position information or the first position information is input from the input device identified by the emission color. The light-emitting body identification device which further contains the input reception part which receives that there existed the input to 2 positional information.
請求項1から3いずれかに記載の発光体識別装置において、
前記発光色判定領域選択部は、選択した前記発光色判定領域に含まれる画素の輝度値Yiが所定の必要輝度値Yd以上か否かを判定し、前記輝度値Yiが前記必要輝度値Ydより低い場合に当該発光色判定領域をノイズであると判定するとともに、前記輝度値Yiが前記必要輝度値Yd以上の場合に当該発光色判定領域をノイズでないと判定し、
前記発光色判定部は、前記発光色判定領域選択部により前記発光色判定領域がノイズでないと判定された場合に、当該カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定し、
前記必要輝度値Ydは、前記カラー画像の中心部と前記発光色判定領域との距離Diに応じて当該距離Diが大きい方が値が低くなるように設定された発光体識別装置。
In the light-emitting body identification device in any one of Claim 1 to 3,
The light emission color determination region selection unit determines whether or not a luminance value Yi of a pixel included in the selected light emission color determination region is equal to or greater than a predetermined necessary luminance value Yd, and the luminance value Yi is greater than the necessary luminance value Yd. When the luminance value Yi is not less than noise when the luminance value Yi is equal to or greater than the necessary luminance value Yd, the emission color determination region is determined as noise when the emission color determination region is low.
The light emission color determination unit, when the light emission color determination region selection unit determines that the light emission color determination region is not noise, based on the color component information of the pixels included in the light emission color determination region of the color image, Determining the emission color of the illuminant;
The required luminance value Yd is a light emitter identification device set such that the larger the distance Di is, the lower the value is according to the distance Di between the center of the color image and the light emission color determination region.
IRカメラおよびカラーカメラで同一の対象物を同時に撮像してそれぞれ得たIR画像およびカラー画像を取得する工程と、
前記IR画像から、輝度値が所定の閾値以上となる第1の画素を発光体の存在位置として検出して、当該存在位置を示す第1の位置情報を取得する工程と、
前記第1の位置情報を取得する工程で取得された前記第1の位置情報に基づき、前記カラー画像から前記第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域を選択する工程と、
前記発光色判定領域を選択する工程で選択された前記カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定する工程と、
を含む発光体識別方法。
Obtaining an IR image and a color image respectively obtained by simultaneously imaging the same object with an IR camera and a color camera;
Detecting, from the IR image, a first pixel having a luminance value equal to or greater than a predetermined threshold as an existing position of the light emitter, and obtaining first position information indicating the existing position;
Based on the first position information acquired in the step of acquiring the first position information, an emission color determination region of a light emitter including a second pixel at a position corresponding to the first position from the color image. A process of selecting
Determining a light emission color of the light emitter based on color component information of pixels included in the light emission color determination region of the color image selected in the step of selecting the light emission color determination region;
A light emitter identification method including:
請求項5に記載の発光体識別方法において、
前記カラーカメラを、当該カラーカメラが撮像するカラー画像に前記発光体の発光以外の環境光が映り込まない暗化撮像条件に設定する工程をさらに含み、
前記カラー画像から前記発光色判定領域を選択する工程において、前記暗化撮像条件に設定された前記カラーカメラが撮像した前記カラー画像から、前記発光色判定領域を選択する発光体識別方法。
The light emitter identification method according to claim 5, wherein:
Further including the step of setting the color camera to a dark imaging condition in which environmental light other than light emission of the light emitter is not reflected in a color image captured by the color camera,
In the step of selecting the emission color determination region from the color image, a light emitter identification method of selecting the emission color determination region from the color image captured by the color camera set in the dark imaging condition.
請求項5または6に記載の発光体識別方法において、
前記IRカメラを、当該IRカメラが撮像するIR画像に前記発光体の発光以外の環境光が映り込まない暗化撮像条件に設定する工程をさらに含み、
前記IR画像から前記第1の位置情報を取得する工程において、前記暗化撮像条件に設定された前記IRカメラが撮像した前記IR画像から、前記第1の画素を発光体の存在位置として検出して、当該存在位置を示す第1の位置情報を取得する発光体識別方法。
In the light-emitting body identification method of Claim 5 or 6,
Further including the step of setting the IR camera to a dark imaging condition in which ambient light other than light emission of the light emitter is not reflected in an IR image captured by the IR camera;
In the step of acquiring the first position information from the IR image, the first pixel is detected as the presence position of the light emitter from the IR image captured by the IR camera set to the dark imaging condition. A light emitter identification method for acquiring first position information indicating the existence position.
コンピュータを、
IRカメラおよびカラーカメラで同一の対象物を同時に撮像してそれぞれ得たIR画像およびカラー画像を取得する画像取得手段、
前記IR画像から、輝度値が所定の閾値以上となる第1の画素を発光体の存在位置として検出して、当該存在位置を示す第1の位置情報を取得する位置情報取得手段、
前記位置情報取得手段が取得した前記第1の位置情報に基づき、前記カラー画像から前記第1の位置に対応する位置の第2の画素を含む発光体の発光色判定領域を選択する発光色判定領域選択手段、
前記発光色判定領域選択手段が選択した前記カラー画像の前記発光色判定領域に含まれる画素の色成分情報に基づき、前記発光体の発光色を判定する発光色判定手段、
として機能させる発光体識別プログラム。
Computer
Image acquisition means for acquiring an IR image and a color image obtained by simultaneously imaging the same object with an IR camera and a color camera;
Position information acquisition means for detecting, from the IR image, a first pixel having a luminance value equal to or greater than a predetermined threshold value as the presence position of the light emitter, and acquiring first position information indicating the presence position;
Based on the first position information acquired by the position information acquisition means, a light emission color determination for selecting a light emission color determination region of a light emitter including a second pixel at a position corresponding to the first position from the color image. Area selection means,
A light emission color determination unit that determines a light emission color of the light emitter based on color component information of a pixel included in the light emission color determination region of the color image selected by the light emission color determination region selection unit;
Illuminant identification program to function as.
JP2011092679A 2011-04-19 2011-04-19 Emitter identification device, emitter identification method and emitter identification program Withdrawn JP2012226507A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011092679A JP2012226507A (en) 2011-04-19 2011-04-19 Emitter identification device, emitter identification method and emitter identification program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011092679A JP2012226507A (en) 2011-04-19 2011-04-19 Emitter identification device, emitter identification method and emitter identification program

Publications (1)

Publication Number Publication Date
JP2012226507A true JP2012226507A (en) 2012-11-15

Family

ID=47276617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011092679A Withdrawn JP2012226507A (en) 2011-04-19 2011-04-19 Emitter identification device, emitter identification method and emitter identification program

Country Status (1)

Country Link
JP (1) JP2012226507A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016105264A (en) * 2014-11-19 2016-06-09 セイコーエプソン株式会社 Display device, display control method and display system
JP2016526176A (en) * 2013-05-02 2016-09-01 トムソン ライセンシングThomson Licensing Rear projection system with foldable projection screen for mobile devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016526176A (en) * 2013-05-02 2016-09-01 トムソン ライセンシングThomson Licensing Rear projection system with foldable projection screen for mobile devices
JP2016105264A (en) * 2014-11-19 2016-06-09 セイコーエプソン株式会社 Display device, display control method and display system

Similar Documents

Publication Publication Date Title
JP6417690B2 (en) Projector, display device, and projector control method
US11016582B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
US9753580B2 (en) Position detecting device, position detecting system, and controlling method of position detecting device
JP2015158887A (en) Position detection system, and control method of position detection system
WO2009120299A2 (en) Computer pointing input device
JP2017146753A (en) Position detection device, and contrast adjustment method for the same
CN104658462B (en) The control method of projector and projector
JP6375660B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
KR101989998B1 (en) Input system for a computer incorporating a virtual touch screen
JP2016186674A (en) Interactive projector and interactive projection system
JP6562124B2 (en) Position detection system and method for controlling position detection system
US8654103B2 (en) Interactive display
US9733728B2 (en) Position detecting device and position detecting method
US20150279336A1 (en) Bidirectional display method and bidirectional display device
US20150185321A1 (en) Image Display Device
US9733726B2 (en) Projector and method for controlling projector
JP2012226507A (en) Emitter identification device, emitter identification method and emitter identification program
JP2020160808A (en) Position detection method, position detection device, and interactive projector
JP6631281B2 (en) Interactive projector and its auto-calibration execution method
US9544561B2 (en) Interactive projector and interactive projection system
CN107018393B (en) Projector and control method of projector
JP2017227972A (en) Projection imaging system and projection imaging method
US9787961B2 (en) Projector and method for controlling projector
JP2016184850A (en) Projector and detection method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701