JP2016052096A - Image processing program, information processing system, and image processing method - Google Patents

Image processing program, information processing system, and image processing method Download PDF

Info

Publication number
JP2016052096A
JP2016052096A JP2014178056A JP2014178056A JP2016052096A JP 2016052096 A JP2016052096 A JP 2016052096A JP 2014178056 A JP2014178056 A JP 2014178056A JP 2014178056 A JP2014178056 A JP 2014178056A JP 2016052096 A JP2016052096 A JP 2016052096A
Authority
JP
Japan
Prior art keywords
image
infrared
infrared image
subject
processing program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014178056A
Other languages
Japanese (ja)
Other versions
JP6368593B2 (en
Inventor
嘉泰 小笠原
Yoshiyasu Ogasawara
嘉泰 小笠原
伸一 絹脇
Shinichi Kinuwaki
伸一 絹脇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nintendo Co Ltd
Original Assignee
Nintendo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nintendo Co Ltd filed Critical Nintendo Co Ltd
Priority to JP2014178056A priority Critical patent/JP6368593B2/en
Priority to EP15176430.5A priority patent/EP2993645B1/en
Priority to US14/799,709 priority patent/US10348983B2/en
Publication of JP2016052096A publication Critical patent/JP2016052096A/en
Application granted granted Critical
Publication of JP6368593B2 publication Critical patent/JP6368593B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Transforming Light Signals Into Electric Signals (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the conventional technology's problem of complex processing of removing error factors in the case that the factors are included in a temperature distribution image because of dependency on the image only.SOLUTION: An image processing program makes a computer function as: image acquisition means for acquiring an infrared image mainly including information on infrared from a subject and a non-infrared image mainly including information on light that comes from the subject and has a wavelength differing from that of the infrared; and correction means for correcting the infrared image on the basis of a feature amount of the non-infrared image.SELECTED DRAWING: Figure 12

Description

本発明は、赤外線画像を処理可能な画像処理プログラム、情報処理システム、および画像処理方法に関する。   The present invention relates to an image processing program capable of processing an infrared image, an information processing system, and an image processing method.

特開2013−080413号公報(特許文献1)は、ユーザのジェスチャ等による操作入力を検知する入力装置において簡易な処理で精度の高い入力認識を行なうようにする構成を開示する。   Japanese Patent Laying-Open No. 2013-080413 (Patent Document 1) discloses a configuration in which an input device that detects an operation input by a user's gesture or the like performs highly accurate input recognition with simple processing.

特開2013−080413号公報JP 2013-080413 A

上記先行技術文献に示される構成は、赤外線カメラで順次撮像されるそれぞれの温度分布画像について、肌温度画像部を検出し、これらの検出された肌温度画像部に基づいて、操作入力を認識する。この構成では、温度分布画像のみに依存するため、温度分布画像に誤差要因が含まれていた場合に、それらを除外する処理が煩雑化する。   The configuration shown in the above prior art document detects a skin temperature image portion for each temperature distribution image sequentially captured by an infrared camera, and recognizes an operation input based on the detected skin temperature image portion. . In this configuration, since it depends only on the temperature distribution image, if an error factor is included in the temperature distribution image, the process of removing them becomes complicated.

上記の課題は、例えば、以下のような構成により達成される。
ある実施の形態の画像処理プログラムは、コンピュータを、被写体からの赤外線の情報を主として含む赤外線画像と、被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得する画像取得手段と、非赤外線画像の特徴量に基づいて、赤外線画像を補正する補正手段として機能させる。
Said subject is achieved by the following structures, for example.
An image processing program according to an embodiment obtains an image by which a computer acquires an infrared image mainly including infrared information from a subject and a non-infrared image mainly including information of light having a wavelength different from the infrared rays from the subject. Based on the means and the feature quantity of the non-infrared image, it functions as a correcting means for correcting the infrared image.

好ましくは、非赤外線画像の特徴量は、赤外線画像からは得られない特徴量である。
好ましくは、非赤外線画像は、RGB画像を含む。
Preferably, the feature amount of the non-infrared image is a feature amount that cannot be obtained from the infrared image.
Preferably, the non-infrared image includes an RGB image.

さらに好ましくは、補正手段は、RGB画像から被写体の肌色領域を特定し、当該肌色領域に基づいて、赤外線画像を補正する。   More preferably, the correction unit specifies a skin color area of the subject from the RGB image, and corrects the infrared image based on the skin color area.

好ましくは、画像取得手段は、IRフィルタを含むベイヤー配列の撮像素子から赤外線画像および非赤外線画像を取得する。   Preferably, the image acquisition unit acquires an infrared image and a non-infrared image from an image sensor having a Bayer array including an IR filter.

好ましくは、補正手段は、赤外線画像に含まれる被写体を示す有効な情報を選択的に用いる。   Preferably, the correction unit selectively uses effective information indicating a subject included in the infrared image.

さらに好ましくは、補正手段は、赤外線画像の被写体が存在する領域以外を無視する。
あるいはさらに好ましくは、補正手段は、赤外線画像の被写体が存在する領域だけを抽出する。
More preferably, the correction means ignores a region other than the region where the subject of the infrared image exists.
Alternatively, more preferably, the correction unit extracts only the region where the subject of the infrared image exists.

好ましくは、補正手段は、非赤外線画像に含まれる被写体の形状を特定する形状特定手段を含み、特定された形状における特徴量に基づいて、赤外線画像を補正する。   Preferably, the correction means includes shape specifying means for specifying the shape of the subject included in the non-infrared image, and corrects the infrared image based on the feature amount in the specified shape.

好ましくは、補正手段は、非赤外線画像を2値化することにより特徴量を得る。
好ましくは、補正手段は、2値化された非赤外線画像の各画素値を赤外線画像の各画素値に乗じる。
Preferably, the correction unit obtains the feature amount by binarizing the non-infrared image.
Preferably, the correction means multiplies each pixel value of the infrared image by each pixel value of the binarized non-infrared image.

好ましくは、画像処理プログラムは、コンピュータをさらに、補正手段により補正された赤外線画像の情報を、補正前の赤外線画像または非赤外線画像に反映する反映手段として機能させる。   Preferably, the image processing program further causes the computer to function as a reflection unit that reflects the information of the infrared image corrected by the correction unit in the infrared image or the non-infrared image before correction.

ある実施の形態の情報処理システムは、被写体の赤外光と、被写体からの赤外線とは異なる波長の光とを撮像する撮像部と、撮像部の撮像により得られる非赤外線画像の特徴量に基づいて、撮像部の撮像により得られる赤外線画像を補正する処理部とを含む。   An information processing system according to an embodiment is based on an imaging unit that captures infrared light of a subject and light having a wavelength different from infrared light from the subject, and a feature amount of a non-infrared image obtained by imaging of the imaging unit. And a processing unit for correcting an infrared image obtained by imaging of the imaging unit.

ある実施の形態の情報処理システムは、被写体からの赤外線の情報を主として含む赤外線画像と、被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得する画像取得手段と、非赤外線画像の特徴量に基づいて、赤外線画像を補正する補正手段とを含む。   An information processing system according to an embodiment includes an image acquisition unit that acquires an infrared image mainly including infrared information from a subject and a non-infrared image mainly including light information having a wavelength different from that of infrared rays from the subject; Correction means for correcting the infrared image based on the feature amount of the non-infrared image.

ある実施の形態の画像処理方法は、被写体からの赤外線の情報を主として含む赤外線画像と、被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得するステップと、非赤外線画像の特徴量に基づいて、赤外線画像を補正するステップとを含む。   An image processing method according to an embodiment includes: obtaining an infrared image mainly including infrared information from a subject; and a non-infrared image mainly including light information having a wavelength different from the infrared rays from the subject; Correcting the infrared image based on the feature amount of the image.

本実施の形態によれば、赤外線画像を非赤外線画像の特徴量に基づいて補正するため、赤外線画像のみの情報を用いる場合に比較して、ノイズ耐性などを高めることができる。   According to the present embodiment, since the infrared image is corrected based on the feature amount of the non-infrared image, it is possible to improve noise resistance or the like as compared with the case of using information of only the infrared image.

本実施の形態の画像処理プログラムの適用例を示す模式図である。It is a schematic diagram which shows the example of application of the image processing program of this Embodiment. 本実施の形態の情報処理装置の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the information processing apparatus of this Embodiment. 本実施の形態の画像処理プログラムにより実行される位置決定処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the position determination process performed by the image processing program of this Embodiment. 本実施の形態の画像処理プログラムにより実行される位置決定処理の概要を説明するための図である。It is a figure for demonstrating the outline | summary of the position determination process performed by the image processing program of this Embodiment. 本実施の形態の画像処理プログラムにより提供される位置決定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the position determination process provided by the image processing program of this Embodiment. 本実施の形態の情報処理装置の撮像部のいくつかの構成例を示す模式図である。It is a schematic diagram which shows some structural examples of the imaging part of the information processing apparatus of this Embodiment. 本実施の形態の情報処理装置の赤外線の投光機能を搭載した撮像部の構成例を示す模式図である。It is a schematic diagram which shows the structural example of the imaging part carrying the infrared light projection function of the information processing apparatus of this Embodiment. 撮像条件を一定とした場合の撮像部からオブジェクトまでの距離と撮像部で検出される赤外線の明るさとの関係を示す図である。It is a figure which shows the relationship between the distance from an imaging part to an object when the imaging condition is fixed, and the brightness of the infrared rays detected by the imaging part. 所定領域の明るさと所定領域の大きさとの関係を示す図である。It is a figure which shows the relationship between the brightness of a predetermined area | region, and the magnitude | size of a predetermined area | region. 本実施の形態の情報処理装置が提供するキャリブレーションのためのユーザインターフェイスの一例を示す図である。It is a figure which shows an example of the user interface for the calibration which the information processing apparatus of this Embodiment provides. 本実施の形態の絶対位置の算出処理の一例を説明するための図である。It is a figure for demonstrating an example of the calculation process of the absolute position of this Embodiment. 本実施の形態の赤外線画像の補正処理の一例を説明するための図である。It is a figure for demonstrating an example of the correction process of the infrared image of this Embodiment. 肌色領域の特定処理の一例を説明するための図である。It is a figure for demonstrating an example of the specific process of a skin color area | region. 本実施の形態の画像処理プログラムにより提供される赤外線画像の補正処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the correction process of the infrared image provided by the image processing program of this Embodiment.

本実施の形態について、図面を参照しながら詳細に説明する。なお、図中の同一または相当部分については、同一符号を付してその説明は繰返さない。   This embodiment will be described in detail with reference to the drawings. Note that the same or corresponding parts in the drawings are denoted by the same reference numerals and description thereof will not be repeated.

<A.適用例>
まず、本実施の形態の画像処理プログラムの適用例について説明する。図1は、本実施の形態の画像処理プログラムの適用例を示す模式図である。図1を参照して、本実施の形態の画像処理プログラムは、情報処理装置1において実行され、被写体を撮像して得られた画像に対して後述するような処理を実行することで、当該被写体の位置を決定する。本実施の形態においては、被写体からの赤外線の情報を主として含む赤外線画像(以下、「IR(Infrared)画像」と記す場合がある。)が取得され、その赤外線画像に対して処理が実行される。本明細書において、赤外線画像は、被写体で反射されて生じる赤外線、および被写体自体が発生する赤外線の少なくともいずれかの情報を含む。さらに、主として赤外線の情報を含むものであればよく、赤外線の情報とともに可視光線の情報を含む画像を排除するものではない。
<A. Application example>
First, an application example of the image processing program of the present embodiment will be described. FIG. 1 is a schematic diagram showing an application example of the image processing program of the present embodiment. With reference to FIG. 1, the image processing program of the present embodiment is executed in the information processing apparatus 1, and performs the processing described below on an image obtained by capturing an image of the subject, thereby Determine the position. In the present embodiment, an infrared image mainly including infrared information from a subject (hereinafter sometimes referred to as an “IR (Infrared) image”) is acquired, and processing is performed on the infrared image. . In the present specification, an infrared image includes at least one information of an infrared ray generated by being reflected by a subject and an infrared ray generated by the subject itself. Furthermore, it is sufficient if it mainly includes infrared information, and does not exclude an image including visible light information together with infrared information.

適用例の一つとして、図1に示すように、被写体としてユーザの体の一部(例えば、手や指)を撮像するとともに、そのユーザの体の一部について、その位置を所定周期またはイベント毎に決定する。決定される位置としては、予め定められた位置を基準とした被写体の相対位置であってもよいし、情報処理装置1(厳密には、撮像部4)からの絶対位置であってもよい。   As one application example, as shown in FIG. 1, a part of a user's body (for example, a hand or a finger) is imaged as a subject, and the position of the part of the user's body is set to a predetermined period or event. Decide every time. The determined position may be a relative position of the subject with reference to a predetermined position, or may be an absolute position from the information processing apparatus 1 (strictly speaking, the imaging unit 4).

情報処理装置1の典型例としては、携帯型の情報処理装置(図1には、スマートフォンの例を示す)に加えて、据置型の情報処理装置(例えば、パーソナルコンピュータやテレビジョン装置)、カメラなどが挙げられる。情報処理装置1は、被写体の赤外光を撮像する撮像部4を含む。撮像部4は、赤外線画像に加えて、非赤外線画像を取得可能であってもよい。さらに、後述するような各種処理を実行する処理部と撮像部4とを独立した筐体として構成し、両者を組み合わせることで情報処理システムとして実装することもできる。   As a typical example of the information processing apparatus 1, in addition to a portable information processing apparatus (an example of a smartphone is shown in FIG. 1), a stationary information processing apparatus (for example, a personal computer or a television apparatus), a camera Etc. The information processing apparatus 1 includes an imaging unit 4 that captures infrared light of a subject. The imaging unit 4 may be able to acquire a non-infrared image in addition to the infrared image. Furthermore, the processing unit that executes various processes as will be described later and the imaging unit 4 can be configured as independent housings, and can be implemented as an information processing system by combining the two.

非赤外線画像とは、被写体からの赤外線とは異なる波長の光の情報を主として含む画像を意味し、典型的には、被写体からの可視光線の情報を主として含む可視光画像が挙げられる。可視光画像は、RGB画像、グレイスケール画像、2値化(モノクロ)画像として出力されてもよい。非赤外線画像として、被写体からの紫外線の情報を主として含む紫外線画像が用いられてもよい。   The non-infrared image means an image mainly including information on light having a wavelength different from that of infrared rays from the subject, and typically includes a visible light image mainly including information on visible light from the subject. The visible light image may be output as an RGB image, a gray scale image, or a binary (monochrome) image. As the non-infrared image, an ultraviolet image mainly including ultraviolet information from the subject may be used.

図1に示す情報処理装置1は、ディスプレイ2が実装されており、決定された被写体の位置の情報や、当該決定された位置を用いたアプリケーションの実行状態が表示される。決定された位置は、ユーザのジェスチャを示す情報として入力されてもよいし、決定された位置をそのまま入力値としてゲーム処理などに用いられてもよい。   The information processing apparatus 1 shown in FIG. 1 has a display 2 on which information on the determined position of the subject and an execution state of an application using the determined position are displayed. The determined position may be input as information indicating the user's gesture, or the determined position may be directly used as an input value for game processing or the like.

<B.構成例>
次に、情報処理装置1の構成例について説明する。図2は、本実施の形態の情報処理装置1の構成例を示す模式図である。図2を参照して、情報処理装置1は、典型的なコンポーネントとして、ディスプレイ2と、撮像部4と、入力部6と、通信部8と、CPU(Central Processing Unit)10と、DRAM(Dynamic Random Access Memory)12と、フラッシュメモリ14とを含む。
<B. Configuration example>
Next, a configuration example of the information processing apparatus 1 will be described. FIG. 2 is a schematic diagram illustrating a configuration example of the information processing apparatus 1 according to the present embodiment. Referring to FIG. 2, an information processing apparatus 1 includes, as typical components, a display 2, an imaging unit 4, an input unit 6, a communication unit 8, a CPU (Central Processing Unit) 10, a DRAM (Dynamic Random Access Memory) 12 and flash memory 14.

撮像部4は、被写体からの光を受光して、当該被写体を示す画像を出力する。本実施の形態においては、撮像部4は、被写体の赤外線画像を出力する。赤外線画像は、被写体からの赤外線の情報を主として含む。加えて、撮像部4は、被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像を出力するようにしてもよい。すなわち、被写体の赤外光と、当該被写体からの赤外線とは異なる波長の光とを撮像する撮像部4を採用してもよい。   The imaging unit 4 receives light from the subject and outputs an image showing the subject. In the present embodiment, the imaging unit 4 outputs an infrared image of the subject. The infrared image mainly includes infrared information from the subject. In addition, the imaging unit 4 may output a non-infrared image mainly including information on light having a wavelength different from that of infrared rays from the subject. That is, you may employ | adopt the imaging part 4 which images the infrared light of a to-be-photographed object, and the light of a wavelength different from the infrared rays from the said to-be-photographed object.

ディスプレイ2は、各種情報をユーザに通知するデバイスであり、LCD(Liquid Crystal Display)や有機EL(ElectroLuminescence)ディスプレイなどを用いて実装される。   The display 2 is a device that notifies the user of various types of information, and is mounted using an LCD (Liquid Crystal Display), an organic EL (ElectroLuminescence) display, or the like.

入力部6は、ユーザなどからの指示や操作を受付けるデバイスであり、情報処理装置1の筐体に設けられる各種ボタンやスイッチとして実装されてもよいし、ディスプレイ2と一体的に配置されるタッチパネルとして実装されてもよい。   The input unit 6 is a device that accepts instructions and operations from a user or the like, and may be implemented as various buttons and switches provided on the housing of the information processing apparatus 1, or a touch panel that is disposed integrally with the display 2. May be implemented as

通信部8は、他の装置との通信を仲介するデバイスであり、LTE(Long Term Evolution)や3G(third generation)といったモバイル通信コンポーネントや、IEEE802.11nの規格に準拠した無線LAN、Bluetooth(登録商標)、IRDA(Infrared Data Association)などの近距離通信コンポーネントなどを用いて実装される。   The communication unit 8 is a device that mediates communication with other devices, and includes mobile communication components such as LTE (Long Term Evolution) and 3G (third generation), wireless LANs that comply with the IEEE 802.11n standard, and Bluetooth (registration). (Trademark), IRDA (Infrared Data Association) and other short-range communication components.

CPU10は、各種プログラムを実行するプロセッサの一例であり、処理部の主たる部分を構成する。DRAM12は、CPU10が各種プログラムを実行するために必要なデータを一次的に保持するワーキングメモリとして機能する。フラッシュメモリ14は、各種データを不揮発的に保持する記憶デバイスであり、典型的には、画像処理プログラム16および各種のアプリケーションプログラム18を格納する。これらのプログラムは、読み出されてDRAM12に展開された上で、CPU10により実行される。   The CPU 10 is an example of a processor that executes various programs, and constitutes a main part of the processing unit. The DRAM 12 functions as a working memory that temporarily holds data necessary for the CPU 10 to execute various programs. The flash memory 14 is a storage device that holds various data in a nonvolatile manner, and typically stores an image processing program 16 and various application programs 18. These programs are read out and expanded in the DRAM 12 and then executed by the CPU 10.

情報処理装置1を構成するハードウェアおよびソフトウェアは、図2に示すものに限定されない。例えば、情報処理装置1の機能の全部または一部を、外部サーバ装置が有していてもよい。すなわち、単一の情報処理装置1に代えて、端末と1つ以上のサーバとからなる情報処理システムが用いられてもよい。この場合、情報処理システムの各手段は、端末のプロセッサによる処理、外部サーバ装置のプロセッサによる処理、または、端末のプロセッサと外部サーバ装置のプロセッサとによる協働処理により実現される。処理の分担は当業者の技術常識により適宜設計することができる。   The hardware and software constituting the information processing apparatus 1 are not limited to those shown in FIG. For example, the external server device may have all or part of the functions of the information processing apparatus 1. That is, instead of the single information processing apparatus 1, an information processing system including a terminal and one or more servers may be used. In this case, each means of the information processing system is realized by processing by the processor of the terminal, processing by the processor of the external server device, or cooperative processing by the processor of the terminal and the processor of the external server device. The sharing of processing can be appropriately designed according to the common general technical knowledge of those skilled in the art.

情報処理装置1において実行される画像処理プログラム16は、記憶媒体により提供されるものに限定されず、インターネット等のネットワークを介したダウンロードにより提供されてもよい。   The image processing program 16 executed in the information processing apparatus 1 is not limited to that provided by a storage medium, and may be provided by downloading via a network such as the Internet.

<C.位置決定処理の概要>
次に、本実施の形態の画像処理プログラムにより実行される位置決定処理の概要について説明する。本実施の形態の位置決定処理は、取得された赤外線画像に含まれる被写体を示す画像(representation)の情報から、当該被写体(の注目する部分)の位置を決定する。位置を決定する対象となる被写体のする部分(現実の物体)を、以下では「オブジェクト」と称し、赤外線画像内の「オブジェクト」に対応する領域を「オブジェクト領域」と称す。
<C. Overview of positioning process>
Next, an outline of the position determination process executed by the image processing program of the present embodiment will be described. In the position determination process of the present embodiment, the position of the subject (part of interest) is determined from information on an image (representation) indicating the subject included in the acquired infrared image. A portion (real object) of a subject whose position is to be determined is hereinafter referred to as an “object”, and an area corresponding to the “object” in the infrared image is referred to as an “object area”.

撮像部4でオブジェクトを撮像して得られる赤外線画像内のオブジェクト領域の明るさ(照度)および大きさは、以下のようなファクターとの間に相関関係を有する。より具体的には、オブジェクト領域の明るさは、以下のファクターに比例する。   The brightness (illuminance) and size of the object area in the infrared image obtained by imaging the object by the imaging unit 4 have a correlation with the following factors. More specifically, the brightness of the object area is proportional to the following factors.

・被写体に照射される赤外線の明るさ(照度/強度)
・撮像部の露光時間
・オブジェクトの表面反射率
・(撮像部4からオブジェクトまでの距離)−2
また、オブジェクト領域の大きさ(サイズ)は、撮像部4からオブジェクトまでの距離に反比例する。
・ Infrared brightness (illuminance / intensity) applied to the subject
-Exposure time of imaging unit-Surface reflectance of object-(Distance from imaging unit 4 to object) -2
The size (size) of the object area is inversely proportional to the distance from the imaging unit 4 to the object.

本実施の形態の位置決定処理は、このような物理的関係性を利用して、赤外線画像内における被写体の所定領域の明るさおよび大きさに基づいて、赤外線画像に含まれるオブジェクト(被写体)の位置を決定する。所定領域は、オブジェクトを表現する領域(すなわち、オブジェクト領域)の少なくとも一部を含む領域に相当し、被写体(オブジェクト)が固有に有する形状の少なくとも一部に基づいて特定することができる。   The position determination process of the present embodiment uses such a physical relationship, and based on the brightness and size of a predetermined area of the subject in the infrared image, the object (subject) included in the infrared image Determine the position. The predetermined area corresponds to an area including at least a part of an area representing an object (that is, an object area), and can be specified based on at least a part of a shape inherent to the subject (object).

本実施の形態においては、被写体からの赤外線の情報を主として含む赤外線画像を用いることで、被写体からの可視光線の情報を主として含む可視光画像を用いる場合に比較して、より高い精度で位置を決定することができる。   In this embodiment, by using an infrared image mainly including infrared information from the subject, the position can be determined with higher accuracy than when using a visible light image mainly including information about visible light from the subject. Can be determined.

図3および図4は、本実施の形態の画像処理プログラムにより実行される位置決定処理の概要を説明するための図である。図3および図4には、一例として、ユーザの手をオブジェクトとした場合に取得される赤外線画像の例を示す。図3に示すように、撮像部4からオブジェクトまでの距離が相対的に近い場合には、赤外線画像内のオブジェクト領域は相対的に明るくなり(照度が高くなり)、かつその範囲は相対的に大きく(広く)なる。これに対して、撮像部4からオブジェクトまでの距離が相対的に遠い場合には、赤外線画像内のオブジェクト領域は相対的に暗くなり(照度が低くなり)、かつその範囲は相対的に小さく(狭く)なる。   3 and 4 are diagrams for explaining the outline of the position determination process executed by the image processing program of the present embodiment. 3 and 4 show examples of infrared images acquired when the user's hand is an object, as an example. As shown in FIG. 3, when the distance from the imaging unit 4 to the object is relatively close, the object region in the infrared image becomes relatively bright (the illuminance becomes high), and the range is relatively Become bigger (wider). On the other hand, when the distance from the imaging unit 4 to the object is relatively long, the object region in the infrared image is relatively dark (the illuminance is low), and the range is relatively small ( Narrow).

このような赤外線画像に現れるオブジェクト領域の明るさ(照度/強度)と大きさ(サイズ)とに基づいて、オブジェクトが予め定められた位置を基準として、近付いたか、あるいは遠くなったかを判断する。以下では、典型例として、基準状態において位置決めされたオブジェクト(被写体)の位置(基準位置)を基準として、撮像部4とオブジェクトとの間の距離(相対距離)を算出する方法について説明する。   Based on the brightness (illuminance / intensity) and size (size) of the object region appearing in such an infrared image, it is determined whether the object has approached or moved away from a predetermined position. Hereinafter, as a typical example, a method for calculating the distance (relative distance) between the imaging unit 4 and the object based on the position (reference position) of the object (subject) positioned in the reference state will be described.

図4には、オブジェクトが基準状態にあるときに撮像された赤外線画像の一例を示す図である。図4を参照して、ユーザにその手を通常の操作で使用するであろう位置に配置してもらうとともに、何らかのトリガーを受けて、赤外線画像を取得する。このトリガーとしては、ユーザが直接入力するようにしてもよいし、赤外線画像を繰返し取得するとともに、何らかの画像処理を行なって、その結果が予め定められた条件を満たしたことをトリガーとしてもよい。   FIG. 4 is a diagram illustrating an example of an infrared image captured when the object is in the reference state. Referring to FIG. 4, the user places his / her hand in a position where it will be used in a normal operation, and receives some trigger to acquire an infrared image. The trigger may be input directly by the user, or may be triggered by repeatedly acquiring an infrared image and performing some image processing and satisfying a predetermined condition.

基準状態における赤外線画像が取得されると、その赤外線画像からオブジェクト領域(図4の例では、手の輪郭)が特定される。当該特定されたオブジェクト領域に応じて所定領域30が設定される。所定領域30に含まれるそれぞれの画素の照度から、基準位置における照度の代表値(初期値)が決定される。所定領域30に含まれる全画素の照度の平均値を、代表値(初期値)として算出することができる。代表値の算出において、所定領域30に含まれる照度の異常値を除外してもよい。   When the infrared image in the reference state is acquired, an object region (the contour of the hand in the example of FIG. 4) is specified from the infrared image. A predetermined area 30 is set according to the specified object area. From the illuminance of each pixel included in the predetermined region 30, the representative value (initial value) of illuminance at the reference position is determined. The average value of the illuminance of all the pixels included in the predetermined area 30 can be calculated as a representative value (initial value). In the calculation of the representative value, an abnormal value of illuminance included in the predetermined area 30 may be excluded.

図4に示すような処理を含む、基準位置およびそれに関連する初期情報(例えば、代表値)を取得する手順を、以下では「キャリブレーション」とも称す。   The procedure for acquiring the reference position and the initial information (for example, representative value) related to the reference position including the processing shown in FIG. 4 is also referred to as “calibration” below.

例えば、図4に示す赤外線画像32内の所定領域30について、撮像部4からオブジェクトまでの距離を「1」と設定する。このとき、算出された明るさの平均値が「100」であり、所定領域30の大きさ(サイズ)が「100×100」画素であるとする。   For example, the distance from the imaging unit 4 to the object is set to “1” for the predetermined region 30 in the infrared image 32 shown in FIG. At this time, it is assumed that the calculated average value of brightness is “100” and the size (size) of the predetermined area 30 is “100 × 100” pixels.

図3に示す赤外線画像34(近い場合)は、赤外線画像32(図4)の撮像時における撮像部4からオブジェクトまでの距離に対して「0.7」倍の距離にある位置に手を配置した場合に得られた赤外線画像であり、このとき、所定領域30の大きさ(サイズ)は「160×160」画素と算出され、明るさの平均値は「204」と算出された。   In the infrared image 34 shown in FIG. 3 (when close), a hand is placed at a position that is “0.7” times the distance from the imaging unit 4 to the object at the time of imaging the infrared image 32 (FIG. 4). In this case, the size (size) of the predetermined region 30 is calculated as “160 × 160” pixels, and the average value of brightness is calculated as “204”.

一方、図3に示す赤外線画像36(遠い場合)は、赤外線画像32(図4)の撮像時における撮像部4からオブジェクトまでの距離に対して「2.0」倍の距離にある位置に手を配置した場合に得られた赤外線画像であり、このとき、所定領域30の大きさ(サイズ)は「60×60」画素と算出され、明るさの平均値は「25」と算出された。   On the other hand, the infrared image 36 shown in FIG. 3 (when far) is in a position that is “2.0” times as long as the distance from the imaging unit 4 to the object at the time of imaging the infrared image 32 (FIG. 4). In this case, the size (size) of the predetermined region 30 is calculated as “60 × 60” pixels, and the average value of brightness is calculated as “25”.

図5は、本実施の形態の画像処理プログラムにより提供される位置決定処理の処理手順を示すフローチャートである。図5に示す各ステップは、典型的には、CPU10が画像処理プログラム16(図2)を実行することで実現される。   FIG. 5 is a flowchart showing the processing procedure of the position determination process provided by the image processing program of the present embodiment. Each step shown in FIG. 5 is typically realized by the CPU 10 executing the image processing program 16 (FIG. 2).

図5を参照して、まず、ステップS2〜S10に示されるキャリブレーションが実行される。具体的には、CPU10は、被写体の赤外線画像を取得する(ステップS2)。このとき、位置決定の対象となるオブジェクト(被写体)は、基準状態にあるとする。赤外線画像の取得は、CPU10が撮像部4(図2)に指令を与えることで実現される。   Referring to FIG. 5, first, calibration shown in steps S2 to S10 is performed. Specifically, the CPU 10 acquires an infrared image of the subject (step S2). At this time, it is assumed that the object (subject) whose position is to be determined is in the reference state. Acquisition of an infrared image is implement | achieved when CPU10 gives a command to the imaging part 4 (FIG. 2).

続いて、CPU10は、赤外線画像からオブジェクト領域(被写体の領域)を特定し(ステップS4)、当該特定したオブジェクト領域に応じて所定領域を設定する(ステップS6)。CPU10は、特定した所定領域に含まれる各画素の照度から、照度の代表値を算出する(ステップS8)。この照度の代表値が基準位置における照度の初期値として格納される。そして、CPU10は、算出した照度の代表値(所定領域の明るさ)および所定領域の大きさをキャリブレーションの結果として格納する(ステップS10)。   Subsequently, the CPU 10 specifies an object area (subject area) from the infrared image (step S4), and sets a predetermined area according to the specified object area (step S6). The CPU 10 calculates a representative value of illuminance from the illuminance of each pixel included in the specified predetermined area (step S8). The representative value of illuminance is stored as an initial value of illuminance at the reference position. Then, the CPU 10 stores the calculated representative illuminance value (brightness of the predetermined area) and the size of the predetermined area as a result of calibration (step S10).

キャリブレーションでは、オブジェクト(被写体)の基準状態における位置(基準位置)に対応する所定領域の明るさおよび大きさが決定され、この基準状態における位置を基準として、オブジェクトの相対位置が順次決定される。すなわち、以下のような手順に従って、CPU10は、赤外線画像内の所定領域の明るさおよび大きさに基づいて、赤外線画像に含まれる被写体の位置を決定する。   In the calibration, the brightness and size of a predetermined area corresponding to the position (reference position) of the object (subject) in the reference state are determined, and the relative position of the object is sequentially determined based on the position in the reference state. . That is, according to the following procedure, the CPU 10 determines the position of the subject included in the infrared image based on the brightness and size of a predetermined area in the infrared image.

具体的には、CPU10は、新たな赤外線画像を取得する(ステップS12)。そして、CPU10は、新たに赤外線画像からオブジェクト領域(被写体の領域)を特定し(ステップS14)、当該特定したオブジェクト領域に応じて所定領域を設定する(ステップS16)。続いて、CPU10は、ステップS16において特定した所定領域に含まれる各画素の照度から、所定領域の照度の代表値(所定領域の明るさ)を算出し(ステップS18)、算出された所定領域の明るさおよび大きさが所定の条件を満たしているか否かを判断する(ステップS20)。   Specifically, the CPU 10 acquires a new infrared image (step S12). Then, the CPU 10 newly specifies an object area (subject area) from the infrared image (step S14), and sets a predetermined area according to the specified object area (step S16). Subsequently, the CPU 10 calculates a representative value of the illuminance of the predetermined area (brightness of the predetermined area) from the illuminance of each pixel included in the predetermined area specified in step S16 (step S18), and calculates the calculated predetermined area. It is determined whether the brightness and size satisfy a predetermined condition (step S20).

所定領域の明るさおよび大きさが所定の条件を満たしている場合(ステップS20においてYESの場合)には、CPU10は、キャリブレーションにおいて取得された所定領域の明るさに基づいて、算出された所定領域の明るさからオブジェクトの位置を決定する(ステップS22)。続いて、CPU10は、決定されたオブジェクトの位置に応じて、予め定められた後処理を実行する(ステップS24)。すなわち、情報処理装置1の位置決定機能は、所定領域の明るさと所定領域の大きさとが所定の関係を満たしているときに、オブジェクト(被写体)の位置を決定する。   When the brightness and size of the predetermined area satisfy the predetermined condition (YES in step S20), the CPU 10 calculates the predetermined area based on the brightness of the predetermined area acquired in the calibration. The position of the object is determined from the brightness of the area (step S22). Subsequently, the CPU 10 executes predetermined post-processing according to the determined position of the object (step S24). That is, the position determination function of the information processing apparatus 1 determines the position of the object (subject) when the brightness of the predetermined area and the size of the predetermined area satisfy a predetermined relationship.

これに対して、所定領域の明るさおよび大きさが所定の条件を満たしていない場合(ステップS20においてNOの場合)には、CPU10は、エラー処理を実行する(ステップS26)。   On the other hand, when the brightness and size of the predetermined area do not satisfy the predetermined condition (NO in step S20), the CPU 10 executes an error process (step S26).

CPU10は、位置決定処理の終了が指示されているか否かを判断する(ステップS28)。位置決定処理の終了が指示されていない場合(ステップS28においてNOの場合)には、ステップS12以下の処理が繰返される。これに対して、位置決定処理の終了が指示されている場合(ステップS28においてYESの場合)には、位置決定処理は終了する。   The CPU 10 determines whether or not the end of the position determination process is instructed (step S28). If the end of the position determination process is not instructed (NO in step S28), the processes in and after step S12 are repeated. On the other hand, if the end of the position determination process is instructed (YES in step S28), the position determination process ends.

<D.赤外線画像の取得処理および取得機構>
次に、赤外線画像を取得する処理およびそれに用いられる機構について説明する。
<D. Infrared image acquisition processing and acquisition mechanism>
Next, a process for acquiring an infrared image and a mechanism used for the process will be described.

(d1:撮像素子)
図6は、本実施の形態の情報処理装置1の撮像部4のいくつかの構成例を示す模式図である。図6(a)には、IRフィルタを含むベイヤー配列の撮像素子を用いた構成例を示し、図6(b)には、赤外線画像(IR画像)および非赤外線画像(RGB画像)をそれぞれ生成する撮像素子を個別に設けた構成例を示す図である。
(D1: Image sensor)
FIG. 6 is a schematic diagram illustrating some configuration examples of the imaging unit 4 of the information processing apparatus 1 according to the present embodiment. FIG. 6A shows a configuration example using a Bayer array image sensor including an IR filter, and FIG. 6B generates an infrared image (IR image) and a non-infrared image (RGB image), respectively. It is a figure which shows the structural example which provided the image pick-up element to perform separately.

図6(a)に示す撮像素子は、一般的なベイヤー配列の撮像素子において、4つのカラーフィルター(R+G×2+B)のうち、1つのGフィルタをIRフィルタに置換したものである。IRフィルタは、赤外線に対して透過特性を有しており、被写体からの赤外線は、IRフィルタに関連付けられた検出素子に入射し、その照度が検出される。また、R,G,Bの各フィルタに関連付けられたそれぞれの検出素子は、被写体からの可視光線の照度を検出する。IRフィルタに関連付けられたそれぞれの検出素子からの情報に基づいてIR画像が生成され、R,G,Bの各フィルタに関連付けられたそれぞれの検出素子からの情報に基づいてRGB画像が生成される。   The image sensor shown in FIG. 6A is obtained by replacing one G filter of four color filters (R + G × 2 + B) with an IR filter in a general Bayer array image sensor. The IR filter has transmission characteristics with respect to infrared rays, and the infrared rays from the subject are incident on a detection element associated with the IR filter, and the illuminance thereof is detected. Each detection element associated with each of the R, G, and B filters detects the illuminance of visible light from the subject. An IR image is generated based on information from each detection element associated with the IR filter, and an RGB image is generated based on information from each detection element associated with each of the R, G, and B filters. .

すなわち、図6(a)に示す構成例においては、情報処理装置1は、IRフィルタを含むベイヤー配列の撮像素子から赤外線画像および非赤外線画像を取得する。   That is, in the configuration example illustrated in FIG. 6A, the information processing apparatus 1 acquires an infrared image and a non-infrared image from an image sensor with a Bayer array including an IR filter.

一方、図6(b)に示す構成例では、複眼式の光学系が用いられる。すなわち、被写体からの反射光は、レンズ41および42を通じて、それぞれ撮像素子43および44へ導かれる。撮像素子43には、図示しないIRフィルタが関連付けられており、撮像素子44には、図示しないカラー(RGB)フィルタが関連付けられているとする。これによって、撮像素子43は、赤外線画像(IR画像)を生成し、撮像素子44は、非赤外線画像(RGB画像)を生成する。   On the other hand, in the configuration example shown in FIG. 6B, a compound eye type optical system is used. That is, the reflected light from the subject is guided to the image sensors 43 and 44 through the lenses 41 and 42, respectively. It is assumed that an IR filter (not shown) is associated with the image sensor 43 and a color (RGB) filter (not shown) is associated with the image sensor 44. Thereby, the image sensor 43 generates an infrared image (IR image), and the image sensor 44 generates a non-infrared image (RGB image).

別の構成例として、R,G,B毎に独立した撮像素子を配置する構成を採用してもよい。この場合には、R,G,B,IRの合計4つの撮像素子が配置される。なお、レンズを共通化して、複数の撮像素子が配置してもよい。   As another configuration example, a configuration in which an independent image sensor is arranged for each of R, G, and B may be employed. In this case, a total of four image sensors of R, G, B, and IR are arranged. A plurality of image sensors may be arranged with a common lens.

上述したいずれかの構成を採用することで、同一の被写体から赤外線画像および非赤外線画像(典型的には、RGB画像)を同時に取得できる。   By employing any of the above-described configurations, an infrared image and a non-infrared image (typically an RGB image) can be simultaneously acquired from the same subject.

(d2:赤外線の投光機能)
次に、赤外線の投光機能について説明する。赤外線画像は、主として、被写体からの赤外線の情報から生成されるが、一般的な使用環境において、被写体に入射する赤外線の量が十分でないことも多い。そのため、撮像部4の機能として、赤外線の投光機能を搭載することが好ましい。すなわち、情報処理装置1の画像取得機能としては、被写体に赤外線を照射しつつ撮像される赤外線画像を取得することが好ましい。
(D2: Infrared projection function)
Next, the infrared light projection function will be described. An infrared image is mainly generated from information on infrared rays from a subject. However, in a general use environment, the amount of infrared rays incident on the subject is often insufficient. Therefore, it is preferable to mount an infrared light projection function as a function of the imaging unit 4. That is, as the image acquisition function of the information processing apparatus 1, it is preferable to acquire an infrared image captured while irradiating the subject with infrared rays.

図7は、本実施の形態の情報処理装置1の赤外線の投光機能を搭載した撮像部4の構成例を示す模式図である。図7を参照して、被写体からの光を撮像素子43へ導くレンズ41に加えて、被写体に対して赤外線を照射する照射部45が設けられている。照射部45は、赤外線LEDや赤外線ランプなどの赤外線の発生部を有しており、発生した赤外線を被写体に向けて照射する。撮像素子43による露光タイミングと、照射部45による発光タイミングとは、同期されている。   FIG. 7 is a schematic diagram illustrating a configuration example of the imaging unit 4 equipped with the infrared light projection function of the information processing apparatus 1 according to the present embodiment. Referring to FIG. 7, in addition to a lens 41 that guides light from the subject to the image sensor 43, an irradiation unit 45 that irradiates the subject with infrared rays is provided. The irradiation unit 45 has an infrared generation unit such as an infrared LED or an infrared lamp, and irradiates the generated infrared toward the subject. The exposure timing by the image sensor 43 and the light emission timing by the irradiation unit 45 are synchronized.

このような投光機能を搭載すること撮像条件を安定化できるので、オブジェクトの位置の決定精度を高めることができる。   Since the imaging condition can be stabilized by installing such a light projecting function, the accuracy of determining the position of the object can be increased.

なお、照射部45は、赤外線だけではなく、一般的なフラッシュと同様の機能が付加されていてもよい。つまり、照射部45は、赤外線および可視光線を同時に被写体に照射するように構成されていてもよい。   Note that the irradiation unit 45 may have a function similar to that of a general flash as well as infrared rays. That is, the irradiation unit 45 may be configured to irradiate the subject with infrared rays and visible rays simultaneously.

(d3:撮像部からオブジェクトまでの距離に依存した制御)
図8は、撮像条件を一定とした場合の撮像部4からオブジェクトまでの距離と撮像部4で検出される赤外線の明るさとの関係を示す図である。なお、距離および明るさの単位は任意単位である。上述したように、赤外線画像内のオブジェクト領域の明るさは、(撮像部4からオブジェクトまでの距離)の二乗に反比例するので、図8に示すように、オブジェクトが撮像部4から離れるに従って、撮像部4で検出される赤外線の明るさは漸減する。また、検出される明るさの単位当たりの変化に相当する距離変化は、距離が大きくなるほど大きくなる。これは、オブジェクトが撮像部4から離れるに従って、距離の算出感度(すなわち、分解能)が低下することを意味する。図8に示す特性例においては、距離が20未満である場合には、0.5程度の分解能があり、距離が20〜40である場合には、1程度の分解能があるが、距離が40以上である場合には、2.5程度の分解能しか得られない。
(D3: Control depending on the distance from the imaging unit to the object)
FIG. 8 is a diagram illustrating the relationship between the distance from the imaging unit 4 to the object and the brightness of infrared rays detected by the imaging unit 4 when the imaging condition is constant. The unit of distance and brightness is an arbitrary unit. As described above, the brightness of the object area in the infrared image is inversely proportional to the square of (distance from the image capturing unit 4 to the object), and therefore, as the object moves away from the image capturing unit 4, as illustrated in FIG. The brightness of infrared rays detected by the unit 4 gradually decreases. Further, the change in distance corresponding to the change in the detected brightness per unit increases as the distance increases. This means that the distance calculation sensitivity (ie, resolution) decreases as the object moves away from the imaging unit 4. In the characteristic example shown in FIG. 8, when the distance is less than 20, there is about 0.5 resolution, and when the distance is 20 to 40, there is about 1 resolution, but the distance is 40. In this case, only a resolution of about 2.5 can be obtained.

また、撮像部4での赤外線の明るさの検出可能範囲は、有限の階調値(典型的には、0〜255階調)に制限されるので、撮像部4での露光時間(シャタースピード)、ならびに、照射部45から照射する赤外線の明るさおよび/または時間を、撮像部4からオブジェクトまでの距離に依存して変化させることが好ましい。例えば、公知の自動露光(AE:Auto Exposure)機能を用いることができる。   Further, since the detectable range of the infrared brightness in the imaging unit 4 is limited to a finite gradation value (typically 0 to 255 gradations), the exposure time (shutter speed) in the imaging unit 4 is limited. ) And the brightness and / or time of infrared rays emitted from the irradiation unit 45 are preferably changed depending on the distance from the imaging unit 4 to the object. For example, a known automatic exposure (AE) function can be used.

より具体的には、情報処理装置1の画像取得機能(CPU10)は、被写体までの距離が遠くなるほど、より強い赤外線を照射するように照射部45に制御指令を与える。つまり、撮像部4からオブジェクトまでの距離が相対的に遠い場合には、撮像部4に入射する赤外線の明るさが相対的に小さくなるので、より強い赤外線を照射する。   More specifically, the image acquisition function (CPU 10) of the information processing apparatus 1 gives a control command to the irradiation unit 45 so that stronger infrared rays are emitted as the distance to the subject increases. That is, when the distance from the imaging unit 4 to the object is relatively long, the brightness of the infrared rays incident on the imaging unit 4 is relatively small, and thus a stronger infrared ray is emitted.

また、情報処理装置1の画像取得機能(CPU10)は、被写体までの距離が長くなるほど、赤外線画像を取得するための撮像部の露光時間が長くなるように制御指令を与える。つまり、撮像部4からオブジェクトまでの距離が相対的に遠い場合には、撮像部4に入射する赤外線の明るさが相対的に小さくなるので、より長い時間にわたって赤外線が入射するように撮像部4での露光時間を制御する。   Further, the image acquisition function (CPU 10) of the information processing apparatus 1 gives a control command so that the exposure time of the imaging unit for acquiring the infrared image becomes longer as the distance to the subject becomes longer. That is, when the distance from the imaging unit 4 to the object is relatively long, the brightness of the infrared rays incident on the imaging unit 4 is relatively small, so that the infrared rays are incident for a longer time. Control the exposure time at.

なお、撮像部4からオブジェクトまでの距離は、過去のオブジェクトの距離の決定結果を用いて判断することができる。典型的には、1つ前の演算周期において決定された距離を用いて、撮像条件(赤外線の照射時間/照射強度および露光時間)を決定してもよい。   Note that the distance from the imaging unit 4 to the object can be determined using the determination result of the distance of the past object. Typically, the imaging conditions (infrared irradiation time / irradiation intensity and exposure time) may be determined using the distance determined in the previous calculation cycle.

(d4:撮像部4の露光方法)
撮像部4の露光方法としては、ローリングシャッター方式およびグローバルシャッター方式のいずれを用いてもよい。ローリングシャッター方式は、順次走査であるため、消費電力が相対的に少なく、携帯型の情報処理装置に好適である。一方、グローバルシャッター方式は、露光時間が相対的に短いので、動きの激しい被写体をより適切に撮像することができる。
(D4: Exposure method of the imaging unit 4)
As an exposure method for the imaging unit 4, either a rolling shutter method or a global shutter method may be used. Since the rolling shutter method is sequential scanning, it consumes relatively little power and is suitable for a portable information processing apparatus. On the other hand, since the exposure time is relatively short in the global shutter method, it is possible to appropriately capture a subject that moves rapidly.

<E.位置決定処理の詳細>
(e1:オブジェクト領域(被写体の領域)の特定(ステップS4,S14))
オブジェクト領域の特定方法としては、例えば、赤外線画像内の照度分布の特徴点(例えば、照度が大きく変化するエッジ点)などから外形を抽出する方法、赤外線画像に含まれる他の特徴量に基づいて領域または外形を抽出する方法、および被写体(オブジェクト)が固有に有する形状の少なくとも一部に基づいて抽出する方法などを用いることができる。
<E. Details of the position determination process>
(E1: Identification of object area (subject area) (steps S4 and S14))
As a method for specifying an object region, for example, a method of extracting an outer shape from a feature point of illuminance distribution in an infrared image (for example, an edge point where illuminance changes greatly), or the like, based on other feature amounts included in the infrared image A method of extracting a region or an outline, a method of extracting based on at least a part of a shape inherent to a subject (object), and the like can be used.

上述の図3および図4に示す例では、手(手のひら)をオブジェクトとしているので、手が有する固有の形状(例えば、5本の指をそれぞれ示す部分など)を探索することで、オブジェクト領域を特定することができる。すなわち、赤外線画像内の特徴量から手の輪郭(または、外形)を特定することができる。   In the example shown in FIG. 3 and FIG. 4 described above, since the hand (palm) is an object, the object area is determined by searching for a unique shape of the hand (for example, a part showing five fingers, respectively). Can be identified. That is, the contour (or outer shape) of the hand can be specified from the feature amount in the infrared image.

(e2:オブジェクト領域に応じた所定領域の設定(ステップS6,S16))
特定された手に対応するオブジェクト領域に応じて、所定領域が設定される。所定領域としては、矩形に限られることなく、特徴量を示す外形(オブジェクト領域)をそのまま用いてもよいし、オブジェクトの形状が既知である場合には、その既知の形状に相似な形状を用いてもよい。さらに、オブジェクト領域外の領域を含むように所定領域を設定してもよい。
(E2: Setting a predetermined area according to the object area (steps S6 and S16))
A predetermined area is set according to the object area corresponding to the identified hand. The predetermined area is not limited to a rectangle, and an outline (object area) indicating a feature amount may be used as it is. If the shape of an object is known, a shape similar to the known shape is used. May be. Furthermore, the predetermined area may be set so as to include an area outside the object area.

図3および図4に示す例では、ユーザの手のひらに相当する領域を所定領域30として設定することが好ましい。すなわち、ユーザの手の指を所定領域30から除外することが好ましい。手の指は、時間的な動きが比較的大きく、算出される照度が安定しないため、これらを除外することが好ましい。また、被写体から反射される赤外線の明るさは、被写体表面の反射率に依存することになるが、手の指は、動くため反射率が比較的大きく変化することも、位置決定に用いるには不適である。そのため、位置決定の精度を高めるためには、このような動きの激しい部分を除外することが好ましい。   In the example shown in FIGS. 3 and 4, it is preferable to set the area corresponding to the palm of the user as the predetermined area 30. That is, it is preferable to exclude the finger of the user's hand from the predetermined area 30. Since the finger of the hand has a relatively large temporal movement and the calculated illuminance is not stable, it is preferable to exclude these. In addition, the brightness of the infrared rays reflected from the subject depends on the reflectance of the subject surface, but the finger's finger moves and the reflectance changes relatively greatly. Unsuitable. For this reason, in order to increase the accuracy of position determination, it is preferable to exclude such a portion having a large movement.

(e3:所定領域の明るさおよび所定領域の大きさの妥当性(ステップS20))
本実施の形態の位置決定処理においては、基本的には、所定領域に含まれる画素の照度から算出される代表値に基づいて、オブジェクトの位置が決定される。この際、赤外線画像に注目するオブジェクト以外の物体が写っているような場合もあり、このような物体により生じる部分画像によって位置を誤って決定する可能性もある。そのため、以下のような条件を用いて、このような誤った位置の決定を回避する。なお、以下の条件のすべてを用いてもよいし、一部のみを用いてもよい。
(E3: Validity of brightness of predetermined area and size of predetermined area (step S20))
In the position determination process of the present embodiment, basically, the position of the object is determined based on the representative value calculated from the illuminance of the pixels included in the predetermined area. At this time, there may be a case where an object other than the object of interest is reflected in the infrared image, and the position may be erroneously determined by a partial image generated by such an object. Therefore, the determination of such an incorrect position is avoided using the following conditions. Note that all of the following conditions may be used, or only a part may be used.

(1)所定領域の明るさと所定領域の大きさとが所定の関係を満たすこと
一つの条件として、所定領域の明るさと所定領域の大きさとが所定の関係を満たしているか否かを判断し、所定の関係を満たしているときに、所定領域の明るさに基づいて、被写体の位置を決定するようにしてもよい。
(1) The brightness of the predetermined area and the size of the predetermined area satisfy a predetermined relationship As one condition, it is determined whether or not the brightness of the predetermined area and the size of the predetermined area satisfy a predetermined relationship. When the above relationship is satisfied, the position of the subject may be determined based on the brightness of the predetermined area.

上述したように、オブジェクト領域の明るさは、撮像部4からオブジェクトまでの距離の二乗に反比例し、オブジェクト領域の大きさは、撮像部4からオブジェクトまでの距離に反比例する。そのため、本来的に、オブジェクト領域に応じて設定される所定領域の明るさと所定領域の大きさとは、所定の関係を維持する。   As described above, the brightness of the object region is inversely proportional to the square of the distance from the imaging unit 4 to the object, and the size of the object region is inversely proportional to the distance from the imaging unit 4 to the object. Therefore, a predetermined relationship between the brightness of the predetermined area and the size of the predetermined area that is originally set according to the object area is maintained.

図9は、所定領域の明るさと所定領域の大きさとの関係を示す図である。図9(a)には、撮像部4からオブジェクトが離れる状態を適切に検出できた場合の結果を概念的に示し、図9(b)には、撮像部4からオブジェクトが離れる状態を適切に検出できなかった場合の結果を概念的に示す。   FIG. 9 is a diagram illustrating the relationship between the brightness of a predetermined area and the size of the predetermined area. FIG. 9A conceptually shows the result when the state in which the object is separated from the imaging unit 4 can be detected appropriately, and FIG. 9B shows the state in which the object is separated from the imaging unit 4 appropriately. The result when it cannot be detected is shown conceptually.

図9(a)に示すように、撮像部4からオブジェクトが離れる場合には、所定領域の明るさおよび所定領域の大きさは、いずれも減少することになる。一方、オブジェクトが撮像部4に近付く場合には、所定領域の明るさおよび所定領域の大きさは、いずれも増加することになる。一方で、赤外線画像に何らかの誤差要因が生じると、図9(b)に示すように、本来の変化とは異なる変化が検出される。   As shown in FIG. 9A, when the object moves away from the imaging unit 4, both the brightness of the predetermined area and the size of the predetermined area are reduced. On the other hand, when the object approaches the imaging unit 4, the brightness of the predetermined area and the size of the predetermined area both increase. On the other hand, when an error factor occurs in the infrared image, a change different from the original change is detected as shown in FIG.

このような所定領域の明るさと所定領域の大きさとの関係を利用して、適切な検出ができているか否かを判断することが好ましい。   It is preferable to determine whether or not appropriate detection has been performed using the relationship between the brightness of the predetermined area and the size of the predetermined area.

より具体的には、所定領域の明るさの時間的変化と、所定領域の大きさの時間的変化とが所定の関係が維持されているか否かを判断して、所定の関係が維持されているときに、オブジェクトの位置を決定してもよい。すなわち、所定領域の明るさの変化方向(増加/減少)と、所定領域の大きさの時間的変化(増加/減少)とが互いに一致しているか否かを判断し、一致していれば、適切に検出されているとして、オブジェクトの位置を算出する。言い換えれば、所定領域の明るさの時間的変化と、所定領域の大きさの時間的変化との間の符号(変化方向)の一致/不一致に基づいて、適切な検出ができているか否かを判断することができる。   More specifically, it is determined whether or not the predetermined relationship between the temporal change in brightness of the predetermined region and the temporal change in the size of the predetermined region is maintained, and the predetermined relationship is maintained. The position of the object may be determined when That is, it is determined whether or not the brightness change direction (increase / decrease) in the predetermined area matches the temporal change (increase / decrease) in the size of the predetermined area. The position of the object is calculated assuming that it is properly detected. In other words, whether or not appropriate detection has been performed based on the coincidence / mismatch of the sign (change direction) between the temporal change in brightness of the predetermined area and the temporal change in the size of the predetermined area. Judgment can be made.

あるいは、所定領域の輝度の時間的変化の大きさと、所定領域の大きさの時間的変化の大きさとが所定の関係を維持されているか否かを判断して、所定の関係が維持されているときに、オブジェクトの位置を決定してもよい。すなわち、所定領域の明るさの単位時間当たりの変化量(増加分/減少分)と、所定領域の大きさの単位時間当たりの変化量(増加分/減少分)との比が所定の範囲内にあるか否かを判断し、所定の範囲内にあれば、適切に検出されているとして、オブジェクトの位置を算出する。つまり、所定領域の明るさの単位時間当たりの変化量と、所定領域の大きさの単位時間当たりの変化量との間の値の乖離状態に基づいて、適切な検出ができているか否かを判断することができる。   Alternatively, the predetermined relationship is maintained by determining whether or not a predetermined relationship between the magnitude of the temporal change in luminance of the predetermined region and the temporal change in the size of the predetermined region is maintained. Sometimes the position of the object may be determined. That is, the ratio between the amount of change in brightness of the predetermined area per unit time (increase / decrease) and the amount of change in the size of the predetermined area per unit time (increase / decrease) is within the predetermined range. If it is within a predetermined range, the position of the object is calculated assuming that it is properly detected. In other words, whether or not appropriate detection has been performed based on the divergence state of the value between the amount of change in brightness of the predetermined area per unit time and the amount of change in the size of the predetermined area per unit time. Judgment can be made.

(2)所定領域の大きさが所定条件を満たすこと
上述のような所定領域の明るさと所定領域の大きさとの相対的な関係に着目する方法に代えて/加えて、所定領域の大きさそのものが所定の条件を満たしているか否かを判断し、所定の条件を満たしているときに、所定領域の明るさに基づいて、被写体の位置を決定するようにしてもよい。
(2) The size of the predetermined area satisfies the predetermined condition In place of / in addition to the above-described method of paying attention to the relative relationship between the brightness of the predetermined area and the size of the predetermined area, the size of the predetermined area itself May determine whether or not a predetermined condition is satisfied, and when the predetermined condition is satisfied, the position of the subject may be determined based on the brightness of the predetermined area.

より具体的には、キャリブレーションにおいて取得された所定領域の大きさ(基準値)に比較して、検出された所定領域の大きさが大きすぎたり、小さすぎたりしていないかを判断することで、適切な検出ができているか否かを判断できる。すなわち、キャリブレーションにおいて取得された所定領域の大きさ(基準値)に対して、検出された所定領域の大きさの比または差が所定の範囲内にあるか否かを判断し、所定の範囲内にある場合に限って、適切に検出されているとして、オブジェクトの位置を算出してもよい。   More specifically, it is determined whether the size of the predetermined area detected is too large or too small compared to the size (reference value) of the predetermined area acquired in the calibration. Thus, it can be determined whether or not appropriate detection has been performed. That is, it is determined whether the ratio or difference of the detected size of the predetermined area with respect to the size (reference value) of the predetermined area acquired in the calibration is within the predetermined range. The object position may be calculated on the assumption that the object is properly detected only when it is within the object.

(e4:距離算出および平面上の位置(ステップS22))
所定領域の明るさは、撮像部4からオブジェクトまでの距離の二乗に反比例するので、ある時点で所定領域の明るさがBであると算出されると、そのときの撮像部4とオブジェクトとの間の距離Lは、以下のように示すことができる。
(E4: Distance calculation and plane position (step S22))
Since the brightness of the predetermined area is inversely proportional to the square of the distance from the imaging unit 4 to the object, if the brightness of the predetermined area is calculated to be B at a certain time, the brightness of the imaging unit 4 and the object at that time The distance L between can be expressed as follows.

L=L0×√(B0/B)
但し、L0は、キャリブレーションによって取得された撮像部4とオブジェクトとの間の距離であり、B0は、キャリブレーションによって取得された所定領域の明るさである。
L = L0 × √ (B0 / B)
However, L0 is the distance between the imaging unit 4 and the object acquired by calibration, and B0 is the brightness of the predetermined area acquired by calibration.

ここで、L0=1とすれば、キャリブレーションによって取得された所定領域の明るさB0を用いて、撮像部4とオブジェクトとの間の相対距離を算出できる。この相対距離は、撮像部4の撮像方向(カメラ方向:z方向)における奥行位置を示す。また、赤外線画像内の所定領域が存在する位置は、撮像部4の撮像方向と直交する面上の位置(x座標およびy座標)を示す。このように、本実施の形態においては、所定領域の明るさおよび大きさに基づいて、赤外線画像の取得先である撮像部4の撮像方向におけるオブジェクトの奥行位置を決定する。すなわち、奥行位置を決定するとともに、赤外線画像内の所定領域の位置に基づいて、オブジェクトの撮像方向と直交する面上の位置を決定する。   Here, if L0 = 1, the relative distance between the imaging unit 4 and the object can be calculated using the brightness B0 of the predetermined area acquired by calibration. This relative distance indicates a depth position in the imaging direction (camera direction: z direction) of the imaging unit 4. Further, the position where the predetermined region in the infrared image exists indicates a position (x coordinate and y coordinate) on a plane orthogonal to the imaging direction of the imaging unit 4. Thus, in the present embodiment, the depth position of the object in the imaging direction of the imaging unit 4 that is the acquisition source of the infrared image is determined based on the brightness and size of the predetermined area. That is, the depth position is determined, and the position on the plane orthogonal to the imaging direction of the object is determined based on the position of the predetermined region in the infrared image.

最終的に、撮像部4の視点を基準とした座標系で定義される、オブジェクトのx座標,y座標,z座標が演算周期毎に出力される。   Finally, the x-coordinate, y-coordinate, and z-coordinate of the object defined in the coordinate system based on the viewpoint of the imaging unit 4 are output for each calculation cycle.

(e5:連続出力(ステップS24))
上述したように、情報処理装置1は、演算周期毎にオブジェクトの3次元座標を算出し、これらの時系列で出力される3次元座標からオブジェクトの時間的な挙動を取得する。すなわち、情報処理装置1は、オブジェクトの位置の時間的変化を出力する。このような位置の時間的変化を用いて、ユーザの行なうジェスチャを判断したり、各種のゲーム処理などを進行することができる。
(E5: continuous output (step S24))
As described above, the information processing apparatus 1 calculates the three-dimensional coordinates of the object for each calculation cycle, and acquires the temporal behavior of the object from the three-dimensional coordinates output in time series. That is, the information processing apparatus 1 outputs a temporal change in the position of the object. By using such a temporal change in position, it is possible to determine a gesture performed by the user and to proceed with various game processes.

<F.キャリブレーション>
オブジェクト(被写体)を基準状態にしてキャリブレーションを行なう必要がある。基準状態は、どのような状態であってもよいが、オブジェクトが撮像部4に近すぎる場合、または撮像部4から遠すぎる場合には、位置決定の精度が低下するので、オブジェクトが動き得る範囲の中間地点でキャリブレーションすることが好ましい。そのため、このようなキャリブレーションを支援するようなユーザインターフェイスを提供するようにしてもよい。
<F. Calibration>
It is necessary to perform calibration with the object (subject) as a reference state. The reference state may be any state, but if the object is too close to the imaging unit 4 or too far from the imaging unit 4, the accuracy of position determination is reduced, and thus the range in which the object can move It is preferable to calibrate at an intermediate point. Therefore, a user interface that supports such calibration may be provided.

図10は、本実施の形態の情報処理装置1が提供するキャリブレーションのためのユーザインターフェイスの一例を示す図である。図10を参照して、情報処理装置1のディスプレイ2上には、被写体を基準状態に位置決めするためのガイド70が表示されており、ユーザは、撮像された手がガイド70に収まるように、ユーザ自身および/または自身の手と撮像部4との位置関係を調整する。ユーザの手がガイド70に収まれば、ユーザは、ディスプレイ2上に表示されるOKボタン72を他方の手で操作することで、キャリブレーション用の赤外線画像が取得され、キャリブレーションが実行される。   FIG. 10 is a diagram illustrating an example of a user interface for calibration provided by the information processing apparatus 1 according to the present embodiment. Referring to FIG. 10, a guide 70 for positioning the subject in the reference state is displayed on the display 2 of the information processing apparatus 1, and the user can make the captured hand fit in the guide 70. The positional relationship between the user and / or his / her hand and the imaging unit 4 is adjusted. When the user's hand fits in the guide 70, the user operates the OK button 72 displayed on the display 2 with the other hand, whereby an infrared image for calibration is acquired and calibration is executed.

このようなガイドを表示することで、キャリブレーションをより適切かつ簡単に実行することができる。   By displaying such a guide, calibration can be executed more appropriately and easily.

<G.絶対位置の算出処理>
上述の説明では、基準状態における位置を基準として、オブジェクトの相対位置を順次決定する処理例について説明した。基準状態における絶対位置(絶対距離)を取得できれば、相対位置ではなく、絶対位置を疑似的に算出できる。
<G. Absolute position calculation processing>
In the above description, the processing example in which the relative position of the object is sequentially determined based on the position in the reference state has been described. If the absolute position (absolute distance) in the reference state can be acquired, the absolute position, not the relative position, can be calculated in a pseudo manner.

基準状態における絶対位置(絶対距離)を取得する手法の一つとして、情報処理装置1の撮像部4を用いて、赤外線画像に現れるオブジェクト領域の大きさと絶対位置との関係を予め取得しておき、この関係を用いる方法がある。具体的には、撮像部4を用いて、予め既知の大きさを有するサンプルを複数の位置に配置して撮像することで得られる赤外線画像から、オブジェクト領域の大きさと撮像部4からの絶対距離との関係を定義できる。キャリブレーションにおいて、大きさが既知のサンプル(例えば、情報処理装置1に装着されているスタイラスなど)を撮像し、その撮像されたサンプルの赤外線画像内での大きさを評価することで、撮像時の絶対距離を決定できる。   As one of the methods for acquiring the absolute position (absolute distance) in the reference state, the relationship between the size of the object region appearing in the infrared image and the absolute position is acquired in advance using the imaging unit 4 of the information processing apparatus 1. There is a method using this relationship. Specifically, the size of the object region and the absolute distance from the imaging unit 4 are obtained from an infrared image obtained by arranging and imaging samples having a known size in advance at a plurality of positions using the imaging unit 4. Can be defined. In calibration, an image of a sample with a known size (for example, a stylus attached to the information processing apparatus 1) is imaged, and the size of the imaged sample in an infrared image is evaluated. The absolute distance can be determined.

ユーザの手などをオブジェクトとする場合には、平均的な大きさが予め判っているので、その平均値を用いてキャリブレーション時の絶対距離を疑似的に決定してもよい。   When the user's hand or the like is an object, the average size is known in advance, and the absolute value at the time of calibration may be determined in a pseudo manner using the average value.

図11は、本実施の形態の絶対位置の算出処理の一例を説明するための図である。図11を参照して、赤外線画像内の特徴量から手の輪郭を特定して、手の大きさを算出することで、予め取得しておいた赤外線画像に現れるオブジェクト領域の大きさと絶対位置との関係を参照し、当該手の存在する位置(奥行位置)を算出するようにしてもよい。   FIG. 11 is a diagram for explaining an example of an absolute position calculation process according to the present embodiment. Referring to FIG. 11, the size and absolute position of the object region appearing in the previously acquired infrared image are determined by specifying the contour of the hand from the feature quantity in the infrared image and calculating the size of the hand. The position where the hand exists (depth position) may be calculated by referring to the relationship.

<H.赤外線画像の補正>
上述したオブジェクトの位置を決定する処理においては、赤外線画像内のオブジェクト領域を特定し、所定領域を設定する(図5のステップS4,S6,S14,S16)。このような処理において、オブジェクトのみが写った赤外線画像を取得することが好ましい。しかしながら、オブジェクトの撮像時に当該オブジェクトの背景に赤外線を放射する物体があったような場合には、そのような物体からの赤外線がノイズとして赤外線画像内に入り込む。このような場合には、赤外線画像に何らかの補正(前処理)を行なった上で、オブジェクト領域を特定することが好ましい。
<H. Infrared image correction>
In the processing for determining the position of the object described above, an object region in the infrared image is specified and a predetermined region is set (steps S4, S6, S14, and S16 in FIG. 5). In such processing, it is preferable to acquire an infrared image showing only the object. However, when there is an object that emits infrared rays in the background of the object when the object is imaged, the infrared rays from such an object enter the infrared image as noise. In such a case, it is preferable to specify the object region after performing some correction (pre-processing) on the infrared image.

以下では、このような赤外線画像の補正処理として、非赤外線画像を用いる場合の処理について説明する。すなわち、本実施の形態の情報処理装置1は、オブジェクト(被写体)からの赤外線の情報を主として含む赤外線画像と、オブジェクト(被写体)からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得する画像取得機能と、非赤外線画像の特徴量に基づいて、赤外線画像を補正する補正機能とを有している。   In the following, processing when a non-infrared image is used as such infrared image correction processing will be described. That is, the information processing apparatus 1 according to the present embodiment includes an infrared image mainly including infrared information from the object (subject) and a non-infrared image mainly including information on light having a wavelength different from that of the infrared rays from the object (subject). And a correction function for correcting the infrared image based on the feature amount of the non-infrared image.

図12は、本実施の形態の赤外線画像の補正処理の一例を説明するための図である。図12を参照して、オブジェクトを撮像して赤外線画像60を取得する際に、非赤外線画像の一例であるRGB画像50を取得する。後述するように、RGB画像50と赤外線画像60との間で、画像を重ね合わせるような処理が必要になるので、上述の図6(a)に示すような、IRフィルタを含むベイヤー配列の撮像素子を用いて、これら2つの画像を取得することが好ましい。図6(b)に示すような複眼式の構成を採用してもよいが、この場合には、光学系間に存在する視差に応じた補正が必要になる。   FIG. 12 is a diagram for explaining an example of the infrared image correction processing according to the present embodiment. Referring to FIG. 12, when an infrared image 60 is acquired by capturing an object, an RGB image 50, which is an example of a non-infrared image, is acquired. As will be described later, since processing for superimposing the images between the RGB image 50 and the infrared image 60 is required, imaging of a Bayer array including an IR filter as shown in FIG. 6A described above is performed. It is preferable to acquire these two images using an element. Although a compound eye type configuration as shown in FIG. 6B may be employed, in this case, correction according to the parallax existing between the optical systems is required.

非赤外線画像としては、RGB画像に限られることなく、紫外線画像を用いてもよいし、R,G,Bのいずれかの色のみに着目したグレイ画像(単色画像)を用いてもよい。   The non-infrared image is not limited to an RGB image, and an ultraviolet image may be used, or a gray image (single color image) focused on only one of R, G, and B may be used.

図12のRGB画像50および赤外線画像60に示されるように、検出する波長の相違によって、取得できるオブジェクトの輝度情報は互いに異なったものになっている。このような取得される輝度情報の違いを利用して、オブジェクトの情報のみを抽出できるような補正を実行する。   As shown in the RGB image 50 and the infrared image 60 in FIG. 12, the luminance information of the objects that can be acquired is different from each other due to the difference in the detected wavelengths. Using such a difference in acquired luminance information, correction is performed so that only object information can be extracted.

まず、非赤外線画像からオブジェクトを反映した特徴量が算出される。非赤外線画像がRGB画像50であり、オブジェクトがユーザの手であれば、例えば、肌色検出処理を用いることができる。すなわち、RGB画像50に含まれる肌色の領域を特定する。結果画像52は、RGB画像50に対して肌色検出が実行された後の結果を示す。結果画像52は、肌色であると判断された画素を「1」(白)に変換し、それ以外の画素を「0」(黒)に変換したものである。すなわち、赤外線画像の補正処理では、非赤外線画像を2値化することにより特徴量を得る。   First, a feature value reflecting an object is calculated from a non-infrared image. If the non-infrared image is the RGB image 50 and the object is a user's hand, for example, a skin color detection process can be used. That is, the skin color area included in the RGB image 50 is specified. The result image 52 shows the result after the skin color detection is performed on the RGB image 50. The result image 52 is obtained by converting a pixel determined to be a skin color into “1” (white) and converting other pixels into “0” (black). That is, in the infrared image correction process, the feature amount is obtained by binarizing the non-infrared image.

図13は、肌色領域の特定処理の一例を説明するための図である。図13を参照して、肌色領域を特定するために、RGB画像の色座標系をRGB座標系からYUV座標系に変換する。そして、YUV座標系に変換されたYUV画像から、予め定義された「肌色」とみなすことのできる色座標系上の領域(空間)に存在している画像を抽出する。YUV座標系を用いる方が「肌色」をより正確に判断できる。   FIG. 13 is a diagram for explaining an example of the skin color area specifying process. Referring to FIG. 13, in order to specify the skin color area, the color coordinate system of the RGB image is converted from the RGB coordinate system to the YUV coordinate system. Then, an image existing in a region (space) on the color coordinate system that can be regarded as a predefined “skin color” is extracted from the YUV image converted into the YUV coordinate system. The “skin color” can be more accurately determined by using the YUV coordinate system.

このように、情報処理装置1の補正処理は、RGB画像からオブジェクト(被写体)の肌色領域を特定し、当該肌色領域に基づいて、赤外線画像60を補正する処理を含む。   As described above, the correction process of the information processing apparatus 1 includes a process of specifying the skin color region of the object (subject) from the RGB image and correcting the infrared image 60 based on the skin color region.

再度図12を参照して、赤外線画像60についても、所定の明るさをしきい値として用いて2値化処理を行なうことで、2値化された赤外線画像62を生成する。最終的に、結果画像52と2値化された赤外線画像62との間で、対応する画素毎に積を計算することで、補正後の赤外線画像64を生成する。すなわち、補正処理として、2値化された非赤外線画像(結果画像52)の各画素値を赤外線画像の各画素値に乗じる処理が実行される。この処理は、2値化された赤外線画像62を構成する画素のうち、結果画像52内の対応する画素が「1」(肌色領域)である画素のみを有効な画素として出力することを意味する。   Referring to FIG. 12 again, the binarized infrared image 62 is generated by performing binarization processing on the infrared image 60 using the predetermined brightness as a threshold value. Finally, a corrected infrared image 64 is generated by calculating a product for each corresponding pixel between the result image 52 and the binarized infrared image 62. That is, as the correction process, a process of multiplying each pixel value of the binarized non-infrared image (result image 52) by each pixel value of the infrared image is executed. This processing means that only pixels whose corresponding pixel in the result image 52 is “1” (skin color region) among the pixels constituting the binarized infrared image 62 are output as effective pixels. .

なお、赤外線画像60については、必ずしも2値化する必要なく、結果画像52を一種のマスク画像として用いて、赤外線画像60の各画素値に乗じることで、赤外線画像60を補正することができる。   The infrared image 60 does not necessarily need to be binarized, and the infrared image 60 can be corrected by multiplying each pixel value of the infrared image 60 by using the result image 52 as a kind of mask image.

上述したように、情報処理装置1は、非赤外線画像(RGB画像50)の特徴量(図12に示す例では、肌色領域)に基づいて、赤外線画像60を補正する。非赤外線画像の特徴量は、基本的には、赤外線画像からは得られない特徴量である。   As described above, the information processing apparatus 1 corrects the infrared image 60 based on the feature amount (skin color region in the example illustrated in FIG. 12) of the non-infrared image (RGB image 50). The feature amount of the non-infrared image is basically a feature amount that cannot be obtained from the infrared image.

赤外線画像60に対する補正処理は、赤外線画像60のオブジェクト(被写体)が存在する領域以外を無視する処理を含む。言い換えれば、赤外線画像60に対する補正手段は、赤外線画像60のオブジェクト(被写体)が存在する領域だけを抽出する処理を含む。一連の補正処理は、非赤外線画像(RGB画像50)から画像内においてオブジェクトが存在する領域を特定し、その特定した領域に応じて、赤外線画像60に含まれるオブジェクト(被写体)を示す有効な情報を選択的に用いることを意味する。このように、赤外線画像60に含まれるオブジェクト(被写体)を示す有効な情報を選択的に用いることで、赤外線画像内のオブジェクト領域をより正確に特定できる。   The correction process for the infrared image 60 includes a process for ignoring the region other than the region where the object (subject) of the infrared image 60 exists. In other words, the correction means for the infrared image 60 includes a process of extracting only a region where the object (subject) of the infrared image 60 exists. The series of correction processes specifies a region where an object exists in the image from the non-infrared image (RGB image 50), and effective information indicating the object (subject) included in the infrared image 60 according to the specified region. Is used selectively. In this way, by selectively using effective information indicating the object (subject) included in the infrared image 60, the object region in the infrared image can be specified more accurately.

さらに、図12に示すRGB画像50および/または結果画像52を用いて、オブジェクトが有する固有の形状を探索することで、オブジェクト領域を特定する処理をさらに実行してもよい。すなわち、上述したような画像内の特徴量から手の輪郭(または、外形)や指の位置を特定してもよい。このような、非赤外線画像(RGB画像50および/または結果画像52)に含まれるオブジェクト(被写体)の形状を特定する形状特定処理をさらに実行することで、非赤外線画像に移り込んでいるノイズとなり得る成分(図12のRGB画像50では、背景にある照明からの明かり)を除去することができる。   Furthermore, a process for specifying an object region may be further executed by searching for a unique shape of the object using the RGB image 50 and / or the result image 52 shown in FIG. That is, the outline (or outline) of the hand or the position of the finger may be specified from the feature amount in the image as described above. By further executing the shape specifying process for specifying the shape of the object (subject) included in the non-infrared image (RGB image 50 and / or result image 52), noise that has moved into the non-infrared image is generated. The resulting component (in the RGB image 50 of FIG. 12, the light from the background illumination) can be removed.

このような形状特定処理をさらに付加することで、赤外線画像60に含まれるオブジェクト(被写体)を示す有効な情報をより正確に選択し、赤外線画像内のオブジェクト領域をより正確に特定できる。すなわち、情報処理装置1の補正処理は、非赤外線画像(RGB画像50および/または結果画像52)に含まれる被写体の形状を特定する形状特定処理を含み、特定された形状における特徴量に基づいて、赤外線画像60を補正する。   By further adding such a shape specifying process, it is possible to more accurately select effective information indicating an object (subject) included in the infrared image 60 and more accurately specify an object region in the infrared image. That is, the correction processing of the information processing apparatus 1 includes shape specifying processing for specifying the shape of the subject included in the non-infrared image (RGB image 50 and / or result image 52), and based on the feature amount in the specified shape. The infrared image 60 is corrected.

補正後の赤外線画像64を用いて、補正前の赤外線画像60および/またはRGB画像50に別の補正を行なった上で、各種処理を実行してもよい。例えば、補正後の赤外線画像64からオブジェクト領域を特定し、当該特定したオブジェクト領域に対応する赤外線画像60またはRGB画像50内の領域の画像(情報)を用いて、オブジェクトに関する情報のみを抽出するようにしてもよい。このように、補正処理により補正された赤外線画像の情報を、補正前の赤外線画像または非赤外線画像に反映するような機能を情報処理装置1に実装することもできる。   Various processes may be executed after performing another correction on the infrared image 60 and / or the RGB image 50 before correction using the corrected infrared image 64. For example, an object region is specified from the corrected infrared image 64, and only information related to the object is extracted using the image (information) of the region in the infrared image 60 or the RGB image 50 corresponding to the specified object region. It may be. As described above, the information processing apparatus 1 can be provided with a function of reflecting the information of the infrared image corrected by the correction process in the infrared image or the non-infrared image before correction.

図14は、本実施の形態の画像処理プログラムにより提供される赤外線画像の補正処理の処理手順を示すフローチャートである。図14に示す各ステップは、典型的には、CPU10が画像処理プログラム16(図2)を実行することで実現される。   FIG. 14 is a flowchart showing a processing procedure of infrared image correction processing provided by the image processing program of the present embodiment. Each step shown in FIG. 14 is typically realized by the CPU 10 executing the image processing program 16 (FIG. 2).

図14を参照して、まず、CPU10は、被写体の赤外線画像および非赤外線画像を取得する(ステップS100)。このとき、図6(a)に示すようなベイヤー配列の撮像素子を用いた撮像部4を用いる場合には、撮像部4に対して撮像指令を与えることで、赤外線画像および非赤外線画像を同時に取得できる。これに対して、図6(b)に示すような撮像素子を個別に設けた撮像部4を用いる場合には、それぞれの撮像素子に対して撮像指令を与えることで、赤外線画像および非赤外線画像を取得する。   Referring to FIG. 14, first, CPU 10 acquires an infrared image and a non-infrared image of a subject (step S100). At this time, in the case of using the imaging unit 4 using the Bayer-arrayed imaging device as shown in FIG. 6A, by giving an imaging command to the imaging unit 4, an infrared image and a non-infrared image are simultaneously displayed. You can get it. On the other hand, in the case of using the image pickup unit 4 in which the image pickup devices as shown in FIG. 6B are individually provided, an infrared image and a non-infrared image are provided by giving an image pickup command to each image pickup device. To get.

続いて、CPU10は、非赤外線画像からオブジェクトを反映した特徴量を算出する(ステップS102)。典型的には、CPU10は、非赤外線画像の一例であるRGB画像50に対して、肌色検出処理をして実行して肌色領域を特定する。CPU10は、ステップS102の処理と並行して、赤外線画像60に対して2値化処理を行なうことで、2値化された赤外線画像62を生成する(ステップS104)。   Subsequently, the CPU 10 calculates a feature amount reflecting the object from the non-infrared image (step S102). Typically, the CPU 10 performs a skin color detection process on the RGB image 50 which is an example of a non-infrared image, and specifies a skin color region. In parallel with the process of step S102, the CPU 10 performs a binarization process on the infrared image 60 to generate a binarized infrared image 62 (step S104).

そして、CPU102は、ステップS102において算出された特徴量を2値化された赤外線画像62の各画素に乗じることで、補正後の赤外線画像64を生成する(ステップS106)。ステップS106において生成された補正後の赤外線画像64を用いて、図5に示す位置決定処理が実行されてもよい。   Then, the CPU 102 multiplies each pixel of the binarized infrared image 62 by the feature amount calculated in step S102 to generate a corrected infrared image 64 (step S106). The position determination process shown in FIG. 5 may be executed using the corrected infrared image 64 generated in step S106.

<I.利点>
本実施の形態では、赤外線画像内のオブジェクトを表現するオブジェクト領域を特定し、オブジェクト領域に応じて所定領域を設定する。この設定された所定領域の明るさおよび大きさに基づいて、赤外線画像に含まれるオブジェクトの位置を決定するので、1つの撮像部があれば十分であり、実装コストを低減できる。また、フレーム毎に取得される赤外線画像内の所定領域の明るさおよび大きさを利用するので、距離算出に要する演算量を低減でき、より高速な処理を実現できる。
<I. Advantage>
In the present embodiment, an object area representing an object in the infrared image is specified, and a predetermined area is set according to the object area. Since the position of the object included in the infrared image is determined based on the set brightness and size of the predetermined area, it is sufficient to have one imaging unit, and the mounting cost can be reduced. In addition, since the brightness and size of a predetermined area in the infrared image acquired for each frame is used, the amount of calculation required for distance calculation can be reduced, and higher-speed processing can be realized.

本実施の形態では、非赤外線画像を用いて、赤外線画像の中からオブジェクト以外の物体に係る情報を除去/低減して、オブジェクトの位置や動きを検出する。これにより、オブジェクト以外の物体の情報によりオブジェクトの位置などが誤って決定されてしまうことを抑制できる。   In the present embodiment, using the non-infrared image, information on an object other than the object is removed / reduced from the infrared image, and the position and movement of the object are detected. Thereby, it can suppress that the position of an object etc. are determined accidentally by the information of objects other than an object.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した説明ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

1 情報処理装置、2 ディスプレイ、4 撮像部、6 入力部、8 通信部、10 CPU、12 DRAM、14 フラッシュメモリ、16 画像処理プログラム、18 アプリケーションプログラム、41,42 レンズ、43,44 撮像素子、45 照射部。   DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 2 Display, 4 Imaging part, 6 Input part, 8 Communication part, 10 CPU, 12 DRAM, 14 Flash memory, 16 Image processing program, 18 Application program, 41, 42 Lens, 43, 44 Image sensor, 45 Irradiation part.

Claims (15)

画像処理プログラムであって、コンピュータを
被写体からの赤外線の情報を主として含む赤外線画像と、前記被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得する画像取得手段と、
前記非赤外線画像の特徴量に基づいて、前記赤外線画像を補正する補正手段として機能させる、画像処理プログラム。
An image processing program for acquiring an infrared image mainly including infrared information from a subject and a non-infrared image mainly including light information having a wavelength different from that of the infrared from the subject;
An image processing program that functions as a correction unit that corrects the infrared image based on a feature amount of the non-infrared image.
前記非赤外線画像の特徴量は、前記赤外線画像からは得られない特徴量である、請求項1に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the feature quantity of the non-infrared image is a feature quantity that cannot be obtained from the infrared image. 前記非赤外線画像は、RGB画像を含む、請求項1または2に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the non-infrared image includes an RGB image. 前記補正手段は、前記RGB画像から前記被写体の肌色領域を特定し、当該肌色領域に基づいて、前記赤外線画像を補正する、請求項3に記載の画像処理プログラム。   The image processing program according to claim 3, wherein the correction unit specifies a skin color region of the subject from the RGB image and corrects the infrared image based on the skin color region. 前記画像取得手段は、IRフィルタを含むベイヤー配列の撮像素子から前記赤外線画像および前記非赤外線画像を取得する、請求項1〜4のいずれか1項に記載の画像処理プログラム。   The image processing program according to any one of claims 1 to 4, wherein the image acquisition unit acquires the infrared image and the non-infrared image from a Bayer array imaging device including an IR filter. 前記補正手段は、赤外線画像に含まれる前記被写体を示す有効な情報を選択的に用いる、請求項1〜5のいずれか1項に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the correction unit selectively uses effective information indicating the subject included in an infrared image. 前記補正手段は、赤外線画像の前記被写体が存在する領域以外を無視する、請求項6に記載の画像処理プログラム。   The image processing program according to claim 6, wherein the correction unit ignores a region other than the region where the subject exists in the infrared image. 前記補正手段は、赤外線画像の前記被写体が存在する領域だけを抽出する、請求項6に記載の画像処理プログラム。   The image processing program according to claim 6, wherein the correction unit extracts only a region where the subject exists in an infrared image. 前記補正手段は、前記非赤外線画像に含まれる被写体の形状を特定する形状特定手段を含み、特定された形状における特徴量に基づいて、前記赤外線画像を補正する、請求項1〜8のいずれか1項に記載の画像処理プログラム。   The correction unit includes a shape specifying unit that specifies a shape of a subject included in the non-infrared image, and corrects the infrared image based on a feature amount in the specified shape. The image processing program according to item 1. 前記補正手段は、前記非赤外線画像を2値化することにより前記特徴量を得る、請求項1〜9のいずれか1項に記載の画像処理プログラム。   The image processing program according to claim 1, wherein the correction unit obtains the feature amount by binarizing the non-infrared image. 前記補正手段は、2値化された非赤外線画像の各画素値を前記赤外線画像の各画素値に乗じる、請求項10に記載の画像処理プログラム。   The image processing program according to claim 10, wherein the correction unit multiplies each pixel value of the binarized non-infrared image by each pixel value of the infrared image. 前記画像処理プログラムは、前記コンピュータをさらに、前記補正手段により補正された赤外線画像の情報を、補正前の赤外線画像または前記非赤外線画像に反映する反映手段として機能させる、請求項1〜11のいずれか1項に記載の画像処理プログラム。   The image processing program causes the computer to further function as reflecting means for reflecting the information of the infrared image corrected by the correcting means in the infrared image before correction or the non-infrared image. The image processing program according to claim 1. 被写体の赤外光と、前記被写体からの赤外線とは異なる波長の光とを撮像する撮像部と、
前記撮像部の撮像により得られる赤外線画像の特徴量に基づいて、前記撮像部の撮像により得られる赤外線画像を補正する処理部とを備える、情報処理システム。
An imaging unit that captures infrared light of a subject and light having a wavelength different from infrared light from the subject;
An information processing system comprising: a processing unit that corrects an infrared image obtained by imaging of the imaging unit based on a feature amount of the infrared image obtained by imaging of the imaging unit.
被写体からの赤外線の情報を主として含む赤外線画像と、前記被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得する画像取得手段と、
前記非赤外線画像の特徴量に基づいて、前記赤外線画像を補正する補正手段とを備える、情報処理システム。
An image acquisition means for acquiring an infrared image mainly including infrared information from a subject and a non-infrared image mainly including information of light having a wavelength different from that of infrared rays from the subject;
An information processing system comprising: correction means for correcting the infrared image based on a feature amount of the non-infrared image.
被写体からの赤外線の情報を主として含む赤外線画像と、前記被写体からの赤外線とは異なる波長の光の情報を主として含む非赤外線画像とを取得するステップと、
前記非赤外線画像の特徴量に基づいて、前記赤外線画像を補正するステップとを備える画像処理方法。
Obtaining an infrared image mainly including infrared information from a subject and a non-infrared image mainly including light information of a wavelength different from the infrared rays from the subject;
Correcting the infrared image based on the feature quantity of the non-infrared image.
JP2014178056A 2014-09-02 2014-09-02 Image processing program, information processing system, and image processing method Active JP6368593B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014178056A JP6368593B2 (en) 2014-09-02 2014-09-02 Image processing program, information processing system, and image processing method
EP15176430.5A EP2993645B1 (en) 2014-09-02 2015-07-13 Image processing program, information processing system, information processing apparatus, and image processing method
US14/799,709 US10348983B2 (en) 2014-09-02 2015-07-15 Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014178056A JP6368593B2 (en) 2014-09-02 2014-09-02 Image processing program, information processing system, and image processing method

Publications (2)

Publication Number Publication Date
JP2016052096A true JP2016052096A (en) 2016-04-11
JP6368593B2 JP6368593B2 (en) 2018-08-01

Family

ID=55659294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014178056A Active JP6368593B2 (en) 2014-09-02 2014-09-02 Image processing program, information processing system, and image processing method

Country Status (1)

Country Link
JP (1) JP6368593B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106322A1 (en) * 2019-11-27 2021-06-03 パナソニックIpマネジメント株式会社 Infrared processing system, infrared sensor system, infrared processing method, and program
WO2021193238A1 (en) * 2020-03-27 2021-09-30 ソニーグループ株式会社 Information processing device, information processing method, and program
US11715185B2 (en) 2020-03-31 2023-08-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for obtaining image evaluation value distribution corresponding to an image

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009010669A (en) * 2007-06-28 2009-01-15 Sony Corp Image processing unit, imaging apparatus, image processing method, and program
JP2009232351A (en) * 2008-03-25 2009-10-08 Seiko Epson Corp Image pickup device and color filter array
JP2010022700A (en) * 2008-07-23 2010-02-04 Fujifilm Corp Endoscope system
JP2010035237A (en) * 2009-11-12 2010-02-12 Fujifilm Corp Position detection device and method of target image and program for controlling position detection device of target image
JP2011198270A (en) * 2010-03-23 2011-10-06 Denso It Laboratory Inc Object recognition device and controller using the same, and object recognition method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009010669A (en) * 2007-06-28 2009-01-15 Sony Corp Image processing unit, imaging apparatus, image processing method, and program
JP2009232351A (en) * 2008-03-25 2009-10-08 Seiko Epson Corp Image pickup device and color filter array
JP2010022700A (en) * 2008-07-23 2010-02-04 Fujifilm Corp Endoscope system
JP2010035237A (en) * 2009-11-12 2010-02-12 Fujifilm Corp Position detection device and method of target image and program for controlling position detection device of target image
JP2011198270A (en) * 2010-03-23 2011-10-06 Denso It Laboratory Inc Object recognition device and controller using the same, and object recognition method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021106322A1 (en) * 2019-11-27 2021-06-03 パナソニックIpマネジメント株式会社 Infrared processing system, infrared sensor system, infrared processing method, and program
JPWO2021106322A1 (en) * 2019-11-27 2021-06-03
WO2021193238A1 (en) * 2020-03-27 2021-09-30 ソニーグループ株式会社 Information processing device, information processing method, and program
US11715185B2 (en) 2020-03-31 2023-08-01 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and storage medium for obtaining image evaluation value distribution corresponding to an image

Also Published As

Publication number Publication date
JP6368593B2 (en) 2018-08-01

Similar Documents

Publication Publication Date Title
JP6866365B2 (en) Depth mapping with a head-mounted display using a stereo camera and structured light
US20170059305A1 (en) Active illumination for enhanced depth map generation
JP6139017B2 (en) Method for determining characteristics of light source and mobile device
EP3293698A1 (en) Time-of-flight measuring apparatus and image processing method for reducing blur of depth image therein
US9684840B2 (en) Detection system
US10078907B2 (en) Distance measurement apparatus, distance measurement method, and storage medium
US10348983B2 (en) Non-transitory storage medium encoded with computer readable image processing program, information processing system, information processing apparatus, and image processing method for determining a position of a subject in an obtained infrared image
US20200241697A1 (en) Position detecting method, position detecting device, and interactive projector
KR20110100582A (en) Information processing apparatus, information processing method, and program
TWI731206B (en) Systems and methods for compensating for vignetting
US8982101B2 (en) Optical touch system and optical touch-position detection method
US10853935B2 (en) Image processing system, computer readable recording medium, and image processing method
JP2022107533A (en) Systems, methods and apparatuses for focus selection using image disparity
US20140375821A1 (en) Detection system
JP6368593B2 (en) Image processing program, information processing system, and image processing method
TW201633077A (en) Image processing method capable of detecting noise and related navigation device
US10748019B2 (en) Image processing method and electronic apparatus for foreground image extraction
CN106803284B (en) Method and device for constructing three-dimensional image of face
WO2021049490A1 (en) Image registration device, image generation system, image registration method and image registration program
JP6386837B2 (en) Image processing program, information processing system, information processing apparatus, and image processing method
JP6390163B2 (en) Information processing apparatus, information processing method, and program
US11979666B2 (en) Processing apparatus, electronic apparatus, processing method, and program
JP2020160808A (en) Position detection method, position detection device, and interactive projector
US20130162601A1 (en) Optical touch system
JP7289308B2 (en) Image analysis device, image analysis method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180709

R150 Certificate of patent or registration of utility model

Ref document number: 6368593

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250