JP2013003859A - Projection device, projection method and program - Google Patents

Projection device, projection method and program Download PDF

Info

Publication number
JP2013003859A
JP2013003859A JP2011134641A JP2011134641A JP2013003859A JP 2013003859 A JP2013003859 A JP 2013003859A JP 2011134641 A JP2011134641 A JP 2011134641A JP 2011134641 A JP2011134641 A JP 2011134641A JP 2013003859 A JP2013003859 A JP 2013003859A
Authority
JP
Japan
Prior art keywords
projection
light
unit
wavelength
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011134641A
Other languages
Japanese (ja)
Inventor
Nobuhiro Saijo
信広 西条
Munekatsu Fukuyama
宗克 福山
Toru Yoshida
徹 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011134641A priority Critical patent/JP2013003859A/en
Publication of JP2013003859A publication Critical patent/JP2013003859A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Image Input (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To make a projection device accurately recognize posture or gesture or the like of a user even in an environment of using the projection device.SOLUTION: A first LED irradiates a subject with light of a first wavelength, a second LED irradiates the subject with light of a second wavelength longer than the first wavelength, an imaging element images the subject, an image processing part detects a skin area of the subject, on the basis of a first picked-up image obtained by the imaging performed when the light of the first wavelength is radiated, and a second picked-up image obtained by the imaging performed when the subject is irradiated with the light of the second wavelength, and a projection part projects a projection image changed according to the detection result of the image processing part. The present disclosure can be applied to, for example, a projector and the like.

Description

本開示は、投影装置、投影方法、及びプログラムに関し、特に、例えば、プロジェクタ等の投影装置が使用される環境下で、使用者のポスチャ又はジェスチャ等を認識できるようにした投影装置、投影方法、及びプログラムに関する。   The present disclosure relates to a projection apparatus, a projection method, and a program, and in particular, a projection apparatus, a projection method, and the like that can recognize a user's posture or gesture in an environment where the projection apparatus such as a projector is used. And the program.

被写体を撮像して得られる撮像画像上から、人間のポスチャ(姿勢)又はジェスチャ(動作)を認識する認識技術が存在する。   There is a recognition technique for recognizing a human posture (posture) or gesture (motion) from a captured image obtained by imaging a subject.

この認識技術では、撮像画像上の人間の手等を、パターンマッチング等により検出し、その検出結果に基づいて、人間のポスチャ又はジェスチャを認識する(例えば、特許文献1参照)。   In this recognition technique, a human hand or the like on a captured image is detected by pattern matching or the like, and a human posture or gesture is recognized based on the detection result (see, for example, Patent Document 1).

なお、パターンマッチングとは、例えば、人間の手の形状を表すパターン画像を、撮像画像上の各領域と比較し、パターン画像と最も類似するとの比較結果を得た領域に、人間の手が存在することを検出する技術をいう。   Note that pattern matching refers to, for example, a pattern image representing the shape of a human hand is compared with each area on the captured image, and a human hand exists in an area where the comparison result is most similar to the pattern image. A technology to detect what to do.

特開2004−302992号公報JP 2004-302992 A

上述の認識技術では、例えば、被写体を照らす照明が十分ではない(暗い)場合には、周囲の暗闇にまみれて、被写体が撮像画像上に写らないことが生じ得る。   In the above-described recognition technique, for example, when the illumination for illuminating the subject is not sufficient (dark), the subject may be covered with darkness in the surroundings and the subject may not be captured on the captured image.

この場合、撮像画像上には人間の手等が写っていないことになるので、上述のパターンマッチング等により人間の手等を検出することができない。   In this case, since a human hand or the like is not shown in the captured image, the human hand or the like cannot be detected by the above-described pattern matching or the like.

したがって、例えば、プロジェクタ等の投影装置を、使用者のポスチャやジェスチャ等で制御するような場合、その用いる環境下では、投影装置から投影される投影範囲以外の空間が真っ暗となる場合も多く、上述の認識技術を用いて、人間のポスチャ又はジェスチャを認識することは困難である。   Therefore, for example, when a projection device such as a projector is controlled by a user's posture or gesture, the space other than the projection range projected from the projection device is often dark in the environment used. It is difficult to recognize human postures or gestures using the recognition techniques described above.

本開示は、このような状況に鑑みてなされたものであり、投影装置を用いる環境下でも、投影装置に対して、使用者のポスチャ又はジェスチャ等を精度良く認識させるようにするものである。   The present disclosure has been made in view of such a situation, and allows the projection apparatus to accurately recognize a user's posture or gesture even in an environment where the projection apparatus is used.

本開示の一側面の投影装置は、被写体に対して第1の波長の光を照射する第1の照射部と、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射する第2の照射部と、前記被写体の撮像を行なう撮像部と、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出部と、前記検出部の検出結果に応じて変更される投影画像を投影する投影部とを含む投影装置である。   A projection device according to one aspect of the present disclosure includes a first irradiation unit that irradiates a subject with light having a first wavelength, and a second wavelength that is longer than the first wavelength with respect to the subject. A second irradiating unit that irradiates light, an imaging unit that images the subject, a first captured image obtained by imaging when irradiating light of the first wavelength, and the subject And a detection unit that detects a skin area of the subject based on a second captured image obtained by imaging when the light of the second wavelength is irradiated, and is changed according to a detection result of the detection unit. A projection unit that projects a projection image.

前記撮像部では、前記投影画像が投影される投影範囲を含む撮像範囲で、前記被写体の撮像を行うことができる。   The imaging unit can image the subject in an imaging range including a projection range on which the projection image is projected.

前記撮像部の撮像により得られる撮像画像上の前記投影範囲を算出する算出部をさらに設けることができる。   A calculation unit that calculates the projection range on a captured image obtained by imaging by the imaging unit can be further provided.

前記投影部では、前記投影範囲の輪郭を表す輪郭投影画像も投影し、前記算出部では、前記輪郭投影画像が投影されたときの撮像で得られる前記撮像画像上の前記投影範囲を算出することができる。   The projection unit also projects a contour projection image representing the contour of the projection range, and the calculation unit calculates the projection range on the captured image obtained by imaging when the contour projection image is projected. Can do.

前記第1の照射部では、前記第1の波長の不可視光を照射し、前記第2の照射部では、前記第2の波長の不可視光を照射し、前記投影部では、前記輪郭投影画像を、少なくとも可視光を含む投影光、又は不可視光の一方として投影することができる。   The first irradiation unit emits invisible light of the first wavelength, the second irradiation unit emits invisible light of the second wavelength, and the projection unit displays the contour projection image. , Projection light including at least visible light, or invisible light can be projected.

前記投影部では、前記輪郭投影画像を、前記投影光として投影し、前記撮像部では、可視光を遮断する可視光遮断部が設けられた第1の受光素子と、前記可視光遮断部が設けられていない第2の受光素子とにより構成される撮像素子を有し、前記第1の受光素子により、前記第1及び第2の撮像画像を生成し、前記第2の受光素子により、前記パターン画像を生成することができる。   The projection unit projects the contour projection image as the projection light, and the imaging unit includes a first light receiving element provided with a visible light blocking unit that blocks visible light, and the visible light blocking unit. A second light receiving element, the first light receiving element generates the first and second captured images, and the second light receiving element generates the pattern. An image can be generated.

前記投影部では、前記輪郭投影画像を不可視光として投影し、前記撮像部では、可視光を遮断する可視光遮断部が設けられた撮像素子を有し、前記撮像素子により、前記第1及び第2の撮像画像の他、前記パターン画像も生成することができる。   The projection unit projects the contour projection image as invisible light, and the imaging unit includes an imaging element provided with a visible light blocking unit that blocks visible light. In addition to the two captured images, the pattern image can also be generated.

可視光を遮断する可視光遮断部と、前記輪郭投影画像として、前記投影光が投影されるときに、前記撮像素子に可視光が入射されるように前記可視光遮断部を移動させ、前記第1の波長の光、又は前記第2の波長の光が照射されるときに、前記撮像素子に可視光が入射されないように前記可視光遮断部を移動させる移動制御部とをさらに設けることができる。   A visible light blocking unit configured to block visible light; and when the projection light is projected as the contour projection image, the visible light blocking unit is moved so that visible light is incident on the imaging element, and A movement control unit that moves the visible light blocking unit so that visible light is not incident on the imaging element when irradiated with light having the first wavelength or light having the second wavelength can be further provided. .

前記投影部では、予め決められた方向から入射される光を、前記投影範囲に反射させる反射部を有し、前記第1の照射部では、前記第1の波長の光を、前記反射部に反射させて前記投影範囲に照射し、前記第2の照射部では、前記第2の波長の光を、前記反射部に反射させて前記投影範囲に照射することができる。   The projection unit includes a reflection unit that reflects light incident from a predetermined direction to the projection range, and the first irradiation unit transmits light having the first wavelength to the reflection unit. Reflecting and irradiating the projection range, the second irradiation unit can reflect the light of the second wavelength to the reflection unit and irradiate the projection range.

前記第1の照射部では、前記第1の波長の光を、各画素値が均一な投影画像として反射させる前記反射部に反射させて前記投影範囲に照射し、前記第2の照射部では、前記第2の波長の光を、各画素値が均一な投影画像として反射させる前記反射部に反射させて前記投影範囲に照射することができる。   In the first irradiation unit, the light of the first wavelength is reflected to the reflection unit that reflects each pixel value as a projection image having a uniform pixel value to irradiate the projection range, and in the second irradiation unit, The light of the second wavelength can be reflected on the reflection unit that reflects the pixel value as a projection image having a uniform pixel value, and can be applied to the projection range.

前記第1の照射部から照射される前記第1の波長の光を、第1の偏光、又は前記第1の偏光とは異なる第2の偏光のうち、前記反射部で反射される前記第1の偏光に変換する第1の偏光変換部と、前記第2の照射部から照射される前記第2の波長の光を、前記第1の偏光又は前記第2の偏光のうち、前記反射部で反射される前記第1の偏光に変換する第2の偏光変換部とをさらに設けることができる。   The first wavelength that is reflected by the reflection unit among the first polarized light or the second polarized light different from the first polarized light is emitted from the first irradiation unit. The first polarization conversion unit that converts the light into the polarized light and the light having the second wavelength that is irradiated from the second irradiation unit is the reflection unit of the first polarization or the second polarization. A second polarization conversion unit that converts the first polarized light to be reflected may be further provided.

前記投影装置の動きを検知する動き検知部をさらに設けることができ、前記算出部では、前記動き検知部により、前記投影装置の動きが検知された場合にも、前記撮像画像上の前記投影範囲を算出することができる。   A motion detection unit that detects the motion of the projection device may be further provided, and the calculation unit may include the projection range on the captured image even when the motion detection unit detects the motion of the projection device. Can be calculated.

前記投影部では、前記投影範囲のうち、前記肌領域の検出された部分を除く範囲に、前記投影画像を投影することができる。   The projection unit can project the projection image in a range excluding the detected part of the skin region in the projection range.

前記撮像部では、撮像方向を変更可能であるようにすることができる。   In the imaging unit, the imaging direction can be changed.

前記肌領域が検出された前記撮像画像上の第1の位置を、前記撮像部の撮像方向に応じた第2の位置に変換する位置変換部をさらに設けることができ、前記投影部では、前記第2の位置に応じて変更された前記投影画像を投影することができる。   A position conversion unit that converts a first position on the captured image from which the skin region is detected to a second position according to an imaging direction of the imaging unit can be further provided. The projection image changed according to the second position can be projected.

前記第1の照射部では、前記第1の波長の光を前記投影範囲に照射し、前記第2の照射部では、前記第2の波長の光を前記投影範囲に照射し、前記検出部では、前記第1の撮像画像及び前記第2の撮像画像に基づいて、前記投射範囲内の前記肌領域を検出することができる。   The first irradiation unit irradiates the projection range with light of the first wavelength, the second irradiation unit irradiates the projection range with light of the second wavelength, and the detection unit The skin area within the projection range can be detected based on the first captured image and the second captured image.

前記第1の波長λ1、及び前記第2の波長λ2は、
640nm ≦ λ1 ≦ 1000nm
900nm ≦ λ2 ≦ 1100nm
を満たすようにすることができる。
The first wavelength λ1 and the second wavelength λ2 are:
640nm ≤ λ1 ≤ 1000nm
900nm ≤ λ2 ≤ 1100nm
Can be met.

前記第1の照射部では、前記第1の波長λ1の不可視光を照射し、前記第2の照射部では、前記第2の波長λ2の不可視光を照射することができる。
前記投影範囲における前記検出結果を、前記投影範囲内の位置に応じた信号として出力する出力部をさらに設けることができる。
The first irradiation unit can irradiate invisible light having the first wavelength λ1, and the second irradiation unit can irradiate invisible light having the second wavelength λ2.
An output unit that outputs the detection result in the projection range as a signal corresponding to a position in the projection range may be further provided.

本開示の一側面の投影方法は、投影装置の投影方法であって、前記投影装置による、被写体に対して第1の波長の光を照射する第1の照射ステップと、前記第1の波長の光を照射させたときの前記被写体の撮像を行なう第1の撮像ステップと、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射する第2の照射ステップと、前記第2の波長の光を照射させたときの前記被写体の撮像を行なう第2の撮像ステップと、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出ステップと、前記検出ステップの検出結果に応じて変更される投影画像を投影する投影ステップとを含む投影方法である。   A projection method according to one aspect of the present disclosure is a projection method of a projection device, wherein the projection device irradiates a subject with light having a first wavelength, and the first wavelength of the projection device. A first imaging step of imaging the subject when irradiated with light, and a second irradiation step of irradiating the subject with light having a second wavelength longer than the first wavelength. A second imaging step for imaging the subject when the second wavelength light is irradiated, and a first captured image obtained by imaging when the first wavelength light is irradiated And a detection step of detecting a skin region of the subject based on a second captured image obtained by imaging when the subject is irradiated with light of the second wavelength, and detection of the detection step Projecting a projection image that changes depending on the result It is a projection method that includes a shadow step.

本開示の一側面のプログラムは、コンピュータに、被写体に対して第1の波長の光を照射させる第1の照射ステップと、前記第1の波長の光を照射させたときの前記被写体の撮像を行なわせる第1の撮像ステップと、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射させる第2の照射ステップと、前記第2の波長の光を照射させたときの前記被写体の撮像を行なわせる第2の撮像ステップと、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出ステップと、前記検出ステップの検出結果に応じて変更される投影画像を投影させる投影ステップとを含む処理を実行させるためのプログラムである。   A program according to one aspect of the present disclosure includes a first irradiation step of causing a computer to irradiate light of a first wavelength on a subject, and imaging of the subject when the light of the first wavelength is irradiated. A first imaging step to be performed; a second irradiation step of irradiating the subject with light having a second wavelength longer than the first wavelength; and irradiating the light with the second wavelength. A second imaging step for imaging the subject when the second imaging step is performed, a first captured image obtained by imaging when the light of the first wavelength is irradiated, and the second for the subject. A detection step for detecting a skin region of the subject based on a second captured image obtained by imaging when light having a wavelength of λ is irradiated, and a projection image that is changed according to the detection result of the detection step A projection step to project Is a program for executing the untreated.

本開示の一側面によれば、被写体に対して第1の波長の光が照射され、前記第1の波長の光を照射させたときの前記被写体の撮像が行なわれ、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光が照射され、前記第2の波長の光を照射させたときの前記被写体の撮像が行なわれ、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域が検出され、その検出結果に応じて変更される投影画像が投影される。   According to one aspect of the present disclosure, the subject is irradiated with light having a first wavelength, and the subject is imaged when the subject is irradiated with light having the first wavelength. The light of the second wavelength that is longer than the first wavelength is irradiated, and the subject is imaged when the light of the second wavelength is irradiated, and the light of the first wavelength is irradiated Skin of the subject based on a first captured image obtained by imaging when the image is captured and a second captured image obtained by imaging when the subject is irradiated with light of the second wavelength A region is detected, and a projection image that is changed according to the detection result is projected.

本開示によれば、投影装置を用いる環境下でも、投影装置に対して、使用者のポスチャ又はジェスチャ等を精度良く認識させることが可能となる。   According to the present disclosure, even in an environment where a projection apparatus is used, the projection apparatus can recognize a user's posture or gesture with high accuracy.

本開示におけるプロジェクタの構成例を示すブロック図である。It is a block diagram which shows the structural example of the projector in this indication. キャリブレーション処理を説明するための図である。It is a figure for demonstrating a calibration process. プロジェクタに含まれる肌検出部及び投影部の詳細な第1の構成例を示す図である。It is a figure which shows the detailed 1st structural example of the skin detection part and projection part which are contained in a projector. 人間の肌に対する分光反射特性を示す図である。It is a figure which shows the spectral reflection characteristic with respect to human skin. 図3の肌検出部が行うジェスチャ認識処理を説明するためのフローチャートである。It is a flowchart for demonstrating the gesture recognition process which the skin detection part of FIG. 3 performs. 図3の投影部が行う投影処理を説明するためのフローチャートである。It is a flowchart for demonstrating the projection process which the projection part of FIG. 3 performs. プロジェクタに含まれる肌検出部及び投影部の詳細な第2の構成例を示す図である。It is a figure which shows the detailed 2nd structural example of the skin detection part and projection part which are contained in a projector. プロジェクタに含まれる肌検出部及び投影部の詳細な第3の構成例を示す図である。It is a figure which shows the detailed 3rd structural example of the skin detection part and projection part which are contained in a projector. 図8の肌検出部及び投影部が行なうジェスチャ認識投影処理を説明するためのフローチャートである。It is a flowchart for demonstrating the gesture recognition projection process which the skin detection part and projection part of FIG. 8 perform. コンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of a computer.

以下、本開示における実施の形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.第1の実施の形態(人間のジェスチャ等を検知可能なジェスチャ検知可能範囲内に、プロジェクタにより投影される投影範囲が含まれるときの一例)
2.第2の実施の形態(ジェスチャ検知可能範囲と投影範囲とが一致するときの一例)
3.第3の実施の形態(ジェスチャ検知可能範囲と投影範囲とが一致するときの他の一例)
4.変形例
Hereinafter, embodiments of the present disclosure (hereinafter referred to as embodiments) will be described. The description will be given in the following order.
1. 1st Embodiment (an example when the projection range projected by a projector is included in the gesture detectable range which can detect a human gesture etc.)
2. Second embodiment (an example when the gesture detectable range coincides with the projection range)
3. Third Embodiment (Another example when the gesture detectable range and the projection range match)
4). Modified example

<1.第1の実施の形態>
[プロジェクタ21の構成例]
図1は、第1の実施の形態であるプロジェクタ21の構成例を示している。
<1. First Embodiment>
[Configuration Example of Projector 21]
FIG. 1 shows a configuration example of a projector 21 according to the first embodiment.

なお、このプロジェクタ21は、例えば、パーソナルコンピュータ22と接続可能とされており、接続されたパーソナルコンピュータ22から供給される投影画像を投影する他、使用者のジャスチャやポスチャに応じた入力操作により操作可能なものである。   The projector 21 can be connected to, for example, a personal computer 22, and projects a projection image supplied from the connected personal computer 22 and can be operated by an input operation corresponding to a user's gesture or posture. It is possible.

プロジェクタ21は、肌検出部41、投影部42、制御部43、及び操作部44から構成される。なお、図1では、制御信号の流れを点線で表し、データ信号の流れを実線で表すようにしている。このことは、後述する図3、図7及び図8でも同様である。   The projector 21 includes a skin detection unit 41, a projection unit 42, a control unit 43, and an operation unit 44. In FIG. 1, the flow of the control signal is represented by a dotted line, and the flow of the data signal is represented by a solid line. This also applies to FIGS. 3, 7, and 8 described later.

肌検出部41は、例えば、図1に示されるようなジェスチャ検知可能範囲で行われる使用者のジェスチャやポスチャ(以下、ジェスチャ等という)を検知し、その検知結果を、パーソナルコンピュータ22に供給する。なお、後述するが、肌検出部41は、ジェスチャ検知可能範囲を、撮像範囲として撮像を行い、その撮像により得られる撮像画像に基づいて、使用者のジェスチャ等を検知する。   The skin detection unit 41 detects, for example, a user's gesture or posture (hereinafter referred to as a gesture) performed in a gesture detectable range as shown in FIG. 1 and supplies the detection result to the personal computer 22. . As will be described later, the skin detection unit 41 captures the gesture detectable range as an imaging range, and detects a user's gesture or the like based on a captured image obtained by the imaging.

また、肌検出部41は、使用者のジェスチャ等を検知する前に、ジェスチャ検知可能範囲内のいずれの領域に、投影部42により投影画像が投影される範囲を表す投影範囲が含まれるかを検出するキャリブレーション処理を行う。このキャリブレーション処理は、後述する図2を参照して詳述する。   In addition, before detecting the user's gesture or the like, the skin detection unit 41 determines which region within the gesture detectable range includes a projection range representing a range where the projection image is projected by the projection unit 42. Perform calibration processing to detect. This calibration process will be described in detail with reference to FIG.

肌検出部41は、検知されたジェスチャ等が、投影範囲内で検知されたかものであるか否かを判定し、その判定結果も、検知結果とともに、パーソナルコンピュータ22に供給する。   The skin detection unit 41 determines whether the detected gesture or the like has been detected within the projection range, and supplies the determination result to the personal computer 22 together with the detection result.

このため、例えば、パーソナルコンピュータ22では、検知結果として、同一のジェスチャ等が供給された場合でも、投影範囲内で検知されたものであるか否かに応じて異なる処理を行うようにすることができる。   For this reason, for example, in the personal computer 22, even when the same gesture or the like is supplied as a detection result, different processing is performed depending on whether or not the detection is within the projection range. it can.

すなわち、例えば、パーソナルコンピュータ22は、投影範囲内で、使用者の手が検知されたことを表す検知結果が供給された場合、投影部42を制御して、その検知結果に基づく投影画像を投影させる。   That is, for example, when a detection result indicating that the user's hand has been detected is supplied within the projection range, the personal computer 22 controls the projection unit 42 to project a projection image based on the detection result. Let

具体的には、例えば、パーソナルコンピュータ22は、使用者の手が検知された位置に対応する投影画像上の位置に、カーソル等が表示された投影画像を投影させる。
また例えば、パーソナルコンピュータ22は、使用者の手が検出された位置に対応する、投影画像上のアイコンをハイライトさせることができる。
さらに、例えば、そのまま所定時間、使用者の手がアイコン上にとどまった場合、つまり、使用者の手が、検出された位置で所定時間とどまった場合、使用者の手が検出された位置に対応する、投影画像上のアイコンが選択されたものと判断して、対応する投影画像を投影させる。
この場合、検出され制御に用いられる手や指は1つであるとは限らない。例えば投影画面上に両手が検出され、両手の間の距離が拡大したときは、両手の間の距離に応じて拡大された投影画像を投影させるようにしてもよい。
Specifically, for example, the personal computer 22 projects a projection image on which a cursor or the like is displayed at a position on the projection image corresponding to the position where the user's hand is detected.
For example, the personal computer 22 can highlight an icon on the projection image corresponding to the position where the user's hand is detected.
Furthermore, for example, when the user's hand stays on the icon for a predetermined time, that is, when the user's hand stays at the detected position for a predetermined time, it corresponds to the position where the user's hand is detected. It is determined that the icon on the projection image is selected, and the corresponding projection image is projected.
In this case, the number of hands and fingers detected and used for control is not necessarily one. For example, when both hands are detected on the projection screen and the distance between both hands is enlarged, a projection image enlarged according to the distance between both hands may be projected.

また、例えば、パーソナルコンピュータ22は、ジェスチャ検知可能範囲のうち、投影範囲とは異なる範囲内で、使用者の手が検知されたことを表す検知結果が供給された場合、投影部42を制御して、その検知結果に基づく投影画像を投影させる。   Further, for example, the personal computer 22 controls the projection unit 42 when a detection result indicating that the user's hand has been detected is supplied within a range different from the projection range in the gesture detectable range. Then, a projection image based on the detection result is projected.

具体的には、例えば、パーソナルコンピュータ22は、カーソル等を表示しない投影画像を投影させる。
なお、肌検出部41は、検知結果等を、パーソナルコンピュータ22に出力するようにしている。そして、パーソナルコンピュータ22は、肌検出部41からの検知結果等に応じて、投影される投影画像を変更しているが、これに限定されない。
すなわち、例えば、肌検出部41は、検知結果等に応じて、投影画像に表示させるカーソル等の座標(位置)を算出し、算出した座標をパーソナルコンピュータ22に出力してもよい。
この場合、パーソナルコンピュータ22は、肌検出部41からの座標にカーソル等が表示される投影画像を投影させることとなる。
なお、肌検出部41は、カーソル等の座標に代えて、前回のカーソル等の座標と、今回のカーソル等の座標との変化値を算出し、算出した変化値をパーソナルコンピュータ22に出力してもよい。
この場合、パーソナルコンピュータ22は、肌検出部41からの変化値に基づき、カーソル等の座標を算出し、算出した座標にカーソル等が表示される投影画像を投影させることとなる。
また、例えば、プロジェクタ21に内蔵のメモリ(図示せず)や、プロジェクタ21に外部から接続されたメモリースティック等に記憶されている画像を、投影画像として投影させる場合、パーソナルコンピュータ22を介さずに、投影させることができる。
すなわち、例えば、肌検出部41は、検知結果等基づいて、上述したパーソナルコンピュータ22と同様にして、投影画像を変更させるように投影部42を制御して、投影部42から変更後の投影画像を投影させる。
Specifically, for example, the personal computer 22 projects a projection image that does not display a cursor or the like.
The skin detection unit 41 outputs detection results and the like to the personal computer 22. And although the personal computer 22 has changed the projection image projected according to the detection result from the skin detection part 41, etc., it is not limited to this.
That is, for example, the skin detection unit 41 may calculate the coordinates (position) of a cursor or the like to be displayed on the projection image according to the detection result or the like, and output the calculated coordinates to the personal computer 22.
In this case, the personal computer 22 projects a projection image in which a cursor or the like is displayed on the coordinates from the skin detection unit 41.
The skin detection unit 41 calculates a change value between the previous cursor coordinate and the current cursor coordinate instead of the cursor coordinate, and outputs the calculated change value to the personal computer 22. Also good.
In this case, the personal computer 22 calculates coordinates such as a cursor based on the change value from the skin detection unit 41, and projects a projection image on which the cursor is displayed on the calculated coordinates.
For example, when projecting an image stored in a memory (not shown) built in the projector 21 or a memory stick connected to the projector 21 from the outside as a projection image, the personal computer 22 is not used. Can be projected.
That is, for example, the skin detection unit 41 controls the projection unit 42 to change the projection image based on the detection result or the like, and changes the projection image from the projection unit 42 in the same manner as the personal computer 22 described above. Project.

投影部42は、例えば、接続されたパーソナルコンピュータ22からの投影画像を、図1に示されるような投影範囲に投影する。図1では、投影範囲は、ジェスチャ検知可能範囲内とされているが、投影範囲は、これに限定されない。   For example, the projection unit 42 projects a projection image from the connected personal computer 22 onto a projection range as shown in FIG. In FIG. 1, the projection range is within the gesture detectable range, but the projection range is not limited to this.

すなわち、例えば、投影範囲は、ジェスチャ検知可能範囲内に全て含まれる範囲とされる他、ジェスチャ検知可能範囲内に一部だけ含まれる範囲、又はジャスチャ可能範囲内に全く含まれない範囲とされるようにしてもよい。なお、投影範囲とジェスチャ検知可能範囲とが同一とされる場合については、図7及び図8を参照して後述する。   That is, for example, the projection range is a range that is entirely included in the gesture detectable range, a range that is partially included in the gesture detectable range, or a range that is not included in the gesture possible range at all. You may do it. The case where the projection range and the gesture detectable range are the same will be described later with reference to FIGS. 7 and 8.

制御部43は、例えば、操作部44からの操作信号に基づいて、肌検出部41及び投影部42を制御する。   For example, the control unit 43 controls the skin detection unit 41 and the projection unit 42 based on an operation signal from the operation unit 44.

操作部44は、例えば、操作ボタン等からなり、使用者に操作されたことに対応して、使用者の操作に対応する操作信号を、制御部43に供給する。   The operation unit 44 includes, for example, operation buttons and the like, and supplies an operation signal corresponding to the user's operation to the control unit 43 in response to the operation by the user.

[キャリブレーション処理の詳細]
次に、図2を参照して、肌検出部41が行なうキャリブレーション処理の一例を説明する。
[Details of calibration process]
Next, an example of calibration processing performed by the skin detection unit 41 will be described with reference to FIG.

図2は、4隅の部分のみ高輝度値とされた輪郭投影画像が投影されている状態で、ジェスチャ検知可能範囲を撮像範囲として撮像した場合に得られる撮像画像I_patternの一例を示している。なお、輪郭投影画像とは、例えば、高輝度値とされた4隅の部分により、投影範囲の輪郭を表す画像をいうが、これには限定されない。すなわち例えば高輝度値とされた4辺により投影画像の輪郭を表してもよいし、単純に画面全面を高輝度値とした四角形により投影画像の輪郭を表してもよい。   FIG. 2 shows an example of a captured image I_pattern obtained when an image of the gesture detectable range is captured as an imaging range in a state where a contour projection image having high brightness values is projected only at the four corners. Note that the contour projection image is, for example, an image representing the contour of the projection range by the four corner portions having high luminance values, but is not limited thereto. That is, for example, the outline of the projected image may be represented by four sides having high luminance values, or the outline of the projected image may be simply represented by a rectangle having the entire screen with high luminance values.

ここで、プロジェクタ21は、一般的に、室内の照明を暗くした状態で使用される。したがって、図2に示される撮像画像I_patternは、暗闇の中、投影部42により輪郭投影画像が投影された状態で、肌検出部41の内蔵するカメラ(図3の撮像素子63及びレンズ64等)の撮像により取得される。   Here, the projector 21 is generally used in a state where the illumination in the room is darkened. Therefore, the captured image I_pattern shown in FIG. 2 is a camera built in the skin detection unit 41 (the imaging element 63, the lens 64, etc. in FIG. 3) in the dark, with the projected contour image projected by the projection unit 42. It is acquired by imaging.

したがって、撮像画像I_patternでは、白丸で示す部分(輪郭投影画像の4隅の部分に対応)の輝度値は高いものとなっており、それ以外の部分の輝度値は低いものとなっている。
ここでレンズ64の前面には可視光カットフィルタ65が移動可能に配置されている。撮像素子63は一般的に、可視光と、肌検出用にLED62a、62bから照射される不可視光である近赤外光の両方に感度をもつため、可視光カットフィルタは可視光が撮像素子に入射するのを防止して、肌検出の精度を向上させるためのものである。しかし投影画像は可視光であり、輪郭投影画像もこの構成では可視光となるので、輪郭投影画像を取得する際には可視光カットフィルタ65を移動させて、撮像素子が可視光からなる輪郭投影画像を取得できるようにする。
Therefore, in the captured image I_pattern, the luminance value of the portion indicated by the white circle (corresponding to the four corner portions of the contour projection image) is high, and the luminance value of the other portion is low.
Here, a visible light cut filter 65 is movably disposed on the front surface of the lens 64. Since the image sensor 63 is generally sensitive to both visible light and near-infrared light that is invisible light emitted from the LEDs 62a and 62b for skin detection, the visible light cut filter uses visible light as an image sensor. This is to prevent the incidence and improve the accuracy of skin detection. However, since the projection image is visible light and the contour projection image is also visible light in this configuration, when acquiring the contour projection image, the visible light cut filter 65 is moved, and the contour projection in which the imaging element is made of visible light is performed. Make the image available.

キャリブレーション処理では、撮像画像内の投影画像の位置や大きさを算出する。撮像画像内の投影画像は、プロジェクタ21と投影画像を投影するスクリーンの相対位置や角度により変化するので、これらが変化した場合にはキャリブレーション処理を行なうとよい。
キャリブレーション処理は、例えば、使用者が、操作部44を操作して、プロジェクタ21の電源をオンする電源オン操作をしたときに開始される。このとき、操作部44は、使用者の電源オン操作に対応する操作信号を、制御部43に供給する。
In the calibration process, the position and size of the projected image in the captured image are calculated. Since the projected image in the captured image changes depending on the relative position and angle between the projector 21 and the screen on which the projected image is projected, calibration processing may be performed when these change.
The calibration process is started, for example, when the user performs a power-on operation to turn on the projector 21 by operating the operation unit 44. At this time, the operation unit 44 supplies an operation signal corresponding to the user's power-on operation to the control unit 43.

制御部43は、操作部44からの操作信号に対応して、肌検出部41及び投影部42を制御して、キャリブレーション処理を行わせる。またプロジェクタ21に
プロジェクタ21の動きを検出するセンサを設けて、プロジェクタの移動や傾きの変化を検出したら自動的にキャリブレーション処理を行なうようにしてもよい。
In response to the operation signal from the operation unit 44, the control unit 43 controls the skin detection unit 41 and the projection unit 42 to perform calibration processing. Further, the projector 21 may be provided with a sensor for detecting the movement of the projector 21 so that the calibration process is automatically performed when the movement or tilt change of the projector is detected.

すなわち、例えば、投影部42は、制御部43からの制御にしたがって、輪郭投影画像を、投影範囲に投影する。   That is, for example, the projection unit 42 projects the contour projection image on the projection range in accordance with the control from the control unit 43.

また、肌検出部41は、輪郭投影画像が投影範囲に投影された状態で、ジェスチャ検知可能範囲を、撮像範囲として撮像する。なお、肌検出部41は、撮像を行なうカメラを有する。肌検出部41の詳細は、例えば図3を参照して詳述する。   The skin detection unit 41 captures the gesture detectable range as an imaging range in a state where the contour projection image is projected onto the projection range. The skin detection unit 41 includes a camera that performs imaging. Details of the skin detection unit 41 will be described in detail with reference to FIG.

肌検出部41は、その撮像により、例えば、図2に示されるような撮像画像I_patternを取得する。   The skin detection unit 41 acquires, for example, a captured image I_pattern as illustrated in FIG.

肌検出部41は、図2に示されるような撮像画像I_patternに基づいて、ジェスチャ検知可能範囲のうち、投影範囲とされる部分を検出する。   The skin detection unit 41 detects a portion to be a projection range in the gesture detectable range based on the captured image I_pattern as illustrated in FIG.

すなわち、例えば、肌検出部41は、図2に示されるような撮像画像I_patternを構成する各画素の輝度値が、予め決められた閾値以上であるか否かに応じて、高輝度値の画素(図2において白色で示される部分)を検出する。   That is, for example, the skin detection unit 41 determines whether or not the luminance value of each pixel constituting the captured image I_pattern as illustrated in FIG. 2 is equal to or higher than a predetermined threshold value. (The part shown in white in FIG. 2) is detected.

また、肌検出部41は、検出される高輝度値の画素を角とする矩形を、投影範囲として検出し、その検出結果に基づいて、撮像画像上の投影範囲の位置や大きさを算出する。
なお、ここで投影部42と投影画像が投影されるスクリーンが斜めに配置されている場合、すなわち、例えば、垂直に設置されたスクリーンの前面上部に投影部42が設置された場合、投影画像は長方形にならず台形になってしまう。
この台形に歪んだ投影画像を画像処理により長方形にする補正はキーストーン補正とも呼ばれる。キーストーン補正を行なった場合には、補正後にキャリブレーション処理を行なって、撮像画像I_patternに基づいて、ジェスチャ検知可能範囲のうち、投影範囲とされる部分を検出するようにしてもよい。
なお、キーストーン補正では、例えば、アフィン変換等を用いて、投影画像の形状を、台形から長方形に補正する。
In addition, the skin detection unit 41 detects, as a projection range, a rectangle whose corner is a pixel with a detected high luminance value, and calculates the position and size of the projection range on the captured image based on the detection result. .
Here, when the projection unit 42 and the screen on which the projection image is projected are arranged obliquely, that is, for example, when the projection unit 42 is installed on the upper front surface of the screen installed vertically, the projection image is It becomes a trapezoid instead of a rectangle.
This correction of the projection image distorted into a trapezoid into a rectangle by image processing is also called keystone correction. When the keystone correction is performed, a calibration process may be performed after the correction, and a portion to be a projection range in the gesture detectable range may be detected based on the captured image I_pattern.
In the keystone correction, for example, the shape of the projected image is corrected from a trapezoid to a rectangle by using affine transformation or the like.

そして、肌検出部41は、算出した撮像画像上の投影範囲の位置や大きさを表す投影範囲情報を、肌検出部41の内蔵する図示せぬメモリ等に保持する。なお、この投影範囲情報は、使用者のジェスチャ等が、投影範囲内で検知されたか否かを判定するために用いられる。   The skin detection unit 41 holds projection range information indicating the calculated position and size of the projection range on the captured image in a memory (not shown) built in the skin detection unit 41. This projection range information is used to determine whether a user gesture or the like has been detected within the projection range.

ところで、投影部42は、4隅の部分のみ高輝度値とされた輪郭投影画像を投影するようにしたが、その他、例えば、4隅のうち、投影範囲の対角線上の2隅のみ高輝度値とされた輪郭投影画像を投影するようにしてもよい。   By the way, the projection unit 42 is configured to project the contour projection image in which only the four corner portions are set to the high luminance value, but, for example, among the four corners, only the two corners on the diagonal line of the projection range have the high luminance value. The contour projected image may be projected.

すなわち、輪郭投影画像は、投影範囲の輪郭を表す投影画像であれば、どのような投影画像であってもよい。
また、撮像画像上の投影範囲情報を取得するために、操作者のジェスチャ操作を利用することもできる。例えば4隅の部分のみ高輝度化された輪郭投影画像を投影した状態で、操作者が4隅の高輝度化された部分に手や指を順に所定時間置くような指示をプロジェクタから投影画面に出すようにしてもよい。例えば操作者の指先を肌検出により検出し、操作者が指差した4隅を頂点とする四角形を輪郭投影画像として認識するようにしてもよい。
この方法では撮像素子63の前面の可視光カットフィルタを移動する必要がないので、肌検出部の小型化や低コスト化が実現できる。
That is, the outline projection image may be any projection image as long as it is a projection image representing the outline of the projection range.
An operator's gesture operation can also be used to acquire projection range information on the captured image. For example, with a projected contour image with high brightness only at the four corners, the operator gives instructions from the projector to the projection screen to place his hands and fingers in order on the brightened parts at the four corners for a predetermined time. You may make it take out. For example, the fingertip of the operator may be detected by skin detection, and a quadrangle with the four corners pointed by the operator may be recognized as a contour projection image.
In this method, since it is not necessary to move the visible light cut filter in front of the image sensor 63, it is possible to reduce the size and cost of the skin detection unit.

[肌検出部41及び投影部42の詳細]
次に、図3は、プロジェクタ21に含まれる肌検出部41及び投影部42の詳細な第1の構成例を示している。
[Details of Skin Detection Unit 41 and Projection Unit 42]
Next, FIG. 3 shows a detailed first configuration example of the skin detection unit 41 and the projection unit 42 included in the projector 21.

肌検出部41は、DSP(digital signal processor)61、LED(light-emitting diode)62a、LED62b、撮像素子63、レンズ64、及び可視光カットフィルタ65から構成される。なお、LED62aの個数、及びLED62bの個数は、それぞれ、1個に限定されず、必要に応じて複数個とされる。   The skin detection unit 41 includes a DSP (digital signal processor) 61, an LED (light-emitting diode) 62a, an LED 62b, an image sensor 63, a lens 64, and a visible light cut filter 65. Note that the number of the LEDs 62a and the number of the LEDs 62b are not limited to one each, and may be plural if necessary.

DSP61は、例えば、図示せぬメモリ等に保持された制御用プログラムを実行することにより、LED制御部81及び画像処理部82として機能する。   The DSP 61 functions as the LED control unit 81 and the image processing unit 82 by, for example, executing a control program held in a memory (not shown) or the like.

LED制御部81は、撮像素子63からのフレーム同期信号に基づいて、LED62a及びLED62bを制御し、LED62aやLED62bの消灯及び点灯を制御する。ここで、フレーム同期信号とは、撮像素子63の撮像が行われるタイミングを表す。   The LED control unit 81 controls the LEDs 62a and 62b based on the frame synchronization signal from the image sensor 63, and controls turning off and lighting of the LEDs 62a and 62b. Here, the frame synchronization signal represents the timing at which the imaging element 63 is imaged.

すなわち、例えば、LED制御部81は、撮像素子63からのフレーム同期信号に基づいて、撮像素子63により1枚の画像の撮像が行われる毎に、LED62aのみを点灯、LED62bのみを点灯、LED62a及びLED62bのいずれも消灯を繰り返して行わせる。   That is, for example, based on the frame synchronization signal from the image sensor 63, the LED control unit 81 lights only the LED 62a, lights only the LED 62b, and turns on the LED 62a and the image 62a each time an image is captured by the image sensor 63. All of the LEDs 62b are repeatedly turned off.

画像処理部82は、撮像素子63からの撮像画像I_patternを取得する。そして、画像処理部82は、撮像素子63からの撮像画像I_patternに基づいて、図2を参照して説明したように、撮像素子63からの撮像画像上の投影範囲の位置や大きさを検出するキャリブレーション処理を行う。   The image processing unit 82 acquires a captured image I_pattern from the image sensor 63. The image processing unit 82 detects the position and size of the projection range on the captured image from the image sensor 63 based on the captured image I_pattern from the image sensor 63 as described with reference to FIG. Perform calibration processing.

そして、画像処理部82は、キャリブレーション処理により検出した撮像画像上の投影範囲の位置や大きさを表す投影範囲情報を、内蔵するメモリ(図示せず)に保持する。   The image processing unit 82 holds projection range information indicating the position and size of the projection range on the captured image detected by the calibration process in a built-in memory (not shown).

さらに、画像処理部82は、撮像素子63からの撮像画像I_λ1,I_λ2,I_offを取得する。ここで、撮像画像I_λ1とは、波長λ1の光を発光するLED62aのみが点灯した状態で、撮像素子63の撮像により得られた画像を表す。   Further, the image processing unit 82 acquires captured images I_λ1, I_λ2, and I_off from the image sensor 63. Here, the captured image I_λ1 represents an image obtained by imaging with the imaging element 63 in a state where only the LED 62a that emits light of wavelength λ1 is turned on.

また、撮像画像I_λ2とは、波長λ2の光を発光するLED62bのみが点灯した状態で、撮像素子63の撮像により得られた画像を表す。さらに、撮像画像I_offとは、LED62a及びLED62bのいずれも消灯した状態で、撮像素子63の撮像により得られた画像を表す。   The captured image I_λ2 represents an image obtained by imaging with the imaging element 63 in a state where only the LED 62b that emits light with the wavelength λ2 is turned on. Furthermore, the captured image I_off represents an image obtained by imaging with the imaging element 63 in a state where both the LED 62a and the LED 62b are turned off.

画像処理部82は、取得した各撮像画像I_λ1,I_λ2,I_offに対して、LPF(low pass filter)を用いた平滑化を行う。また、画像処理部82は、各画素ごとに、撮像画像I_λ1の輝度値Y(λ1)から、撮像画像I_λ2の輝度値Y(λ2)を減算して得られる差分(Y(λ1) - Y(λ2))を算出する。   The image processing unit 82 smoothes the acquired captured images I_λ1, I_λ2, and I_off using LPF (low pass filter). Further, the image processing unit 82 subtracts the luminance value Y (λ2) of the captured image I_λ2 from the luminance value Y (λ1) of the captured image I_λ1 for each pixel (Y (λ1) −Y ( λ2)) is calculated.

さらに、画像処理部82は、撮像画像I_λ1又は撮像画像I_λ2の少なくとも一方に基づく値として、例えば輝度値(Y(λ1) Y(off))で、差分(Y(λ1) - Y(λ2))を正規化(除算)する。なお、輝度値Y(off)は、撮像画像I_offの輝度値を表す。   Furthermore, the image processing unit 82 uses, for example, a luminance value (Y (λ1) Y (off)) as a value based on at least one of the captured image I_λ1 or the captured image I_λ2, and a difference (Y (λ1) −Y (λ2)) Normalize (divide). Note that the luminance value Y (off) represents the luminance value of the captured image I_off.

そして、画像処理部82は、正規化後の差分{(Y(λ1) - Y(λ2))/(Y(λ1) Y(off))}に所定の値(例えば、100)を乗算して得られる差分画像I_diff(={(I_λ1 - I_λ2)/(I_λ1 I_off)}×100)を、予め決められた2値化用の閾値で2値化して、2値化肌画像I_skinを算出する。   The image processing unit 82 multiplies the normalized difference {(Y (λ1) −Y (λ2)) / (Y (λ1) Y (off))} by a predetermined value (for example, 100). The obtained difference image I_diff (= {(I_λ1−I_λ2) / (I_λ1 I_off)} × 100) is binarized with a predetermined threshold for binarization to calculate a binarized skin image I_skin.

なお、差分画像I_diff(={(I_λ1 - I_λ2)/(I_λ1 I_off)}×100)は、撮像画像I_λ1の輝度値が、撮像画像I_λ2の輝度値に対して、何パーセント高いものであるかを表す。また、2値化用の閾値としては、例えば、10パーセントを用いることができる。
ここで撮像画像I_offの輝度値Y(off)は、LED62a、62bの照射光以外の外光の影響を除去するために用いており、これにより肌検出の精度を向上することができる。しかし、プロジェクタ21は、比較的暗い環境で使用されることが多いため、撮像画像I_offの取得は省略してもよい。
Note that the difference image I_diff (= {(I_λ1-I_λ2) / (I_λ1 I_off)} × 100) indicates how much the luminance value of the captured image I_λ1 is higher than the luminance value of the captured image I_λ2. To express. As the binarization threshold value, for example, 10% can be used.
Here, the luminance value Y (off) of the captured image I_off is used to remove the influence of external light other than the irradiation light of the LEDs 62a and 62b, thereby improving the accuracy of skin detection. However, since the projector 21 is often used in a relatively dark environment, acquisition of the captured image I_off may be omitted.

画像処理部82は、算出した2値化肌画像I_skinに基づいて、使用者の肌部分を検出する。   The image processing unit 82 detects the skin portion of the user based on the calculated binarized skin image I_skin.

すなわち、例えば、画像処理部82は、算出した2値化肌画像I_skinを構成する全領域のうち、2値化用の閾値以上とされた領域を、使用者の肌部分を表す肌領域として検出する。   That is, for example, the image processing unit 82 detects, as a skin region representing a user's skin portion, a region that is equal to or greater than the threshold for binarization among all the regions constituting the calculated binarized skin image I_skin. To do.

なお、このようにして使用者の肌領域を検出できる原理は、図4を参照して後述する。   In addition, the principle which can detect a user's skin area | region in this way is later mentioned with reference to FIG.

第1の実施の形態では、例えば、使用者は、プロジェクタ21に対して所定の処理を実行させるため、撮像素子63及びレンズ64からなるカメラの前で自身の手を移動させたり、手の形状を変化させるようにしているものとする。   In the first embodiment, for example, the user moves his / her hand in front of the camera including the image sensor 63 and the lens 64 in order to cause the projector 21 to execute predetermined processing, Is supposed to change.

したがって、例えば、画像処理部82は、算出した2値化肌画像I_skinに基づいて、肌領域として、例えば、使用者の手部分を検出するものとする。なお、肌領域として検出される肌部分は、手部分に限定されず、その他、例えば、顔部分等を検出するようにしてもよい。   Therefore, for example, the image processing unit 82 detects, for example, a user's hand portion as a skin region based on the calculated binarized skin image I_skin. Note that the skin portion detected as the skin region is not limited to the hand portion, and for example, a face portion or the like may be detected.

また、画像処理部82は、2値化肌画像I_skinに基づいて、複数の肌領域を検出した場合、複数の肌領域のうち、例えば最も輝度の高い肌領域を、手の領域として検出する。これは、LED62a、62aまでの距離が、使用者の各部分のうち、手部分が最も近いと想定されるためである。
しかし、操作者と肌検出部41の位置関係は操作方法によっても異なるため、手の領域の検出方法はこれには限定されず、適宜決定される。例えば、2値化肌画像I_skinなどを用いてパターンマッチングによって手の領域を検出するようにしてもよい。この方法によれば既に操作者の肌領域は特定されているので、肌領域部分のみのパターンマッチングを適用するため、通常のカメラで取得した可視光画像からパターンマッチングで手の領域を検出する場合に比べて、CPUの処理も軽くて済む。
すなわち、パターンマッチングを行う領域が肌領域に特定されるため、通常のカメラで取得した可視光画像からパターンマッチングで手の領域を検出する場合に比べて、投影画面内では投影画像と指や手が混在してパターンマッチングが難しいといった問題も発生し難い。
さらに、投影画面の外の暗い空間では、通常の可視光画像では手や指がはっきり写らないものとなるが、この場合は照射した不可視光が被写体で反射した反射光を撮像しているため、手や指がはっきり写らないといった問題も発生し難いものとなる。またパターンマッチングを行う領域が肌領域に特定できるため、通常のカメラで取得した可視光画像からパターンマッチングで手の領域を検出する場合に比べて、CPUの処理も軽くて済む。
Further, when a plurality of skin regions are detected based on the binarized skin image I_skin, the image processing unit 82 detects, for example, a skin region having the highest luminance among the plurality of skin regions as a hand region. This is because the distance to the LEDs 62a and 62a is assumed to be the closest to the hand portion of each portion of the user.
However, since the positional relationship between the operator and the skin detection unit 41 varies depending on the operation method, the method for detecting the hand region is not limited to this, and is appropriately determined. For example, a hand region may be detected by pattern matching using a binarized skin image I_skin or the like. According to this method, since the operator's skin area has already been specified, in order to apply pattern matching only to the skin area portion, when the hand area is detected by pattern matching from a visible light image acquired by a normal camera Compared with, CPU processing is lighter.
In other words, since the area where pattern matching is performed is specified as the skin area, compared with the case where the hand area is detected by pattern matching from a visible light image acquired by a normal camera, the projected image and the finger or hand are displayed on the projection screen. It is difficult for the problem that pattern matching is difficult due to the mixture.
Furthermore, in the dark space outside the projection screen, the hand and fingers are not clearly visible in the normal visible light image, but in this case, the reflected light reflected by the subject is imaged because the irradiated invisible light is reflected, The problem that the hands and fingers are not clearly visible is less likely to occur. Moreover, since the area | region which performs pattern matching can be specified to a skin area | region, compared with the case where the area | region of a hand is detected by pattern matching from the visible light image acquired with the normal camera, the process of CPU may be light.

画像処理部82は、例えば、検出した手部分の重心を、使用者の手の位置として検出する。   For example, the image processing unit 82 detects the center of gravity of the detected hand portion as the position of the user's hand.

また、画像処理部82は、図示せぬ内蔵のメモリに保持済みの投影範囲情報に基づいて、検出した手の位置が、撮像素子63により得られる撮像画像に表示された投影範囲内に含まれるか否かを判定し、その判定結果とともに、検出した手の位置を、パーソナルコンピュータ22に供給する。   Further, the image processing unit 82 includes the detected hand position based on the projection range information stored in a built-in memory (not shown) within the projection range displayed in the captured image obtained by the imaging element 63. The detected hand position is supplied to the personal computer 22 together with the result of the determination.

パーソナルコンピュータ22に供給される判定結果が、検出した手の位置が、撮像画像上の投影範囲内に含まれる旨の判定結果である場合、パーソナルコンピュータ22は、撮像範囲上の手の位置に対応する、投影画像上の位置に、カーソル等を表示させた投影画像を生成する。   When the determination result supplied to the personal computer 22 is a determination result indicating that the detected hand position is included in the projection range on the captured image, the personal computer 22 corresponds to the position of the hand on the image capturing range. A projection image in which a cursor or the like is displayed at a position on the projection image is generated.

そして、パーソナルコンピュータ22は、生成した投影画像を、投影部42に供給して投影させる。これにより、使用者の手の位置に対応した、投影画像上の位置に、カーソル等が表示される。   Then, the personal computer 22 supplies the generated projection image to the projection unit 42 for projection. Thereby, a cursor or the like is displayed at a position on the projection image corresponding to the position of the user's hand.

また、例えば、検出した手の位置が、撮像画像上の投影範囲内に含まれない旨の判定結果がパーソナルコンピュータ22に供給された場合、パーソナルコンピュータ22は、カーソル等が表示されない投影画像を生成し、投影部42に供給して投影させる。   For example, when a determination result indicating that the detected hand position is not included in the projection range on the captured image is supplied to the personal computer 22, the personal computer 22 generates a projection image on which a cursor or the like is not displayed. Then, it is supplied to the projection unit 42 for projection.

さらに、例えば、検出した手の位置が、撮像画像上の投影範囲内に含まれない旨の判定結果がパーソナルコンピュータ22に供給された場合、パーソナルコンピュータ22は、カーソル等が表示されない投影画像を生成し、投影部42に供給して投影させる。   Further, for example, when a determination result indicating that the detected hand position is not included in the projection range on the captured image is supplied to the personal computer 22, the personal computer 22 generates a projection image on which a cursor or the like is not displayed. Then, it is supplied to the projection unit 42 for projection.

その他、例えば、検出した手の位置が、撮像画像上の投影範囲内に含まれない旨の判定結果がパーソナルコンピュータ22に供給された場合、パーソナルコンピュータ22は、使用者の手の位置(又は手の位置の軌跡が表すジェスチャ)や手の形状に対応するアプリケーション等を実行するようにしてもよい。   In addition, for example, when the determination result that the detected hand position is not included in the projection range on the captured image is supplied to the personal computer 22, the personal computer 22 determines the position of the user's hand (or the hand). Application corresponding to the shape of the hand) and the shape of the hand may be executed.

なお、画像処理部82は、検出結果等を、制御部43(図1)に出力するようにしてもよい。この場合、制御部43は、例えば、画像処理部82からの検出結果等に応じて、カメラ(撮像素子63及びレンズ64)の撮像方向や、投影部42の投影方向を変更させるためのアクチュエータ等を駆動させる。   Note that the image processing unit 82 may output the detection result or the like to the control unit 43 (FIG. 1). In this case, the control unit 43, for example, an actuator for changing the imaging direction of the camera (the imaging element 63 and the lens 64) or the projection direction of the projection unit 42 according to the detection result from the image processing unit 82, and the like. Drive.

また、例えば、画像処理部82は、検出結果等を、投影部42の制御部111に出力してもよい。この場合、例えば、制御部111は、画像処理部82からの検出結果等に応じて、レーザ光源部101乃至103、及びLCOS部108等を制御して、投影画像の明るさを調整してもよい。   For example, the image processing unit 82 may output a detection result or the like to the control unit 111 of the projection unit 42. In this case, for example, the control unit 111 may control the laser light source units 101 to 103, the LCOS unit 108, and the like according to the detection result from the image processing unit 82 and adjust the brightness of the projected image. Good.

LED62aは、LED制御部81からの制御にしたがって、点灯又は消灯する。すなわち、LED62aは、LED制御部81からの制御にしたがって、波長λ1の光(例えば、波長λ1の赤外線)を照射し、又は波長λ1の光の照射を停止する。   The LED 62a is turned on or off in accordance with control from the LED control unit 81. That is, the LED 62a irradiates light of wavelength λ1 (for example, infrared light of wavelength λ1) or stops irradiating light of wavelength λ1 according to control from the LED control unit 81.

LED62bは、LED制御部81からの制御にしたがって、点灯又は消灯する。すなわち、LED62bは、LED制御部81からの制御にしたがって、波長λ1よりも長波長である波長λ2の光(例えば、波長λ2の赤外線)を照射し、又は波長λ2の光の照射を停止する。   The LED 62b is turned on or off in accordance with control from the LED control unit 81. That is, the LED 62b irradiates light having a wavelength λ2 that is longer than the wavelength λ1 (for example, infrared light having a wavelength λ2) or stops emitting light having a wavelength λ2 in accordance with control from the LED control unit 81.

なお、LED62a及びLED62bは、少なくともジェスチャ検知可能範囲(撮像素子63の撮像範囲)に対して、照射光を照射する。   The LED 62a and the LED 62b irradiate at least the gesture detectable range (the imaging range of the imaging device 63).

また、波長λ1と波長λ2との組み合わせ(λ1,λ2)は、例えば、人間の肌に対する分光反射特性に基づいて予め決定される。   Further, the combination (λ1, λ2) of the wavelength λ1 and the wavelength λ2 is determined in advance based on, for example, spectral reflection characteristics with respect to human skin.

次に、図4は、人間の肌に対する分光反射特性を示している。   Next, FIG. 4 shows spectral reflection characteristics with respect to human skin.

なお、この分光反射特性は、人間の肌の色の違い(人種の違い)や状態(日焼け等)に拘らず、一般性があるものである。   This spectral reflection characteristic is general regardless of the color difference (race difference) and state (sunburn, etc.) of human skin.

図4において、横軸は、人間の肌に照射される照射光の波長を示しており、縦軸は、人間の肌に照射された照射光の反射率を示している。   In FIG. 4, the horizontal axis indicates the wavelength of the irradiation light irradiated on the human skin, and the vertical axis indicates the reflectance of the irradiation light irradiated on the human skin.

人間の肌に照射された照射光の反射率は、800[nm]付近をピークとして、900[nm]付近から急激に減少し、1000[nm]付近を極小値として再び上昇することが知られている。   It is known that the reflectance of irradiated light radiated on human skin decreases rapidly from around 900 [nm], peaking around 800 [nm], and rises again around 1000 [nm] as a minimum. ing.

具体的には、例えば、図4に示されるように、人間の肌に対して、赤外線としての870[nm]の光を照射して得られる反射光の反射率は約63パーセントである。また、赤外線としての950[nm]の光を照射して得られる反射光の反射率は約50パーセントである。   Specifically, for example, as shown in FIG. 4, the reflectance of reflected light obtained by irradiating human skin with light of 870 [nm] as infrared rays is about 63%. Moreover, the reflectance of the reflected light obtained by irradiating light of 950 [nm] as infrared rays is about 50 percent.

これは、人間の肌について特有のものであり、人間の肌以外の物体(例えば、衣服等)では、800乃至1000[nm]付近において、反射率の変化は緩やかになっている。また周波数が高くなるほど、少しずつ大きくなることが多い。   This is peculiar to human skin, and in an object other than human skin (for example, clothing), the change in reflectance is moderate in the vicinity of 800 to 1000 [nm]. In addition, as the frequency becomes higher, it often increases gradually.

第1の実施の形態では、例えば、組み合わせ(λ1,λ2)=(870,950)とされる。この組み合わせは、人間の肌に対して、波長λ1の光を照射したときの反射率が、波長λ2の光を照射したときの反射率よりも大きくなる組み合わせである。   In the first embodiment, for example, the combination (λ1, λ2) = (870,950). This combination is a combination in which the reflectance when the human skin is irradiated with light of wavelength λ1 is larger than the reflectance when the light of wavelength λ2 is irradiated.

したがって、撮像画像I_λ1上の肌領域を構成する輝度値は比較的大きな値となり、撮像画像I_λ2上の肌領域を構成する輝度値は比較的小さな値となる。   Therefore, the luminance value constituting the skin area on the captured image I_λ1 is a relatively large value, and the luminance value constituting the skin area on the captured image I_λ2 is a relatively small value.

このため、差分画像I_diff(={(I_λ1 - I_λ2)/(I_λ1 I_off)}×100)上の肌領域の輝度値は、比較的大きな正の値αとなる。   Therefore, the luminance value of the skin area on the difference image I_diff (= {(I_λ1−I_λ2) / (I_λ1 I_off)} × 100) is a relatively large positive value α.

また、組み合わせ(λ1,λ2)=(870,950)は、人間の肌以外のものに対して、波長λ1の光を照射したときの反射率が、波長λ2の光を照射したときの反射率よりも大きくならない組み合わせである。   Further, in the combination (λ1, λ2) = (870,950), the reflectance when the light of the wavelength λ1 is irradiated to the thing other than the human skin is more than the reflectance when the light of the wavelength λ2 is irradiated. A combination that does not grow.

このため、差分画像I_diff(={(I_λ1 - I_λ2)/(I_λ1 I_off)}×100)上の肌領域の輝度値は、比較的小さな正または負の値βとなる。   Therefore, the luminance value of the skin region on the difference image I_diff (= {(I_λ1−I_λ2) / (I_λ1 I_off)} × 100) is a relatively small positive or negative value β.

よって、差分画像I_diffを、予め決められた2値化用の閾値(例えば、αよりも小であり、βよりも大である閾値)で2値化するようにして、肌領域を検出するようにしている。   Therefore, the difference image I_diff is binarized with a predetermined threshold value for binarization (for example, a threshold value smaller than α and larger than β) so as to detect the skin region. I have to.

ここで、組み合わせ(λ1,λ2)は、(λ1,λ2)=(870,950)に限定されず、反射率の差が十分に大きくなる組み合わせ(λ1,λ2)であれば、どのような組み合わせでもよい。   Here, the combination (λ1, λ2) is not limited to (λ1, λ2) = (870,950), and may be any combination as long as the difference in reflectance is sufficiently large (λ1, λ2). .

なお、正確に肌検出を行うためには、概ね、波長λ1の値は640[nm]乃至1000[nm]の範囲内で、波長λ2の値は900[nm]から1100[nm]の範囲内で、それぞれ設定することが望ましいことが、本発明者が予め行なった実験によりわかっている。ただし波長λ1が可視光領域では、操作者に眩しさを感じさせることや、プロジェクタ21との組合せでは投影画像の色調に影響を与えることから、波長λ1の値は不可視光領域の800[nm]以上とすることが望ましい。   For accurate skin detection, the wavelength λ1 is generally in the range of 640 [nm] to 1000 [nm], and the wavelength λ2 is in the range of 900 [nm] to 1100 [nm]. Thus, it is known from experiments previously conducted by the present inventor that it is desirable to set each of them. However, when the wavelength λ1 is in the visible light region, the operator feels dazzling, or the combination with the projector 21 affects the color tone of the projected image, so the value of the wavelength λ1 is 800 [nm] in the invisible light region. It is desirable to set it above.

すなわち、例えば、上述の範囲内で、波長λ1の値は800[nm]以上、900[nm]未満とし、波長λ2の値は900[nm]以上とすることができる。   That is, for example, within the above-described range, the value of the wavelength λ1 can be set to 800 [nm] or more and less than 900 [nm], and the value of the wavelength λ2 can be set to 900 [nm] or more.

図3に戻り、前述のとおり撮像素子63には、その前面にレンズ64が設けられており、そのレンズ64の前面は、可視光を遮断する可視光カットフィルタ65により覆われている。   Returning to FIG. 3, as described above, the imaging element 63 is provided with the lens 64 on the front surface thereof, and the front surface of the lens 64 is covered with the visible light cut filter 65 that blocks visible light.

撮像素子63は、例えばCMOS(complementary metal oxide semiconductor)センサ等により構成されており、フレーム同期信号に応じて、被写体の撮像を行う。また、撮像素子63は、フレーム同期信号を、LED制御部81に供給する。   The imaging element 63 is configured by, for example, a CMOS (complementary metal oxide semiconductor) sensor and the like, and images a subject in accordance with a frame synchronization signal. Further, the image sensor 63 supplies a frame synchronization signal to the LED control unit 81.

具体的には、例えば、撮像素子63は、レンズ64を介して、LED62aによって被写体に照射されている波長λ1の光の反射光を受光する。そして、撮像素子63は、受光した反射光を光電変換して得られる撮像画像I_λ1を、画像処理部82に供給する。   Specifically, for example, the image sensor 63 receives reflected light of light having a wavelength λ 1 that is irradiated on the subject by the LED 62 a via the lens 64. Then, the imaging element 63 supplies a captured image I_λ1 obtained by photoelectrically converting the received reflected light to the image processing unit 82.

また、例えば、撮像素子63は、レンズ64を介して、LED62bによって被写体に照射された波長λ2の光の反射光を受光する。そして、撮像素子63は、受光した反射光を光電変換して得られる撮像画像I_λ2を、画像処理部82に供給する。   Further, for example, the image sensor 63 receives reflected light of the light having the wavelength λ 2 irradiated on the subject by the LED 62 b via the lens 64. Then, the imaging element 63 supplies a captured image I_λ2 obtained by photoelectrically converting the received reflected light to the image processing unit 82.

さらに、例えば、撮像素子63は、レンズ64を介して、LED62a及びLED62bのいずれも光を照射していない状態で、被写体からの反射光を受光する。そして、撮像素子63は、受光した反射光を光電変換して得られる撮像画像I_offを、画像処理部82に供給する。   Further, for example, the imaging element 63 receives reflected light from the subject via the lens 64 in a state where neither the LED 62a nor the LED 62b is irradiating light. Then, the imaging element 63 supplies a captured image I_off obtained by photoelectrically converting the received reflected light to the image processing unit 82.

可視光カットフィルタ65は、そこに入射される光のうち、可視光を遮断し、不可視光を透過させる。また、可視光カットフィルタ65は、レンズ64の前面を覆うように設けられており、図中左右方向に駆動可能とされる。なお、可視光カットフィルタ65は、例えば、LED制御部81からの制御にしたがって、図中左右方向に駆動される。   The visible light cut filter 65 blocks visible light out of light incident thereon, and transmits invisible light. The visible light cut filter 65 is provided so as to cover the front surface of the lens 64, and can be driven in the left-right direction in the figure. The visible light cut filter 65 is driven in the left-right direction in the figure in accordance with, for example, control from the LED control unit 81.

投影部42は、レーザ光源部101乃至103、プリズム104及び105、レンズ106、偏光ビームスプリッタ107、LCOS(liquid crystal on silicon)部108、レンズ109及び110、並びに制御部111から構成される。   The projection unit 42 includes laser light source units 101 to 103, prisms 104 and 105, a lens 106, a polarization beam splitter 107, an LCOS (liquid crystal on silicon) unit 108, lenses 109 and 110, and a control unit 111.

レーザ光源部101は、制御部111からの制御にしたがって、B成分のレーザ光をプリズム104に照射する。レーザ光源部102は、制御部111からの制御にしたがって、G成分のレーザ光をプリズム104に照射する。レーザ光源部103は、制御部111からの制御にしたがって、R成分のレーザ光をプリズム105に照射する。   The laser light source unit 101 irradiates the prism 104 with a B component laser beam in accordance with control from the control unit 111. The laser light source unit 102 irradiates the prism 104 with a G component laser beam in accordance with control from the control unit 111. The laser light source unit 103 irradiates the prism 105 with R component laser light in accordance with control from the control unit 111.

プリズム104は、レーザ光源部101から照射されるB成分のレーザ光を透過し、レーザ光源部102から照射されるG成分のレーザ光を、プリズム105の方向に反射するように構成される。   The prism 104 is configured to transmit the B component laser light emitted from the laser light source unit 101 and reflect the G component laser light emitted from the laser light source unit 102 toward the prism 105.

したがって、レーザ光源部101からのB成分のレーザ光は、プリズム104を透過して、プリズム105に照射される。また、レーザ光源部102からのG成分のレーザ光は、プリズム104により反射され、プリズム105に照射される。   Therefore, the B component laser light from the laser light source unit 101 passes through the prism 104 and is irradiated onto the prism 105. The G component laser light from the laser light source unit 102 is reflected by the prism 104 and applied to the prism 105.

プリズム105は、プリズム104から照射されるB成分及びG成分それぞれのレーザ光を透過し、レーザ光源部103から照射されるR成分のレーザ光を、レンズ106の方向に反射するように構成される。   The prism 105 is configured to transmit the B component and G component laser beams emitted from the prism 104 and reflect the R component laser beam emitted from the laser light source unit 103 in the direction of the lens 106. .

したがって、プリズム104から入射されるB成分及びG成分それぞれのレーザ光は、プリズム105を透過して、レンズ106を介して偏光ビームスプリッタ107に照射される。また、レーザ光源部103からのR成分のレーザ光は、プリズム105により反射され、レンズ106を介して偏光ビームスプリッタ107に照射される。   Therefore, the B component and G component laser beams incident from the prism 104 are transmitted through the prism 105 and irradiated onto the polarization beam splitter 107 via the lens 106. Further, the R component laser light from the laser light source unit 103 is reflected by the prism 105 and applied to the polarization beam splitter 107 via the lens 106.

レンズ106は、プリズム105と偏光ビームスプリッタ107との間に設けられており、プリズム105からの光を屈折等させる。   The lens 106 is provided between the prism 105 and the polarization beam splitter 107 and refracts light from the prism 105.

偏光ビームスプリッタ107は、プリズム105からレンズ106を介して照射されるS偏光を、LCOS部108の方向に反射させる。   The polarization beam splitter 107 reflects S-polarized light emitted from the prism 105 through the lens 106 in the direction of the LCOS unit 108.

なお、各レーザ光は、S偏光として、各レーザ光源部101乃至103から出力されているものとする。偏光ビームスプリッタ107は、プリズム105からレンズ106を介して照射される各レーザ光を反射させて、LCOS部108に照射させる。   In addition, each laser beam shall be output from each laser light source part 101 thru | or 103 as S polarization | polarized-light. The polarizing beam splitter 107 reflects each laser beam irradiated from the prism 105 via the lens 106 and irradiates the LCOS unit 108 with it.

また、偏光ビームスプリッタ107は、LCOS部108から照射されるP偏光を透過させ、レンズ109及び110を介して、投影範囲に照射させる。これにより、投影範囲に、投影画像が投影される。   The polarizing beam splitter 107 transmits the P-polarized light emitted from the LCOS unit 108 and irradiates the projection range via the lenses 109 and 110. Thereby, a projection image is projected on the projection range.

LCOS部108は、反射型液晶パネルにより構成されており、偏光ビームスプリッタ107からの各レーザ光に基づいて、それぞれ、R成分の投影画像、G成分の投影画像、及びB成分の投影画像を生成する。   The LCOS unit 108 includes a reflective liquid crystal panel, and generates an R component projection image, a G component projection image, and a B component projection image based on each laser beam from the polarization beam splitter 107, respectively. To do.

また、LCOS部108は、R成分の投影画像、G成分の投影画像、及びB成分の投影画像に対応する光を、P偏光として、偏光ビームスプリッタ107に照射する。   Further, the LCOS unit 108 irradiates the polarization beam splitter 107 with light corresponding to the projected image of the R component, the projected image of the G component, and the projected image of the B component as P-polarized light.

レンズ109は、偏光ビームスプリッタ107とレンズ110との間に設けられている。また、レンズ110は、レンズ109と、投影範囲とされる領域との間に設けられている。   The lens 109 is provided between the polarization beam splitter 107 and the lens 110. In addition, the lens 110 is provided between the lens 109 and a region to be a projection range.

レンズ109及び110は、偏光ビームスプリッタ107からのP偏光を屈折等させて、投影範囲内に照射させる。これにより、投影範囲には、投影画像が投影される。   The lenses 109 and 110 refract the P-polarized light from the polarization beam splitter 107 and irradiate it within the projection range. Thereby, a projection image is projected on the projection range.

制御部111は、例えば、パーソナルコンピュータ22からの制御にしたがって、レーザ光源部101乃至103、及びLCOS部108を制御して、パーソナルコンピュータ22の表示画面に表示された画像を、投影画像として、投影範囲に投影させる。
なお、ここでは投影部42の光源としてレーザ光源を用いる例を示したが、これには限定されず、LED光源でもよいし、ランプを用いてもよい。また、例えばレーザとLEDを組み合わせたりしてもよい。
For example, the control unit 111 controls the laser light source units 101 to 103 and the LCOS unit 108 according to control from the personal computer 22 to project the image displayed on the display screen of the personal computer 22 as a projection image. Project to the range.
In addition, although the example which uses a laser light source as a light source of the projection part 42 was shown here, it is not limited to this, An LED light source may be used and a lamp | ramp may be used. Further, for example, a laser and an LED may be combined.

[図3の肌検出部41の動作説明]
次に、図5のフローチャートを参照して、図3の肌検出部41が行なうジェスチャ認識処理について説明する。
[Description of Operation of Skin Detection Unit 41 in FIG. 3]
Next, the gesture recognition process performed by the skin detection unit 41 in FIG. 3 will be described with reference to the flowchart in FIG.

このジェスチャ認識処理は、例えば、使用者により、操作部44を用いて、プロジェクタ21の電源をオンする電源オン操作が行われたときに開始される。このとき、操作部44は、使用者の電源オン操作に対応する操作信号を、制御部43に供給する。制御部43は、操作部44からの操作信号に応じて、肌検出部41及び投影部42を制御する。   This gesture recognition process is started, for example, when the user performs a power-on operation to turn on the projector 21 using the operation unit 44. At this time, the operation unit 44 supplies an operation signal corresponding to the user's power-on operation to the control unit 43. The control unit 43 controls the skin detection unit 41 and the projection unit 42 according to an operation signal from the operation unit 44.

すなわち、ステップS21において、LED制御部81は、制御部43からの制御にしたがって、可視光カットフィルタ65を駆動させるためのアクチュエータ(図示せず)等を制御して、レンズ64の前面を覆うようにして配置された可視光カットフィルタ65を、所定の方向に移動させる。これにより、レンズ64の前面は、可視光カットフィルタ65により覆われなくなる。   That is, in step S21, the LED control unit 81 controls an actuator (not shown) for driving the visible light cut filter 65 according to the control from the control unit 43 so as to cover the front surface of the lens 64. The visible light cut filter 65 arranged as described above is moved in a predetermined direction. Thereby, the front surface of the lens 64 is not covered with the visible light cut filter 65.

ステップS22において、制御部111は、制御部43からの制御にしたがって、レーザ光源部101乃至103及びLCOS部108を制御して、LCOS部108から、輪郭投影画像を、少なくとも可視光を含む投影光として、投影範囲に投影させる。なお、投影部42により、投影画像を投影する方法は、図6を参照して詳述する。   In step S <b> 22, the control unit 111 controls the laser light source units 101 to 103 and the LCOS unit 108 in accordance with the control from the control unit 43, and converts the contour projection image from the LCOS unit 108 into projection light including at least visible light. As shown in FIG. A method of projecting a projection image by the projection unit 42 will be described in detail with reference to FIG.

ステップS23において、撮像素子63は、ジェスチャ検知可能範囲を撮像し、その結果得られる撮像画像I_pattern(図2)を、画像処理部82に供給する。   In step S <b> 23, the image sensor 63 captures the gesture detectable range, and supplies the captured image I_pattern (FIG. 2) obtained as a result to the image processing unit 82.

ステップS24では、画像処理部82は、撮像素子63からの撮像画像I_patternの各輝度値に基づいて、投影された4隅の部分を示す位置を検出する。そして、画像処理部82は、撮像画像I_patternにおける4隅の位置で囲まれる矩形領域を、撮像画像上における投影範囲として検出する。画像処理部82は、その検出結果に基づいて、撮像画像上の投影範囲の位置や大きさを算出し、投影範囲情報として、内蔵する図示せぬメモリに保持する。   In step S <b> 24, the image processing unit 82 detects a position indicating the projected four corner portions based on each luminance value of the captured image I_pattern from the image sensor 63. Then, the image processing unit 82 detects a rectangular area surrounded by the four corner positions in the captured image I_pattern as a projection range on the captured image. Based on the detection result, the image processing unit 82 calculates the position and size of the projection range on the captured image, and holds the calculated projection range information in a built-in memory (not shown).

ステップS25では、LED制御部81は、制御部43からの制御にしたがって、図示せぬアクチュエータ等を駆動させ、可視光カットフィルタ65によりレンズ64が覆われるように、可視光カットフィルタ65を移動させる。   In step S <b> 25, the LED control unit 81 drives an actuator (not shown) or the like according to control from the control unit 43, and moves the visible light cut filter 65 so that the lens 64 is covered with the visible light cut filter 65. .

なお、ステップS21乃至ステップS25の処理は、キャリブレーション処理であり、例えば、ジェスチャ認識処理の開始時に1回だけ実行される。   Note that the processes in steps S21 to S25 are calibration processes, and are executed only once, for example, at the start of the gesture recognition process.

その後、使用者のジェスチャ等を認識する処理として、後述するステップS26乃至ステップS35の処理が繰り返して実行される。   Thereafter, as processing for recognizing the user's gesture or the like, processing in steps S26 to S35 described later is repeatedly executed.

ステップS26では、LED制御部81は、撮像素子63からのフレーム同期信号に応じて、撮像素子63の撮像(ステップS27の処理)が行われるタイミングでLED62aを点灯させる。これにより、LED62aは、撮像素子63の撮像が行われる間、被写体に対して、波長λ1の光を照射する。なお、LED62bは消灯されている。   In step S <b> 26, the LED control unit 81 turns on the LED 62 a at the timing when the image pickup of the image pickup device 63 (step S <b> 27) is performed in accordance with the frame synchronization signal from the image pickup device 63. Thereby, the LED 62a irradiates the subject with light having the wavelength λ1 while the image pickup device 63 is picked up. The LED 62b is turned off.

ステップS27では、撮像素子63は、LED62aの光が照射されている被写体の撮像を開始し、その結果得られる撮像画像I_λ1を、画像処理部82に供給する。   In step S <b> 27, the imaging element 63 starts imaging of the subject irradiated with the light of the LED 62 a and supplies the captured image I_λ <b> 1 obtained as a result to the image processing unit 82.

ステップS28では、LED制御部81は、撮像素子63からのフレーム同期信号に応じて、ステップS27における撮像素子63の撮像が終了するタイミングで、LED62aを消灯させる。   In step S28, the LED control unit 81 turns off the LED 62a at the timing when the imaging of the imaging device 63 in step S27 ends according to the frame synchronization signal from the imaging device 63.

また、LED制御部81は、撮像素子63からのフレーム同期信号に応じて、撮像素子63の次の撮像(ステップS29の処理)が開始するタイミングで、LED62bを点灯させる。これにより、LED62bは、撮像素子63の次の撮像が行われる間、被写体に対して、波長λ2の光を照射する。なお、LED62aは消灯されている。   In addition, the LED control unit 81 turns on the LED 62b at the timing when the next imaging (processing in step S29) of the imaging device 63 starts in accordance with the frame synchronization signal from the imaging device 63. Accordingly, the LED 62b irradiates the subject with light having the wavelength λ2 while the next imaging of the imaging element 63 is performed. The LED 62a is turned off.

ステップS29では、撮像素子63は、LED62bの光が照射されている被写体の撮像を開始し、その結果得られる撮像画像I_λ2を、画像処理部82に供給する。   In step S29, the image sensor 63 starts imaging the subject irradiated with the light from the LED 62b, and supplies the captured image I_λ2 obtained as a result to the image processing unit 82.

ステップS30では、LED制御部81は、撮像素子63からのフレーム同期信号に応じて、ステップS29における撮像素子63の撮像が終了するタイミングで、LED62bを消灯させる。これにより、LED62a及びLED62bは、いずれも消灯された状態となる。   In step S30, the LED control unit 81 turns off the LED 62b at the timing when the imaging of the imaging device 63 in step S29 ends according to the frame synchronization signal from the imaging device 63. As a result, both the LED 62a and the LED 62b are turned off.

ステップS31では、撮像素子63は、LED62a及びLED62bのいずれも消灯している状態で撮像を開始し、その結果得られる撮像画像I_offを、画像処理部82に供給する。   In step S <b> 31, the imaging element 63 starts imaging in a state where both the LED 62 a and the LED 62 b are turned off, and supplies the captured image I_off obtained as a result to the image processing unit 82.

ステップS32では、画像処理部82は、撮像素子63からの各撮像画像I_λ1,I_λ2,I_offに基づいて、差分画像I_diff(={(I_λ1 - I_λ2)/(I_λ1-I_off)}×100)を算出する。   In step S32, the image processing unit 82 calculates the difference image I_diff (= {(I_λ1−I_λ2) / (I_λ1-I_off)} × 100) based on the captured images I_λ1, I_λ2, and I_off from the image sensor 63. To do.

ステップS33では、画像処理部82は、算出した差分画像I_diffを、予め決められた2値化用の閾値を用いて、2値化して2値化肌画像I_skinを算出する。   In step S33, the image processing unit 82 binarizes the calculated difference image I_diff using a predetermined threshold for binarization to calculate a binarized skin image I_skin.

ステップS34では、画像処理部82は、算出した2値化肌画像I_skinに基づいて、撮像素子63から得られる撮像画像上の使用者の肌部分を表す肌領域、すなわち、例えば、使用者の手の位置を検出(算出)する。   In step S34, the image processing unit 82, based on the calculated binarized skin image I_skin, represents a skin region representing the user's skin portion on the captured image obtained from the image sensor 63, that is, for example, the user's hand. Is detected (calculated).

また、画像処理部82は、ステップS24の処理で保持済みの投影範囲情報に基づいて、算出した手の位置が、投影範囲内の位置であるか否かを判定する。   Further, the image processing unit 82 determines whether or not the calculated hand position is a position within the projection range based on the projection range information already held in the process of step S24.

ステップS35では、画像処理部82は、算出した手の位置が、撮像範囲内であると判定した場合、投影部42により投影される投影画像上の、使用者の手の位置に対応する位置に、カーソル等を表示させる。   In step S35, when the image processing unit 82 determines that the calculated hand position is within the imaging range, the image processing unit 82 sets the position on the projection image projected by the projection unit 42 to a position corresponding to the position of the user's hand. , Display the cursor, etc.

すなわち、例えば、画像処理部82は、算出した手の位置が、撮像範囲内であると判定した場合、その判定結果とともに、使用者の手の位置を表す位置情報を、パーソナルコンピュータ22に供給する。
なお、例えば、画像処理部82は、使用者の手が投影範囲内で検出された場合、投影範囲を含む撮像範囲内における手の位置を、位置情報として算出してもよいし、
投影範囲内における手の位置を、位置情報として算出するようにしてもよい。
すなわち、例えば、撮像範囲の左下の端部分を原点とし、水平方向をX軸とし、垂直方向をY軸として定義される位置を、位置情報として算出してもよいし、投影範囲の左下の端部分を原点とし、水平方向をX軸とし、垂直方向をY軸として定義される位置を、位置情報として算出してもよい。
その他、例えば、画像処理部82は、前回の位置情報と、今回の位置情報との変化を表す変化値を算出して、パーソンルコンピュータ22に供給してもよい。
That is, for example, if the image processing unit 82 determines that the calculated hand position is within the imaging range, the image processing unit 82 supplies position information indicating the position of the user's hand to the personal computer 22 together with the determination result. .
For example, when the user's hand is detected within the projection range, the image processing unit 82 may calculate the position of the hand within the imaging range including the projection range as position information,
The position of the hand within the projection range may be calculated as position information.
That is, for example, the position defined with the lower left end portion of the imaging range as the origin, the horizontal direction as the X axis, and the vertical direction as the Y axis may be calculated as position information, or the lower left end of the projection range A position defined with the portion as the origin, the horizontal direction as the X axis, and the vertical direction as the Y axis may be calculated as position information.
In addition, for example, the image processing unit 82 may calculate a change value representing a change between the previous position information and the current position information, and supply the change value to the personal computer 22.

パーソナルコンピュータ22は、画像処理部82からの判定結果及び位置情報に基づいて、投影画像上の、使用者の手の位置に対応する位置に、カーソル等が表示された投影画像を生成するための制御用情報を生成し、投影部42の制御部111に供給する。   The personal computer 22 generates a projection image in which a cursor or the like is displayed at a position corresponding to the position of the user's hand on the projection image based on the determination result and the position information from the image processing unit 82. Control information is generated and supplied to the control unit 111 of the projection unit 42.

制御部111は、パーソナルコンピュータ22からの制御用情報に基づいて、レーザ光源部101乃至103及びLCOS部108を制御して、使用者の手の位置に対応する位置に、カーソル等が表示された投影画像を投影させる。   The control unit 111 controls the laser light source units 101 to 103 and the LCOS unit 108 based on the control information from the personal computer 22 so that a cursor or the like is displayed at a position corresponding to the position of the user's hand. Project a projected image.

また、ステップS35において、画像処理部82は、肌領域の位置として、使用者の顔の位置を算出した場合、算出した顔の位置が、投射範囲内であると判定したときには、制御部111を制御して、投射範囲内に存在する顔には、投影部42からの投影光を投影させないようにさせる。これは、投影部42からの投影光による眩しさを軽減するためである。   In step S35, when the image processing unit 82 calculates the position of the user's face as the position of the skin region, and determines that the calculated position of the face is within the projection range, the control unit 111 is By controlling, the projection light from the projection unit 42 is not projected onto the face existing in the projection range. This is to reduce glare caused by the projection light from the projection unit 42.

ステップS35の処理の終了後、処理は、ステップS26に戻り、それ以降、同様の処理が繰り返される。   After the process of step S35 is completed, the process returns to step S26, and thereafter the same process is repeated.

なお、このジェスチャ認識処理は、例えば、操作部44を用いて、使用者により、プロジェクタ22の電源をオフする電源オフ操作が行われたときに終了される。   Note that this gesture recognition processing is ended when, for example, the user performs a power-off operation for turning off the power of the projector 22 using the operation unit 44.

以上説明したように、ジェスチャ認識処理によれば、図4に示されるような人間の分光反射特性を利用して、画像上の人間の手等を検出するようにした。   As described above, according to the gesture recognition process, the human hand or the like on the image is detected using the human spectral reflection characteristics as shown in FIG.

したがって、ジェスチャ認識処理によれば、被写体を照らす照明の明るさに拘らず、画像上の人間の手等を精度良く検出することが可能となる。   Therefore, according to the gesture recognition process, it is possible to accurately detect a human hand or the like on the image regardless of the brightness of the illumination that illuminates the subject.

このため、プロジェクタ21を用いる場合のように、被写体を照らす照明の明るさが不十分である(暗い)ときでも、撮像画像上の人間の手等を精度良く検出することが可能となる。   Therefore, it is possible to accurately detect a human hand or the like on the captured image even when the brightness of the illumination illuminating the subject is insufficient (dark) as in the case of using the projector 21.

したがって、プロジェクタ21としては、比較的大きなものの他、例えば、携帯電話機と同程度のサイズとされるピコプロジェクタのように、投影画像として投影する光が弱い場合でも、撮像画像上の人間の手等を精度良く検出できる。   Therefore, the projector 21 is relatively large, and even if the light projected as the projection image is weak, such as a pico projector that is about the same size as a mobile phone, the human hand on the captured image, etc. Can be detected with high accuracy.

このため、プロジェクタ21を、人間の手等を検出する検出精度を維持したまま、小型化することが可能となる。   For this reason, the projector 21 can be reduced in size while maintaining the detection accuracy for detecting a human hand or the like.

また、ジェスチャ認識処理では、撮像により得られる撮像画像I_λ1,I_λ2,I_offに基づいて、肌領域と非肌領域とを表す2値化肌画像I_skinを算出するようにした。そして、算出した2値化肌画像I_skinから、人間の手の形状等を検出するという簡易な処理で、人間のポスチャ又はジェスチャを認識できるようにした。   In the gesture recognition process, the binarized skin image I_skin representing the skin area and the non-skin area is calculated based on the captured images I_λ1, I_λ2, and I_off obtained by imaging. Then, the human posture or gesture can be recognized by a simple process of detecting the shape of the human hand from the calculated binarized skin image I_skin.

このため、例えば、人間の手等が写った画像上の各領域と、人間の手を表すパターン画像とをそれぞれ比較して人間の手等を検出するパターンマッチング等のような煩雑な処理を行う場合と比較して、ジェスチャ認識処理を実行するDSPやCPU等の負荷を少なくすることが可能となる。   For this reason, for example, complicated processing such as pattern matching for detecting a human hand or the like is performed by comparing each region on the image showing a human hand and a pattern image representing the human hand. Compared to the case, it is possible to reduce the load on the DSP, CPU, or the like that performs the gesture recognition processing.

したがって、例えば、プロジェクタ21では、処理能力を向上させるために、高価なDSPを実装する必要がない。このため、安価なDSPを用いることができるので、プロジェクタ21の製造コストを低く抑えることができる。   Therefore, for example, in the projector 21, it is not necessary to mount an expensive DSP in order to improve the processing capability. For this reason, since an inexpensive DSP can be used, the manufacturing cost of the projector 21 can be kept low.

また、例えば、ジェスチャ認識処理を行うプロジェクタ21では、LED62a,LED62b、及び撮像素子63等の、比較的容易に調達可能な部品により構成されている。   Further, for example, the projector 21 that performs the gesture recognition process is configured by parts that can be procured relatively easily, such as the LED 62a, the LED 62b, and the imaging element 63.

したがって、例えば、特殊で非常に高価なセンサ等を用いて、人間のジェスチャ等を認識する場合と比較して、安価にプロジェクタ21を製造することができる。   Therefore, for example, the projector 21 can be manufactured at a lower cost than when a human gesture is recognized using a special and very expensive sensor.

なお、特殊で非常に高価なセンサとしては、例えば、各対象の距離を計測し、計測した距離に応じて、人間の手等である対象を検出する距離センサや、各対象の温度を計測し、計測した温度に応じて、人間の手等である対象を検出する熱センサ等が考えられる。   As a special and very expensive sensor, for example, the distance of each target is measured, and according to the measured distance, a distance sensor that detects a target such as a human hand or the temperature of each target is measured. A thermal sensor that detects an object such as a human hand in accordance with the measured temperature can be considered.

ところで、本発明者は、背景技術に記載の認識技術を検討した際、プロジェクタ等の投影装置から投影される投影範囲内で、使用者にジェスチャ等を行わせるようにし、投影範囲を撮像範囲として撮像することも考えた。   By the way, when examining the recognition technique described in the background art, the present inventor causes a user to perform a gesture or the like within a projection range projected from a projection device such as a projector, and uses the projection range as an imaging range. I also considered taking images.

しかしながら、この場合、使用者の手等に、投影装置からの投影画像が投影されることとなる。このため、撮像画像上に写る使用者の手等には、その手等に投影された投影画像自体がノイズとなってしまい、パターンマッチング等で、使用者の手等の検出が難しくなってしまう。
また、プロジェクタ21等の投影装置の新たな使い方として、投影装置からの投影画像が投影されたスクリーン上における使用者の手や指の動きで、投影画像をあたかもタッチパネルとして操作するように制御することが考えられる。
投影画像の投影部分は投影範囲以外の空間に比べると明るい場合が多いが、投影画像そのものが暗い場合や部分的にでも暗い部分があれば、そこで手や指を動かしてもやはり照度不足で手や指ははっきりとは写らず、パターンマッチング等を使用することはできない。
一方、投影画像が明るい場合には前述のような照明が不十分という問題は発生しない。しかし、スクリーンを撮像した場合、投影画像と操作者の手や指が共に写り込んでしまう。極端な場合、投影画像上に操作者以外の手や指が存在することもあり、操作者の手や指との区別をパターンマッチング等で行うことはできない。そうでなくとも、手や指に投影画像が重なって写り込むため、パターンマッチングによる検出は困難である。
However, in this case, the projection image from the projection device is projected onto the user's hand or the like. For this reason, the projection image itself projected onto the hand or the like that appears on the captured image becomes noise, which makes it difficult to detect the user's hand or the like due to pattern matching or the like. .
Further, as a new usage of the projection device such as the projector 21, control is performed so that the projection image is operated as a touch panel by the movement of the user's hand or finger on the screen on which the projection image from the projection device is projected. Can be considered.
The projected part of the projected image is often brighter than the space outside the projected range, but if the projected image itself is dark or there is a dark part, even if you move your hand or finger there, it will still be a lack of illuminance. And fingers are not clearly visible, and pattern matching cannot be used.
On the other hand, when the projected image is bright, the problem of insufficient illumination as described above does not occur. However, when the screen is imaged, both the projected image and the operator's hand and fingers are captured. In extreme cases, there may be hands and fingers other than the operator on the projected image, and it is not possible to distinguish them from the hands and fingers of the operator by pattern matching or the like. Even if this is not the case, it is difficult to detect by pattern matching because the projected image is reflected on the hand or finger.

そこで、本発明者は、パターンマッチング等ではなく、図4に示されるような分光反射特性を利用する本技術を、プロジェクタ21に適用することを考えた。   Therefore, the present inventor has considered applying the present technology that uses spectral reflection characteristics as shown in FIG. 4 instead of pattern matching to the projector 21.

本開示においても、投影範囲内で、使用者の肌領域を検出する場合には、使用者の肌部分に投影された投影画像の反射光が、撮像素子63に入射される事態が生じ得る。   Also in the present disclosure, when the user's skin area is detected within the projection range, the reflected light of the projected image projected on the user's skin portion may be incident on the image sensor 63.

しかしながら、プロジェクタ21では、このような事態を考慮し、図3に示されるように、撮像素子63(及びレンズ64)の前面を覆うように、可視光カットフィルタ65を設けるようにしている。このため、本開示のプロジェクタ21では、使用者の肌部分に投影された投影画像の反射光により、肌領域の検出精度が低下する事態を抑止するようにしている。   However, in consideration of such a situation, the projector 21 is provided with a visible light cut filter 65 so as to cover the front surface of the image sensor 63 (and the lens 64) as shown in FIG. For this reason, in the projector 21 of the present disclosure, a situation in which the detection accuracy of the skin region is lowered due to the reflected light of the projection image projected onto the skin portion of the user is suppressed.

また、本発明者は、1波長の光(例えば、波長λ1の光)を、ジェスチャ検知可能範囲に照射した状態で、ジェスチャ検知可能範囲を撮像して得られる撮像画像の各輝度値を、予め決められた閾値で2値化するようにして、使用者の手等を検出する方法も考えた。   In addition, the present inventor previously stores each luminance value of a captured image obtained by imaging the gesture detectable range in a state where the gesture detectable range is irradiated with light of one wavelength (for example, light of wavelength λ1). A method of detecting the user's hand or the like by binarizing with a predetermined threshold was also considered.

しかしながら、この方法では、1波長の光に対する人間の肌の反射率と、人間の背景部分の反射率とが近い場合には、2値化により、人間の肌部分の他、背景部分も、肌領域として検出されてしまう。   However, in this method, when the reflectance of the human skin with respect to light of one wavelength is close to the reflectance of the human background portion, the background portion of the human skin portion as well as the human skin portion can be converted into the skin by binarization. It will be detected as a region.

したがって、本開示では、異なる2波長の反射率の差を利用するようにして、人間の肌部分の他、背景部分も、肌領域として検出される事態を防止するようにしている。   Therefore, in the present disclosure, the difference between the reflectances of two different wavelengths is used to prevent a situation in which the background portion as well as the human skin portion is detected as the skin region.

さらに、本発明者は、投影範囲を撮像して得られる撮像画像において、暗い部分(投影範囲において、使用者の存在により影となる部分)を、使用者が存在する部分として検出することも考えた。   Furthermore, the present inventor also considers that a dark portion (a portion that becomes a shadow due to the presence of the user in the projection range) is detected as a portion where the user exists in the captured image obtained by imaging the projection range. It was.

しかしながら、プロジェクタ21等を用いる環境下では、周囲の明るさが十分ではないため、撮像画像全体が、暗い画像となってしまい、使用者が存在する部分を精度良く検出することは難しい。このため、本発明者は、異なる2波長を用いる本技術を発明するに至った。   However, in an environment where the projector 21 or the like is used, since the surrounding brightness is not sufficient, the entire captured image becomes a dark image, and it is difficult to accurately detect a portion where the user exists. For this reason, this inventor came to invent this technique using two different wavelengths.

ところで、ジェスチャ認識処理では、ステップS21において、LED制御部81は、図示せぬアクチュエータ等を制御して、可視光カットフィルタ65を移動させるようにして、レンズ64が、可視光カットフィルタ65に覆われなくなるようにした。   By the way, in the gesture recognition process, in step S21, the LED control unit 81 controls an actuator (not shown) to move the visible light cut filter 65 so that the lens 64 covers the visible light cut filter 65. I tried not to break.

これは、ステップS23において、撮像素子63が、少なくとも可視光を含む投影光として投影範囲に投影された輪郭投影画像の反射光等を受光して、図2に示されるような撮像画像I_patternを生成できるようにするために行われるものである。   In step S23, the imaging element 63 receives reflected light of the contour projection image projected onto the projection range as projection light including at least visible light, and generates a captured image I_pattern as shown in FIG. It is done to make it possible.

したがって、ステップS22において、LCOS部108から、輪郭投影画像を、不可視光として、投影範囲に投影させるようにすれば、投影範囲に投影された投影画像の反射光としての不可視光が、可視光カットフィルタ65を通過して、撮像素子63に入射される。この場合、ステップS21の処理、及びステップS25の処理を省くことができ、撮像素子63は、撮像画像I_patternを生成することとなる。   Accordingly, in step S22, if the contour projection image is projected from the LCOS unit 108 to the projection range as invisible light, the invisible light as the reflected light of the projection image projected onto the projection range is cut by visible light. The light passes through the filter 65 and enters the image sensor 63. In this case, the process of step S21 and the process of step S25 can be omitted, and the image sensor 63 generates a captured image I_pattern.

なお、可視光カットフィルタ65を設けずに、撮像素子63を、可視光を遮断する可視光カットフィルタが設けられた第1の受光素子と、可視光カットフィルタが設けられていない第2の受光素子とにより構成することもできる。   It should be noted that the visible light cut filter 65 is not provided, and the imaging device 63 is provided with a first light receiving element provided with a visible light cut filter that blocks visible light, and a second light received without a visible light cut filter. It can also be constituted by an element.

この場合、撮像素子63は、撮像画像I_patternと撮像画像I_λ1等を同時に生成することができるようになる。   In this case, the imaging element 63 can generate the captured image I_pattern and the captured image I_λ1 at the same time.

すなわち、例えば、LED62aにより、波長λ1の光が照射され、LCOS部108により投影光が投影されている場合、撮像素子63には、波長λ1の光の反射光と、投影範囲に投影された投影光の反射光等が入射される。   That is, for example, when the light of wavelength λ1 is irradiated by the LED 62a and the projection light is projected by the LCOS unit 108, the reflected light of the light of wavelength λ1 and the projection projected on the projection range are projected on the image sensor 63. Reflected light or the like is incident.

そして、撮像素子63は、第1の受光素子により、波長λ1の照射光の反射光を受光して撮像画像I_λ1を生成し、第2の受光素子により、投影範囲に投影された投影光の反射光等を受光して撮像画像I_patternを生成することができる。   The imaging element 63 receives the reflected light of the irradiation light having the wavelength λ1 by the first light receiving element to generate a captured image I_λ1, and reflects the projection light projected on the projection range by the second light receiving element. The captured image I_pattern can be generated by receiving light or the like.

[図3の投影部42の動作説明]
次に、図6のフローチャートを参照して、図3の投影部42が行う投影処理について説明する。
[Description of Operation of Projecting Unit 42 in FIG. 3]
Next, the projection processing performed by the projection unit 42 in FIG. 3 will be described with reference to the flowchart in FIG.

なお、この投影処理は、制御部43からの制御に応じて、図5のステップS22で輪郭投影画像を投影する際に行われる。   This projection process is performed when the contour projection image is projected in step S22 of FIG. 5 in accordance with control from the control unit 43.

また、この投影処理は、図5のステップS26乃至ステップS35の処理の実行中に、例えば、パーソナルコンピュータ22からの制御に応じて行われる。   In addition, this projection processing is performed in accordance with control from the personal computer 22, for example, during the execution of the processing from step S26 to step S35 in FIG.

ステップS51において、レーザ光源部103は、制御部111からの制御にしたがって、R成分のレーザ光をプリズム105に照射する。これにより、R成分のレーザ光は、プリズム105で反射され、レンズ106を介して偏光ビームスプリッタ107に照射される。   In step S <b> 51, the laser light source unit 103 irradiates the prism 105 with R component laser light in accordance with control from the control unit 111. As a result, the R component laser light is reflected by the prism 105 and applied to the polarization beam splitter 107 via the lens 106.

そして、照射されたR成分のレーザ光は、偏光ビームスプリッタ107で反射され、LCOS部108に照射される。なお、プリズム105からレンズ106を介して偏光ビームスプリッタ107に照射されたR成分のレーザ光は、S偏光とされているものとする。   The irradiated R component laser light is reflected by the polarization beam splitter 107 and irradiated to the LCOS unit 108. It is assumed that the R component laser light emitted from the prism 105 via the lens 106 to the polarization beam splitter 107 is S-polarized light.

ステップS52において、LCOS部108は、制御部111からの制御にしたがって、偏光ビームスプリッタ107から照射されるR成分のレーザ光に基づいて、R成分の投影画像を生成する。そして、LCOS部108は、生成したR成分の投影画像を、P偏光として、偏光ビームスプリッタ107に照射する。   In step S <b> 52, the LCOS unit 108 generates an R component projection image based on the R component laser light emitted from the polarization beam splitter 107 in accordance with the control from the control unit 111. Then, the LCOS unit 108 irradiates the polarization beam splitter 107 with the generated R component projection image as P-polarized light.

偏光ビームスプリッタ107は、LCOS部108からのP偏光を透過させ、レンズ109及び110を介して、投影範囲に照射させる。これにより、投影範囲には、R成分の投影画像が投影される。   The polarization beam splitter 107 transmits the P-polarized light from the LCOS unit 108 and irradiates the projection range via the lenses 109 and 110. Thereby, an R component projection image is projected onto the projection range.

ステップS53において、レーザ光源部102は、制御部111からの制御にしたがって、G成分のレーザ光をプリズム104に照射する。これにより、G成分のレーザ光は、プリズム104で反射され、プリズム105を透過し、レンズ106を介して偏光ビームスプリッタ107に照射される。   In step S <b> 53, the laser light source unit 102 irradiates the prism 104 with a G component laser beam in accordance with control from the control unit 111. Thus, the G component laser light is reflected by the prism 104, passes through the prism 105, and is irradiated onto the polarization beam splitter 107 via the lens 106.

そして、照射されたG成分のレーザ光は、偏光ビームスプリッタ107で反射され、LCOS部108に照射される。なお、プリズム105からレンズ106を介して偏光ビームスプリッタ107に照射されたG成分のレーザ光は、S偏光とされているものとする。   The irradiated G component laser light is reflected by the polarization beam splitter 107 and applied to the LCOS unit 108. It is assumed that the G component laser light emitted from the prism 105 through the lens 106 to the polarization beam splitter 107 is S-polarized light.

ステップS54において、LCOS部108は、制御部111からの制御にしたがって、偏光ビームスプリッタ107から照射されるG成分のレーザ光に基づいて、G成分の投影画像を生成する。そして、LCOS部108は、生成したG成分の投影画像を、P偏光として、偏光ビームスプリッタ107に照射する。   In step S <b> 54, the LCOS unit 108 generates a G component projection image based on the G component laser light emitted from the polarization beam splitter 107 in accordance with the control from the control unit 111. Then, the LCOS unit 108 irradiates the polarization beam splitter 107 with the generated projected image of the G component as P-polarized light.

偏光ビームスプリッタ107は、LCOS部108からのP偏光を透過させ、レンズ109及び110を介して、投影範囲に照射させる。これにより、投影範囲には、G成分の投影画像が投影される。   The polarization beam splitter 107 transmits the P-polarized light from the LCOS unit 108 and irradiates the projection range via the lenses 109 and 110. As a result, a G component projection image is projected onto the projection range.

ステップS55において、レーザ光源部101は、制御部111からの制御にしたがって、B成分のレーザ光をプリズム104に照射する。これにより、B成分のレーザ光は、プリズム104及びプリズム105を透過し、レンズ106を介して偏光ビームスプリッタ107に照射される。   In step S <b> 55, the laser light source unit 101 irradiates the prism 104 with the B component laser light in accordance with the control from the control unit 111. As a result, the B component laser light passes through the prism 104 and the prism 105, and is applied to the polarization beam splitter 107 via the lens 106.

そして、照射されたB成分のレーザ光は、偏光ビームスプリッタ107で反射され、LCOS部108に照射される。なお、プリズム105からレンズ106を介して偏光ビームスプリッタ107に照射されたB成分のレーザ光は、S偏光とされているものとする。   The irradiated B component laser light is reflected by the polarization beam splitter 107 and applied to the LCOS unit 108. It is assumed that the B component laser light emitted from the prism 105 through the lens 106 to the polarization beam splitter 107 is S-polarized light.

ステップS56において、LCOS部108は、制御部111からの制御にしたがって、偏光ビームスプリッタ107から照射されるB成分のレーザ光に基づいて、B成分の投影画像を生成する。そして、LCOS部108は、生成したB成分の投影画像を、P偏光として、偏光ビームスプリッタ107に照射する。   In step S <b> 56, the LCOS unit 108 generates a B component projection image based on the B component laser light emitted from the polarization beam splitter 107 in accordance with the control from the control unit 111. Then, the LCOS unit 108 irradiates the polarization beam splitter 107 with the generated B component projection image as P-polarized light.

偏光ビームスプリッタ107は、LCOS部108からのP偏光を透過させ、レンズ109及び110を介して、投影範囲に照射させる。これにより、投影範囲には、B成分の投影画像が投影される。   The polarization beam splitter 107 transmits the P-polarized light from the LCOS unit 108 and irradiates the projection range via the lenses 109 and 110. Thereby, a projected image of the B component is projected onto the projection range.

ステップS56の終了後、処理はステップS51に戻り、それ以降同様の処理が繰り返される。   After the end of step S56, the process returns to step S51, and thereafter the same process is repeated.

<2.第2の実施の形態>
次に、図7は、プロジェクタ21に含まれる肌検出部41及び投影部42の第2の詳細な構成例を示している。
<2. Second Embodiment>
Next, FIG. 7 shows a second detailed configuration example of the skin detection unit 41 and the projection unit 42 included in the projector 21.

なお、図7では、図3と同様に構成される部分については、同一の符号を付すようにしているため、それらの部分の説明は、以下、適宜、省略する。   In FIG. 7, parts that are configured in the same manner as in FIG. 3 are given the same reference numerals, and therefore description of those parts will be appropriately omitted below.

すなわち、図7の肌検出部41において、LED62aの前面に偏光変換素子131aが、LED62bの前面に偏光変換素子131bが、それぞれ設けられているとともに、偏光変換素子131aと偏光ビームスプリッタ107との間にプリズム132が新たに設けられている他は、図3の場合と同様に構成される。   That is, in the skin detection unit 41 of FIG. 7, a polarization conversion element 131a and a polarization conversion element 131b are provided on the front surface of the LED 62a and the front surface of the LED 62b, respectively, and between the polarization conversion element 131a and the polarization beam splitter 107. 3 except that a prism 132 is newly provided.

また、図7の肌検出部41は、投影部42の偏光ビームスプリッタ107並びにレンズ109及び110も含む点で、図3の場合と異なる。   7 differs from the case of FIG. 3 in that the skin detection unit 41 of FIG. 7 also includes the polarization beam splitter 107 of the projection unit 42 and the lenses 109 and 110.

偏光変換素子131aは、LED62aからの照射光をS偏光に変換するための変換素子である。なお、LED62aからの照射光は、S偏光とP偏光とにより構成されており(例えば、S偏光とP偏光とがほぼ半分ずつ)、偏光変換素子131aを通過することにより、照射光の殆ど(例えば、7割から8割程度)がS偏光とされる。   The polarization conversion element 131a is a conversion element for converting the irradiation light from the LED 62a into S-polarized light. The irradiation light from the LED 62a is composed of S-polarized light and P-polarized light (for example, approximately half of S-polarized light and P-polarized light), and almost all of the irradiated light passes through the polarization conversion element 131a ( For example, about 70% to 80%) is S-polarized light.

したがって、プリズム132には、LED62aから偏光変換素子131aを介して、殆どがS偏光とされた波長λ1の照射光が入射される。   Therefore, the irradiation light having the wavelength λ1 that is mostly S-polarized light is incident on the prism 132 via the polarization conversion element 131a from the LED 62a.

偏光変換素子131bは、LED62bからの照射光をS偏光に変換するための変換素子である。なお、LED62bからの照射光は、S偏光とP偏光とにより構成されており(例えば、S偏光とP偏光とがほぼ半分ずつ)、偏光変換素子131bを通過することにより、照射光の殆ど(例えば、7割から8割程度)がS偏光とされる。   The polarization conversion element 131b is a conversion element for converting the irradiation light from the LED 62b into S-polarized light. Note that the irradiation light from the LED 62b is composed of S-polarized light and P-polarized light (for example, approximately half of S-polarized light and P-polarized light), and almost all of the irradiated light passes through the polarization conversion element 131b ( For example, about 70% to 80%) is S-polarized light.

したがって、プリズム132には、LED62bから偏光変換素子131bを介して、殆どがS偏光とされた波長λ2の照射光が入射される。   Therefore, the irradiation light having the wavelength λ2 that is mostly S-polarized light is incident on the prism 132 via the polarization conversion element 131b from the LED 62b.

プリズム132は、LED62aから偏光変換素子131aを介して入射される波長λ1の照射光を透過させ、LED62bから偏光変換素子131bを介して入射される波長λ2の照射光を、偏光ビームスプリッタ107の方向に反射させる。   The prism 132 transmits the irradiation light having the wavelength λ1 incident from the LED 62a via the polarization conversion element 131a, and the irradiation light having the wavelength λ2 incident from the LED 62b via the polarization conversion element 131b to the direction of the polarization beam splitter 107. To reflect.

これにより、波長λ1の照射光、及び波長λ2の照射光は、プリズム132を介して偏光ビームスプリッタ107に入射される。なお、波長λ1の照射光は、偏光変換素子131aにより、照射光の殆どがS偏光とされている。また、波長λ2の照射光は、偏光変換素子131bにより、照射光の殆どがS偏光とされている。   As a result, the irradiation light with the wavelength λ1 and the irradiation light with the wavelength λ2 are incident on the polarization beam splitter 107 via the prism 132. Note that most of the irradiation light having the wavelength λ1 is converted to S-polarized light by the polarization conversion element 131a. Moreover, most of the irradiation light with wavelength λ2 is converted to S-polarized light by the polarization conversion element 131b.

したがって、偏光ビームスプリッタ107は、プリズム132を介して入射される波長λ1の照射光及び波長λ2の照射光を、レンズ109及びレンズ110の存在する方向に反射させる。   Therefore, the polarization beam splitter 107 reflects the irradiation light with the wavelength λ1 and the irradiation light with the wavelength λ2 incident through the prism 132 in the direction in which the lens 109 and the lens 110 exist.

なお、いまの場合、波長λ1の照射光及び波長λ2の照射光は、その殆どがS偏光とされているので、殆どの照射光が、偏光ビームスプリッタ107で反射されることとなる。よって、P偏光として偏光ビームスプリッタ107を通過する照射光は非常に少ないものとなっている。   In this case, most of the irradiation light with the wavelength λ 1 and the irradiation light with the wavelength λ 2 is S-polarized light, and most of the irradiation light is reflected by the polarization beam splitter 107. Therefore, the amount of irradiation light passing through the polarization beam splitter 107 as P-polarized light is very small.

このため、波長λ1の照射光及び波長λ2の照射光それぞれの光量を、殆ど維持したまま、被写体に対して照射光を照射することができる。   For this reason, it is possible to irradiate the subject with the irradiation light while maintaining almost the respective light amounts of the irradiation light with the wavelength λ1 and the irradiation light with the wavelength λ2.

なお、図7に示されるように構成した場合、第1の実施の形態と同様に、肌検出部41によるジェスチャ認識処理と、投影部42による投影処理とは、それぞれ独立に行われる。また、図7に示される場合には、撮像範囲と投影範囲とが同一となっている。このため、LED62a及びLED62bは、少なくとも撮像範囲(投影範囲)を照射する。   In the case of the configuration shown in FIG. 7, the gesture recognition process by the skin detection unit 41 and the projection process by the projection unit 42 are performed independently as in the first embodiment. In the case shown in FIG. 7, the imaging range and the projection range are the same. For this reason, the LED 62a and the LED 62b irradiate at least the imaging range (projection range).

<3.第3の実施の形態>
次に、図8は、プロジェクタ21に含まれる肌検出部41及び投影部42の第3の詳細な構成例を示している。
<3. Third Embodiment>
Next, FIG. 8 shows a third detailed configuration example of the skin detection unit 41 and the projection unit 42 included in the projector 21.

なお、図8では、図3と同様に構成される部分については、同一の符号を付すようにしているため、それらの部分の説明は、以下、適宜、省略する。   In FIG. 8, parts that are configured in the same manner as in FIG. 3 are given the same reference numerals, and therefore description of those parts will be omitted as appropriate.

すなわち、図8では、投影部42において、プリズム105とレンズ106との間に、新たにプリズム151a及びプリズム151bが設けられている他は、図3の投影部42と同様に構成される。   That is, in FIG. 8, the projection unit 42 is configured in the same manner as the projection unit 42 of FIG. 3 except that a prism 151a and a prism 151b are newly provided between the prism 105 and the lens 106.

また、図8の肌検出部41では、LED62aの前面に偏光変換素子131aが、LED62bの前面に偏光変換素子131bが、それぞれ設けられている。なお、偏光変換素子131a及び131bは、図7に示された偏光変換素子131a及び131bと同様であるため、同一の符号を付すようにしている。   In the skin detection unit 41 of FIG. 8, a polarization conversion element 131a is provided on the front surface of the LED 62a, and a polarization conversion element 131b is provided on the front surface of the LED 62b. The polarization conversion elements 131a and 131b are the same as the polarization conversion elements 131a and 131b shown in FIG.

さらに、投影部42のレンズ106、偏光ビームスプリッタ107、LCOS部108、レンズ109及び110、並びにプリズム151a及び151bが、肌検出部41としても機能する他は、図3の肌検出部41と同様に構成される。   Further, the lens 106, the polarization beam splitter 107, the LCOS unit 108, the lenses 109 and 110, and the prisms 151a and 151b of the projection unit 42 are the same as the skin detection unit 41 in FIG. Configured.

プリズム151aには、LED62aから偏光変換素子131aを介して、波長λ1の照射光が入射される。また、プリズム151aには、プリズム151bを通して波長λ2の照射光、R成分,G成分,B成分それぞれのレーザ光が入射される。   Irradiation light having a wavelength λ1 is incident on the prism 151a via the polarization conversion element 131a from the LED 62a. The prism 151a is irradiated with irradiation light of wavelength λ2, laser light of R component, G component, and B component through the prism 151b.

プリズム151aは、LED62aから偏光変換素子131aを介して入射される波長λ1の照射光を、レンズ106の方向に反射させ、プリズム151bを通して入射される光を透過させる。   The prism 151a reflects the irradiation light having the wavelength λ1 incident from the LED 62a via the polarization conversion element 131a in the direction of the lens 106 and transmits the light incident through the prism 151b.

したがって、偏光ビームスプリッタ107には、プリズム151aからレンズ106を通して、波長λ1の照射光、波長λ2の照射光、R成分のレーザ光、G成分のレーザ光、及びB成分のレーザ光が入射される。   Therefore, the polarization beam splitter 107 receives the irradiation light of wavelength λ1, the irradiation light of wavelength λ2, the R component laser light, the G component laser light, and the B component laser light from the prism 151a through the lens 106. .

プリズム151bには、LED62bから偏光変換素子131bを介して、波長λ2の照射光が入射される。また、プリズム151bには、プリズム105を通して、R成分,G成分,B成分それぞれのレーザ光が入射される。   Irradiation light having a wavelength of λ2 is incident on the prism 151b from the LED 62b via the polarization conversion element 131b. Further, R, G, and B component laser beams are incident on the prism 151b through the prism 105.

プリズム151bは、LED62bから偏光変換素子131bを介して入射される波長λ2の照射光を、プリズム151aの方向に反射させ、プリズム105を通して入射されるレーザ光を透過させる。   The prism 151 b reflects the irradiation light having the wavelength λ 2 incident from the LED 62 b through the polarization conversion element 131 b in the direction of the prism 151 a and transmits the laser light incident through the prism 105.

したがって、プリズム151aには、プリズム151bを通して、波長λ2の照射光、R成分のレーザ光、G成分のレーザ光、及びB成分のレーザ光が入射される。   Accordingly, irradiation light having a wavelength λ2, R component laser light, G component laser light, and B component laser light are incident on the prism 151a through the prism 151b.

[図8のように構成した場合の動作説明]
次に、図9のフローチャートを参照して、図8のように構成した場合に、プロジェクタ21が行うジェスチャ認識投影処理を説明する。
[Description of operation when configured as shown in FIG. 8]
Next, a gesture recognition projection process performed by the projector 21 when configured as shown in FIG. 8 will be described with reference to the flowchart of FIG.

このジェスチャ認識投影処理は、例えば、パーソナルコンピュータ22からの制御に応じて開始される。なお、いまの場合、ジェスチャ可能検知範囲と投影範囲とは同一の範囲とされている。このため、ジェスチャ認識投影処理では、図5のステップS21乃至ステップS25で説明したキャリブレーション処理を行う必要がない。   This gesture recognition projection processing is started in response to control from the personal computer 22, for example. In this case, the gesture detection range and the projection range are the same range. Therefore, in the gesture recognition projection process, it is not necessary to perform the calibration process described in steps S21 to S25 in FIG.

ステップS71乃至ステップS76において、それぞれ、図6のステップS51乃至ステップS56と同様の処理が行われ、図8の投影部42により、投影画像が投影される。   In steps S71 to S76, processing similar to that in steps S51 to S56 in FIG. 6 is performed, and a projection image is projected by the projection unit 42 in FIG.

ステップS77において、制御部111は、LCOS部108を制御して、全画素を均一に反射させるように設定する。   In step S77, the control unit 111 controls the LCOS unit 108 so as to reflect all pixels uniformly.

ステップS78において、LED制御部81は、図5のステップS26と同様にして、撮像素子63からのフレーム同期信号に応じて、撮像素子63の撮像(ステップS79の処理)が行われるタイミングでLED62aを点灯させる。   In step S78, the LED control unit 81 controls the LED 62a at the timing at which the image pickup device 63 is picked up (the process of step S79) in accordance with the frame synchronization signal from the image pickup device 63, as in step S26 of FIG. Light up.

これにより、波長λ1の照射光は、LED62aから偏光変換素子131aを通過して、プリズム151aにより、偏光ビームスプリッタ107の方向に反射される。なお、波長λ1の照射光は、偏光変換素子131aを通過する際に、偏光変換素子131aにより、殆どの照射光がS偏光とされる。   Thereby, the irradiation light of wavelength λ1 passes through the polarization conversion element 131a from the LED 62a, and is reflected in the direction of the polarization beam splitter 107 by the prism 151a. When the irradiation light having the wavelength λ1 passes through the polarization conversion element 131a, most of the irradiation light is converted to S-polarized light by the polarization conversion element 131a.

このため、偏光ビームスプリッタ107は、波長λ1の照射光のS偏光を、LCOS部108の方向に反射させる。LCOS部108は、偏光ビームスプリッタ107からの波長λ1の照射光を、P偏光として、偏光ビームスプリッタ107に照射する。   For this reason, the polarization beam splitter 107 reflects the S-polarized light of the irradiation light having the wavelength λ <b> 1 in the direction of the LCOS unit 108. The LCOS unit 108 irradiates the polarization beam splitter 107 with the irradiation light having the wavelength λ1 from the polarization beam splitter 107 as P-polarized light.

偏光ビームスプリッタ107は、LCOS部108からの波長λ1の照射光を透過させて、レンズ109及びレンズ110を介して、投影範囲に照射させる。   The polarization beam splitter 107 transmits the irradiation light having the wavelength λ 1 from the LCOS unit 108 and irradiates the projection range via the lens 109 and the lens 110.

これにより、LED62aは、撮像素子63の撮像が行われる間、投影範囲内の被写体に対して、波長λ1の光を照射する。なお、LED62bは消灯されている。   Thereby, the LED 62a irradiates the subject within the projection range with the light having the wavelength λ1 while the image pickup device 63 is picked up. The LED 62b is turned off.

ステップS79では、図5のステップS27と同様の処理が行われ、撮像素子63から画像処理部82に対して、撮像画像I_λ1が供給される。なお、いまの場合、投影範囲がジェスチャ検知可能範囲とされている。したがって、撮像素子63は、投影範囲を撮像範囲として撮像を行うこととなる。このことは、ステップS81及びステップS83でも同様である。   In step S79, the same process as in step S27 of FIG. 5 is performed, and the captured image I_λ1 is supplied from the image sensor 63 to the image processing unit 82. In this case, the projection range is a gesture detectable range. Therefore, the imaging device 63 performs imaging using the projection range as the imaging range. The same applies to step S81 and step S83.

ステップS80では、LED制御部81は、図5のステップS28と同様にして、撮像素子63からのフレーム同期信号に応じて、ステップS79における撮像素子63の撮像が終了するタイミングで、LED62aを消灯させる。   In step S80, the LED control unit 81 turns off the LED 62a at the timing when the imaging of the image sensor 63 in step S79 ends according to the frame synchronization signal from the image sensor 63, as in step S28 of FIG. .

また、LED制御部81は、撮像素子63からのフレーム同期信号に応じて、撮像素子63の次の撮像(ステップS81の処理)が開始するタイミングで、LED62bを点灯させる。   Further, the LED control unit 81 turns on the LED 62b at the timing when the next imaging (processing in step S81) of the imaging device 63 starts in accordance with the frame synchronization signal from the imaging device 63.

これにより、波長λ2の照射光は、LED62bから偏光変換素子131bを通過して、プリズム151bにより、プリズム151a(偏光ビームスプリッタ107)の方向に反射される。そして、波長λ2の照射光は、プリズム151a及びレンズ106を通過して、偏光ビームスプリッタ107に入射される。   Thereby, the irradiation light of wavelength λ2 passes from the LED 62b through the polarization conversion element 131b, and is reflected by the prism 151b in the direction of the prism 151a (polarization beam splitter 107). Then, the irradiation light having the wavelength λ 2 passes through the prism 151 a and the lens 106 and is incident on the polarization beam splitter 107.

なお、波長λ2の照射光は、偏光変換素子131bを通過する際に、偏光変換素子131bにより、殆どの照射光がS偏光とされる。   When the irradiation light having the wavelength λ2 passes through the polarization conversion element 131b, most of the irradiation light is converted to S-polarized light by the polarization conversion element 131b.

このため、偏光ビームスプリッタ107は、波長λ2の照射光のS偏光を、LCOS部108の方向に反射させる。LCOS部108は、偏光ビームスプリッタ107からの波長λ2の照射光を、P偏光として、偏光ビームスプリッタ107に照射する。   For this reason, the polarization beam splitter 107 reflects the S-polarized light of the irradiation light having the wavelength λ <b> 2 in the direction of the LCOS unit 108. The LCOS unit 108 irradiates the polarization beam splitter 107 with the irradiation light having the wavelength λ2 from the polarization beam splitter 107 as P-polarized light.

偏光ビームスプリッタ107は、LCOS部108からの波長λ2の照射光を透過させて、レンズ109及びレンズ110を介して、投影範囲に照射させる。   The polarization beam splitter 107 transmits the irradiation light having the wavelength λ 2 from the LCOS unit 108 and irradiates the projection range via the lens 109 and the lens 110.

これにより、LED62bは、撮像素子63の次の撮像が行われる間、投射範囲内の被写体に対して、波長λ2の光を照射する。なお、LED62aは消灯されている。   Thereby, the LED 62b irradiates the subject within the projection range with the light of the wavelength λ2 while the next imaging of the imaging element 63 is performed. The LED 62a is turned off.

ステップS81では、図5のステップS29と同様の処理が行われ、撮像素子63から画像処理部82に対して、撮像画像I_λ2が供給される。   In step S81, processing similar to that in step S29 in FIG. 5 is performed, and the captured image I_λ2 is supplied from the image sensor 63 to the image processing unit 82.

ステップS82乃至ステップS87において、それぞれ、図5のステップS30乃至ステップS35と同様の処理が行われる。   In steps S82 to S87, processing similar to that in steps S30 to S35 of FIG. 5 is performed.

なお、いまの場合、ジェスチャ検知可能範囲は、投影範囲であるため、投影範囲内で行われるジェスチャ等が、使用者の手の位置や形状等として検出され、その検出結果に応じて、投影画像上にカーソル等が表示させることとなる。   In this case, since the gesture detectable range is a projection range, a gesture or the like performed within the projection range is detected as the position or shape of the user's hand, and a projection image is generated according to the detection result. A cursor or the like is displayed on the top.

ステップS87の処理の終了後、制御部111は、LCOS部108を制御して、全画素を均一に反射させるようにされた設定を、投影画像を投影する際の設定に戻す。処理は、ステップS71に戻り、それ以降、同様の処理が繰り返される。   After the process of step S87 is completed, the control unit 111 controls the LCOS unit 108 to return the setting for reflecting all the pixels uniformly to the setting for projecting the projection image. The process returns to step S71, and thereafter the same process is repeated.

なお、このジェスチャ認識投影処理は、例えば、使用者が、操作部44を操作して電源をオフしたときに終了される。   Note that this gesture recognition projection processing is ended, for example, when the user operates the operation unit 44 to turn off the power.

以上説明したように、ジェスチャ認識投影処理によれば、被写体を照らす照明の明るさに拘らず、画像上の人間の手等を精度良く検出することが可能となる。   As described above, according to the gesture recognition projection processing, it is possible to accurately detect a human hand or the like on an image regardless of the brightness of the illumination that illuminates the subject.

また、ジェスチャ認識処理では、パターンマッチング等のような複雑な処理を行う場合と比較して、ジェスチャ認識処理を実行するDSPやCPU等の負荷を少なくすることが可能となる。   Further, in the gesture recognition process, it is possible to reduce the load on the DSP, CPU, or the like that executes the gesture recognition process, as compared with a case where complicated processes such as pattern matching are performed.

さらに、例えば、ジェスチャ認識処理を行うプロジェクタ21では、LED62a,LED62b、及び撮像素子63等の、容易に調達可能な部品により構成されている。このため、例えば、特殊で非常に高価なセンサ等を用いて、人間のジェスチャ等を認識する場合と比較して、安価にプロジェクタ21を製造することができる。   Further, for example, the projector 21 that performs the gesture recognition processing is configured by easily procurable parts such as the LED 62a, the LED 62b, and the imaging element 63. For this reason, for example, the projector 21 can be manufactured at a lower cost than when a human gesture or the like is recognized using a special and very expensive sensor or the like.

また、波長λ1の光、及び波長λ2の光を照射する際に、ステップS77において、制御部111は、LCOS部108を制御して、全画素を均一に反射させるように設定している。   In addition, when irradiating light of wavelength λ1 and light of wavelength λ2, in step S77, the control unit 111 controls the LCOS unit 108 so as to reflect all pixels uniformly.

このため、波長λ1の光、及び波長λ2の光が、均一な光として、ジェスチャ検知可能範囲である投影範囲に照射されることとなるので、波長λ1の光、及び波長λ2の光が不均一なために、肌検出の検出精度が低下する事態を防止できる。   For this reason, the light with the wavelength λ1 and the light with the wavelength λ2 are irradiated as uniform light onto the projection range, which is the gesture detectable range, so the light with the wavelength λ1 and the light with the wavelength λ2 are non-uniform Therefore, the situation where the detection accuracy of skin detection falls can be prevented.

<4.変形例>
プロジェクタ21において、撮像素子63による撮像方向は固定の他、可変とすることができる。すなわち、例えば、撮像素子63を含む肌検出部41を駆動可能にして、撮像素子63による撮像方向を変化できるように構成することができる。
<4. Modification>
In the projector 21, the imaging direction by the imaging element 63 can be fixed or variable. That is, for example, the skin detection unit 41 including the image sensor 63 can be driven, and the imaging direction by the image sensor 63 can be changed.

さらに、例えば、画像処理部82は、検出した使用者の手等の第1の位置を、撮像素子63による撮像方向に応じた第2の位置に変換するようにしてもよい。   Further, for example, the image processing unit 82 may convert the detected first position such as the user's hand into a second position corresponding to the imaging direction by the imaging element 63.

すなわち、例えば、撮像方向が、図1に示されるように投影画像の投影方向とは同一である場合、撮像方向に存在する使用者は、投影方向に投影された投影画像を正面に見ながら、ジェスチャ等を行うと思われる。   That is, for example, when the imaging direction is the same as the projection direction of the projection image as shown in FIG. 1, the user existing in the imaging direction looks at the projection image projected in the projection direction in front of It seems to perform gestures.

具体的には、例えば、投影画像上のカーソル等を、使用者から見て右方向に移動させたい場合、使用者は、投影画像を正面に見ながら、手等を右方向に移動させる。   Specifically, for example, when it is desired to move the cursor or the like on the projection image in the right direction when viewed from the user, the user moves the hand or the like in the right direction while viewing the projection image in front.

この場合、投影画像上のカーソル等を移動させたい方向と、使用者が、自身の手等を移動させる方向とは一致するため、画像処理部82は、検出した使用者の手等の第1の位置を、移動する手の軌跡をジェスチャとして認識するものとして、そのまま用いて問題ない。   In this case, since the direction in which the cursor or the like on the projected image is desired to be moved coincides with the direction in which the user moves his / her hand or the like, the image processing unit 82 first detects the detected user's hand or the like. This position can be used as it is as a gesture for recognizing the locus of the moving hand as a gesture.

しかしながら、例えば、撮像方向が、投影画像の投影方向と真逆である場合、撮像方向に存在する使用者は、投影範囲を正面にして、パーソナルコンピュータ22に表示される投影画像(投影範囲に投影されたものと同一の投影画像)を見ながら、撮像範囲内でジェスチャ等を行うことが考えられる。   However, for example, when the imaging direction is exactly opposite to the projection direction of the projection image, the user existing in the imaging direction faces the projection range in front and projects the projection image (projected onto the projection range) displayed on the personal computer 22. It is conceivable to perform a gesture or the like within the imaging range while viewing the same projected image).

すなわち、例えば、投影画像上のカーソル等を、図1の右方向に移動させたい場合、使用者は、プロジェクタ21を正面に見ながら、使用者から見て右方向(図1の右方向)に、手等を移動させる。   That is, for example, when it is desired to move the cursor or the like on the projection image in the right direction in FIG. 1, the user looks in the right direction (right direction in FIG. 1) as viewed from the user while looking at the projector 21 in front. Move hands etc.

この場合、撮像素子63から見ると使用者の手は、向かって左に動くことになる。従って撮像素子63により得られる撮像画像を用いて、画像処理部82が検出した使用者の手等の連続的な第1の位置に合わせて、投影画像上のカーソル等を移動させると、カーソルは左方向に移動してしまうことになる。
なお、画像処理部82は、例えば、使用者の手等の連続的な第1の位置により、使用者の手等の動きを検出するようにしている。
In this case, when viewed from the image sensor 63, the user's hand moves to the left. Therefore, when the cursor or the like on the projection image is moved to the continuous first position such as the user's hand detected by the image processing unit 82 using the captured image obtained by the imaging element 63, the cursor is It will move to the left.
Note that the image processing unit 82 detects the movement of the user's hand or the like based on the continuous first position of the user's hand or the like, for example.

したがって、画像処理部82は、検出した第1の位置を、例えば、撮像画像上の上下方向に延びる中心線に対して、左右対称な第2の位置に変換し、変換後の第2の位置を、その後の処理で用いるようにする。
この場合、画像処理部82は、例えば、使用者の手等の連続的な第2の位置により、使用者の手等の動きを検出するものとなる。
Therefore, the image processing unit 82 converts the detected first position into, for example, a second position that is symmetrical with respect to the center line extending in the vertical direction on the captured image, and the converted second position. Is used in the subsequent processing.
In this case, the image processing unit 82 detects the movement of the user's hand or the like based on the continuous second position of the user's hand or the like, for example.

これにより、画像処理部82は、使用者の手が、図1の左方向ではなく、図1の右方向に移動したものと認識できるようになり、投影画像上のカーソルを、移動させたい図1の右方向に移動させるようにすることができる。   As a result, the image processing unit 82 can recognize that the user's hand has moved in the right direction in FIG. 1 instead of in the left direction in FIG. 1, and the cursor on the projected image is to be moved. 1 can be moved to the right.

第2の実施の形態では、図7に示されるように、偏光ビームスプリッタ107を用いて、LED62aからプリズム132を介して入射される波長λ1の照射光、及びLED62bからプリズム132を介して入射される波長λ2の照射光を、投影範囲の方向に反射させるようにしている。   In the second embodiment, as shown in FIG. 7, using the polarization beam splitter 107, the irradiation light of wavelength λ1 incident from the LED 62a via the prism 132 and the incident light from the LED 62b via the prism 132 are incident. The irradiation light having the wavelength λ2 is reflected in the direction of the projection range.

しかしながら、例えば、ミラー等を用いるようにして、波長λ1の照射光、及び波長λ2の照射光を、投影範囲の方向に反射させるようにしてもよい。   However, for example, by using a mirror or the like, the irradiation light with the wavelength λ1 and the irradiation light with the wavelength λ2 may be reflected in the direction of the projection range.

また、第1乃至第3の実施の形態において、プロジェクタ21には、例えば、加速度センサ等を設けるようにして、プロジェクタ21の動きを検知できるようにしてもよい。そして、プロジェクタ21の動きが検知された場合には、再度、撮像画像上の投影範囲を算出するキャリブレーション処理を行うようにしてもよい。   In the first to third embodiments, the projector 21 may be provided with an acceleration sensor, for example, so that the movement of the projector 21 can be detected. When the movement of the projector 21 is detected, calibration processing for calculating the projection range on the captured image may be performed again.

この場合、プロジェクタ21の動きにより、投影範囲が変更された場合でも、変更後の投影範囲を、再度のキャリブレーション処理で算出できるようになる。   In this case, even when the projection range is changed due to the movement of the projector 21, the changed projection range can be calculated by a second calibration process.

なお、本技術は以下のような構成もとることができる。
(1)被写体に対して第1の波長の光を照射する第1の照射部と、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射する第2の照射部と、前記被写体の撮像を行なう撮像部と、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出部と、前記検出部の検出結果に応じて変更される投影画像を投影する投影部とを含む投影装置。
(2)前記撮像部は、前記投影画像が投影される投影範囲を含む撮像範囲で、前記被写体の撮像を行う前記(1)に記載の投影装置。
(3)前記撮像部の撮像により得られる撮像画像上の前記投影範囲を算出する算出部をさらに含む前記(2)に記載の投影装置。
(4)前記投影部は、前記投影範囲の輪郭を表す輪郭投影画像も投影し、前記算出部は、前記輪郭投影画像が投影されたときの撮像で得られる前記撮像画像上の前記投影範囲を算出する前記(3)に記載の投影装置。
(5)前記第1の照射部は、前記第1の波長の不可視光を照射し、前記第2の照射部は、前記第2の波長の不可視光を照射し、前記投影部は、前記輪郭投影画像を、少なくとも可視光を含む投影光、又は不可視光の一方として投影する前記(4)に記載の投影装置。
(6)前記投影部は、前記輪郭投影画像を、前記投影光として投影し、前記撮像部は、可視光を遮断する可視光遮断部が設けられた第1の受光素子と、前記可視光遮断部が設けられていない第2の受光素子とにより構成される撮像素子を有し、前記第1の受光素子により、前記第1及び第2の撮像画像を生成し、前記第2の受光素子により、前記パターン画像を生成する前記(5)に記載の投影装置。
(7)前記投影部は、前記輪郭投影画像を不可視光として投影し、前記撮像部は、可視光を遮断する可視光遮断部が設けられた撮像素子を有し、前記撮像素子により、前記第1及び第2の撮像画像の他、前記パターン画像も生成する
前記(5)に記載の投影装置。
(8)可視光を遮断する可視光遮断部と、前記輪郭投影画像として、前記投影光が投影されるときに、前記撮像素子に可視光が入射されるように前記可視光遮断部を移動させ、前記第1の波長の光、又は前記第2の波長の光が照射されるときに、前記撮像素子に可視光が入射されないように前記可視光遮断部を移動させる
移動制御部とをさらに含む前記(5)に記載の投影装置。
(9)前記投影部は、予め決められた方向から入射される光を、前記投影範囲に反射させる反射部を有し、前記第1の照射部は、前記第1の波長の光を、前記反射部に反射させて前記投影範囲に照射し、前記第2の照射部は、前記第2の波長の光を、前記反射部に反射させて前記投影範囲に照射する前記(2)乃至(8)に記載の投影装置。
(10)前記第1の照射部は、前記第1の波長の光を、各画素値が均一な投影画像として反射させる前記反射部に反射させて前記投影範囲に照射し、前記第2の照射部は、前記第2の波長の光を、各画素値が均一な投影画像として反射させる前記反射部に反射させて前記投影範囲に照射する前記(9)に記載の投影装置。
(11)前記第1の照射部から照射される前記第1の波長の光を、第1の偏光、又は前記第1の偏光とは異なる第2の偏光のうち、前記反射部で反射される前記第1の偏光に変換する第1の偏光変換部と、前記第2の照射部から照射される前記第2の波長の光を、前記第1の偏光又は前記第2の偏光のうち、前記反射部で反射される前記第1の偏光に変換する第2の偏光変換部とをさらに含む前記(9)に記載の投影装置。
(12)前記投影装置の動きを検知する動き検知部をさらに含み、前記算出部は、前記動き検知部により、前記投影装置の動きが検知された場合にも、前記撮像画像上の前記投影範囲を算出する前記(3)又は(4)に記載の投影装置。
(13)前記投影部は、前記投影範囲のうち、前記肌領域の検出された部分を除く範囲に、前記投影画像を投影する前記(1)に記載の投影装置。
(14)前記撮像部は、撮像方向を変更可能である前記(1)に記載の投影装置。
(15)前記肌領域が検出された前記撮像画像上の第1の位置を、前記撮像部の撮像方向に応じた第2の位置に変換する位置変換部をさらに含み、前記投影部は、前記第2の位置に応じて変更された前記投影画像を投影する前記(14)に記載の投影装置。
(16)
前記第1の照射部は、前記第1の波長の光を前記投影範囲に照射し、前記第2の照射部は、前記第2の波長の光を前記投影範囲に照射し、前記検出部は、前記第1の撮像画像及び前記第2の撮像画像に基づいて、前記投射範囲内の前記肌領域を検出する前記(2)に記載の投影装置。
(17)前記第1の波長λ1、及び前記第2の波長λ2は、
640nm ≦ λ1 ≦ 1000nm
900nm ≦ λ2 ≦ 1100nm
を満たす前記(1)に記載の投影装置。
(18)前記第1の照射部は、前記第1の波長λ1の不可視光を照射し、前記第2の照射部は、前記第2の波長λ2の不可視光を照射する前記(17)に記載の投影装置。
(19)前記投影範囲における前記検出結果を、前記投影範囲内の位置に応じた信号として出力する出力部をさらに含む前記(3)に記載の投影装置。
(20)投影装置の投影方法において、前記投影装置による、被写体に対して第1の波長の光を照射する第1の照射ステップと、前記第1の波長の光を照射させたときの前記被写体の撮像を行なう第1の撮像ステップと、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射する第2の照射ステップと、前記第2の波長の光を照射させたときの前記被写体の撮像を行なう第2の撮像ステップと、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出ステップと、前記検出ステップの検出結果に応じて変更される投影画像を投影する投影ステップとを含む投影方法。
(21)コンピュータに、被写体に対して第1の波長の光を照射させる第1の照射ステップと、前記第1の波長の光を照射させたときの前記被写体の撮像を行なわせる第1の撮像ステップと、前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射させる第2の照射ステップと、前記第2の波長の光を照射させたときの前記被写体の撮像を行なわせる第2の撮像ステップと、前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出ステップと、前記検出ステップの検出結果に応じて変更される投影画像を投影させる投影ステップとを含む処理を実行させるためのプログラム。
In addition, this technique can also take the following structures.
(1) A first irradiating unit that irradiates a subject with light having a first wavelength, and a second irradiating the subject with light having a second wavelength that is longer than the first wavelength. An irradiating unit, an imaging unit for imaging the subject, a first captured image obtained by irradiating with light of the first wavelength, and the second wavelength with respect to the subject A projection for projecting a detection unit that detects a skin region of the subject and a projection image that is changed according to a detection result of the detection unit based on a second captured image obtained by imaging when light is irradiated A projection apparatus.
(2) The projection apparatus according to (1), wherein the imaging unit performs imaging of the subject in an imaging range including a projection range on which the projection image is projected.
(3) The projection apparatus according to (2), further including a calculation unit that calculates the projection range on a captured image obtained by imaging of the imaging unit.
(4) The projection unit also projects a contour projection image representing the contour of the projection range, and the calculation unit calculates the projection range on the captured image obtained by imaging when the contour projection image is projected. The projection apparatus according to (3), wherein the calculation is performed.
(5) The first irradiation unit irradiates invisible light of the first wavelength, the second irradiation unit irradiates invisible light of the second wavelength, and the projection unit includes the contour. The projection device according to (4), wherein the projection image is projected as one of projection light including at least visible light or invisible light.
(6) The projection unit projects the contour projection image as the projection light, and the imaging unit includes a first light receiving element provided with a visible light blocking unit that blocks visible light, and the visible light blocking. A second light receiving element that is not provided with a portion, the first light receiving element generates the first and second captured images, and the second light receiving element The projection apparatus according to (5), wherein the pattern image is generated.
(7) The projection unit projects the contour projection image as invisible light, and the imaging unit includes an imaging element provided with a visible light blocking unit that blocks visible light. The projection apparatus according to (5), wherein the pattern image is generated in addition to the first and second captured images.
(8) A visible light blocking unit that blocks visible light, and the visible light blocking unit is moved so that visible light is incident on the imaging device when the projection light is projected as the contour projection image. And a movement control unit that moves the visible light blocking unit so that visible light is not incident on the imaging device when the first wavelength light or the second wavelength light is irradiated. The projection device according to (5).
(9) The projection unit includes a reflection unit that reflects light incident from a predetermined direction to the projection range, and the first irradiation unit emits the light having the first wavelength. (2) to (8) wherein the second irradiation unit reflects the light of the second wavelength to the reflection unit and irradiates the projection range with reflection on the reflection unit. ).
(10) The first irradiation unit irradiates the projection range by reflecting the light of the first wavelength to the reflection unit that reflects each pixel value as a projection image having a uniform pixel value, and the second irradiation. The projection apparatus according to (9), wherein the unit reflects the light of the second wavelength to the reflection unit that reflects the projection image with uniform pixel values and irradiates the projection range.
(11) The light of the first wavelength irradiated from the first irradiation unit is reflected by the reflection unit among the first polarized light or the second polarized light different from the first polarized light. The first polarized light converting unit that converts the first polarized light, and the second wavelength light emitted from the second irradiating unit is the first polarized light or the second polarized light. The projection apparatus according to (9), further including a second polarization conversion unit that converts the first polarized light reflected by the reflection unit.
(12) It further includes a motion detection unit that detects the motion of the projection device, and the calculation unit also includes the projection range on the captured image even when the motion detection unit detects the motion of the projection device. The projection apparatus according to (3) or (4), wherein:
(13) The projection device according to (1), wherein the projection unit projects the projection image in a range excluding the detected portion of the skin region in the projection range.
(14) The projection device according to (1), wherein the imaging unit is capable of changing an imaging direction.
(15) a position conversion unit that converts a first position on the captured image in which the skin region is detected to a second position corresponding to an imaging direction of the imaging unit; and the projection unit includes: The projection apparatus according to (14), wherein the projection image changed according to the second position is projected.
(16)
The first irradiation unit irradiates the projection range with light of the first wavelength, the second irradiation unit irradiates the projection range with light of the second wavelength, and the detection unit The projection apparatus according to (2), wherein the skin region within the projection range is detected based on the first captured image and the second captured image.
(17) The first wavelength λ1 and the second wavelength λ2 are:
640nm ≤ λ1 ≤ 1000nm
900nm ≤ λ2 ≤ 1100nm
The projection device according to (1), wherein
(18) The first irradiation unit irradiates invisible light with the first wavelength λ1, and the second irradiation unit irradiates invisible light with the second wavelength λ2. Projection device.
(19) The projection apparatus according to (3), further including an output unit that outputs the detection result in the projection range as a signal corresponding to a position in the projection range.
(20) In the projection method of the projection device, a first irradiation step of irradiating the subject with light of the first wavelength by the projection device, and the subject when the light of the first wavelength is irradiated A first imaging step that performs imaging, a second irradiation step that irradiates the subject with light having a second wavelength that is longer than the first wavelength, and light having the second wavelength. A second imaging step for imaging the subject when irradiated with light, a first captured image obtained by imaging when irradiated with light of the first wavelength, and the subject with respect to the first A detection step for detecting a skin region of the subject based on a second captured image obtained by imaging when light of two wavelengths is irradiated, and a projection image that is changed according to the detection result of the detection step A projection step of projecting Shadow method.
(21) A first imaging step for causing a computer to irradiate a subject with light having a first wavelength, and a first imaging for causing the subject to take an image when the subject has been irradiated with light having the first wavelength. A step of irradiating the subject with light of a second wavelength that is longer than the first wavelength, and the subject of irradiating the subject with light of the second wavelength A second imaging step for performing imaging of the first, a first captured image obtained by imaging when the light of the first wavelength is irradiated, and the light of the second wavelength irradiated to the subject A detection step for detecting a skin region of the subject based on a second captured image obtained by imaging at the time of imaging, and a projection step for projecting a projection image that is changed according to the detection result of the detection step To execute a process that includes Of the program.

[コンピュータの構成例]
図10は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
[Computer configuration example]
FIG. 10 is a block diagram illustrating an example of a hardware configuration of a computer that executes the above-described series of processes using a program.

CPU(Central Processing Unit)201は、ROM(Read Only Memory)202、又は記憶部208に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)203には、CPU201が実行するプログラムやデータ等が適宜記憶される。これらのCPU201、ROM202、及びRAM203は、バス204により相互に接続されている。   A CPU (Central Processing Unit) 201 executes various processes according to a program stored in a ROM (Read Only Memory) 202 or a storage unit 208. A RAM (Random Access Memory) 203 appropriately stores programs executed by the CPU 201, data, and the like. These CPU 201, ROM 202, and RAM 203 are connected to each other by a bus 204.

CPU201にはまた、バス204を介して入出力インタフェース205が接続されている。入出力インタフェース205には、キーボード、マウス、マイクロホン等よりなる入力部206、ディスプレイ、スピーカ等よりなる出力部207が接続されている。CPU201は、入力部206から入力される指令に対応して各種の処理を実行する。そして、CPU201は、処理の結果を出力部207に出力する。   An input / output interface 205 is also connected to the CPU 201 via the bus 204. Connected to the input / output interface 205 are an input unit 206 composed of a keyboard, a mouse, a microphone, and the like, and an output unit 207 composed of a display, a speaker, and the like. The CPU 201 executes various processes in response to commands input from the input unit 206. Then, the CPU 201 outputs the processing result to the output unit 207.

入出力インタフェース205に接続されている記憶部208は、例えばハードディスクからなり、CPU201が実行するプログラムや各種のデータを記憶する。通信部209は、インターネットやローカルエリアネットワーク等のネットワークを介して外部の装置と通信する。   A storage unit 208 connected to the input / output interface 205 includes, for example, a hard disk, and stores programs executed by the CPU 201 and various data. The communication unit 209 communicates with an external device via a network such as the Internet or a local area network.

また、通信部209を介してプログラムを取得し、記憶部208に記憶してもよい。   Further, a program may be acquired via the communication unit 209 and stored in the storage unit 208.

入出力インタフェース205に接続されているドライブ210は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア211が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータ等を取得する。取得されたプログラムやデータは、必要に応じて記憶部208に転送され、記憶される。   The drive 210 connected to the input / output interface 205 drives a removable medium 211 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives programs and data recorded there. Etc. The acquired program and data are transferred to and stored in the storage unit 208 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを記録(記憶)する記録媒体は、図10に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini-Disc)を含む)、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア211、又は、プログラムが一時的もしくは永続的に格納されるROM202や、記憶部208を構成するハードディスク等により構成される。記録媒体へのプログラムの記録は、必要に応じてルータ、モデム等のインタフェースである通信部209を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の通信媒体を利用して行われる。   As shown in FIG. 10, a recording medium for recording (storing) a program installed in a computer and ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc- Removable media 211, which is a package media made up of read only memory), DVD (digital versatile disc), magneto-optical disc (including MD (mini-disc)), or semiconductor memory, or the program is temporarily or It is composed of a ROM 202 that is permanently stored, a hard disk that constitutes the storage unit 208, and the like. Recording of a program on a recording medium is performed using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 209 that is an interface such as a router or a modem as necessary. Is called.

なお、本明細書において、上述した一連の処理を記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the steps describing the series of processes described above are not limited to the processes performed in time series according to the described order, but are not necessarily performed in time series, either in parallel or individually. The process to be executed is also included.

また、本開示における実施の形態は、上述した第1乃至第3の実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments in the present disclosure are not limited to the first to third embodiments described above, and various modifications can be made without departing from the scope of the present disclosure.

21 プロジェクタ, 22 パーソナルコンピュータ, 41 肌検出部, 42 投影部, 43 制御部, 44 操作部, 61 DSP, 62a,62b LED, 63 撮像素子, 64 レンズ, 65 可視光カットフィルタ, 81 LED制御部, 82 画像処理部, 101,102,103 レーザ光源部, 104,105 プリズム, 106 レンズ, 107 偏光ビームスプリッタ, 108 LCOS部, 109,110 レンズ, 111 制御部, 131a,131b 偏光変換素子, 132,151a,151b プリズム   21 projector, 22 personal computer, 41 skin detection unit, 42 projection unit, 43 control unit, 44 operation unit, 61 DSP, 62a, 62b LED, 63 image sensor, 64 lens, 65 visible light cut filter, 81 LED control unit, 82 Image processing unit, 101, 102, 103 Laser light source unit, 104, 105 prism, 106 lens, 107 polarization beam splitter, 108 LCOS unit, 109, 110 lens, 111 control unit, 131a, 131b polarization conversion element, 132, 151a , 151b prism

Claims (21)

被写体に対して第1の波長の光を照射する第1の照射部と、
前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射する第2の照射部と、
前記被写体の撮像を行なう撮像部と、
前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出部と、
前記検出部の検出結果に応じて変更される投影画像を投影する投影部と
を含む投影装置。
A first irradiating unit that irradiates a subject with light having a first wavelength;
A second irradiation unit configured to irradiate the subject with light having a second wavelength that is longer than the first wavelength;
An imaging unit for imaging the subject;
A first captured image obtained by imaging when the light of the first wavelength is irradiated and a second imaging obtained by imaging when the subject is irradiated with the light of the second wavelength A detection unit for detecting a skin area of the subject based on an image;
A projection unit that projects a projection image that is changed according to a detection result of the detection unit.
前記撮像部は、前記投影画像が投影される投影範囲を含む撮像範囲で、前記被写体の撮像を行う
請求項1に記載の投影装置。
The projection apparatus according to claim 1, wherein the imaging unit images the subject in an imaging range including a projection range on which the projection image is projected.
前記撮像部の撮像により得られる撮像画像上の前記投影範囲を算出する算出部をさらに含む請求項2に記載の投影装置。   The projection device according to claim 2, further comprising a calculation unit that calculates the projection range on a captured image obtained by imaging of the imaging unit. 前記投影部は、前記投影範囲の輪郭を表す輪郭投影画像も投影し、
前記算出部は、前記輪郭投影画像が投影されたときの撮像で得られる前記撮像画像上の前記投影範囲を算出する
請求項3に記載の投影装置。
The projection unit also projects a contour projection image representing a contour of the projection range,
The projection device according to claim 3, wherein the calculation unit calculates the projection range on the captured image obtained by imaging when the contour projection image is projected.
前記第1の照射部は、前記第1の波長の不可視光を照射し、
前記第2の照射部は、前記第2の波長の不可視光を照射し、
前記投影部は、前記輪郭投影画像を、少なくとも可視光を含む投影光、又は不可視光の一方として投影する
請求項4に記載の投影装置。
The first irradiation unit irradiates invisible light of the first wavelength,
The second irradiation unit irradiates invisible light of the second wavelength,
The projection device according to claim 4, wherein the projection unit projects the contour projection image as one of projection light including at least visible light or invisible light.
前記投影部は、前記輪郭投影画像を、前記投影光として投影し、
前記撮像部は、可視光を遮断する可視光遮断部が設けられた第1の受光素子と、前記可視光遮断部が設けられていない第2の受光素子とにより構成される撮像素子を有し、前記第1の受光素子により、前記第1及び第2の撮像画像を生成し、前記第2の受光素子により、前記パターン画像を生成する
請求項5に記載の投影装置。
The projection unit projects the contour projection image as the projection light,
The imaging unit includes an imaging device including a first light receiving element provided with a visible light blocking unit that blocks visible light, and a second light receiving element not provided with the visible light blocking unit. The projection apparatus according to claim 5, wherein the first and second captured images are generated by the first light receiving element, and the pattern image is generated by the second light receiving element.
前記投影部は、前記輪郭投影画像を不可視光として投影し、
前記撮像部は、可視光を遮断する可視光遮断部が設けられた撮像素子を有し、前記撮像素子により、前記第1及び第2の撮像画像の他、前記パターン画像も生成する
請求項5に記載の投影装置。
The projection unit projects the contour projection image as invisible light,
6. The imaging unit includes an imaging element provided with a visible light blocking unit that blocks visible light, and the imaging element generates the pattern image in addition to the first and second captured images. The projection apparatus described in 1.
可視光を遮断する可視光遮断部と、
前記輪郭投影画像として、前記投影光が投影されるときに、前記撮像素子に可視光が入射されるように前記可視光遮断部を移動させ、
前記第1の波長の光、又は前記第2の波長の光が照射されるときに、前記撮像素子に可視光が入射されないように前記可視光遮断部を移動させる
移動制御部と
をさらに含む請求項5に記載の投影装置。
A visible light blocking unit that blocks visible light; and
As the contour projection image, when the projection light is projected, the visible light blocking unit is moved so that visible light is incident on the imaging element,
And a movement control unit that moves the visible light blocking unit so that visible light is not incident on the imaging device when the first wavelength light or the second wavelength light is irradiated. Item 6. The projection device according to Item 5.
前記投影部は、予め決められた方向から入射される光を、前記投影範囲に反射させる反射部を有し、
前記第1の照射部は、前記第1の波長の光を、前記反射部に反射させて前記投影範囲に照射し、
前記第2の照射部は、前記第2の波長の光を、前記反射部に反射させて前記投影範囲に照射する
請求項2に記載の投影装置。
The projection unit includes a reflection unit that reflects light incident from a predetermined direction to the projection range,
The first irradiation unit reflects the light of the first wavelength to the reflection unit to irradiate the projection range,
The projection apparatus according to claim 2, wherein the second irradiation unit irradiates the projection range with the light having the second wavelength reflected by the reflection unit.
前記第1の照射部は、前記第1の波長の光を、各画素値が均一な投影画像として反射させる前記反射部に反射させて前記投影範囲に照射し、
前記第2の照射部は、前記第2の波長の光を、各画素値が均一な投影画像として反射させる前記反射部に反射させて前記投影範囲に照射する
請求項9に記載の投影装置。
The first irradiation unit irradiates the projection range by reflecting the light of the first wavelength to the reflection unit that reflects each pixel value as a projection image having a uniform pixel value,
The projection device according to claim 9, wherein the second irradiation unit irradiates the projection range with the light having the second wavelength reflected by the reflection unit that reflects each pixel value as a projection image having a uniform pixel value.
前記第1の照射部から照射される前記第1の波長の光を、第1の偏光、又は前記第1の偏光とは異なる第2の偏光のうち、前記反射部で反射される前記第1の偏光に変換する第1の偏光変換部と、
前記第2の照射部から照射される前記第2の波長の光を、前記第1の偏光又は前記第2の偏光のうち、前記反射部で反射される前記第1の偏光に変換する第2の偏光変換部と
をさらに含む請求項9に記載の投影装置。
The first wavelength that is reflected by the reflection unit among the first polarized light or the second polarized light different from the first polarized light is emitted from the first irradiation unit. A first polarization converter that converts the polarized light into
Second light that converts light of the second wavelength irradiated from the second irradiation unit into the first polarized light reflected by the reflection unit out of the first polarized light or the second polarized light. The projection apparatus according to claim 9, further comprising: a polarization conversion unit.
前記投影装置の動きを検知する動き検知部をさらに含み、
前記算出部は、前記動き検知部により、前記投影装置の動きが検知された場合、前記撮像画像上の前記投影範囲を算出する
請求項3に記載の投影装置。
A motion detector for detecting the motion of the projection device;
The projection device according to claim 3, wherein the calculation unit calculates the projection range on the captured image when the motion detection unit detects a motion of the projection device.
前記投影部は、前記投影範囲のうち、前記肌領域の検出された部分を除く範囲に、前記投影画像を投影する
請求項1に記載の投影装置。
The projection device according to claim 1, wherein the projection unit projects the projection image in a range excluding the detected portion of the skin region in the projection range.
前記撮像部は、撮像方向を変更可能である
請求項1に記載の投影装置。
The projection device according to claim 1, wherein the imaging unit is capable of changing an imaging direction.
前記肌領域が検出された前記撮像画像上の第1の位置を、前記撮像部の撮像方向に応じた第2の位置に変換する変換部をさらに含み、
前記投影部は、前記第2の位置に応じて変更された前記投影画像を投影する
請求項14に記載の投影装置。
A conversion unit that converts a first position on the captured image in which the skin region is detected into a second position corresponding to an imaging direction of the imaging unit;
The projection device according to claim 14, wherein the projection unit projects the projection image changed according to the second position.
前記第1の照射部は、前記第1の波長の光を前記投影範囲に照射し、
前記第2の照射部は、前記第2の波長の光を前記投影範囲に照射し、
前記検出部は、前記第1の撮像画像及び前記第2の撮像画像に基づいて、前記投射範囲内の前記肌領域を検出する
請求項2に記載の投影装置。
The first irradiation unit irradiates the projection range with light of the first wavelength,
The second irradiation unit irradiates the projection range with light of the second wavelength,
The projection device according to claim 2, wherein the detection unit detects the skin region within the projection range based on the first captured image and the second captured image.
前記第1の波長λ1、及び前記第2の波長λ2は、
640nm ≦ λ1 ≦ 1000nm
900nm ≦ λ2 ≦ 1100nm
を満たす請求項1に記載の投影装置。
The first wavelength λ1 and the second wavelength λ2 are:
640nm ≤ λ1 ≤ 1000nm
900nm ≤ λ2 ≤ 1100nm
The projection apparatus according to claim 1, wherein:
前記第1の照射部は、前記第1の波長λ1の不可視光を照射し、
前記第2の照射部は、前記第2の波長λ2の不可視光を照射する
請求項17に記載の投影装置。
The first irradiation unit irradiates invisible light having the first wavelength λ1,
The projection apparatus according to claim 17, wherein the second irradiation unit irradiates invisible light having the second wavelength λ2.
前記投影範囲における前記検出結果を、前記投影範囲内の位置に応じた信号として出力する出力部
をさらに含む請求項3に記載の投影装置。
The projection apparatus according to claim 3, further comprising: an output unit that outputs the detection result in the projection range as a signal corresponding to a position in the projection range.
投影装置の投影方法において、
前記投影装置による、
被写体に対して第1の波長の光を照射する第1の照射ステップと、
前記第1の波長の光を照射させたときの前記被写体の撮像を行なう第1の撮像ステップと、
前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射する第2の照射ステップと、
前記第2の波長の光を照射させたときの前記被写体の撮像を行なう第2の撮像ステップと、
前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出ステップと、
前記検出ステップの検出結果に応じて変更される投影画像を投影する投影ステップと
を含む投影方法。
In the projection method of the projection device,
By the projection device,
A first irradiation step of irradiating a subject with light of a first wavelength;
A first imaging step of imaging the subject when irradiated with light of the first wavelength;
A second irradiation step of irradiating the object with light having a second wavelength that is longer than the first wavelength;
A second imaging step of imaging the subject when irradiated with light of the second wavelength;
A first captured image obtained by imaging when the light of the first wavelength is irradiated and a second imaging obtained by imaging when the subject is irradiated with the light of the second wavelength A detection step of detecting a skin area of the subject based on an image;
A projection step of projecting a projection image that is changed according to the detection result of the detection step.
コンピュータに、
被写体に対して第1の波長の光を照射させる第1の照射ステップと、
前記第1の波長の光を照射させたときの前記被写体の撮像を行なわせる第1の撮像ステップと、
前記被写体に対して前記第1の波長よりも長波長である第2の波長の光を照射させる第2の照射ステップと、
前記第2の波長の光を照射させたときの前記被写体の撮像を行なわせる第2の撮像ステップと、
前記第1の波長の光を照射させたときの撮像で得られる第1の撮像画像、及び前記被写体に対して前記第2の波長の光を照射させたときの撮像で得られる第2の撮像画像に基づいて、前記被写体の肌領域を検出する検出ステップと、
前記検出ステップの検出結果に応じて変更される投影画像を投影する投影ステップと
を含む処理を実行させるためのプログラム。
On the computer,
A first irradiation step of irradiating the subject with light of a first wavelength;
A first imaging step for imaging the subject when the light of the first wavelength is irradiated;
A second irradiation step of irradiating the object with light having a second wavelength that is longer than the first wavelength;
A second imaging step for performing imaging of the subject when irradiated with light of the second wavelength;
A first captured image obtained by imaging when the light of the first wavelength is irradiated and a second imaging obtained by imaging when the subject is irradiated with the light of the second wavelength A detection step of detecting a skin area of the subject based on an image;
And a projection step of projecting a projection image that is changed according to the detection result of the detection step.
JP2011134641A 2011-06-16 2011-06-16 Projection device, projection method and program Withdrawn JP2013003859A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011134641A JP2013003859A (en) 2011-06-16 2011-06-16 Projection device, projection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011134641A JP2013003859A (en) 2011-06-16 2011-06-16 Projection device, projection method and program

Publications (1)

Publication Number Publication Date
JP2013003859A true JP2013003859A (en) 2013-01-07

Family

ID=47672361

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011134641A Withdrawn JP2013003859A (en) 2011-06-16 2011-06-16 Projection device, projection method and program

Country Status (1)

Country Link
JP (1) JP2013003859A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
WO2015029365A1 (en) 2013-08-26 2015-03-05 Sony Corporation Projection display having an image pickup function
JP2016005020A (en) * 2014-06-13 2016-01-12 株式会社東芝 Image processing device, image projection device, and image processing method
JP2016010025A (en) * 2014-06-25 2016-01-18 株式会社リコー Video projector, video projection method, and program
WO2016017315A1 (en) * 2014-07-29 2016-02-04 ソニー株式会社 Projection-type display apparatus
WO2016031447A1 (en) * 2014-08-27 2016-03-03 ソニー株式会社 Projection type display device
WO2016129489A1 (en) * 2015-02-10 2016-08-18 シャープ株式会社 Display apparatus, method of controlling display apparatus, control program, and recording medium
JP2017010506A (en) * 2015-06-18 2017-01-12 カシオ計算機株式会社 Touch input device, projection device, touch input method, and program
JPWO2016035500A1 (en) * 2014-09-03 2017-06-22 ソニー株式会社 Projection display device with detection function
JP2018507573A (en) * 2014-12-01 2018-03-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Projection apparatus and method for projecting an image pixel by pixel
JP2018093427A (en) * 2016-12-06 2018-06-14 小島プレス工業株式会社 On-vehicle projection apparatus
JP2018159835A (en) * 2017-03-23 2018-10-11 カシオ計算機株式会社 Projection device
WO2020261851A1 (en) * 2019-06-28 2020-12-30 富士フイルム株式会社 Projection device

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
US9524062B2 (en) 2013-08-26 2016-12-20 Sony Corporation Projection display
WO2015029365A1 (en) 2013-08-26 2015-03-05 Sony Corporation Projection display having an image pickup function
JP2015064550A (en) * 2013-08-26 2015-04-09 ソニー株式会社 Projection type display device
US9696854B2 (en) 2013-08-26 2017-07-04 Sony Corporation Projection display
EP3550359A1 (en) 2013-08-26 2019-10-09 SONY Corporation Projection display having an image pickup function
JP2016005020A (en) * 2014-06-13 2016-01-12 株式会社東芝 Image processing device, image projection device, and image processing method
JP2016010025A (en) * 2014-06-25 2016-01-18 株式会社リコー Video projector, video projection method, and program
CN106537247B (en) * 2014-07-29 2020-04-21 索尼公司 Projection type display device
US10691264B2 (en) 2014-07-29 2020-06-23 Sony Corporation Projection display apparatus
WO2016017315A1 (en) * 2014-07-29 2016-02-04 ソニー株式会社 Projection-type display apparatus
CN106537247A (en) * 2014-07-29 2017-03-22 索尼公司 Projection-type display apparatus
JPWO2016017315A1 (en) * 2014-07-29 2017-06-01 ソニー株式会社 Projection display
US10372269B2 (en) 2014-07-29 2019-08-06 Sony Corporation Projection display apparatus
US10013116B2 (en) 2014-08-27 2018-07-03 Sony Corporation Projection display unit
JPWO2016031447A1 (en) * 2014-08-27 2017-07-13 ソニー株式会社 Projection display
US10558301B2 (en) 2014-08-27 2020-02-11 Sony Corporation Projection display unit
WO2016031447A1 (en) * 2014-08-27 2016-03-03 ソニー株式会社 Projection type display device
JPWO2016035500A1 (en) * 2014-09-03 2017-06-22 ソニー株式会社 Projection display device with detection function
JP2018507573A (en) * 2014-12-01 2018-03-15 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Projection apparatus and method for projecting an image pixel by pixel
US10652508B2 (en) 2014-12-01 2020-05-12 Robert Bosch Gmbh Projector and method for projecting an image pixel by pixel
JPWO2016129489A1 (en) * 2015-02-10 2018-01-18 シャープ株式会社 Display device, display device control method, control program, and recording medium
WO2016129489A1 (en) * 2015-02-10 2016-08-18 シャープ株式会社 Display apparatus, method of controlling display apparatus, control program, and recording medium
JP2017010506A (en) * 2015-06-18 2017-01-12 カシオ計算機株式会社 Touch input device, projection device, touch input method, and program
JP2018093427A (en) * 2016-12-06 2018-06-14 小島プレス工業株式会社 On-vehicle projection apparatus
JP2018159835A (en) * 2017-03-23 2018-10-11 カシオ計算機株式会社 Projection device
WO2020261851A1 (en) * 2019-06-28 2020-12-30 富士フイルム株式会社 Projection device

Similar Documents

Publication Publication Date Title
JP2013003859A (en) Projection device, projection method and program
KR101410387B1 (en) Projection display system and desktop computer
WO2012124730A1 (en) Detection device, input device, projector, and electronic apparatus
US9836639B2 (en) Systems and methods of light modulation in eye tracking devices
US8831295B2 (en) Electronic device configured to apply facial recognition based upon reflected infrared illumination and related methods
JP4831267B2 (en) Information processing apparatus, information processing method, program, and electronic apparatus
JP4707034B2 (en) Image processing method and input interface device
US20150220766A1 (en) Barcode-reading enhancement system for a computing device that comprises a camera and an illumination system
TWI534716B (en) Fingerprint reading system
CN102457692A (en) Projector and method of controlling projector
JP2006092516A (en) Calibration of interactive display system
JP5532315B2 (en) Image processing apparatus, image processing method, program, and electronic apparatus
US10430625B2 (en) Barcode reading accessory for a mobile device having a one-way mirror
JP2016075561A (en) Gloss determination device and gloss determination method
JP2011043876A (en) Image display device
KR20110100582A (en) Information processing apparatus, information processing method, and program
WO2019163066A1 (en) Impersonation detection device, impersonation detection method, and computer-readable storage medium
JP2010034820A (en) Projector, control method of projector, and control program
JP6350175B2 (en) POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
JP2017009909A (en) Projection type video display system, projection type video display device, and projection correction method
JP6693071B2 (en) Imaging device, imaging control method, and program
TW201128455A (en) Signaling device position determination
JP2012231422A (en) Glare removal device and glare removal method
JP2017227972A (en) Projection imaging system and projection imaging method
JP5769518B2 (en) Imaging device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140902