JP2015111772A - Projection device - Google Patents

Projection device Download PDF

Info

Publication number
JP2015111772A
JP2015111772A JP2013253340A JP2013253340A JP2015111772A JP 2015111772 A JP2015111772 A JP 2015111772A JP 2013253340 A JP2013253340 A JP 2013253340A JP 2013253340 A JP2013253340 A JP 2013253340A JP 2015111772 A JP2015111772 A JP 2015111772A
Authority
JP
Japan
Prior art keywords
image
projection
unit
clock
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013253340A
Other languages
Japanese (ja)
Inventor
昌史 井出
Masashi Ide
昌史 井出
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citizen Holdings Co Ltd
Original Assignee
Citizen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citizen Holdings Co Ltd filed Critical Citizen Holdings Co Ltd
Priority to JP2013253340A priority Critical patent/JP2015111772A/en
Publication of JP2015111772A publication Critical patent/JP2015111772A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Position Input By Displaying (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a projection device that allows a user to naturally recognize the presence of a projection unit that projects an image onto a specific object upon detection of a specific portion of the body of the user.SOLUTION: A projection device (1) includes: a projection unit (30, 30a, 31) that emits a visible laser beam to project an image onto a first object; movable support parts (12, 13) that mount the projection unit so as to change the projection position of the image projected by the projection unit; depth sensors (20, 25) that acquire, in a space where the projection unit can project the image, depth data indicating the distance to the object in the space; and a control unit (50) that controls the movable support parts, when a specific portion of the body of a user is detected in the space on the basis of the depth data, to change the projection position of the image projected by the projection unit from a first object to a second object.

Description

本発明は、可視レーザ光により画像を投影する投影装置に関する。   The present invention relates to a projection apparatus that projects an image with visible laser light.

例えば、テレビ、ビデオ等を操作するための情報入力を行うために、リモコン等の情報入力装置を利用することが一般的に行われている。しかしながら、いざ利用しようとすると、リモコン等の置き場所が不明であったりして、利用したいときに利用できないといった不具合がある。   For example, an information input device such as a remote controller is generally used to input information for operating a television, a video, or the like. However, when trying to use it, there is a problem that the place where the remote controller or the like is placed is unknown, and it cannot be used when it is desired to use it.

そこで、こうした問題を解消するために、リモコン等の機器を用いず情報入力を行うことができる装置が提案されている。例えば、特許文献1には、可視レーザ光によりテーブルやユーザの体の一部などに情報入力用画像を投影し、その画像に対するユーザの操作を検出して情報入力を行う情報入力装置が記載されている。   In order to solve these problems, an apparatus capable of inputting information without using a device such as a remote controller has been proposed. For example, Patent Document 1 describes an information input device that projects an information input image onto a table or a part of a user's body with visible laser light, detects a user operation on the image, and inputs information. ing.

国際公開第2012/173001号International Publication No. 2012/173001

特許文献1の装置は、画像を投影可能な空間内で例えばユーザが手のひらを差し出せば、その手のひらを検出して手のひら上に情報入力用画像を投影するため、小型のレーザプロジェクタによる投影画像で情報入力を行うことができる。しかしながら、そうした情報入力装置が小型の投影装置で構成されていると、ユーザは、通常その存在に気付かず、手のひらを差し出す等の画像投影のきっかけとなる動作を行わないため、投影装置を用いた情報入力機能を有効利用できないおそれがある。このため、そうした投影装置があることをユーザが自然に認識できるような何らかの手段が必要である。   In the apparatus of Patent Document 1, for example, when a user presents a palm in a space where an image can be projected, the palm is detected and an information input image is projected on the palm. Information can be entered. However, when such an information input device is composed of a small projection device, the user is usually unaware of its presence and does not perform an operation that triggers image projection such as pushing out the palm. The information input function may not be used effectively. For this reason, some means is necessary so that the user can naturally recognize that there is such a projection apparatus.

そこで、本発明では、ユーザの体の特定部位が検出されたときに特定の対象物に画像を投影する投影部の存在をユーザが自然に認識可能な投影装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a projection device that allows a user to naturally recognize the presence of a projection unit that projects an image onto a specific object when a specific part of the user's body is detected.

本発明の投影装置は、可視レーザ光を出射して、第1の対象物に画像を投影する投影部と、投影部による画像の投影位置を変更可能に投影部を搭載する可動支持部と、投影部により画像を投影可能な空間内において、空間内の物体までの距離を示す深度データを取得する深度センサと、深度データに基づき空間内でユーザの体の特定部位が検出されたときに、可動支持部を制御して、投影部による画像の投影位置を第1の対象物から第2の対象物に変更させる制御部とを有することを特徴とする。   The projection device of the present invention emits visible laser light and projects an image onto a first object, a movable support unit that mounts the projection unit so that the projection position of the image by the projection unit can be changed, In a space in which an image can be projected by the projection unit, a depth sensor that acquires depth data indicating a distance to an object in the space, and when a specific part of the user's body is detected in the space based on the depth data, And a control unit that controls the movable support unit to change the projection position of the image by the projection unit from the first object to the second object.

本発明の投影装置では、制御部は、特定部位が検出されていないときは第1の対象物に画像が投影されるように、可動支持部と投影部を制御することが好ましい。   In the projection apparatus according to the aspect of the invention, it is preferable that the control unit controls the movable support unit and the projection unit so that an image is projected onto the first object when the specific part is not detected.

本発明の投影装置では、制御部は、深度データに基づき第1の対象物の表面形状を認識し、投影部が投影する画像の形状を表面形状に応じて補正することが好ましい。   In the projection apparatus of the present invention, it is preferable that the control unit recognizes the surface shape of the first object based on the depth data and corrects the shape of the image projected by the projection unit according to the surface shape.

本発明の投影装置では、深度センサは、空間全体の赤外線画像を撮像して深度データを取得する第1の検知部と、可動支持部に搭載され、投影部による画像の投影位置で赤外線ビームを2次元状に走査して、赤外線ビームの反射光から深度データを取得する第2の検知部とを有し、制御部は、第1の検知部が取得した深度データから特定部位を検出し、第2の検知部が取得した深度データから第1の対象物の形状を認識することが好ましい。   In the projection apparatus of the present invention, the depth sensor is mounted on the first detection unit that captures the infrared data of the entire space and acquires depth data, and the movable support unit, and emits the infrared beam at the projection position of the image by the projection unit. A second detection unit that scans two-dimensionally and acquires depth data from reflected light of the infrared beam, and the control unit detects a specific part from the depth data acquired by the first detection unit, It is preferable to recognize the shape of the first object from the depth data acquired by the second detection unit.

本発明の投影装置では、制御部は時計機能を有し、投影部は、時計機能により求められる時刻を示す時計画像を第1の対象物に投影することが好ましい。   In the projection device of the present invention, it is preferable that the control unit has a clock function, and the projection unit projects a clock image indicating the time required by the clock function onto the first object.

本発明の投影装置では、投影部は、第2の対象物に情報入力用画像を投影し、制御部は、深度データに基づき情報入力用画像に対するユーザの入力操作を検出することが好ましい。   In the projection device according to the aspect of the invention, it is preferable that the projection unit projects an information input image onto the second object, and the control unit detects a user input operation on the information input image based on the depth data.

本発明の投影装置では、制御部は、情報入力用画像に対するユーザの入力操作に応じて、時計画像の表示状態の設定、時計画像が示す時刻の設定、又は時計機能に付随するアラームの設定を行うことが好ましい。   In the projection device of the present invention, the control unit performs setting of the display state of the clock image, setting of the time indicated by the clock image, or setting of an alarm associated with the clock function in accordance with a user input operation on the information input image. Preferably it is done.

本発明の投影装置では、制御部はカレンダの情報を保持し、投影部は、第1の対象物にカレンダの画像を投影することが好ましい。   In the projection device according to the aspect of the invention, it is preferable that the control unit holds calendar information, and the projection unit projects a calendar image onto the first object.

本発明の投影装置によれば、ユーザの体の特定部位が検出されたときに特定の対象物に画像を投影する投影部の存在を、ユーザは自然に認識することができる。   According to the projection device of the present invention, the user can naturally recognize the existence of a projection unit that projects an image onto a specific object when a specific part of the user's body is detected.

投影装置1の全体構成を示す外観斜視図である。1 is an external perspective view showing an overall configuration of a projection apparatus 1. FIG. 投影装置1の概略構成図である。1 is a schematic configuration diagram of a projection device 1. FIG. 第2の検知部25の構成例を示す図である。3 is a diagram illustrating a configuration example of a second detection unit 25. FIG. 時計画像60の例を示す図である。It is a figure which shows the example of the clock image. 情報入力用画像70の例を示す図である。It is a figure which shows the example of the image 70 for information inputs. 制御部50の機能ブロック図である。3 is a functional block diagram of a control unit 50. FIG. 初期設定処理の一例を示すフローチャートである。It is a flowchart which shows an example of an initial setting process. 第1の検知部20の赤外線カメラ22による撮像データに基づく画像の一例を示す図である。It is a figure which shows an example of the image based on the imaging data by the infrared camera 22 of the 1st detection part 20. FIG. 手のひら検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a palm detection process. 検出された手のひら領域100と、その上に情報入力用画像70が投影された状態を示す図である。It is a figure which shows the state where the palm area 100 detected and the information input image 70 were projected on it. 情報入力検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of an information input detection process. 左手80の手のひら領域100に投影された情報入力用画像70に対して右手90により情報入力が行われる場合の例を説明するための図である。6 is a diagram for explaining an example in which information input is performed by the right hand 90 on the information input image 70 projected on the palm region 100 of the left hand 80. FIG. 投影位置設定処理の一例を示すフローチャートである。It is a flowchart which shows an example of a projection position setting process. レーザプロジェクタ30の他の例を示す概略構成図である。6 is a schematic configuration diagram illustrating another example of a laser projector 30. FIG.

以下、図面を参照し、投影装置について説明する。ただし、本発明が、図面又は以下に記載される実施形態に限定されるものではないことを理解されたい。なお、図面の説明において、同一の構成要素には同一の符号を付し、重複する説明は省略する。また、説明のため、部材の縮尺は適宜変更している。   Hereinafter, the projection apparatus will be described with reference to the drawings. However, it should be understood that the present invention is not limited to the drawings or the embodiments described below. In the description of the drawings, the same components are denoted by the same reference numerals, and redundant descriptions are omitted. For the sake of explanation, the scale of the members is changed as appropriate.

この投影装置は、通常は、第1の対象物(例えば、壁等)に、その対象物に応じた形状の画像を投影する。この画像は、例えば仮想的な時計(バーチャルクロック)として機能する時計画像であり、実際の時計と同様に現在の時刻を表示する。そして、投影装置が設置された空間内で例えばユーザが手のひらを差し出す等の動作を行うと、この投影装置は、深度センサにより取得された深度データに基づいて、その動作を検出する。このとき、ユーザの手のひらなどの特定部位が検出されると、この投影装置は、第1の対象物から第2の対象物(例えば、検出された手のひら等)に画像の投影位置を変更し、第2の対象物に情報入力用画像を投影する。   This projection apparatus normally projects an image having a shape corresponding to the first object (for example, a wall) on the first object. This image is, for example, a clock image that functions as a virtual clock (virtual clock), and displays the current time in the same manner as an actual clock. Then, for example, when the user performs an operation such as putting out the palm in the space where the projection device is installed, the projection device detects the operation based on the depth data acquired by the depth sensor. At this time, when a specific part such as the palm of the user is detected, the projection apparatus changes the projection position of the image from the first object to the second object (for example, the detected palm). An information input image is projected onto the second object.

ユーザは、その情報入力用画像に対して入力操作を行うことにより、投影された時計や、他の被操作装置を操作することができる。このように、例えば時計画像が投影されていると、ユーザは、自分がいる空間に投影装置が設置されていることがわかる。そこで、この投影装置は、ユーザに入力操作を行うきっかけを与えるものとして、例えば壁等に時計画像を固定表示する。なお、以下では時計画像を固定表示する例を説明するが、固定表示されるものは例えばカレンダ等、時計以外の画像でもよく、表示内容は特定のものには限定されない。   The user can operate the projected clock and other operated devices by performing an input operation on the information input image. Thus, for example, when a clock image is projected, the user knows that the projection apparatus is installed in the space in which the user is present. In view of this, the projection apparatus displays a clock image fixedly on a wall or the like, for example, as a trigger for the user to perform an input operation. Although an example in which a clock image is fixedly displayed will be described below, what is fixedly displayed may be an image other than the clock, such as a calendar, and the display content is not limited to a specific one.

図1は、投影装置1の全体構成を示す外観斜視図である。図2は、投影装置1の概略構成図である。   FIG. 1 is an external perspective view showing the overall configuration of the projection apparatus 1. FIG. 2 is a schematic configuration diagram of the projection apparatus 1.

投影装置1は、パンティルト架台10、第1の検知部20、第2の検知部25、レーザプロジェクタ30、制御部50等を有する。投影装置1は、少なくとも床41、天井42及び壁43を有する空間40に配置されている。空間40は、完全に閉じられた空間であっても、開放的な空間であってもよい。パンティルト架台10は可動支持部の一例であり、第1の検知部20と第2の検知部25は深度センサの一例であり、レーザプロジェクタ30は投影部の一例である。なお、図1では、レーザプロジェクタ30についてはその出射部30aのみを示している。   The projection apparatus 1 includes a pan tilt frame 10, a first detection unit 20, a second detection unit 25, a laser projector 30, a control unit 50, and the like. The projection device 1 is disposed in a space 40 having at least a floor 41, a ceiling 42, and a wall 43. The space 40 may be a completely closed space or an open space. The pan tilt frame 10 is an example of a movable support unit, the first detection unit 20 and the second detection unit 25 are an example of a depth sensor, and the laser projector 30 is an example of a projection unit. In FIG. 1, only the emission part 30a of the laser projector 30 is shown.

パンティルト架台10は、基部11、第1の回転部12、第2の回転部13等を有する。基部11は天井42に固定されている。第1の回転部12は第1のモータ15によってθ方向に回転し、第2の回転部13は第2のモータ16によってφ方向に回転する。なお、第1の回転部12がθ方向に回転すると、レーザプロジェクタ30による投影画像は矢印Aの方向に移動する。また、第2の回転部13がφ方向に回転すると、投影画像は矢印Bの方向に移動する。   The pan tilt frame 10 includes a base 11, a first rotating unit 12, a second rotating unit 13, and the like. The base 11 is fixed to the ceiling 42. The first rotating unit 12 is rotated in the θ direction by the first motor 15, and the second rotating unit 13 is rotated in the φ direction by the second motor 16. When the first rotating unit 12 rotates in the θ direction, the projection image by the laser projector 30 moves in the direction of arrow A. When the second rotating unit 13 rotates in the φ direction, the projected image moves in the direction of arrow B.

レーザプロジェクタ30は、例えば、RGB各色レーザ光源、RGBレーザ光用ファイバ、ファイバピグテイルモジュール、RGBファイバコンバイナ、可視シングルモードファイバ、出射部(プロジェクションヘッド)30a等を有する超小型プロジェクタである。レーザプロジェクタ30は、可視レーザ光によって画像を投影するため、被投影面と出射部30aとの間の距離に拘わらず、常に良好な画像を被投影面上に形成することができるというフォーカスフリー特性を有する。   The laser projector 30 is, for example, an ultra-compact projector having an RGB color laser light source, an RGB laser light fiber, a fiber pigtail module, an RGB fiber combiner, a visible single mode fiber, an emission unit (projection head) 30a, and the like. Since the laser projector 30 projects an image with visible laser light, a focus-free characteristic that a good image can always be formed on the projection surface regardless of the distance between the projection surface and the emitting unit 30a. Have

RGB各色レーザ光源は、それぞれ半導体レーザ(レーザダイオード)で構成され、対応する色の可視レーザ光を発光する。ファイバピグテイルモジュールは、各色レーザ光源が発光するRGB各色のレーザ光をそれぞれRGBレーザ光用ファイバへ導入する。RGBファイバコンバイナは、RGBレーザ光用ファイバからの光を合波する。そして、可視シングルモードファイバは、合波された光を出射部30aへ導く。   Each of the RGB laser light sources is composed of a semiconductor laser (laser diode) and emits visible laser light of a corresponding color. The fiber pigtail module introduces the RGB laser beams emitted from the respective color laser light sources into the RGB laser light fibers. The RGB fiber combiner combines lights from RGB laser light fibers. The visible single mode fiber guides the combined light to the emitting unit 30a.

出射部30aは、パンティルト架台10の第2の回転部13に取り付けられており、可視シングルモードファイバによって導かれた可視レーザ光により、空間40内の対象物に画像を投影する。出射部30aは、第1の回転部12と第2の回転部13の回転によってその向きを任意に変えられるので、画像の投影位置を任意に変更することができる。このように、投影装置1は、大型のプロジェクタで空間40の全体に対して投影を行うのではなく、第1の回転部12と第2の回転部13により出射部30aを移動させてアダプティブに投影位置を制御し、最小の出力で明るい画像を投影する。   The emitting unit 30 a is attached to the second rotating unit 13 of the pan tilt frame 10, and projects an image onto an object in the space 40 by visible laser light guided by a visible single mode fiber. Since the direction of the emitting unit 30a can be arbitrarily changed by the rotation of the first rotating unit 12 and the second rotating unit 13, the projection position of the image can be arbitrarily changed. Thus, the projection apparatus 1 does not project the entire space 40 with a large projector, but moves the emitting unit 30a by the first rotating unit 12 and the second rotating unit 13 to adaptively. Controls the projection position and projects a bright image with minimum output.

出射部30aには、SLM(Spatial Light Modulator:空間光位相変調器)として、例えばLCOS(Liquid Crystal on Silicon)が用いられる。なお、MEMS(Micro Electro Mechanical System)ミラーを用いたスポット走査型の出射部、又はファイバ走査型の出射部を用いて、出射部30aを一層小型化してもよい。   For the emission unit 30a, for example, LCOS (Liquid Crystal on Silicon) is used as an SLM (Spatial Light Modulator). Note that the emission unit 30a may be further downsized by using a spot scanning type emission unit using a MEMS (Micro Electro Mechanical System) mirror or a fiber scanning type emission unit.

また、レーザプロジェクタ30の可視シングルモードファイバと出射部30a以外の部分は、制御部50と共にパンティルト架台10の基部11内に収納してもよいし、天井42に別途制御ボックスを取り付けて、その中に収納してもよい。あるいは、レーザプロジェクタ30の全体を、パンティルト架台10の第2の回転部13に取り付けてもよい。また、投影する画像によっては、レーザプロジェクタ30は、単色やRGB以外の波長の可視レーザ光源等を用いたものでもよい。   Further, the portions other than the visible single mode fiber and the emitting unit 30a of the laser projector 30 may be housed in the base 11 of the pan tilt frame 10 together with the control unit 50, or a separate control box may be attached to the ceiling 42. It may be stored inside. Alternatively, the entire laser projector 30 may be attached to the second rotating unit 13 of the pan tilt frame 10. Depending on the image to be projected, the laser projector 30 may use a visible laser light source having a wavelength other than a single color or RGB.

第1の検知部20は、パンティルト架台10の基部11に固定されており、第1の赤外線発光部21、赤外線カメラ22等を有する。第1の赤外線発光部21は、レーザプロジェクタ30により画像を投影可能な空間40全体に赤外線を照射する。赤外線カメラ22は、空間40内に存在する物体からの赤外線の反射光を受光して撮像し、赤外線画像の画素毎の位置座標データ(x,y)と、各画素に対応する撮像された物体までの距離を示す深度データ(r)とを、制御部50に出力する。   The 1st detection part 20 is being fixed to the base 11 of the pan-tilt mount 10, and has the 1st infrared rays light emission part 21, the infrared camera 22, etc. FIG. The first infrared light emitting unit 21 irradiates the entire space 40 in which an image can be projected by the laser projector 30 with infrared rays. The infrared camera 22 receives and captures infrared reflected light from an object existing in the space 40, and positions coordinate data (x, y) for each pixel of the infrared image and the imaged object corresponding to each pixel. Depth data (r) indicating the distance to the control unit 50 is output.

なお、第1の赤外線発光部21は、赤外線を発光する半導体レーザ(レーザダイオード)である。第1の赤外線発光部21には、網膜まで到達せず目に損傷を与えにくい1400nm〜2600nmの波長領域のレーザ(アイセーフレーザ)を使用することが好ましい。しかしながら、この波長領域では例えばInGaAs系の赤外線カメラを用いる必要があり高価なため、実際には、赤外線カメラ22として低コストのSi系のCMOS又はCCDカメラを使うこともある。この場合、第1の赤外線発光部21としては、Si系のCMOSやCCDカメラで感度のある800nm〜1100nmの波長領域の半導体レーザを使用するとよい。   The first infrared light emitting unit 21 is a semiconductor laser (laser diode) that emits infrared light. It is preferable to use a laser (eye-safe laser) in a wavelength region of 1400 nm to 2600 nm that does not reach the retina and does not easily damage the eyes. However, in this wavelength region, for example, an InGaAs infrared camera needs to be used and is expensive, so a low-cost Si CMOS or CCD camera may actually be used as the infrared camera 22. In this case, as the first infrared light emitting unit 21, it is preferable to use a semiconductor laser having a wavelength region of 800 nm to 1100 nm, which is sensitive to a Si-based CMOS or CCD camera.

図2に示すように、第1の赤外線発光部21の前面には、偏光板23が配置される。偏光板23は、第1の赤外線発光部21が発光した赤外線のレーザ光のうち、偏光方向が一定方向の直線偏光(例えばP偏光)の赤外線のみを出射する。また、赤外線カメラ22の前面にも、偏光板24が配置される。これにより、赤外線カメラ22は、物体からの反射光のうち偏光方向が出射光と同じ一定方向の直線偏光(例えばP偏光)の赤外線のみを受光して撮像する。   As shown in FIG. 2, a polarizing plate 23 is disposed on the front surface of the first infrared light emitting unit 21. The polarizing plate 23 emits only linearly polarized light (for example, P-polarized) infrared light having a fixed polarization direction out of the infrared laser light emitted from the first infrared light emitting unit 21. A polarizing plate 24 is also disposed on the front surface of the infrared camera 22. Thereby, the infrared camera 22 receives and captures only the infrared light of the linearly polarized light (for example, P-polarized light) having the same polarization direction as that of the outgoing light among the reflected light from the object.

第2の検知部25は、パンティルト架台10の第2の回転部13にレーザプロジェクタ30の出射部30aと共に搭載されており、第2の赤外線発光部26、赤外線検知部27等を有する。第2の赤外線発光部26は、赤外線を発光する半導体レーザ(レーザダイオード)であり、レーザプロジェクタ30による画像の投影位置を含む所定領域に赤外線を照射する。赤外線検知部27は、受光素子としてフォトダイオードを有し、その領域内にある物体からの反射光を受光して検知する。また、赤外線検知部27は演算部を有し、その演算部により、フォトダイオードの検知信号や、その検知信号と赤外線レーザの出射光との強度比、赤外線レーザの照射角度等から物体の位置座標データを算出し、例えばTOF(Time of Flight)法を用いて検知物体までの距離を示す深度データを算出する。そして、赤外線検知部27は、算出した物体の位置座標データ(x,y)と深度データ(r)を、制御部50に出力する。なお、赤外線検知部27の演算部の機能は、制御部50に含めてもよい。   The second detection unit 25 is mounted on the second rotation unit 13 of the pan tilt frame 10 together with the emission unit 30a of the laser projector 30, and includes a second infrared light emitting unit 26, an infrared detection unit 27, and the like. The second infrared light emitting unit 26 is a semiconductor laser (laser diode) that emits infrared light, and irradiates the predetermined area including the image projection position by the laser projector 30 with infrared light. The infrared detector 27 has a photodiode as a light receiving element, and receives and detects reflected light from an object in the region. The infrared detection unit 27 has a calculation unit, and the calculation unit determines the position coordinates of the object from the detection signal of the photodiode, the intensity ratio between the detection signal and the emitted light of the infrared laser, the irradiation angle of the infrared laser, and the like. Data is calculated, and depth data indicating the distance to the detected object is calculated using, for example, the TOF (Time of Flight) method. Then, the infrared detector 27 outputs the calculated position coordinate data (x, y) and depth data (r) of the object to the controller 50. The function of the calculation unit of the infrared detection unit 27 may be included in the control unit 50.

第2の赤外線発光部26にも、第1の赤外線発光部21と同様に、アイセーフレーザを発光するものを使用することが好ましい。しかしながら、1400nmより長い波長領域では例えばInGaAs系の赤外線センサを用いる必要があり高価なため、実際には、赤外線検知部27として低コストのSi系のフォトダイオードを使うこともある。この場合、第2の赤外線発光部26としては、Si系のフォトダイオードで感度のある800nm〜1100nmの波長領域の半導体レーザを使用するとよい。   Similarly to the first infrared light emitting unit 21, the second infrared light emitting unit 26 that emits an eye-safe laser is preferably used. However, in the wavelength region longer than 1400 nm, for example, an InGaAs infrared sensor needs to be used and is expensive. In practice, a low-cost Si photodiode may be used as the infrared detector 27. In this case, as the second infrared light emitting unit 26, a semiconductor laser having a wavelength region of 800 nm to 1100 nm that is sensitive to a Si-based photodiode may be used.

図2に示すように、第2の赤外線発光部26の前面には、偏光板28が配置される。偏光板28は、第2の赤外線発光部26が発光した赤外線のレーザ光のうち、偏光方向が、第1の検知部20で使用される赤外線の直線偏光方向と直交する一定方向の直線偏光(例えばS偏光)の赤外線のみを出射する。また、赤外線検知部27の前面にも、偏光板29が配置される。これにより、赤外線検知部27は、物体からの反射光のうち偏光方向が出射光と同じ一定方向の直線偏光(例えばS偏光)の赤外線のみを受光して検知する。   As shown in FIG. 2, a polarizing plate 28 is disposed on the front surface of the second infrared light emitting unit 26. The polarizing plate 28 is a linearly polarized light having a fixed direction (the polarization direction of the infrared laser light emitted from the second infrared light emitting unit 26 is orthogonal to the linear linear polarization direction of the infrared light used in the first detection unit 20). For example, only S-polarized) infrared light is emitted. A polarizing plate 29 is also disposed on the front surface of the infrared detection unit 27. Thereby, the infrared detection unit 27 receives and detects only the infrared light of the linearly polarized light (for example, S-polarized light) having the same polarization direction as that of the outgoing light among the reflected light from the object.

このように、第1の検知部20と第2の検知部25は、直線偏光方向が互いに直交する赤外線を使用することにより、赤外線カメラ22が受光する赤外線と赤外線検知部27が受光する赤外線との相互混信を低減させて、SN比を向上させる。しかしながら、このような偏光多重方式では偏光解消物体に赤外線を照射したときに混信が発生するため、第1の検知部20と第2の検知部25は、互いに異なる波長の赤外線を照射しフィルタを介してそれぞれの赤外線を受光する波長多重方式を使用してもよい。あるいは、第1の検知部20と第2の検知部25は、混信を防ぐために、異なる発光タイミングで赤外線を照射する時間多重方式を使用してもよい。   As described above, the first detection unit 20 and the second detection unit 25 use infrared rays whose linear polarization directions are orthogonal to each other, whereby the infrared rays received by the infrared camera 22 and the infrared rays received by the infrared detection unit 27 are detected. To reduce the mutual interference and improve the S / N ratio. However, in such a polarization multiplexing method, since interference occurs when the depolarized object is irradiated with infrared rays, the first detection unit 20 and the second detection unit 25 irradiate infrared rays having different wavelengths and use filters. Alternatively, a wavelength multiplexing system that receives each infrared ray may be used. Alternatively, the first detection unit 20 and the second detection unit 25 may use a time multiplexing method of irradiating infrared rays at different light emission timings in order to prevent interference.

第1の検知部20は、赤外線カメラ22のリフレッシュレートが1秒間に30フレーム程度であるため、これより速い物体の移動に追従できないが、第2の検知部25は、第2の赤外線発光部26により赤外線が照射される投影空間内にある物体を、TOF法によってより高速に検知することができる。さらに、第2の検知部25は、出射部30aと共に第2の回転部13に一体的に搭載されているので、出射部30aによる投影画像が移動しても、投影空間内をより高速にスキャンすることができる。このため、第2の検知部25を利用すれば、例えば投影空間内に顔や目が進入するのを迅速に検知して、可視レーザ光が人の顔や目に照射されるのを防ぐことも可能になる。   The first detection unit 20 cannot follow the movement of an object faster than this because the refresh rate of the infrared camera 22 is about 30 frames per second, but the second detection unit 25 is a second infrared light emitting unit. The object in the projection space irradiated with infrared rays can be detected at a higher speed by the TOF method. Further, since the second detection unit 25 is integrally mounted on the second rotation unit 13 together with the emission unit 30a, the projection space is scanned at a higher speed even if the projection image by the emission unit 30a moves. can do. For this reason, if the 2nd detection part 25 is utilized, it will detect rapidly that a face and eyes approach into projection space, for example, and it will prevent that a visible laser beam is irradiated to a human face and eyes. Is also possible.

図3は、第2の検知部25の構成例を示す図である。図3に示す第2の検知部25では、第2の赤外線発光部26と赤外線検知部27は、下部に透明窓253を設けた筐体252内に、赤外線の出射光軸と受光光軸が互いに直交するように配置されている。そして、第2の赤外線発光部26の赤外線の出射光軸に沿って、偏光板28とビームスプリッタ250と走査部であるMEMSミラー251とが順次配置されている。ビームスプリッタ250とMEMSミラー251は、ビームスプリッタ250の半反射面とMEMSミラー251の中立時におけるミラー面が赤外線の出射光軸に対して略5°から45°の角度をなすように設置される。赤外線検知部27とビームスプリッタ250との間には、偏光板29が配置されている。   FIG. 3 is a diagram illustrating a configuration example of the second detection unit 25. In the second detection unit 25 shown in FIG. 3, the second infrared light emitting unit 26 and the infrared detection unit 27 have an infrared emission light axis and a light reception optical axis in a housing 252 provided with a transparent window 253 at the bottom. It arrange | positions so that it may mutually orthogonally cross. A polarizing plate 28, a beam splitter 250, and a MEMS mirror 251 serving as a scanning unit are sequentially arranged along the infrared emission optical axis of the second infrared light emitting unit 26. The beam splitter 250 and the MEMS mirror 251 are installed such that the semi-reflecting surface of the beam splitter 250 and the mirror surface at the neutral time of the MEMS mirror 251 form an angle of approximately 5 ° to 45 ° with respect to the infrared outgoing optical axis. . A polarizing plate 29 is disposed between the infrared detector 27 and the beam splitter 250.

MEMSミラー251は、そのミラー面(図示せず)が矢印a方向と矢印b方向の二軸方向に回動可能に構成されており、ミラー面を各方向に回動させることによって、一点鎖線で示す赤外線ビームを、矢印c方向とそれに直交する(紙面に垂直な)方向に2次元状に走査させる。これにより、第2の検知部25は、出射部30aによる画像の投影位置を含むそれよりやや広い領域に対して、微小スポットの赤外線ビームにより高速のラスタスキャン又はリサジュースキャンを行う。   The MEMS mirror 251 is configured such that its mirror surface (not shown) can be rotated in two axial directions of an arrow a direction and an arrow b direction, and by rotating the mirror surface in each direction, The infrared beam shown is scanned two-dimensionally in the direction of arrow c and in the direction perpendicular to it (perpendicular to the paper surface). As a result, the second detection unit 25 performs high-speed raster scanning or Lisa juice can with a minute spot infrared beam on a slightly larger area including the image projection position of the emission unit 30a.

なお、二軸方向に回動するMEMSミラー251に代えて、一軸方向に回動するMEMSミラー等の振動ミラーを2枚組み合わせたものを、走査部として使用してもよい。また、ビームスプリッタ250を偏光ビームスプリッタにすれば、偏光板28,29を省略することも可能である。   Instead of the MEMS mirror 251 rotating in the biaxial direction, a combination of two vibrating mirrors such as a MEMS mirror rotating in the uniaxial direction may be used as the scanning unit. If the beam splitter 250 is a polarizing beam splitter, the polarizing plates 28 and 29 can be omitted.

制御部50は、CPU50a、RAM50b、ROM50c、I/O50d、通信I/F50e等を有するマイクロコンピュータ及びその周辺回路で構成される。CPU50aは、各種演算及び処理を行う中央処理部である。RAM50bは、入力データやCPU50aが処理するデータを一時的に記憶するランダムアクセスメモリである。ROM50cは、CPU50aが実行する動作プログラム及び固定データを格納するリードオンリメモリである。I/O50dは、パンティルト架台10、第1の検知部20、第2の検知部25、レーザプロジェクタ30との間でデータの送受信を行うための入出力ポートである。通信I/F50eは、インターネット等の外部から、投影装置1の動作に必要なデータを受信するための通信インタフェースである。制御部50は、さらに、不揮発性RAM(NVRAM)やハードディスク装置(HDD)等を備えてもよい。   The control unit 50 includes a microcomputer having a CPU 50a, a RAM 50b, a ROM 50c, an I / O 50d, a communication I / F 50e, and peripheral circuits. The CPU 50a is a central processing unit that performs various calculations and processes. The RAM 50b is a random access memory that temporarily stores input data and data processed by the CPU 50a. The ROM 50c is a read-only memory that stores an operation program executed by the CPU 50a and fixed data. The I / O 50 d is an input / output port for transmitting / receiving data to / from the pan tilt frame 10, the first detection unit 20, the second detection unit 25, and the laser projector 30. The communication I / F 50e is a communication interface for receiving data necessary for the operation of the projection apparatus 1 from the outside such as the Internet. The control unit 50 may further include a nonvolatile RAM (NVRAM), a hard disk device (HDD), and the like.

制御部50は、ROM50cに予め記憶されたプログラムをCPU50aが実行することにより、パンティルト架台10、第1の検知部20、第2の検知部25及びレーザプロジェクタ30の動作を制御する。特に、制御部50は、レーザプロジェクタ30に画像データを出力して、空間40内で予め定められた第1の対象物に時計画像60を投影させるか、又は空間40内で予め定められた第2の対象物に情報入力用画像70を投影させる。すなわち、制御部50は、パンティルト架台10を制御して第1の回転部12と第2の回転部13を動かすことにより、第1の対象物と第2の対象物の間で画像の投影位置を切り替えて、レーザプロジェクタ30に時計画像60と情報入力用画像70の何れかを投影させる。以下では、時計画像60が投影されているとき投影装置1は「時計モード」にあるといい、情報入力用画像70が投影されているとき投影装置1は「入力モード」にあるという。   The control unit 50 controls operations of the pan tilt frame 10, the first detection unit 20, the second detection unit 25, and the laser projector 30 when the CPU 50a executes a program stored in advance in the ROM 50c. In particular, the control unit 50 outputs the image data to the laser projector 30 to project the clock image 60 onto a first object predetermined in the space 40 or the predetermined time in the space 40. The information input image 70 is projected onto the second object. That is, the control unit 50 controls the pan tilt frame 10 and moves the first rotating unit 12 and the second rotating unit 13 to project an image between the first object and the second object. The position is switched to cause the laser projector 30 to project either the clock image 60 or the information input image 70. Hereinafter, when the clock image 60 is projected, the projection apparatus 1 is said to be in the “clock mode”, and when the information input image 70 is projected, the projection apparatus 1 is said to be in the “input mode”.

図1の例では、第1の対象物の一例である窓44に時計画像60が投影されており、矢印Cで示すように画像の投影位置が切り替えられたときは、第2の対象物の一例であるユーザの左手80の手のひらに情報入力用画像70が投影される。なお、第1の対象物と第2の対象物は、ある程度平坦であってユーザが認識可能な広さの面を有するものであれば、例えば、床、壁、ボード、テーブル、あるいはユーザの腕、足等の他の物体でもよく、図1に示したものには限定されない。   In the example of FIG. 1, the clock image 60 is projected on the window 44 that is an example of the first object, and when the projection position of the image is switched as indicated by the arrow C, the second object is displayed. The information input image 70 is projected on the palm of the user's left hand 80 as an example. Note that the first object and the second object are, for example, a floor, a wall, a board, a table, or a user's arm if the first object and the second object are flat to some extent and have a surface that can be recognized by the user. Other objects such as feet may be used and are not limited to those shown in FIG.

図4(A)〜図4(C)は、時計画像60の例を示す図である。制御部50は、パンティルト架台10及びレーザプロジェクタ30を制御して、通常は、第1の対象物に時計画像60を投影させる。その際、制御部50は、単なるプロジェクションマッピングにより第1の対象物の表面にテクスチャを貼り付けるのではなく、例えば第2の検知部25により第1の対象物の表面形状を計測し、表面形状に合った時計画像をアダプティブに選択して投影させる。そのために、制御部50は、丸い時計、四角い時計等の様々な意匠のアナログ時計又はデジタル時計を予めROM50c等に記憶しておく。   4A to 4C are diagrams illustrating an example of the clock image 60. FIG. The control unit 50 controls the pan tilt frame 10 and the laser projector 30 to normally project the clock image 60 onto the first object. At that time, the control unit 50 does not paste the texture on the surface of the first object by simple projection mapping, but measures the surface shape of the first object by the second detection unit 25, for example, Adaptively select and project a clock image that matches For this purpose, the control unit 50 stores analog clocks or digital clocks of various designs such as round clocks and square clocks in the ROM 50c in advance.

図4(A)は、四角い窓44に投影された四角いアナログ時計画像60aである。図4(A)の例では、第1の対象物として窓44が指定されており、その四角い形状に合わせて四角い時計画像が投影される。   FIG. 4A shows a square analog clock image 60 a projected on the square window 44. In the example of FIG. 4A, a window 44 is designated as the first object, and a square clock image is projected in accordance with the square shape.

図4(B)は、丸いテーブル45に投影された丸いアナログ時計60bである。図4(B)の例では、第1の対象物としてテーブル45が指定されており、その丸い形状に合わせて丸い時計画像が投影される。   FIG. 4B shows a round analog clock 60 b projected on the round table 45. In the example of FIG. 4B, the table 45 is designated as the first object, and a round clock image is projected in accordance with the round shape.

図4(C)は、戸棚46の面に投影されたデジタル時計60cである。図4(C)の例では、第1の対象物として戸棚46が指定されており、その四角い形状に合わせて四角い時計画像が投影される。なお、アナログ時計とデジタル時計のどちらが投影されるかは、ユーザが選択できるようにしてもよい。また、図4(C)の例のように、ユーザは、対象物の表面の一部を時計画像60の投影位置として選択できるようにしてもよい。   FIG. 4C is a digital clock 60 c projected on the surface of the cupboard 46. In the example of FIG. 4C, the cupboard 46 is designated as the first object, and a square clock image is projected according to the square shape. Note that it may be possible for the user to select which of the analog clock and the digital clock is projected. Further, as in the example of FIG. 4C, the user may be able to select a part of the surface of the object as the projection position of the clock image 60.

時計画像60は、現在の時刻を表示する仮想的な時計であり、アナログ時計であれば時計の針が動くように表示が変化し、デジタル時計であれば数字の表示が変化する。投影装置1は時計画像60を常時表示してもよいし、例えば第1の検知部20によりユーザの存在が検知されたときだけ時計画像60を表示してもよい。また、第1の対象物は1つの物体に限らず、複数の物体の間で一定時間毎に時計画像60の投影位置が切り替わってもよい。   The clock image 60 is a virtual clock that displays the current time. If the clock is an analog clock, the display changes as the hands of the clock move, and if it is a digital clock, the display of numbers changes. The projection apparatus 1 may always display the clock image 60, or may display the clock image 60 only when the presence of the user is detected by the first detection unit 20, for example. Further, the first target is not limited to a single object, and the projection position of the clock image 60 may be switched between a plurality of objects at regular intervals.

図5は、情報入力用画像70の例を示す図である。ユーザが空間40内で手のひらを差し出す等の予め定められた動作を行うと、制御部50は、例えば第1の検知部20により取得された深度データに基づいてその手のひらを検出する。このとき、投影装置1は時計モードから入力モードに移行し、例えば検出された手のひら(第2の対象物)に情報入力用画像70を投影する。複数のユーザが検出可能範囲に入っている場合には、先に検出された手のひらの優先度を高くし、その上に情報入力用画像70を投影する。   FIG. 5 is a diagram illustrating an example of the information input image 70. When the user performs a predetermined operation such as putting out a palm in the space 40, the control unit 50 detects the palm based on the depth data acquired by the first detection unit 20, for example. At this time, the projection apparatus 1 shifts from the timepiece mode to the input mode, and projects the information input image 70 onto, for example, the detected palm (second object). When a plurality of users are within the detectable range, the priority of the palm detected first is increased, and the information input image 70 is projected thereon.

情報入力用画像70は、時計画像60の表示設定を入力するための画像であり、例えば、図5に示すように、時刻設定ボタン72、アラーム設定ボタン73、スキン設定ボタン74及び投影位置設定ボタン75を有する。この他にも、例えば、情報入力用画像70に投影のオンオフの選択ボタンを設けて、ユーザの操作により時計画像60を消去又は再表示できるようにしてもよい。   The information input image 70 is an image for inputting display settings of the clock image 60. For example, as shown in FIG. 5, a time setting button 72, an alarm setting button 73, a skin setting button 74, and a projection position setting button are displayed. 75. In addition to this, for example, a projection on / off selection button may be provided on the information input image 70 so that the clock image 60 can be erased or redisplayed by a user operation.

時刻設定ボタン72は、時計画像60が表示する時刻を設定するための入力画像を表示させるボタンである。また、アラーム設定ボタン73は、時計画像60を仮想的なアラーム時計として動作させるためのボタンである。アラーム設定ボタン73が選択されると、アラームのオンオフ及びアラームの起動時刻を設定するための入力画像が表示される。投影装置1はアラーム用の音声を出力可能なスピーカ等を有し、制御部50は、設定されたアラーム起動時刻になるとアラームを起動して、例えば音声と光によりユーザに時刻を知らせる。   The time setting button 72 is a button for displaying an input image for setting the time displayed by the clock image 60. The alarm setting button 73 is a button for operating the clock image 60 as a virtual alarm clock. When the alarm setting button 73 is selected, an input image for setting alarm on / off and alarm activation time is displayed. The projection apparatus 1 has a speaker or the like capable of outputting alarm sound, and the control unit 50 activates an alarm when the set alarm activation time is reached, and informs the user of the time by, for example, sound and light.

スキン設定ボタン74は、時計画像60の外観表示を変更するためのボタンである。スキン設定ボタン74が選択されると、ROM50c等に記憶されている時計のデザインの何れかを選択するための入力画像が表示される。これにより、ユーザは、投影される時計画像60を異なる外観のものに変更することができる。   The skin setting button 74 is a button for changing the appearance display of the clock image 60. When the skin setting button 74 is selected, an input image for selecting one of the clock designs stored in the ROM 50c or the like is displayed. Thus, the user can change the projected clock image 60 to a different appearance.

投影位置設定ボタン75は、時計画像60の投影位置である第1の対象物を設定するモードに投影装置1を移行させるためのボタンである。以下では、このモードのことを「投影位置設定モード」という。投影位置設定ボタン75が選択されると、制御部50は、例えば、時計画像60の投影先とする第1の対象物をユーザが指さす動作を検出し、以後、選択された第1の対象物に時計画像60を投影させる。   The projection position setting button 75 is a button for shifting the projection apparatus 1 to a mode for setting the first object that is the projection position of the clock image 60. Hereinafter, this mode is referred to as “projection position setting mode”. When the projection position setting button 75 is selected, the control unit 50 detects, for example, an operation in which the user points to the first target object that is the projection destination of the clock image 60, and thereafter the selected first target object. Project a clock image 60.

後述するように、図5に示す破線で囲まれた何れかの領域内に指先位置がある場合、各ボタンに対応する情報入力がなされたと判断される。情報入力用画像70が投影された手のひらと同じ手の指又は他方の手の指で何れかのボタンを選択することにより、ユーザは制御部50に対して情報を入力することができる。これにより、ユーザは、時計の設置場所まで移動したりリモコン等の機器を利用したりすることなく、手元でバーチャルクロックの各種設定を行うことが可能になる。   As will be described later, when the fingertip position is in any of the regions surrounded by the broken lines shown in FIG. 5, it is determined that information corresponding to each button has been input. The user can input information to the control unit 50 by selecting any button with the finger of the same hand as the palm on which the information input image 70 is projected or the finger of the other hand. As a result, the user can perform various settings of the virtual clock at hand without moving to the place where the watch is installed or using a device such as a remote controller.

例えば、ユーザが何れかの設定ボタンを選択して必要な情報入力を終えるか、情報入力用画像70に設けられた図示しないリターンボタンをユーザが選択するか、又はユーザが所定の時間何も入力動作をしないことで、投影装置1は、入力モード又は投影位置設定モードから時計モードに移行する。これにより、投影装置1は、第1の対象物への時計画像60の投影を開始又は再開する。   For example, the user selects any setting button and finishes inputting necessary information, or the user selects a return button (not shown) provided in the information input image 70, or the user inputs nothing for a predetermined time. By not performing the operation, the projection apparatus 1 shifts from the input mode or the projection position setting mode to the clock mode. Thereby, the projection apparatus 1 starts or restarts the projection of the clock image 60 onto the first object.

なお、情報入力用画像70は、時計画像60の表示設定に限らず、他の装置への情報入力を行うためのものであってもよい。例えば、エアコン、ネットワークへのアクセス装置、パーソナルコンピュータ、テレビ、ラジオ、又はCD、DVD若しくはVTR等の各種記録媒体の記録再生装置等を被操作装置として、情報入力用画像70によりこれらの装置への情報入力ができるようにしてもよい。ユーザは、空間40内に投影装置1が設置されていることを時計画像60により認識できるので、情報入力用画像70を投影させる動作を必要に応じて行うことができる。   The information input image 70 is not limited to the display setting of the clock image 60, and may be for inputting information to another device. For example, an air conditioner, a network access device, a personal computer, a television, a radio, or a recording / reproducing device for various recording media such as a CD, a DVD, or a VTR is used as an operated device. Information may be input. Since the user can recognize from the clock image 60 that the projection apparatus 1 is installed in the space 40, the user can perform an operation of projecting the information input image 70 as necessary.

図6は、制御部50の機能ブロック図である。投影装置1の上記の機能を実現するために、制御部50は、機能モジュールとして、初期設定処理部51と、投影位置制御部52と、物体検出部53と、入力検出部54と、投影位置設定部55と、画像調整部56と、時計設定部57と、時計機能部58とを有する。これらの各部は、ROM50cに予め記憶されたプログラムに従って、CPU50aにより実現される。   FIG. 6 is a functional block diagram of the control unit 50. In order to realize the above functions of the projection apparatus 1, the control unit 50 includes, as functional modules, an initial setting processing unit 51, a projection position control unit 52, an object detection unit 53, an input detection unit 54, and a projection position. A setting unit 55, an image adjustment unit 56, a clock setting unit 57, and a clock function unit 58 are included. Each of these units is realized by the CPU 50a in accordance with a program stored in advance in the ROM 50c.

初期設定処理部51は、パンティルト架台10へ出力する制御データと、レーザプロジェクタ30により投影される画像の位置座標データとを対応付けたデータテーブルを作成する初期設定処理を行う。初期設定処理の詳細は、図7を用いて後述する。   The initial setting processing unit 51 performs an initial setting process for creating a data table in which control data output to the pan tilt frame 10 and position coordinate data of an image projected by the laser projector 30 are associated with each other. Details of the initial setting process will be described later with reference to FIG.

投影位置制御部52は、物体検出部53がユーザの体の特定部位(例えば手のひら)を検出していないときには、ユーザにより予め指定された第1の対象物に時計画像60が投影されるように、パンティルト架台10とレーザプロジェクタ30を制御する。なお、このとき、投影装置1は時計モードの状態にある。   The projection position control unit 52 projects the clock image 60 onto the first object designated in advance by the user when the object detection unit 53 has not detected a specific part (for example, palm) of the user's body. The pan tilt base 10 and the laser projector 30 are controlled. At this time, the projection apparatus 1 is in a time mode.

また、投影位置制御部52は、物体検出部53がユーザの体の特定部位を検出したときに、パンティルト架台10を制御して、レーザプロジェクタ30による画像の投影位置を第1の対象物から第2の対象物(例えば手のひら)に変更させる。なお、第2の対象物と特定部位は、同じ物体でもよい。   Further, the projection position control unit 52 controls the pan tilt frame 10 when the object detection unit 53 detects a specific part of the user's body, so that the projection position of the image by the laser projector 30 is determined from the first object. Change to a second object (eg, palm). Note that the second object and the specific part may be the same object.

特定部位が検出されると、投影装置1は入力モードに移行する。このとき、投影位置制御部52は、第1の検知部20又は第2の検知部25により取得された第2の対象物の位置座標データ(x,y)と深度データ(r)から、第2の対象物の空間座標(x,y,z)を算出する。そして、投影位置制御部52は、初期設定処理部51が作成したデータテーブルに基づき、適当な制御データによってパンティルト架台10の第1のモータ15及び第2のモータ16を駆動制御することで、第1の回転部12と第2の回転部13を回転させる。これにより、投影位置制御部52は、出射部30aの向きを変更させて、情報入力用画像70を第2の対象物に投影させる。すなわち、投影位置制御部52は、投影装置1が時計モードにあるときと入力モードにあるときで、画像の投影位置を切り替える。   When the specific part is detected, the projection apparatus 1 shifts to the input mode. At this time, the projection position control unit 52 calculates the first position from the position coordinate data (x, y) and depth data (r) of the second object acquired by the first detection unit 20 or the second detection unit 25. The spatial coordinates (x, y, z) of the two objects are calculated. Then, the projection position control unit 52 drives and controls the first motor 15 and the second motor 16 of the pan tilt frame 10 with appropriate control data based on the data table created by the initial setting processing unit 51. The 1st rotation part 12 and the 2nd rotation part 13 are rotated. Thereby, the projection position control unit 52 changes the direction of the emitting unit 30a to project the information input image 70 onto the second object. That is, the projection position control unit 52 switches the image projection position between when the projection apparatus 1 is in the clock mode and when in the input mode.

また、ユーザが情報入力用画像70に対する入力操作又は第1の対象物を指定する操作を終えて、投影装置1が入力モード又は投影位置設定モードから時計モードに移行するときに、投影位置制御部52は、上記と同様に第1の回転部12と第2の回転部13を回転させて、レーザプロジェクタ30により第1の対象物に時計画像60を投影させる。   Further, when the user finishes the input operation on the information input image 70 or the operation of designating the first object and the projection apparatus 1 shifts from the input mode or the projection position setting mode to the clock mode, the projection position control unit 52 rotates the 1st rotation part 12 and the 2nd rotation part 13 similarly to the above, and makes the clock image 60 project on a 1st target object with the laser projector 30. FIG.

また、例えば特定部位と第2の対象物が同じ手のひらであるときは、投影位置制御部52は、ユーザが手のひらを動かした場合でもその手のひらを追尾して、常に手のひら上に情報入力用画像70を投影させることが好ましい。そのためには、投影位置制御部52は、第2の検知部25により取得される手のひらの深度データに基づいてパンティルト架台10を制御することにより、手のひらの移動に合わせて出射部30aの向きを変化させる。   Further, for example, when the specific part and the second object are the same palm, the projection position control unit 52 tracks the palm even when the user moves the palm, and the information input image 70 is always on the palm. Is preferably projected. For this purpose, the projection position control unit 52 controls the pan tilt frame 10 based on the palm depth data acquired by the second detection unit 25, so that the direction of the emitting unit 30a is adjusted in accordance with the movement of the palm. Change.

物体検出部53は、投影装置1に情報入力用画像70を投影させるための、ユーザの予め定められた動作を検出する。そのために、物体検出部53は、例えば第1の検知部20が取得した深度データに基づいて、空間40内におけるユーザの体の特定部位を検出する。例えば、予め定められた動作が手のひらを差し出す動作である場合には、物体検出部53は、後述する図9の手のひら検出処理により、ユーザの体の特定部位として、ユーザの手のひらを検出する。   The object detection unit 53 detects a user's predetermined action for causing the projection apparatus 1 to project the information input image 70. For this purpose, the object detection unit 53 detects a specific part of the user's body in the space 40 based on, for example, depth data acquired by the first detection unit 20. For example, when the predetermined action is an action of putting out the palm, the object detection unit 53 detects the palm of the user as a specific part of the user's body by the palm detection process of FIG. 9 described later.

あるいは、情報入力用画像70を投影させるための予め定められた動作は、情報入力用画像70の被投影面となる第2の対象物をユーザが指さす等の他の動作でもよい。この場合、物体検出部53は、手のひら検出処理と同様に、例えば第1の検知部20が取得した深度データに基づいて、ユーザの体の特定部位としてユーザの指を検出する。   Alternatively, the predetermined operation for projecting the information input image 70 may be other operations such as the user pointing at the second object to be the projection surface of the information input image 70. In this case, the object detection unit 53 detects the user's finger as a specific part of the user's body, for example, based on the depth data acquired by the first detection unit 20 as in the palm detection process.

なお、ユーザの手のひら等の体の一部に情報入力用画像70を投影して情報入力を行う場合には、出射部30aと情報入力用画像70との間の投影空間にユーザの顔又は目等の特異物体が進入し易くなる。このため、第1の検知部20によりその投影空間内にユーザの顔又は目等の特異物体の可能性がある物体を検出したときには、物体検出部53は、第2の検知部25から取得した位置座標データ及び深度データに基づいて、その物体が特異物体であるか否かを判断してもよい。この場合、物体検出部53は、例えば、それらのデータからその物体の輪郭パターンを特定し、予めROM50c等に記憶されている、人の目、鼻、耳、口、顔の輪郭又は顔等の特徴的な形状を示すパターンと比較することにより、特異物体か否かを判断する。そして、物体検出部53は、検出された物体が特異物体であると判断したときには、レーザプロジェクタ30に制御信号を出力して、出射部30aからのRGBの可視レーザ光の照射を停止させる。   When information input image 70 is projected onto a part of the body such as the palm of the user and information is input, the user's face or eyes are projected into the projection space between emitting unit 30a and information input image 70. It becomes easy for a singular object such as Therefore, when the first detection unit 20 detects an object that may be a specific object such as a user's face or eyes in the projection space, the object detection unit 53 acquires from the second detection unit 25. Based on the position coordinate data and the depth data, it may be determined whether or not the object is a singular object. In this case, for example, the object detection unit 53 identifies the contour pattern of the object from the data, and stores the human eye, nose, ear, mouth, facial contour, face, etc. stored in the ROM 50c or the like in advance. By comparing with a pattern showing a characteristic shape, it is determined whether or not it is a singular object. When the object detection unit 53 determines that the detected object is a singular object, the object detection unit 53 outputs a control signal to the laser projector 30 to stop the irradiation of RGB visible laser light from the emission unit 30a.

入力検出部54は、第1の検知部20又は第2の検知部25から取得した深度データに基づいて、後述する図11の情報入力検出処理により、情報入力用画像70に対するユーザの入力操作を検出する。例えば、入力検出部54は、投影された情報入力用画像70の上にユーザの指先が進入したか否かを判断し、その指先位置を特定する。   Based on the depth data acquired from the first detection unit 20 or the second detection unit 25, the input detection unit 54 performs a user input operation on the information input image 70 by an information input detection process in FIG. To detect. For example, the input detection unit 54 determines whether or not the user's fingertip has entered the projected information input image 70 and specifies the fingertip position.

また、入力検出部54は、レーザプロジェクタ30へ出力する画像データに基づいて、情報入力用画像70に含まれる入力ボタンの種類及び配置位置を判断する。さらに、入力検出部54は、パンティルト架台10へ出力した制御データ及び初期設定処理部51が作成したデータテーブルに基づいて、空間40内における情報入力用画像70の位置を特定する。これにより、入力検出部54は、レーザプロジェクタ30へ出力する画像データ及びパンティルト架台10へ出力した制御データに基づいて、各入力ボタンの空間40内の位置を特定する。   Further, the input detection unit 54 determines the type and arrangement position of the input button included in the information input image 70 based on the image data output to the laser projector 30. Further, the input detection unit 54 specifies the position of the information input image 70 in the space 40 based on the control data output to the pan tilt frame 10 and the data table created by the initial setting processing unit 51. Accordingly, the input detection unit 54 specifies the position of each input button in the space 40 based on the image data output to the laser projector 30 and the control data output to the pan tilt frame 10.

これにより、入力検出部54は、情報入力用画像70の被投影面とユーザの指先位置との深度差から、ユーザが情報入力用画像70上の何れかの入力ボタンにタッチしたか否かを判断する。また、入力検出部54は、ユーザの指先位置と、各入力ボタンの位置とに基づいて、ユーザが入力した内容を特定する。例えば、ユーザの指先位置が時刻設定ボタン72、アラーム設定ボタン73、スキン設定ボタン74又は投影位置設定ボタン75の範囲内にある場合には、入力検出部54は、それぞれ、情報入力内容が「時刻設定」、「アラーム設定」、「スキン設定」又は「投影位置設定」であると特定する。   Thereby, the input detection unit 54 determines whether or not the user has touched any input button on the information input image 70 based on the depth difference between the projection surface of the information input image 70 and the fingertip position of the user. to decide. Moreover, the input detection part 54 specifies the content which the user input based on a user's fingertip position and the position of each input button. For example, when the user's fingertip position is within the range of the time setting button 72, the alarm setting button 73, the skin setting button 74, or the projection position setting button 75, the input detection unit 54 sets the information input content to “time”. Specify “setting”, “alarm setting”, “skin setting” or “projection position setting”.

そして、入力検出部54は、特定した情報入力内容に対応する信号を出力する。例えば、特定された情報入力の内容が「時刻設定」、「アラーム設定」又は「スキン設定」である場合には、入力検出部54は、対応する制御信号を時計設定部57に出力する。また、特定された情報入力の内容が「投影位置設定」である場合には、入力検出部54は、対応する制御信号を投影位置設定部55に出力する。   And the input detection part 54 outputs the signal corresponding to the specified information input content. For example, when the content of the specified information input is “time setting”, “alarm setting”, or “skin setting”, the input detection unit 54 outputs a corresponding control signal to the clock setting unit 57. When the specified information input content is “projection position setting”, the input detection unit 54 outputs a corresponding control signal to the projection position setting unit 55.

投影位置設定部55は、「時刻設定」に対応する制御信号を入力検出部54から取得すると、後述する図13の投影位置設定処理により、時計画像60が投影される第1の対象物をユーザの入力操作に応じて設定する。   When the projection position setting unit 55 obtains a control signal corresponding to “time setting” from the input detection unit 54, the projection position setting unit 55 determines the first object on which the clock image 60 is projected by the projection position setting process of FIG. Set according to the input operation.

投影位置設定部55は、「時刻設定」に対応する制御信号を入力検出部54から取得すると、出射部30aからの投影画像を、情報入力用画像70から例えば「○」、「□」又は「⇒」等の位置指定用パターンに変更する。また、投影位置設定部55は、第1の検知部20が取得した深度データに基づき、ユーザが空間40内で時計画像60を投影させたい物体を指さす方向を検出する。そして、投影位置設定部55は、初期設定処理部51が作成したデータテーブルを利用してパンティルト架台10を制御し、検出されたユーザが指さす方向に沿って位置指定用パターンの投影位置を移動させる。   When the projection position setting unit 55 acquires a control signal corresponding to “time setting” from the input detection unit 54, the projection image from the emission unit 30 a is extracted from the information input image 70, for example, “◯”, “□”, or “ Change to a position designating pattern such as “⇒”. The projection position setting unit 55 detects a direction in which the user points to an object on which the clock image 60 is to be projected in the space 40 based on the depth data acquired by the first detection unit 20. Then, the projection position setting unit 55 controls the pan tilt frame 10 using the data table created by the initial setting processing unit 51, and moves the projection position of the position designation pattern along the direction indicated by the detected user. Let

このとき、投影位置設定部55は、位置指定用パターンが投影されている物体の位置座標データ及び深度データを第2の検知部25から取得し、それらのデータに基づき、位置指定用パターンの投影位置が人の顔等の特異物体であるか否かを判断してもよい。この場合、投影位置設定部55は、例えば、それらのデータからその物体の輪郭パターンを特定し、予めROM50c等に記憶されている、人の目、鼻、耳、口、顔の輪郭又は顔等の特徴的な形状を示すパターンと比較することにより、特異物体か否かを判断する。そして、投影位置設定部55は、位置指定用パターンの投影位置が特異物体であると判断したときには、レーザプロジェクタ30に制御信号を出力して、出射部30aからのRGBの可視レーザ光の照射を停止させる。   At this time, the projection position setting unit 55 acquires the position coordinate data and depth data of the object on which the position designation pattern is projected from the second detection unit 25, and based on these data, projects the position designation pattern. It may be determined whether the position is a specific object such as a human face. In this case, for example, the projection position setting unit 55 identifies the contour pattern of the object from the data, and stores the human eye, nose, ear, mouth, facial contour, face, etc. stored in advance in the ROM 50c or the like. It is determined whether or not the object is a singular object by comparing it with a pattern showing a characteristic shape of When the projection position setting unit 55 determines that the projection position of the position designating pattern is a singular object, the projection position setting unit 55 outputs a control signal to the laser projector 30 to irradiate RGB visible laser light from the emitting unit 30a. Stop.

投影位置設定部55は、第2の検知部25からの深度データに基づき、例えばユーザの指の動作が止まって、位置指定用パターンが一定時間以上同じ物体に投影されたと判断すると、第1の検知部20又は第2の検知部25による深度データからその物体の形状を認識し、認識された物体を、時計画像60が投影される第1の対象物として決定する。あるいは、第1の対象物の候補となる物体を予めRAM50b等に登録しておき、その登録された候補の中で、ユーザが位置指定用パターンにより投影対象物を選択できるようにしてもよい。また、投影位置設定部55は、第2の検知部25から取得した位置座標データ及び深度データに基づき、第2の検知部25(又は出射部30a)からの距離、大きさ又は形状等が予め定められた範囲内にある物体のみを、ユーザが第1の対象物として選択できるようにしてもよい。   Based on the depth data from the second detection unit 25, for example, the projection position setting unit 55 determines that the movement of the user's finger has stopped and the position designating pattern has been projected onto the same object for a predetermined time or longer. The shape of the object is recognized from the depth data obtained by the detection unit 20 or the second detection unit 25, and the recognized object is determined as the first object on which the clock image 60 is projected. Alternatively, an object that is a candidate for the first target object may be registered in advance in the RAM 50b or the like, and the user may select a projection target object using the position designating pattern from among the registered candidates. In addition, the projection position setting unit 55 has a distance, a size, a shape, or the like from the second detection unit 25 (or the emission unit 30a) in advance based on the position coordinate data and the depth data acquired from the second detection unit 25. Only the object within the defined range may be selected by the user as the first object.

そして、投影位置設定部55は、例えば第1の対象物の全体を時計画像60の投影位置として決定する。あるいは、投影位置設定部55は、例えば第2の検知部25により取得された深度データが同程度の範囲を時計画像60の投影位置としてもよい。ただし、第1の対象物が壁等であると時計画像60の投影位置として大きすぎる場合もあるため、投影位置設定部55は、上記と同様にユーザの指さし動作に応じて位置指定用パターンの投影位置を制御することにより、ユーザが第1の対象物上で位置指定用パターンを移動させて指定した範囲を、時計画像60の投影位置として決定してもよい。あるいは、投影位置設定部55は、第1の対象物の中央、上側、下側、左側、右側等を示す枠画像を第1の対象物に投影させ、ユーザに位置指定用パターンでそれらの何れかを選択させることにより、時計画像60の投影位置を決定してもよい。あるいは、表示する時計画像60の大きさは、予め定められていてもよい。   Then, the projection position setting unit 55 determines, for example, the entire first object as the projection position of the clock image 60. Alternatively, the projection position setting unit 55 may set a range in which the depth data acquired by the second detection unit 25 is approximately the same as the projection position of the clock image 60, for example. However, since the projection position of the clock image 60 may be too large when the first object is a wall or the like, the projection position setting unit 55 determines the position designation pattern according to the pointing operation of the user as described above. By controlling the projection position, a range designated by the user by moving the position designation pattern on the first object may be determined as the projection position of the clock image 60. Alternatively, the projection position setting unit 55 projects a frame image indicating the center, upper side, lower side, left side, right side, and the like of the first object onto the first object, and allows the user to select any of them as a position designating pattern. By selecting these, the projection position of the clock image 60 may be determined. Alternatively, the size of the clock image 60 to be displayed may be determined in advance.

画像調整部56は、投影位置設定部55が決定した第1の対象物の表面形状に合った時計画像の画像データを作成し、投影位置制御部52に出力する。   The image adjustment unit 56 creates image data of a clock image that matches the surface shape of the first object determined by the projection position setting unit 55 and outputs the image data to the projection position control unit 52.

このために、画像調整部56は、投影位置設定部55が決定した第1の対象物について、第1の検知部20又は第2の検知部25が取得した位置座標データ及び深度データに基づき、第1の対象物の形状を認識する。そして、画像調整部56は、予めROM50c等に記憶されている、丸い時計、四角い時計等の様々なアナログ時計又はデジタル時計の画像データの中から、第1の対象物の形状に合うものを選択する。例えば、第1の対象物の形状が円形又は四角形の場合には、画像調整部56は、それぞれ円形又は四角形のアナログの時計画像を選択する。また、第1の対象物の形状が棒状の場合には、画像調整部56は、例えばデジタルの時計画像を選択する。第1の対象物が他の形状を有する場合には、画像調整部56は、第1の対象物の幅、高さ等に基づき、その形状に近いアナログ又はデジタルの時計画像を選択する。   For this reason, the image adjustment unit 56, based on the position coordinate data and depth data acquired by the first detection unit 20 or the second detection unit 25, for the first object determined by the projection position setting unit 55. Recognize the shape of the first object. Then, the image adjustment unit 56 selects one that matches the shape of the first object from the image data of various analog clocks or digital clocks such as round clocks and square clocks that are stored in advance in the ROM 50c or the like. To do. For example, when the shape of the first object is circular or square, the image adjustment unit 56 selects a circular or square analog clock image, respectively. When the shape of the first object is a rod shape, the image adjustment unit 56 selects a digital clock image, for example. When the first object has another shape, the image adjustment unit 56 selects an analog or digital clock image close to the shape based on the width, height, and the like of the first object.

また、画像調整部56は、第1の対象物の面積に応じて、投影される時計画像60を拡大又は縮小する。なお、画像調整部56は、情報入力用画像70についても、第2の対象物の深度データに基づき投影画像を拡大又は縮小して、情報入力用画像70が丁度第2の対象物上に収まるように制御する。   The image adjusting unit 56 enlarges or reduces the projected clock image 60 according to the area of the first object. Note that the image adjustment unit 56 also enlarges or reduces the projection image of the information input image 70 based on the depth data of the second object, and the information input image 70 just fits on the second object. To control.

さらに、画像調整部56は、第1の対象物に歪みのない画像が投影されるように、レーザプロジェクタ30が投影する画像の画像データを、第1の対象物の表面形状に応じて補正する。例えば、第1の対象物の表面が曲面の場合には、画像調整部56は、その曲率に合わせて投影画像の形状を補正する。また、例えば、第1の対象物の表面が出射部30aからの投影方向に対して垂直でない場合には、画像調整部56は、その表面に対する投影角度に応じて投影画像の形状を補正する。   Further, the image adjustment unit 56 corrects the image data of the image projected by the laser projector 30 according to the surface shape of the first object so that an image without distortion is projected onto the first object. . For example, when the surface of the first object is a curved surface, the image adjustment unit 56 corrects the shape of the projection image according to the curvature. For example, when the surface of the first object is not perpendicular to the projection direction from the emitting unit 30a, the image adjusting unit 56 corrects the shape of the projection image according to the projection angle with respect to the surface.

なお、画像調整部56は、第1の対象物の色の濃淡、表面粗さ、反射率等の表面状態に合わせて、投影される時計画像を調整してもよい。例えば、第1の対象物が濃い色の表面である場合には、画像調整部56は、時計画像の画像データを淡い色又は明るい色のものに調整してもよい。また、第1の対象物が粗い表面である場合には、滑らかな表面に投影する場合よりも、時計画像に含まれる文字を大きなものに調整してもよい。このようにすれば、画像調整部56は、時計画像を明りょうに表示させることができる。なお、上記のような色の調整を行う場合には、第1の検知部20又は第2の検知部25にカラーカメラを設けて、画像調整部56は、そのカラーカメラにより撮像されるカラー画像を利用するとよい。   Note that the image adjustment unit 56 may adjust the projected clock image in accordance with the surface state such as the color density, surface roughness, and reflectance of the first object. For example, when the first object has a dark surface, the image adjustment unit 56 may adjust the image data of the clock image to a light color or a light color. In addition, when the first object has a rough surface, the characters included in the clock image may be adjusted to be larger than when projected onto a smooth surface. In this way, the image adjustment unit 56 can display the clock image clearly. In the case of performing the color adjustment as described above, a color camera is provided in the first detection unit 20 or the second detection unit 25, and the image adjustment unit 56 is a color image captured by the color camera. It is good to use.

時計設定部57は、情報入力用画像70に対するユーザの入力操作に応じて、時計画像60が示す時刻の設定、時計画像60に付随するアラームの設定、又は時計画像60の表示状態の設定を行う。   The clock setting unit 57 sets the time indicated by the clock image 60, the alarm associated with the clock image 60, or the display state of the clock image 60 in accordance with a user input operation on the information input image 70. .

ユーザの入力操作に応じて「時刻設定」に対応する制御信号を入力検出部54から取得すると、時計設定部57は、現在時刻を設定するための入力画像が表示されるように、適当なアイコン又は文字等のパターンの画像データをレーザプロジェクタ30に出力する。そして、その入力画像に対するユーザの入力操作を入力検出部54が検出すると、時計設定部57は、ユーザからの指示に従って、時計機能部58が示す現在時刻を設定する。   When the control signal corresponding to “time setting” is acquired from the input detection unit 54 according to the user's input operation, the clock setting unit 57 displays an appropriate icon so that an input image for setting the current time is displayed. Alternatively, image data of a pattern such as characters is output to the laser projector 30. When the input detection unit 54 detects a user input operation on the input image, the clock setting unit 57 sets the current time indicated by the clock function unit 58 in accordance with an instruction from the user.

また、「アラーム設定」に対応する制御信号を入力検出部54から取得すると、時計設定部57は、アラームのオンオフ又は起動時刻の設定のための入力画像に対応する画像データをレーザプロジェクタ30に出力する。そして、その入力画像に対するユーザの入力操作を入力検出部54が検出すると、時計設定部57は、ユーザからの指示に従って時計機能部58によるアラーム時計の機能をオンオフするか、又はユーザが指示したアラーム起動時刻を時計機能部58に出力する。   When the control signal corresponding to “alarm setting” is acquired from the input detection unit 54, the clock setting unit 57 outputs image data corresponding to the input image for setting the alarm on / off or activation time to the laser projector 30. To do. When the input detection unit 54 detects a user input operation on the input image, the clock setting unit 57 turns on or off the alarm clock function by the clock function unit 58 according to an instruction from the user, or an alarm instructed by the user. The start time is output to the clock function unit 58.

また、「スキン設定」に対応する制御信号を入力検出部54から取得すると、時計設定部57は、時計画像60のデザイン変更のための入力画像に対応する画像データをレーザプロジェクタ30に出力する。そして、その入力画像に対するユーザの入力操作を入力検出部54が検出すると、時計設定部57は、ROM50c等に記憶されている時計のデザインの中から、ユーザにより指定されたものに対応する時計画像の画像データをレーザプロジェクタ30に出力する。これにより、時計設定部57は、投影される時計画像60を異なる外観のものに変更させる。   When the control signal corresponding to “skin setting” is acquired from the input detection unit 54, the clock setting unit 57 outputs image data corresponding to the input image for design change of the clock image 60 to the laser projector 30. When the input detection unit 54 detects an input operation of the user with respect to the input image, the clock setting unit 57 corresponds to the clock image corresponding to the one designated by the user from the clock designs stored in the ROM 50c or the like. Are output to the laser projector 30. As a result, the clock setting unit 57 changes the projected clock image 60 to a different appearance.

時計機能部58は、リアルタイムクロック機能を有し、現在時刻を刻む。時計機能部58は、投影装置1が時計モードにあるときに、時計画像60が常時現在時刻を表示するように、例えば秒単位で画像データを生成し、その画像データをレーザプロジェクタ30に出力する。また、時計機能部58は、アラーム時計の機能を有し、設定されたアラーム起動時刻になるとアラームを起動して、例えば投影装置1に備え付けられたスピーカから音声を出力させ、あるいはさらにレーザプロジェクタ30を発光させて、ユーザに時刻を知らせる。なお、時計機能部58は、通信I/F50eを介して、例えばインターネットに接続するか、又はGPS信号、標準電波若しくはラジオ時報波を受信することにより、現在時刻を自動的に修正してもよい。   The clock function unit 58 has a real-time clock function and records the current time. The clock function unit 58 generates image data, for example, in seconds so that the clock image 60 always displays the current time when the projection apparatus 1 is in the clock mode, and outputs the image data to the laser projector 30. . The clock function unit 58 has an alarm clock function. When the set alarm activation time is reached, the clock function unit 58 activates an alarm and outputs sound from, for example, a speaker provided in the projection apparatus 1, or further, the laser projector 30. Is emitted to inform the user of the time. Note that the clock function unit 58 may automatically correct the current time by connecting to the Internet or receiving a GPS signal, a standard radio wave, or a radio time signal via the communication I / F 50e. .

図7は、初期設定処理の一例を示すフローチャートである。図8は、第1の検知部20の赤外線カメラ22による撮像データに基づく画像の一例を示す図である。以下で説明するフローチャートでは、ステップを「S」と略記する。   FIG. 7 is a flowchart illustrating an example of the initial setting process. FIG. 8 is a diagram illustrating an example of an image based on image data captured by the infrared camera 22 of the first detection unit 20. In the flowchart described below, step is abbreviated as “S”.

まず、初期設定処理部51は、レーザプロジェクタ30により画像を投影可能な空間40全体の深度データを第1の検知部20から取得する(S10)。そして、初期設定処理部51は、第1の検知部20の赤外線カメラ22により撮像された画像の画素毎に、位置座標データと深度データをRAM50bに記憶する(S11)。例えば、第1の検知部20の直下にある床41上の点と第1の検知部20から離れた位置にある床41上の点とでは、同じ床41上でありながら第1の検知部20及び第2の検知部25からの深度データに差が出てしまう。このため、初期設定処理部51は、空間40内の全ての画素について、位置座標データと深度データを予め取得して記録する。   First, the initial setting processing unit 51 acquires depth data of the entire space 40 in which an image can be projected by the laser projector 30 from the first detection unit 20 (S10). Then, the initial setting processing unit 51 stores the position coordinate data and the depth data in the RAM 50b for each pixel of the image captured by the infrared camera 22 of the first detection unit 20 (S11). For example, a point on the floor 41 that is directly below the first detection unit 20 and a point on the floor 41 that is located away from the first detection unit 20 are on the same floor 41 but the first detection unit. There will be a difference in the depth data from 20 and the second detector 25. For this reason, the initial setting processing unit 51 acquires and records position coordinate data and depth data in advance for all the pixels in the space 40.

次に、初期設定処理部51は、レーザプロジェクタ30に画像データを出力して図8の基準投影画像71を投影させ、パンティルト架台10に制御データを出力して第1の回転部12と第2の回転部13を回転させることにより、基準投影画像71を移動させる(S12)。例えば、最初は、符号71−1で示す中心位置に、基準投影画像71を移動させる。基準投影画像71は、例えば図8に示すように、円形の枠内に配置された5つの点で構成される。なお、基準投影画像71として他の画像を使用してもよい。   Next, the initial setting processing unit 51 outputs image data to the laser projector 30 to project the reference projection image 71 of FIG. 8, and outputs control data to the pan tilt frame 10 to output the first rotating unit 12 and the first rotation unit 12. The reference projection image 71 is moved by rotating the second rotation unit 13 (S12). For example, first, the reference projection image 71 is moved to the center position indicated by reference numeral 71-1. For example, as shown in FIG. 8, the reference projection image 71 includes five points arranged in a circular frame. Note that another image may be used as the reference projection image 71.

次に、初期設定処理部51は、第1の検知部20及び第2の検知部25から位置座標データを取得する(S13)。そして、初期設定処理部51は、基準投影画像71の5つの点を利用して基準投影画像71の位置を特定し(S14)、パンティルト架台10へ出力した制御データと特定された基準投影画像71の位置座標データとの対応関係を、RAM50b上のデータテーブルに記憶する(S15)。   Next, the initial setting processing unit 51 acquires position coordinate data from the first detection unit 20 and the second detection unit 25 (S13). Then, the initial setting processing unit 51 specifies the position of the reference projection image 71 using the five points of the reference projection image 71 (S14), and the control data output to the pan tilt frame 10 and the specified reference projection image. The correspondence with the position coordinate data 71 is stored in the data table on the RAM 50b (S15).

その後、初期設定処理部51は、基準投影画像71が空間40の全てを覆うように移動したか否かを判断する(S16)。まだ移動していない領域がある場合(S16でNo)には、処理はS12に戻る。こうして、初期設定処理部51は、例えば図8に符号71−2〜71−10で示すように基準投影画像71を順次移動させながらS12〜S15の処理を繰り返すことにより、空間40の全体について、投影画像の位置座標データと制御データとの対応関係を表すデータテーブルを完成させる。なお、図8の基準投影画像71−2〜71−10は一例であって、位置を特定するために基準投影画像71を移動させる1回の移動量等は適宜定めることができる。   Thereafter, the initial setting processing unit 51 determines whether or not the reference projection image 71 has moved so as to cover the entire space 40 (S16). If there is an area that has not yet moved (No in S16), the process returns to S12. Thus, the initial setting processing unit 51 repeats the processes of S12 to S15 while sequentially moving the reference projection image 71 as indicated by reference numerals 71-2 to 71-10 in FIG. A data table representing the correspondence between the position coordinate data of the projection image and the control data is completed. Note that the reference projection images 71-2 to 71-10 in FIG. 8 are merely examples, and the amount of movement for moving the reference projection image 71 in order to specify the position can be appropriately determined.

そして、空間40の全ての領域を移動したと初期設定処理部51が判断する(S16でYes)と、図7の初期設定処理は終了する。   Then, when the initial setting processing unit 51 determines that all areas of the space 40 have been moved (Yes in S16), the initial setting process in FIG.

図9は、手のひら検出処理の一例を示すフローチャートである。図10(A)及び図10(B)は、検出された手のひら領域100と、その上に情報入力用画像70が投影された状態を示す図である。なお、図10(A)及び図10(B)では、ユーザの左手80の手のひら領域100が検出された場合の例を示しているが、右手の手のひらを検出する場合も同様である。   FIG. 9 is a flowchart illustrating an example of palm detection processing. FIG. 10A and FIG. 10B are diagrams showing a state in which the detected palm region 100 and the information input image 70 are projected thereon. 10A and 10B show an example in which the palm region 100 of the user's left hand 80 is detected, but the same applies to the case where the palm of the right hand is detected.

まず、物体検出部53は、第1の検知部20から位置座標データ及び深度データを取得する(S20)。次に、物体検出部53は、S20で取得した位置座標データに基づいて、物体の輪郭が存在する領域を特定する(S21)。そして、物体検出部53は、S20で取得した深度データに基づいて、輪郭が存在する領域のうち、略同じ深度データを有する領域をグルーピングする(S22)。   First, the object detection unit 53 acquires position coordinate data and depth data from the first detection unit 20 (S20). Next, the object detection unit 53 specifies an area where the contour of the object exists based on the position coordinate data acquired in S20 (S21). And the object detection part 53 groups the area | region which has substantially the same depth data among the area | regions where an outline exists based on the depth data acquired by S20 (S22).

次に、物体検出部53は、S22でグルーピングした物体の輪郭領域が対象部位である手首より先の部分か否かを、予めROM50c等に記憶されているパターンと比較することによって判断する(S23)。第1の検知部20で撮像される赤外線画像に例えばユーザの足、顔、肩等や他の物体が写ることにより、輪郭領域のグループが複数識別される可能性がある。このような場合であっても、物体検出部53は、パターン認識を行うことによって、手首より先の部分だけを識別する。   Next, the object detection unit 53 determines whether or not the contour region of the objects grouped in S22 is a portion ahead of the wrist that is the target part by comparing with a pattern stored in advance in the ROM 50c or the like (S23). ). There may be a case where a plurality of groups of contour regions are identified when, for example, the user's feet, face, shoulders, or other objects appear in the infrared image captured by the first detection unit 20. Even in such a case, the object detection unit 53 identifies only the portion ahead of the wrist by performing pattern recognition.

輪郭領域が対象部位でないと判断された場合(S23でNo)には、物体検出部53は、そのまま手のひら検出処理を終了する。   When it is determined that the contour region is not the target part (No in S23), the object detection unit 53 ends the palm detection process as it is.

一方、輪郭領域が対象部位であると判断された場合(S23でYes)には、物体検出部53は、図10(A)に破線の円で示す手のひら領域100を検出する(S24)。例えば、物体検出部53は、識別された左手80の輪郭(外形)から指の先端位置N1と手首位置N2,N3を特定する。そして、物体検出部53は、指の先端位置N1と手首位置N2及びN3の中点N5とを結ぶ直線N4を引き、直線N4上で指の先端位置N1と中点N5との間の距離の1/4だけ中点N5から離れた中心点N6を中心とし、中心点N6と中点N5との間の距離を半径とする円形領域を手のひら領域100とする。なお、手のひら領域100を決定する方法は、これに限定されず、他の方法を採用してもよい。   On the other hand, when it is determined that the contour region is the target region (Yes in S23), the object detection unit 53 detects the palm region 100 indicated by a broken-line circle in FIG. 10A (S24). For example, the object detection unit 53 identifies the finger tip position N1 and the wrist positions N2 and N3 from the contour (outer shape) of the identified left hand 80. Then, the object detection unit 53 draws a straight line N4 connecting the finger tip position N1 and the midpoint N5 of the wrist positions N2 and N3, and the distance between the finger tip position N1 and the midpoint N5 on the straight line N4 is calculated. A palm region 100 is defined as a circular region having a center point N6 separated from the midpoint N5 by a quarter and having a radius between the center point N6 and the midpoint N5. In addition, the method of determining the palm area | region 100 is not limited to this, You may employ | adopt another method.

手のひら領域100が検出されると、物体検出部53は、例えば第1の検知部20から、その手のひら領域100の深度データを取得して(S25)、RAM50b等に記憶する。そして物体検出部53は、手のひら領域100の中心点N6の位置座標データ(x,y)と深度データ(r)から、中心点N6の空間座標(x,y,z)を割り出す(S26)。これにより、図9の手のひら検出処理は終了する。   When the palm region 100 is detected, the object detection unit 53 acquires depth data of the palm region 100 from, for example, the first detection unit 20 (S25) and stores it in the RAM 50b or the like. Then, the object detection unit 53 determines the spatial coordinates (x, y, z) of the center point N6 from the position coordinate data (x, y) and depth data (r) of the center point N6 of the palm region 100 (S26). Thereby, the palm detection process of FIG. 9 is completed.

なお、物体検出部53は、手首より先の部分を認識するまで、所定の時間(例えば1秒)間隔で図9の処理フローを実行する。そして、手のひらを特定部位及び第2の対象物とする場合には、手のひらが検出されると、初期設定処理部51が作成したデータテーブルを利用して投影位置制御部52がパンティルト架台10を制御することにより、図10(B)のように、手のひら領域100内の位置に情報入力用画像70が投影される。   Note that the object detection unit 53 executes the processing flow of FIG. 9 at predetermined time intervals (for example, 1 second) until a portion ahead of the wrist is recognized. When the palm is used as the specific part and the second object, when the palm is detected, the projection position control unit 52 uses the data table created by the initial setting processing unit 51 to move the pan tilt frame 10. By controlling, the information input image 70 is projected at a position in the palm region 100 as shown in FIG.

図11は、情報入力検出処理の一例を示すフローチャートである。図12は、左手80の手のひら領域100に投影された情報入力用画像70に対して右手90により情報入力が行われる場合の例を説明するための図である。ここでは、手のひらに情報入力用画像70が投影された場合の情報入力検出処理を説明するが、他の物体への投影画像に対する情報入力を検出する場合も同様である。   FIG. 11 is a flowchart illustrating an example of the information input detection process. FIG. 12 is a diagram for explaining an example in which information input is performed with the right hand 90 on the information input image 70 projected on the palm region 100 of the left hand 80. Here, the information input detection process when the information input image 70 is projected on the palm will be described, but the same applies to the case of detecting information input on the projection image on another object.

まず、入力検出部54は、例えば手のひら検出処理により対象部位である手のひら領域100が検出されているか否かを判断し(S30)、対象部位が検出されている場合にのみ、以下のステップに進む。対象部位が検出されている場合には、入力検出部54は、レーザプロジェクタ30へ出力した画像データ及びパンティルト架台10へ出力した制御データを取得する(S31)。次に、入力検出部54は、主に第2の検知部25から位置座標データ及び深度データを取得する(S32)。なお、S31とS32の順番は逆でもよい。   First, the input detection unit 54 determines whether or not the palm region 100 that is the target part is detected by, for example, palm detection processing (S30), and proceeds to the following steps only when the target part is detected. . When the target part is detected, the input detection unit 54 acquires the image data output to the laser projector 30 and the control data output to the pan tilt frame 10 (S31). Next, the input detection unit 54 acquires position coordinate data and depth data mainly from the second detection unit 25 (S32). Note that the order of S31 and S32 may be reversed.

次に、入力検出部54は、S32で取得した位置座標データに基づいて、物体の輪郭が存在する領域を特定する(S33)。そして、入力検出部54は、S32で取得した深度データに基づいて、深度データが略同じ輪郭領域をグルーピングする(S34)。なお、S34でグルーピングされた輪郭領域が複数存在する可能性もあるが、入力検出部54は、手のひら領域100の範囲内の位置座標(x,y)を有するもののみを進入物体として認識する。   Next, the input detection unit 54 specifies an area where the contour of the object exists based on the position coordinate data acquired in S32 (S33). And the input detection part 54 groups the outline area | region where depth data is substantially the same based on the depth data acquired by S32 (S34). Although there may be a plurality of contour regions grouped in S34, the input detection unit 54 recognizes only an object having a position coordinate (x, y) within the palm region 100 as an approaching object.

さらに、入力検出部54は、そのグルーピングした輪郭領域に基づいて、手のひら領域100への進入物体の進入位置及び指先位置を特定する(S35)。例えば、入力検出部54は、手のひら領域100への進入物体である右手90の進入位置01,02を特定する。そして、入力検出部54は、進入位置01及び02の中点03から伸ばした垂線04上において、中点03から最も離れた位置で右手90の輪郭と重なる点05を指先位置として特定する。なお、入力検出部54は、進入位置01及び02の中点03から最も離れた位置に存在する右手90に含まれる輪郭領域を指先位置と特定してもよい。これらの指先位置の特定方法は一例であって、他の方法を採用してもよい。   Further, the input detection unit 54 specifies the approach position and fingertip position of the approaching object to the palm area 100 based on the grouped contour areas (S35). For example, the input detection unit 54 specifies the entry positions 01 and 02 of the right hand 90 that is an object entering the palm region 100. Then, the input detection unit 54 specifies the point 05 that overlaps the contour of the right hand 90 at the position farthest from the midpoint 03 on the perpendicular line 04 extended from the midpoint 03 of the entry positions 01 and 02 as the fingertip position. Note that the input detection unit 54 may specify a contour region included in the right hand 90 present at the position farthest from the midpoint 03 of the entry positions 01 and 02 as the fingertip position. These fingertip position specifying methods are examples, and other methods may be adopted.

次に、入力検出部54は、進入物体である右手90が情報入力操作を行っているか否かを判断する(S36)。例えば、入力検出部54は、指先位置の点05が手のひら領域100上にある場合に、右手90の指先が情報入力操作を行っていると判断する。入力検出部54は、指先位置の点05が手のひら領域100上にあるか否かを、手のひら領域100の深度データと指先位置の点05の深度データとの差が所定閾値以内(例えば10mm以内)であるか否かに基づいて判断する。なお、チャタリング等によって指先位置の点05の深度データが短い期間で変動することがあるため、入力検出部54は、所定時間(例えば1秒)以上連続して上記の深度差が所定閾値以内である場合に、情報入力があったと判断してもよい。   Next, the input detection unit 54 determines whether or not the right hand 90 that is an approaching object is performing an information input operation (S36). For example, the input detection unit 54 determines that the fingertip of the right hand 90 is performing an information input operation when the point 05 of the fingertip position is on the palm region 100. The input detection unit 54 determines whether or not the fingertip position point 05 is on the palm area 100, and the difference between the depth data of the palm area 100 and the depth data of the fingertip position point 05 is within a predetermined threshold (for example, within 10 mm). Judgment based on whether or not. In addition, since the depth data of the fingertip position point 05 may fluctuate in a short period due to chattering or the like, the input detection unit 54 keeps the depth difference within a predetermined threshold continuously for a predetermined time (for example, 1 second). In some cases, it may be determined that information has been input.

入力検出部54は、指先位置が情報入力操作を意図したものではないと判断した場合(S36でNo)には、そのまま情報入力検出処理を終了する。一方、入力検出部54は、指先位置が情報入力操作を意図したものであると判断した場合(S36でYes)には、レーザプロジェクタ30へ出力した画像データ及びパンティルト架台10へ出力した制御データに基づいて、情報入力用画像70に含まれる各入力ボタンの手のひら領域100上における位置を特定する(S37)。   If the input detection unit 54 determines that the fingertip position is not intended for the information input operation (No in S36), the information input detection process is terminated. On the other hand, when the input detection unit 54 determines that the fingertip position is intended for an information input operation (Yes in S36), the image data output to the laser projector 30 and the control data output to the pan tilt frame 10 are displayed. Based on the above, the position of each input button included in the information input image 70 on the palm region 100 is specified (S37).

次に、入力検出部54は、S35で特定した指先位置の点05と、S37で特定した各入力ボタンの手のひら領域100内での位置とに基づいて、情報入力内容を特定する(S38)。指先位置の点05と一致する入力ボタンが存在しない場合には、情報入力内容が存在しないと特定してもよい。その後、入力検出部54は、S38で特定した情報入力内容に対応する信号を出力する(S39)。これにより、図11の情報入力検出処理は終了する。   Next, the input detection unit 54 specifies the information input content based on the fingertip position point 05 specified in S35 and the position of each input button specified in S37 in the palm region 100 (S38). If there is no input button matching the fingertip position point 05, it may be specified that there is no information input content. Thereafter, the input detection unit 54 outputs a signal corresponding to the information input content specified in S38 (S39). Thereby, the information input detection process of FIG. 11 is completed.

図13は、投影位置設定処理の一例を示すフローチャートである。ユーザが情報入力用画像70の投影位置設定ボタン75を選択すると、投影装置1は投影位置設定モードに移行する。このとき、投影位置設定部55は、時計画像60が投影される第1の対象物を、以下の処理により設定する。   FIG. 13 is a flowchart illustrating an example of the projection position setting process. When the user selects the projection position setting button 75 of the information input image 70, the projection apparatus 1 shifts to the projection position setting mode. At this time, the projection position setting unit 55 sets the first object on which the clock image 60 is projected by the following process.

まず、投影位置設定部55は、レーザプロジェクタ30に画像データを出力して、出射部30aからの投影画像を、例えば「○」、「□」又は「⇒」等の位置指定用パターンに変更する(S40)。これにより、投影装置1が投影位置設定モードに移行したことがユーザにわかるようにする。ユーザは、例えば指先を仮想マウスとして、空間40内で時計画像60を投影させたい物体を指さすことにより、位置指定用パターンを移動させる。   First, the projection position setting unit 55 outputs image data to the laser projector 30 and changes the projection image from the emitting unit 30a to a position designating pattern such as “◯”, “□”, or “⇒”. (S40). Thereby, the user can know that the projection apparatus 1 has shifted to the projection position setting mode. For example, the user moves the position specifying pattern by pointing the object to which the clock image 60 is to be projected in the space 40 using the fingertip as a virtual mouse.

そして、投影位置設定部55は、第1の検知部20が取得した深度データに基づき、ユーザが指さす方向を検出する(S41)。そのために、投影位置設定部55は、例えば、図9の手のひら検出と同様にしてユーザの指を検出し、検出された指先と指の付け根の2点の位置座標データ及びその深度データから、指先と指の付け根を通る直線を求める。そして、投影位置設定部55は、初期設定処理部51が作成したデータテーブルを利用してパンティルト架台10を制御し、S41で検出されたユーザが指さす方向に沿って位置指定用パターンの投影位置を移動させる(S42)。   And the projection position setting part 55 detects the direction which a user points based on the depth data which the 1st detection part 20 acquired (S41). Therefore, for example, the projection position setting unit 55 detects the user's finger in the same manner as the palm detection in FIG. 9, and calculates the fingertip from the detected position coordinate data of the two points of the fingertip and the base of the finger and the depth data thereof. And find a straight line through the base of the finger. Then, the projection position setting unit 55 controls the pan tilt frame 10 using the data table created by the initial setting processing unit 51, and the projection position of the position designation pattern along the direction pointed by the user detected in S41. Is moved (S42).

このとき、投影位置設定部55は、第2の検知部25からの深度データに基づき、位置指定用パターンの投影位置が人の顔等の特異物体であるか否かを常時判断する(S43)。そのために、投影位置設定部55は、位置指定用パターンが投影されている物体の位置座標データ及び深度データを第2の検知部25から取得する。そして、投影位置設定部55は、位置座標データに基づいてその物体の輪郭領域を特定し、深度データに基づいて深度データが略同じである輪郭領域をグルーピングする。得られた輪郭パターンが予めROM50c等に記憶されている特異物体のパターンと類似する場合には、投影位置設定部55は、投影位置が特異物体であると判断する。   At this time, the projection position setting unit 55 always determines based on the depth data from the second detection unit 25 whether or not the projection position of the position designating pattern is a specific object such as a human face (S43). . For this purpose, the projection position setting unit 55 acquires the position coordinate data and depth data of the object on which the position specifying pattern is projected from the second detection unit 25. Then, the projection position setting unit 55 specifies the contour region of the object based on the position coordinate data, and groups contour regions having substantially the same depth data based on the depth data. When the obtained contour pattern is similar to the pattern of a specific object stored in advance in the ROM 50c or the like, the projection position setting unit 55 determines that the projection position is a specific object.

投影位置設定部55は、投影位置が特異物体であると判断したとき(S43でYes)には、レーザプロジェクタ30に制御信号を出力して、出射部30aからのRGBの可視レーザ光の照射を停止させ(S48)、投影位置設定処理を終了する。   When the projection position setting unit 55 determines that the projection position is a singular object (Yes in S43), the projection position setting unit 55 outputs a control signal to the laser projector 30 to irradiate RGB visible laser light from the emitting unit 30a. It stops (S48), and the projection position setting process ends.

一方、特異物体が検出されていないとき(S43でNo)は、投影位置設定部55は、第2の検知部25からの深度データに基づき、例えば、ユーザの指の動作が止まって、位置指定用パターンが一定時間以上、同じ物体に投影されたか否かを判断する(S44)。投影位置設定部55は、位置指定用パターンが一定時間以上同じ物体に投影されたとS44で判断するまで、上記のS41〜S44の処理を繰り返す。   On the other hand, when no singular object is detected (No in S43), the projection position setting unit 55 stops the operation of the user's finger based on the depth data from the second detection unit 25, for example, and specifies the position. It is determined whether the pattern for use has been projected on the same object for a predetermined time or longer (S44). The projection position setting unit 55 repeats the processes of S41 to S44 until it is determined in S44 that the position specifying pattern has been projected on the same object for a predetermined time or longer.

投影位置設定部55は、位置指定用パターンが一定時間以上同じ物体に投影されたと判断する(S44でYes)と、その物体を、時計画像60が投影される第1の対象物として決定する(S45)。なお、この決定方法は一例であり、投影位置設定部55は他の方法で第1の対象物を決定してもよい。   When the projection position setting unit 55 determines that the position designating pattern has been projected on the same object for a predetermined time or longer (Yes in S44), the projection position setting unit 55 determines the object as the first object on which the clock image 60 is projected ( S45). This determination method is an example, and the projection position setting unit 55 may determine the first object by another method.

そして、投影位置設定部55は、S45で決定された第1の対象物の位置座標データ及び深度データから、第1の対象物の形状を認識する(S46)。さらに、投影位置設定部55は、第1の対象物上における時計画像60の投影位置を決定する(S47)。その際は、例えば第1の対象物の全体を時計画像60の投影位置としてもよい。あるいは、S41及びS42と同様にユーザの指さし動作に応じて位置指定用パターンの投影位置を制御することにより、ユーザが第1の対象物上で位置指定用パターンを移動させて指定した範囲を、時計画像60の投影位置としてもよい。なお、上記の投影位置の決定方法は一例であり、投影位置設定部55は他の方法を採用してもよい。これにより、図13の投影位置設定処理は終了する。   Then, the projection position setting unit 55 recognizes the shape of the first object from the position coordinate data and the depth data of the first object determined in S45 (S46). Further, the projection position setting unit 55 determines the projection position of the clock image 60 on the first object (S47). In that case, for example, the entire first object may be set as the projection position of the clock image 60. Alternatively, similarly to S41 and S42, by controlling the projection position of the position designation pattern according to the pointing operation of the user, the range designated by the user by moving the position designation pattern on the first object is specified. The projected position of the clock image 60 may be used. Note that the above-described method for determining the projection position is an example, and the projection position setting unit 55 may adopt another method. Thereby, the projection position setting process in FIG. 13 ends.

図14は、レーザプロジェクタ30の他の例を示す概略構成図である。図14に示すように、第2の検知部25の第2の赤外線発光部26をレーザプロジェクタ30と共用することも可能である。この場合のレーザプロジェクタは、走査方式の出射部31、シングルモードファイバ32、広帯域のファイバコンバイナ33、及びファイバピクテイルモジュール34等によって構成される。この構成において、可視光のR、G、B各色用のレーザ光源と赤外線(IR)用のレーザ光源が発光する各レーザ光は、ファイバピクテイルモジュール34によってそれぞれ各光ファイバに導入される。そして、広帯域のファイバコンバイナ33は、各光ファイバによって導かれたR、G、B、IRの各レーザ光を合波する。シングルモードファイバ32は、その合波光を走査方式の出射部31へ導く。   FIG. 14 is a schematic configuration diagram illustrating another example of the laser projector 30. As shown in FIG. 14, the second infrared light emitter 26 of the second detector 25 can be shared with the laser projector 30. The laser projector in this case includes a scanning-type emitting unit 31, a single mode fiber 32, a broadband fiber combiner 33, a fiber pictail module 34, and the like. In this configuration, the laser light emitted from the laser light source for each of the R, G, and B colors of visible light and the laser light source for infrared (IR) is introduced into each optical fiber by the fiber pictail module 34. The broadband fiber combiner 33 multiplexes the R, G, B, and IR laser beams guided by the optical fibers. The single mode fiber 32 guides the combined light to the emission part 31 of the scanning method.

出射部31では、シングルモードファイバ32から出射されるレーザ光が、照射光学系31aによってMEMSミラー31bに向けて照射され、MEMSミラー31bによる反射光が、投射光学系31cを通して上述した被投影面に投影される。そのMEMSミラー31bを直交する2軸に関して振動させることによって、投影するレーザ光を高速で2次元走査することができる。これにより、第2の赤外線発光部26をレーザプロジェクタ30と共用することが可能になる。さらに、図14における照射光学系31aとMEMSミラー31bの間にビームスプリッタを配置して、赤外線が照射された物体からの反射光を分離し、赤外線バンドパスフィルタを通してフォトダイオード等の赤外線検知部で受光して検知することもできる。   In the emission part 31, the laser light emitted from the single mode fiber 32 is irradiated toward the MEMS mirror 31b by the irradiation optical system 31a, and the reflected light from the MEMS mirror 31b passes through the projection optical system 31c to the projection surface described above. Projected. By vibrating the MEMS mirror 31b with respect to two orthogonal axes, the projected laser beam can be two-dimensionally scanned at high speed. As a result, the second infrared light emitting unit 26 can be shared with the laser projector 30. Further, a beam splitter is disposed between the irradiation optical system 31a and the MEMS mirror 31b in FIG. 14 to separate reflected light from an object irradiated with infrared rays, and through an infrared bandpass filter, an infrared detection unit such as a photodiode. It can also be detected by receiving light.

以上説明したように、投影装置1は、時計モードにあるときは、第1の対象物にその対象物に応じた形状の時計画像60を投影し、例えばユーザが手のひらを差し出す等の動作を行うと入力モードに移行して、第1の対象物から第2の対象物に投影位置を変更し、第2の対象物に情報入力用画像70を投影する。このように、投影装置1は、ユーザに情報入力用画像70で入力操作を行うきっかけを与えるものとして、時計画像60を固定表示する。この時計画像60により、ユーザは、自分がいる空間に投影装置1が設置されていることを認識するので、その情報入力用画像70に対して入力操作を行うことにより、投影された時計や、他の被操作装置を操作することができる。   As described above, when the projection device 1 is in the clock mode, the projection device 1 projects the clock image 60 having a shape corresponding to the target object onto the first target object, and performs an operation such as the user putting out the palm of the hand, for example. And the projection position is changed from the first object to the second object, and the information input image 70 is projected onto the second object. As described above, the projection device 1 displays the clock image 60 in a fixed manner as an opportunity for the user to perform an input operation using the information input image 70. The clock image 60 allows the user to recognize that the projection apparatus 1 is installed in the space in which the user is present, and therefore, by performing an input operation on the information input image 70, the projected clock, Other operated devices can be operated.

なお、上記では、第2の対象物が手のひらである場合を主に説明したが、第2の対象物はユーザの腕や足先等でもよい。投影装置1は、例えば、腕の場合には腕時計型リモコンを投影し、足先の場合にはフットスイッチ型リモコンを投影する等、第2の対象物の形状に合わせて、情報入力用画像を異なる形態のリモコン表示としてもよい。   In the above description, the case where the second object is a palm has been mainly described. However, the second object may be a user's arm or a foot. The projection device 1 projects an information input image in accordance with the shape of the second object, for example, by projecting a wristwatch type remote control in the case of an arm and projecting a foot switch type remote control in the case of a foot. It is good also as remote control display of a different form.

また、壁等の第1の対象物に時計画像を投影することに代えて、投影装置1は、例えば、ユーザが腕を差し出すとその腕に腕時計画像を投影させたり、ユーザが手のひらを差し出すとその手のひらに時計画像を投影させたりしてもよい。   Further, instead of projecting a clock image onto a first object such as a wall, the projection apparatus 1 may, for example, project a wristwatch image on the arm when the user pushes out the arm, or push out the palm of the user. A clock image may be projected on the palm of the hand.

また、投影装置1は、時計画像に代えて、例えばカレンダやユーザの好みのポスター画像等を第1の対象物に固定表示してもよい。あるいは、例えば投影装置1を飲食店等で使用する場合には、第1の対象物をテーブルとして、その上にメニュー画像を固定表示してもよい。   In addition, the projection device 1 may display, for example, a calendar or a user's favorite poster image on the first object instead of the clock image. Alternatively, for example, when the projection apparatus 1 is used in a restaurant or the like, a menu image may be fixedly displayed on the first object as a table.

1 投影装置
10 パンティルト架台
20 第1の検知部
25 第2の検知部
30 レーザプロジェクタ
50 制御部
51 初期設定処理部
52 投影位置制御部
53 物体検出部
54 入力検出部
55 投影位置設定部
56 画像調整部
57 時計設定部
58 時計機能部
60 時計画像
70 情報入力用画像
DESCRIPTION OF SYMBOLS 1 Projection apparatus 10 Pan tilt mount 20 1st detection part 25 2nd detection part 30 Laser projector 50 Control part 51 Initial setting process part 52 Projection position control part 53 Object detection part 54 Input detection part 55 Projection position setting part 56 Image Adjustment unit 57 Clock setting unit 58 Clock function unit 60 Clock image 70 Information input image

Claims (8)

可視レーザ光を出射して、第1の対象物に画像を投影する投影部と、
前記投影部による画像の投影位置を変更可能に前記投影部を搭載する可動支持部と、
前記投影部により画像を投影可能な空間内において、当該空間内の物体までの距離を示す深度データを取得する深度センサと、
前記深度データに基づき前記空間内でユーザの体の特定部位が検出されたときに、前記可動支持部を制御して、前記投影部による画像の投影位置を前記第1の対象物から第2の対象物に変更させる制御部と、
を有することを特徴とする投影装置。
A projection unit that emits visible laser light and projects an image onto the first object;
A movable support unit on which the projection unit is mounted so that the projection position of an image by the projection unit can be changed;
A depth sensor that acquires depth data indicating a distance to an object in the space in a space in which an image can be projected by the projection unit;
When a specific part of the user's body is detected in the space based on the depth data, the movable support unit is controlled so that the projection position of the image by the projection unit is changed from the first object to the second object. A control unit to change the object,
A projection apparatus comprising:
前記制御部は、前記特定部位が検出されていないときは前記第1の対象物に画像が投影されるように、前記可動支持部と前記投影部を制御する、請求項1に記載の投影装置。   The projection device according to claim 1, wherein the control unit controls the movable support unit and the projection unit so that an image is projected onto the first object when the specific part is not detected. . 前記制御部は、前記深度データに基づき前記第1の対象物の表面形状を認識し、前記投影部が投影する画像の形状を当該表面形状に応じて補正する、請求項1又は2に記載の投影装置。   The said control part recognizes the surface shape of the said 1st target object based on the said depth data, and correct | amends the shape of the image which the said projection part projects according to the said surface shape. Projection device. 前記深度センサは、前記空間全体の赤外線画像を撮像して前記深度データを取得する第1の検知部と、前記可動支持部に搭載され、前記投影部による画像の投影位置で赤外線ビームを2次元状に走査して、当該赤外線ビームの反射光から前記深度データを取得する第2の検知部とを有し、
前記制御部は、前記第1の検知部が取得した深度データから前記特定部位を検出し、前記第2の検知部が取得した深度データから前記第1の対象物の形状を認識する、請求項3に記載の投影装置。
The depth sensor is mounted on the first detection unit that captures an infrared image of the entire space to acquire the depth data, and the movable support unit, and two-dimensionally transmits the infrared beam at the projection position of the image by the projection unit. And a second detector that acquires the depth data from the reflected light of the infrared beam,
The said control part detects the said specific site | part from the depth data which the said 1st detection part acquired, and recognizes the shape of the said 1st target object from the depth data which the said 2nd detection part acquired. 4. The projection device according to 3.
前記制御部は時計機能を有し、
前記投影部は、前記時計機能により求められる時刻を示す時計画像を前記第1の対象物に投影する、請求項1〜4の何れか一項に記載の投影装置。
The control unit has a clock function,
The projection device according to claim 1, wherein the projection unit projects a clock image indicating a time required by the clock function onto the first object.
前記投影部は、前記第2の対象物に情報入力用画像を投影し、
前記制御部は、前記深度データに基づき前記情報入力用画像に対するユーザの入力操作を検出する、請求項5に記載の投影装置。
The projection unit projects an information input image onto the second object;
The projection device according to claim 5, wherein the control unit detects a user input operation on the information input image based on the depth data.
前記制御部は、前記情報入力用画像に対するユーザの入力操作に応じて、前記時計画像の表示状態の設定、当該時計画像が示す時刻の設定、又は前記時計機能に付随するアラームの設定を行う、請求項6に記載の投影装置。   The control unit performs setting of a display state of the clock image, setting of a time indicated by the clock image, or setting of an alarm associated with the clock function according to a user input operation on the information input image. The projection apparatus according to claim 6. 前記制御部はカレンダの情報を保持し、
前記投影部は、前記第1の対象物にカレンダの画像を投影する、請求項1〜4の何れか一項に記載の投影装置。
The control unit holds calendar information,
The projection device according to claim 1, wherein the projection unit projects an image of a calendar onto the first object.
JP2013253340A 2013-12-06 2013-12-06 Projection device Pending JP2015111772A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013253340A JP2015111772A (en) 2013-12-06 2013-12-06 Projection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253340A JP2015111772A (en) 2013-12-06 2013-12-06 Projection device

Publications (1)

Publication Number Publication Date
JP2015111772A true JP2015111772A (en) 2015-06-18

Family

ID=53526337

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253340A Pending JP2015111772A (en) 2013-12-06 2013-12-06 Projection device

Country Status (1)

Country Link
JP (1) JP2015111772A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058898A (en) * 2015-09-16 2017-03-23 カシオ計算機株式会社 Position detection device and projector
WO2017056775A1 (en) * 2015-09-28 2017-04-06 富士フイルム株式会社 Projection mapping apparatus
WO2017073111A1 (en) * 2015-10-30 2017-05-04 株式会社Jvcケンウッド Light radiation device and light radiation method
WO2017141744A1 (en) * 2016-02-19 2017-08-24 ソニー株式会社 Display device
CN108168070A (en) * 2017-12-26 2018-06-15 珠海格力电器股份有限公司 Equipment installation method and device
WO2019058722A1 (en) * 2017-09-25 2019-03-28 ソニー株式会社 Display processing device, display processing method, and program
WO2020180017A1 (en) * 2019-03-05 2020-09-10 엘지전자 주식회사 Image projection device
US10955971B2 (en) 2016-10-27 2021-03-23 Nec Corporation Information input device and information input method
JP2021099721A (en) * 2019-12-23 2021-07-01 トヨタ紡織株式会社 Input device for vehicle
CN113574860A (en) * 2019-03-13 2021-10-29 莱雅公司 System, device and method for projecting digital content onto a user's facial surface
CN113709434A (en) * 2021-08-31 2021-11-26 维沃移动通信有限公司 Projection bracelet and projection control method and device thereof
JP2023519403A (en) * 2020-04-03 2023-05-10 維沃移動通信有限公司 ELECTRONIC DEVICE, INTERACTION METHOD, INTERACTION DEVICE, AND STORAGE MEDIUM
JP7508577B2 (en) 2020-04-03 2024-07-01 維沃移動通信有限公司 Electronic device, interaction method, interaction device, and storage medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017058898A (en) * 2015-09-16 2017-03-23 カシオ計算機株式会社 Position detection device and projector
JP2019042519A (en) * 2015-09-28 2019-03-22 富士フイルム株式会社 Projection mapping apparatus
WO2017056775A1 (en) * 2015-09-28 2017-04-06 富士フイルム株式会社 Projection mapping apparatus
US11026763B2 (en) 2015-09-28 2021-06-08 Fujifilm Corporation Projection mapping apparatus
CN108024832A (en) * 2015-09-28 2018-05-11 富士胶片株式会社 Projection mapping device
JPWO2017056775A1 (en) * 2015-09-28 2018-09-06 富士フイルム株式会社 Projection mapping device
WO2017073111A1 (en) * 2015-10-30 2017-05-04 株式会社Jvcケンウッド Light radiation device and light radiation method
WO2017141744A1 (en) * 2016-02-19 2017-08-24 ソニー株式会社 Display device
JPWO2017141744A1 (en) * 2016-02-19 2018-12-13 ソニー株式会社 Display device
US10955971B2 (en) 2016-10-27 2021-03-23 Nec Corporation Information input device and information input method
WO2019058722A1 (en) * 2017-09-25 2019-03-28 ソニー株式会社 Display processing device, display processing method, and program
CN108168070A (en) * 2017-12-26 2018-06-15 珠海格力电器股份有限公司 Equipment installation method and device
CN108168070B (en) * 2017-12-26 2023-12-05 珠海格力电器股份有限公司 Equipment installation method and device
WO2020180017A1 (en) * 2019-03-05 2020-09-10 엘지전자 주식회사 Image projection device
CN113574860A (en) * 2019-03-13 2021-10-29 莱雅公司 System, device and method for projecting digital content onto a user's facial surface
JP2021099721A (en) * 2019-12-23 2021-07-01 トヨタ紡織株式会社 Input device for vehicle
JP7508577B2 (en) 2020-04-03 2024-07-01 維沃移動通信有限公司 Electronic device, interaction method, interaction device, and storage medium
JP2023519403A (en) * 2020-04-03 2023-05-10 維沃移動通信有限公司 ELECTRONIC DEVICE, INTERACTION METHOD, INTERACTION DEVICE, AND STORAGE MEDIUM
CN113709434A (en) * 2021-08-31 2021-11-26 维沃移动通信有限公司 Projection bracelet and projection control method and device thereof

Similar Documents

Publication Publication Date Title
JP2015111772A (en) Projection device
JP6542946B2 (en) Display system and method
US9229584B2 (en) Information input apparatus
WO2014034527A1 (en) Information input device
RU2455676C2 (en) Method of controlling device using gestures and 3d sensor for realising said method
US7176881B2 (en) Presentation system, material presenting device, and photographing device for presentation
EP3091387A1 (en) Autofocus head mounted display device
US20160291801A1 (en) Flexible room controls
US20090096714A1 (en) Image display device
JPH1124839A (en) Information input device
US10614734B2 (en) Display apparatus and method of displaying using controllable scanning mirror
WO2010107072A1 (en) Head-mounted display
US10634904B2 (en) Image projection device
US9927878B2 (en) Display device and projection device
US11526072B2 (en) Information processing apparatus and method, and projection imaging apparatus and information processing method
JP2015114818A (en) Information processing device, information processing method, and program
JP2017009986A (en) Image projection device
US20150054792A1 (en) Projector
JP6102751B2 (en) Interface device and driving method of interface device
WO2016208266A1 (en) Image projection device
JP6394165B2 (en) Virtual image display apparatus and method
JP4687820B2 (en) Information input device and information input method
JP2007200353A (en) Information processor and information processing method
JP5526838B2 (en) projector
US9335158B2 (en) Projector and projector system