JP6102751B2 - Interface device and driving method of interface device - Google Patents

Interface device and driving method of interface device Download PDF

Info

Publication number
JP6102751B2
JP6102751B2 JP2013555102A JP2013555102A JP6102751B2 JP 6102751 B2 JP6102751 B2 JP 6102751B2 JP 2013555102 A JP2013555102 A JP 2013555102A JP 2013555102 A JP2013555102 A JP 2013555102A JP 6102751 B2 JP6102751 B2 JP 6102751B2
Authority
JP
Japan
Prior art keywords
image
projection
lens
projection direction
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013555102A
Other languages
Japanese (ja)
Other versions
JPWO2013111376A1 (en
Inventor
藤男 奥村
藤男 奥村
高梨 伸彰
伸彰 高梨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2013111376A1 publication Critical patent/JPWO2013111376A1/en
Application granted granted Critical
Publication of JP6102751B2 publication Critical patent/JP6102751B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Description

本発明は、インターフェース装置およびインターフェース装置の駆動方法に関する。   The present invention relates to an interface device and a driving method of the interface device.

従来、コンピュータ、デジタル機器を中心とする機械と人とのインターフェースは、ボタン、キーボード、マウスであった。近年では、インターフェースは、前述のものから、画面に直接触れるタッチインターフェースへと発展しており、さらに、ジェスチャーによる空間操作型インターフェースも開発されている。空間操作型インターフェースは、例えば、非特許文献1から3のものがあげられる。   Conventionally, an interface between a machine and a person such as a computer and a digital device is a button, a keyboard, and a mouse. In recent years, the interface has evolved from the aforementioned to a touch interface that directly touches the screen, and a spatial operation type interface using gestures has also been developed. Examples of the spatial operation type interface include those of Non-Patent Documents 1 to 3.

非特許文献1には、マサチューセッツ工科大学で開発されている「SixthSense」が開示されている。「SixthSense」では、小型プロジェクタとカメラとを組み合わせたインターフェースにより、カメラが指にはめた色サックの位置を認識し、様々なインタラクティブな操作を行える。   Non-Patent Document 1 discloses “SixthSense” developed at Massachusetts Institute of Technology. “SixthSense” recognizes the position of the color sack that the camera puts on the finger by using an interface that combines a small projector and camera, and can perform various interactive operations.

非特許文献2には、マイクロソフト社で開発されている「Omnitouch」が開示されている。「Omnitouch」は、人の肩に装置を乗せたインターフェースであり、小型プロジェクタと物体との3次元計測を行う「Xtion」(特許文献1参照)と呼ばれる装置が組み合わされている。   Non-Patent Document 2 discloses “Omnitouch” developed by Microsoft Corporation. “Omnitouch” is an interface in which a device is placed on a person's shoulder, and is combined with a device called “Xtion” (see Patent Document 1) that performs three-dimensional measurement of a small projector and an object.

非特許文献3には、マサチューセッツ工科大学で開発されている「LuminAR」が開示されている。「LuminAR」は、ライトスタンド型のインターフェースであり、ライトスタンドのライトの部分に小型プロジェクタとカメラとを設け、機械的に動くアームを備える。   Non-Patent Document 3 discloses “LuminAR” developed at Massachusetts Institute of Technology. “LuminAR” is a light stand type interface, and a small projector and a camera are provided in the light portion of the light stand, and a mechanically moving arm is provided.

米国特許出願公開第2010/0118123号明細書US Patent Application Publication No. 2010/0118123

Pranav Mistry, SixthSense, MIT Media Lab, [平成23年12月16日検索]、インターネット(URL:http://www.pranavmistry.com/projects/sixthsense)Pranav Mistry, SixthSense, MIT Media Lab, [Searched on December 16, 2011], Internet (URL: http://www.pranavmistry.com/projects/sixthsense) Hrvoje Benko and Scott Saponas, Omnitouch, Microsoft, [平成23年12月16日検索]、インターネット(URL:http://research.microsoft.com/en-us/news/features/touch-101711.aspx)Hrvoje Benko and Scott Saponas, Omnitouch, Microsoft, [Search December 16, 2011], Internet (URL: http://research.microsoft.com/en-us/news/features/touch-101711.aspx) Natan Linder and Pattie Maes, LuminAR, MIT Media Lab, [平成23年12月16日検索]、インターネット(URL:http://fluid.media.mit.edu/people/natan/current/luminar.html)Natan Linder and Pattie Maes, LuminAR, MIT Media Lab, [Searched on December 16, 2011], Internet (URL: http://fluid.media.mit.edu/people/natan/current/luminar.html)

「SixthSense」および「Omnitouch」は、操作するために投射する画像の位置を人が制御する必要がある。また、「SixthSense」および「Omnitouch」は、肩、手等を動かして、画像がそこに投射されるようにしなければならず、インターフェースを行う装置を人が装着していなくてはならない。「LuminAR」は、人は何も装着する必要はないが、ライトスタンドのライトの下に手を持っていかなくてはならない。これらは、人が機械に合わせる旧来型のインターフェースであり、ユビキタス型と呼ばれている。これからの世界において、機械と人とのインターフェースは、アンビエント型と呼ばれる、機械が人に合わせるインターフェースに変わっていくとされている。例えば、デジタルサイネージのような大型のものから、携帯端末、携帯電話等の小型のものまで、機械が人とその動きを認識して、状況にあったインタラクションを自律的に行うようになるのである。   “SixthSense” and “Omnitouch” require a person to control the position of an image to be projected for operation. In addition, “SixthSense” and “Omnitouch” must move their shoulders, hands, etc. so that an image is projected there, and a person must be wearing a device that performs the interface. “LuminAR” does not require a person to wear anything, but must hold his hand under the light of the light stand. These are traditional interfaces that humans match with machines, and are called ubiquitous types. In the future world, it is said that the interface between machines and people will change to an ambient type interface where machines are adapted to people. For example, machines from large ones such as digital signage to small ones such as mobile terminals and mobile phones will recognize humans and their movements and autonomously interact with the situation. .

アンビエント型のインターフェースを実現するには、機械が人を認識するために、広い認識空間を持たなくてはならない。認識空間が狭いということは、人の動きを制限することになるからである。また、色サックのような道具を使うことも回避しなければならない。この点において、現代技術は多くの課題を抱えている。例えば、現在最も有力なジェスチャー入力装置である「Xtion」は、つぎのような課題を抱えている。   In order to realize an ambient type interface, a machine must have a wide recognition space in order to recognize people. This is because the recognition space is limited, which restricts human movement. You should also avoid using tools like color sack. In this regard, modern technology has many challenges. For example, “Xtion”, currently the most powerful gesture input device, has the following problems.

図16に、「Xtion」の基本的な原理および課題を示す。図16に示すとおり、「Xtion」は、赤外光パターン発生装置401およびカメラ403を備える。「Xtion」の基本原理は、いわゆる三角測量による3次元的な対象物認証である。赤外光パターン発生装置401から投射される赤外光パターン402が対象物(本例では、手)404に当たり、手404の形状に応じて発生する画像歪みを、カメラ403で読み取る。赤外光パターン発生装置401の投射範囲とカメラ403の画角との重複する領域が認識空間となり、この空間から外れたものは認識できない。このように、認識空間は、装置に近づくほど狭くなるため、距離が近づくにつれて、この空間から外れやすいということになる。このように、現状の技術は、認識空間の狭いものとなっている。   FIG. 16 shows the basic principle and problem of “Xtion”. As shown in FIG. 16, “Xtion” includes an infrared light pattern generator 401 and a camera 403. The basic principle of “Xtion” is three-dimensional object authentication by so-called triangulation. The infrared light pattern 402 projected from the infrared light pattern generation device 401 hits an object (in this example, a hand) 404, and image distortion generated according to the shape of the hand 404 is read by the camera 403. A region where the projection range of the infrared light pattern generation device 401 overlaps with the angle of view of the camera 403 is a recognition space, and a region outside this space cannot be recognized. Thus, since the recognition space becomes narrower as it approaches the apparatus, it is likely that the recognition space is easily removed from the space as the distance approaches. As described above, the current technology has a narrow recognition space.

本発明の目的は、アンビエント型のインターフェースを実現するために、小型で、精度よく広い認識領域で人等の対象物を認識することが可能なインターフェース装置、インターフェース装置の駆動方法を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an interface device capable of recognizing an object such as a person in a small and accurate wide recognition area and a driving method of the interface device in order to realize an ambient type interface. is there.

前記目的を達成するために、本発明のインターフェース装置は、
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含み、
前記画像投射手段は、対象物を検出するための検出光を発する光源を含み、
前記撮像手段により、前記対象物の位置が認識され、
前記投射方向調整手段により、前記画像投射手段から投射される画像の投射方向を、前記認識された対象物の位置に応じて移動可能とし、
前記画像投射手段により、前記対象物に前記検出光の画像が投射され、
前記撮像手段により、前記検出光の画像が認識され、
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とが制御され、かつ、前記撮像手段により認識された検出光の画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号が発せられる。
In order to achieve the above object, the interface device of the present invention comprises:
Including image projection means, imaging means, projection direction adjustment means, and control means,
The image projection means includes a light source that emits detection light for detecting an object,
The position of the object is recognized by the imaging means,
By the projection direction adjusting means, the projection direction of the image projected from the image projecting means can be moved according to the position of the recognized object,
The image projection means projects an image of the detection light onto the object,
The image of the detection light is recognized by the imaging means,
The control means controls the image projection means, the imaging means, and the projection direction adjustment means, and in advance according to the state of the detection light image recognized by the imaging means, with respect to the state. A signal for performing a predetermined operation is generated.

本発明のインターフェース装置の駆動方法は、
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含むインターフェース装置を用い、
前記撮像手段により、対象物の位置を認識する対象物認識工程と、
前記投射方向調整手段により、前記画像投射手段から投射する画像の投射方向を、前記認識された対象物の位置に応じて移動可能とする投射方向調整工程と、
前記画像投射手段により、前記対象物に前記検出光の画像を投射する検出画像投射工程と、
前記撮像手段により、前記検出光の画像を認識する画像認識工程と、
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含む。
The driving method of the interface device of the present invention includes
Using an interface device including an image projection unit, an imaging unit, a projection direction adjustment unit, and a control unit,
An object recognition step of recognizing the position of the object by the imaging means;
A projection direction adjusting step for allowing the projection direction of the image projected from the image projection unit to be moved by the projection direction adjusting unit according to the position of the recognized object;
A detection image projection step of projecting an image of the detection light onto the object by the image projection means;
An image recognition step of recognizing an image of the detection light by the imaging means;
The control means controls the image projection means, the imaging means, and the projection direction adjustment means, and is predetermined for the state according to the state of the image recognized in the image recognition step. And an operation step for generating a signal for performing a predetermined operation.

本発明によれば、アンビエント型のインターフェースを実現するための、小型で、精度よく広い認識領域で人等の対象物を認識することが可能なインターフェース装置、インターフェース装置の駆動方法を提供できる。   According to the present invention, it is possible to provide an interface device capable of recognizing an object such as a person in a small recognition area with high accuracy and a wide recognition area, and a driving method of the interface device, in order to realize an ambient type interface.

図1は、実施形態1のインターフェース装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of the interface apparatus according to the first embodiment. 図2は、実施形態1におけるインターフェース装置を用いた駆動方法のフローチャートである。FIG. 2 is a flowchart of a driving method using the interface device according to the first embodiment. 図3は、本発明のインターフェース装置における投射方向調整手段の一例の構成を示す図である。FIG. 3 is a diagram showing a configuration of an example of the projection direction adjusting means in the interface apparatus of the present invention. 図4は、本発明のインターフェース装置における投射方向調整手段のその他の例の構成を示す図である。FIG. 4 is a diagram showing the configuration of another example of the projection direction adjusting means in the interface apparatus of the present invention. 図5は、本発明のインターフェース装置における投射方向調整手段の、さらにその他の例の構成を示す図である。FIG. 5 is a diagram showing the configuration of still another example of the projection direction adjusting means in the interface apparatus of the present invention. 図6は、実施形態2のインターフェース装置の構成を示すブロック図である。FIG. 6 is a block diagram illustrating a configuration of the interface apparatus according to the second embodiment. 図7は、実施形態2のインターフェース装置を用いた駆動方法の説明図である。FIG. 7 is an explanatory diagram of a driving method using the interface device of the second embodiment. 図8は、本発明のインターフェース装置における画像投射手段であるレーザプロジェクタの一実施形態の構成を示した図である。FIG. 8 is a diagram showing a configuration of an embodiment of a laser projector which is an image projection means in the interface apparatus of the present invention. 図9は、本発明のインターフェース装置における画像回転手段(回転機構)の一例の説明図である。FIG. 9 is an explanatory diagram showing an example of image rotation means (rotation mechanism) in the interface apparatus of the present invention. 図10は、本発明のインターフェース装置において、画像回転手段を有していない場合の画像回転方法の一例の説明図である。FIG. 10 is an explanatory diagram showing an example of an image rotation method when the interface apparatus of the present invention does not have image rotation means. 図11は、投射画像が略円形である場合を説明する図である。FIG. 11 is a diagram illustrating a case where the projected image is substantially circular. 図12は、実施形態5のインターフェース装置の構成を示すブロック図である。FIG. 12 is a block diagram illustrating a configuration of the interface apparatus according to the fifth embodiment. 図13は、実施形態6のインターフェース装置の構成を示すブロック図である。FIG. 13 is a block diagram illustrating a configuration of the interface apparatus according to the sixth embodiment. 図14は、実施形態7のインターフェース装置の構成を示すブロック図である。FIG. 14 is a block diagram illustrating a configuration of the interface apparatus according to the seventh embodiment. 図15は、実施形態8のインターフェース装置の構成を示すブロック図である。FIG. 15 is a block diagram illustrating a configuration of the interface apparatus according to the eighth embodiment. 図16は、Xtionの基本的な原理および課題を示す図である。FIG. 16 is a diagram showing the basic principle and problems of Xtion. 図17は、関連技術のインターフェース装置の駆動方法の一例を示す図である。FIG. 17 is a diagram illustrating an example of a driving method of a related art interface device.

以下、本発明のインターフェース装置について、例を挙げて詳細に説明する。ただし、本発明は、以下の実施形態に限定されない。なお、以下の図において、同一部分には、同一符号を付している。また、図面においては、説明の便宜上、各部の構造は適宜簡略化して示す場合があり、各部の寸法比等は、実際とは異なる場合がある。   Hereinafter, the interface apparatus of the present invention will be described in detail with examples. However, the present invention is not limited to the following embodiments. In the following drawings, the same portions are denoted by the same reference numerals. In the drawings, for convenience of explanation, the structure of each part may be simplified as appropriate, and the dimensional ratio of each part may be different from the actual one.

(実施形態1)
図1は、本実施形態のインターフェース装置の構成を示すブロック図である。図2は、本実施形態におけるインターフェース装置を用いた駆動方法のフローチャートである。図1に示すように、本実施形態のインターフェース装置100は、画像投射手段101と、撮像手段106と、投射方向調整手段105と、制御手段107とを主要な構成要素としている。画像投射手段101は、光源102を含む。本実施形態において、光源102は、対象物を検出するための検出光を発する光源であり、赤外光光源等を好ましく用いることができる。制御手段107は、画像投射手段101、撮像手段106および投射方向調整手段105に接続されている。図1において、108は画像投射手段101から投射される画像の投射方向が、投射方向調整手段105によって変えられた検出光(検出光画像)の方向を示しており、109は検出光が対象物Xによって反射された反射光を示している。
(Embodiment 1)
FIG. 1 is a block diagram showing the configuration of the interface device of this embodiment. FIG. 2 is a flowchart of a driving method using the interface apparatus according to the present embodiment. As shown in FIG. 1, the interface device 100 of the present embodiment includes an image projection unit 101, an imaging unit 106, a projection direction adjustment unit 105, and a control unit 107 as main components. The image projection unit 101 includes a light source 102. In the present embodiment, the light source 102 is a light source that emits detection light for detecting an object, and an infrared light source or the like can be preferably used. The control means 107 is connected to the image projection means 101, the imaging means 106 and the projection direction adjustment means 105. In FIG. 1, reference numeral 108 denotes the direction of detection light (detection light image) in which the projection direction of the image projected from the image projection unit 101 is changed by the projection direction adjustment unit 105, and reference numeral 109 denotes the detection light. The reflected light reflected by X is shown.

本実施形態のインターフェース装置を用いた駆動方法は、図1のインターフェース装置を用いて、図2のフローチャートに示すように、以下のステップを実施する。   The driving method using the interface apparatus of the present embodiment performs the following steps using the interface apparatus of FIG. 1 as shown in the flowchart of FIG.

まず、撮像手段106で、対象物の位置を認識する(対象物認識工程:ステップS10)。対象物は、例えば、人や手、指、顔、胴体等の人の身体の一部である。撮像手段106は、例えば、CCD(Charge Coupled Device)カメラ、CMOS(Complementary Metal Oxide Semiconductor)カメラ等を備えている。近年では、画像認識の技術が進んできており、顔認証などは一般のデジタルカメラでも当たり前のものになってきている。前記身体の一部の認識も同様に可能である。画像認識により、例えば、一旦手を捉えれば、撮像手段106の初期の画角から出るような動作を行っても、追跡することが可能である。なお、撮像手段106の画角の位置を周期的に動かして、人や人の身体の一部の動きを見つけることも可能である。   First, the position of the object is recognized by the imaging means 106 (object recognition process: step S10). The object is, for example, a part of a human body such as a person, a hand, a finger, a face, or a torso. The imaging means 106 includes, for example, a CCD (Charge Coupled Device) camera, a CMOS (Complementary Metal Oxide Semiconductor) camera, and the like. In recent years, image recognition technology has advanced, and face authentication has become commonplace even in general digital cameras. Recognition of the body part is possible as well. With image recognition, for example, once a hand is captured, it is possible to track even if an operation is performed so as to depart from the initial angle of view of the imaging means 106. It is also possible to periodically move the position of the angle of view of the imaging means 106 to find a person or a part of the person's body.

つぎに、投射方向調整手段105により、画像投射手段101から投射される画像(検出光画像)の投射方向を、前記認識された対象物Xの位置に応じて、移動させる(投射方向調整工程:ステップS20)。対象物Xが動いている場合には、追尾させてもよい。投射方向調整手段105については、後述する。   Next, the projection direction adjustment unit 105 moves the projection direction of the image (detection light image) projected from the image projection unit 101 according to the position of the recognized object X (projection direction adjustment step: Step S20). If the object X is moving, tracking may be performed. The projection direction adjusting unit 105 will be described later.

そして、画像投射手段101から、対象物Xに、詳細な位置や動きを検出するための検出光画像を投射する(検出画像投射工程:ステップS30)。画像投射手段101は、例えば、レーザプロジェクタ等を用いることができる。   And the detection light image for detecting a detailed position and a motion is projected on the target object X from the image projection means 101 (detection image projection process: step S30). As the image projection unit 101, for example, a laser projector or the like can be used.

つぎに、撮像手段106により、対象物Xで反射された前記検出光の画像(反射光)を取得し、画像認識をして、対象物Xの形、動作、位置等の状態を認識する(画像認識工程:ステップS40)。本実施形態(図1)においては、対象物認識工程S10と画像認識工程S40では、同一の撮像手段106を使用しているが、本発明は、これに限定されない。前記の2つの工程において、別々の撮像手段を使用する構成とすることもできる。   Next, the imaging means 106 acquires an image (reflected light) of the detection light reflected by the object X, recognizes the image, and recognizes the state, such as the shape, operation, and position of the object X ( Image recognition process: Step S40). In the present embodiment (FIG. 1), the same imaging means 106 is used in the object recognition step S10 and the image recognition step S40, but the present invention is not limited to this. It is also possible to employ a configuration in which separate imaging means are used in the two steps.

画像投射手段101、撮像手段106および投射方向調整手段105の動作や作用は、制御手段107によって制御される。そして、制御手段107は、前記検出された対象物Xの形、動作、位置等の状態に対し、予め定められた所定の動作を行う信号を発する(動作工程:ステップS50)。対象物Xの形、動作、位置等の状態を入力信号とするインターフェース装置では、本実施形態の構成を含むことにより、対象物の動きに対して適切に応答することが可能である。本発明のインターフェース装置は、例えば、検出された対象物の動作に応じて、電子機器等を制御する操作信号を出力する手段を含むことができ、この場合、精度良く、広い動作範囲で前記電子機器等の操作をすることが可能となる。   Operations and actions of the image projection unit 101, the imaging unit 106, and the projection direction adjustment unit 105 are controlled by the control unit 107. Then, the control means 107 issues a signal for performing a predetermined operation in advance with respect to the detected state of the object X such as shape, operation, position, etc. (operation process: step S50). By including the configuration of the present embodiment, the interface device that uses the state of the object X such as the shape, motion, and position as an input signal can appropriately respond to the movement of the object. The interface apparatus of the present invention can include means for outputting an operation signal for controlling an electronic device or the like according to the detected movement of the target object. In this case, the electronic apparatus can be accurately and in a wide operation range. It becomes possible to operate devices and the like.

本実施形態の投射方向調整手段105は、画像投射手段101から投射される画像の投射方向を調整する手段であり、以下の構成とすることができる。   The projection direction adjusting unit 105 of the present embodiment is a unit that adjusts the projection direction of the image projected from the image projecting unit 101, and can be configured as follows.

図3は、本発明のインターフェース装置における、投射方向調整手段の一例である。本例の投射方向調整手段は、レンズを有し、前記レンズは、画像投射手段に対する傾斜角を調整可能であるとともに回転可能となっている。図3において、レンズ1201は、レンズホルダー1202に取り付けられている。そして、レンズホルダー1202は、レンズ1201の傾斜角を調整可能とする駆動手段(例えば、リニアモータ)1203と接続されている。駆動手段1203は、支持体1204と接続されている。支持体1204は、別の駆動手段(例えば、モータ)1205により回転可能である。駆動手段1203および1205を駆動させることにより、レンズ1201に傾きと回転を与えることができ、レンズ1201が投射方向前方に広い範囲で可動となる。レンズ1201を動かすことにより、投射レンズ813からの投射光1206の方向を、前記認識された対象物の移動に追尾して移動させることができる。   FIG. 3 is an example of the projection direction adjusting means in the interface apparatus of the present invention. The projection direction adjusting means of this example includes a lens, and the lens can adjust the tilt angle with respect to the image projecting means and can rotate. In FIG. 3, the lens 1201 is attached to the lens holder 1202. The lens holder 1202 is connected to driving means (for example, a linear motor) 1203 that can adjust the inclination angle of the lens 1201. The driving unit 1203 is connected to the support 1204. The support 1204 can be rotated by another driving means (for example, a motor) 1205. By driving the driving means 1203 and 1205, the lens 1201 can be tilted and rotated, and the lens 1201 can be moved in a wide range forward in the projection direction. By moving the lens 1201, the direction of the projection light 1206 from the projection lens 813 can be tracked and moved by the movement of the recognized object.

図4は、本発明のインターフェース装置における、投射方向調整手段のその他の例である。本例の投射方向調整手段は、レンズを有し、前記レンズは、画像投射手段に対する傾斜角を調整可能であるとともに回転可能となっている。図4において、レンズ1301は、球面を有するレンズ支持体1302に取り付けられている。レンズ支持体1302は、その周囲をリング状の支持部1303で支持されている。そして、支持部1303は、レンズ支持体1302が回転可能となるように、その内側に少なくとも一対の駆動手段(例えば、超音波モータ)1304および1305を有している。本例では、概略球形のレンズ支持体1302を超音波モータにより駆動する。レンズ支持体1302は透明であることが好ましい。リング状の支持部1303は、内側の所定の位置にベアリングなどが設置されているとよい。図4において、駆動手段1304および1305は、支持部1303と、レンズ支持体1302との間に形成され、それぞれ矢印の方向にレンズ支持体1302を回転させる超音波モータとすることが好ましい。駆動手段1304および1305を駆動させることにより、レンズ1301に傾きと回転を与えることができ、レンズ1301が投射方向前方に広い範囲で可動となる。レンズ1301を動かすことにより、投射レンズ813からの投射光1306の方向を、前記認識された対象物の移動に追尾して移動させることができる。また、この投射方向調整手段によれば、レンズの方向を変える機械系を平面にし、全体のサイズを更に小さくすることが可能である。また、レンズ支持体1302を球形とすることで軸が不要となる。また、モータが平面化されるため、投射方向調整手段に起因する体積増を少なくすることができ、好ましい。   FIG. 4 shows another example of the projection direction adjusting means in the interface apparatus of the present invention. The projection direction adjusting means of this example includes a lens, and the lens can adjust the tilt angle with respect to the image projecting means and can rotate. In FIG. 4, a lens 1301 is attached to a lens support 1302 having a spherical surface. The periphery of the lens support 1302 is supported by a ring-shaped support portion 1303. The support portion 1303 has at least a pair of drive means (for example, ultrasonic motors) 1304 and 1305 on the inner side so that the lens support 1302 can rotate. In this example, a substantially spherical lens support 1302 is driven by an ultrasonic motor. The lens support 1302 is preferably transparent. The ring-shaped support portion 1303 is preferably provided with a bearing or the like at a predetermined position inside. In FIG. 4, the driving means 1304 and 1305 are preferably ultrasonic motors that are formed between the support portion 1303 and the lens support 1302 and rotate the lens support 1302 in the directions of the arrows, respectively. By driving the driving means 1304 and 1305, the lens 1301 can be tilted and rotated, and the lens 1301 can be moved in a wide range forward in the projection direction. By moving the lens 1301, the direction of the projection light 1306 from the projection lens 813 can be tracked and moved by the movement of the recognized object. Further, according to this projection direction adjusting means, it is possible to make the mechanical system for changing the direction of the lens flat and further reduce the overall size. Further, the lens support 1302 is spherical, so that no axis is required. Moreover, since the motor is planarized, the volume increase caused by the projection direction adjusting means can be reduced, which is preferable.

図5は、本発明のインターフェース装置における、投射方向調整手段のさらにその他の例である。本例の投射方向調整手段は、ミラーを有し、前記ミラーは、前記画像投射手段に対する傾斜角を調整可能であるとともに回転可能である。図5において、ミラー1401は、傾斜角方向に回転可能な回転軸を有しており、前記回転軸に駆動手段(モータ)1402が取り付けられている。駆動手段(モータ)1402は、支持体1403を介して、別の駆動手段(モータ)1404と接続されている。駆動手段(モータ)1404は、ミラー1401が前記画像投射手段から画像が投射される方向を軸として回転可能となるように接続されている。駆動手段1402および1404を駆動させることにより、ミラー1401に傾きと回転を与えることができ、ミラー1401が投射方向前方に広い範囲で可動となる。ミラー1401を動かすことにより、投射レンズ813からの投射光1405の方向を、前記認識された対象物の移動に追尾して移動させることができる。   FIG. 5 shows still another example of the projection direction adjusting means in the interface apparatus of the present invention. The projection direction adjusting means of this example has a mirror, and the mirror can adjust the tilt angle with respect to the image projecting means and can rotate. In FIG. 5, the mirror 1401 has a rotating shaft that can rotate in the direction of the inclination angle, and a driving means (motor) 1402 is attached to the rotating shaft. The driving means (motor) 1402 is connected to another driving means (motor) 1404 via the support 1403. The drive unit (motor) 1404 is connected so that the mirror 1401 can rotate about the direction in which the image is projected from the image projection unit. By driving the driving means 1402 and 1404, the mirror 1401 can be tilted and rotated, and the mirror 1401 can be moved in a wide range forward in the projection direction. By moving the mirror 1401, the direction of the projection light 1405 from the projection lens 813 can be moved following the movement of the recognized object.

(実施形態2)
図6は、本実施形態のインターフェース装置の構成を示すブロック図である。図7は、本実施形態のインターフェース装置を用いた駆動方法の説明図である。図6に示すように、本実施形態のインターフェース装置600は、画像投射手段601と、光分離手段604と、投射方向調整手段605と、撮像手段606と、制御手段607とを主要な構成要素としている。画像投射手段601は、光源602および画像回転手段603を含む。光源602は、例えば、赤色光、緑色光、青色光の可視光を出力する可視光光源と、赤外光を出力する赤外光光源とを含み、前記光源は、例えば、半導体レーザである。前記赤外光光源は、対象物を検出するための検出光を発する光源とすることができる。画像投射手段601は、例えば、レーザプロジェクタを使用することができる。光分離手段604は、投射画像の反射光のうち、検出光の反射光を分離し、カメラ等の撮像手段に入射させる、撮像手段用検出光分離光学系である。投射方向調整手段605は、方向可変構造を有する光学系である。制御手段607は、画像投射手段601、撮像手段606および投射方向調整手段605に接続されている。図6において、608は画像投射手段601から投射される画像の投射方向が、投射方向調整手段605によって変えられた検出光(検出光画像)の方向を示しており、609は検出光が対象物Xによって反射された戻り光(反射光)の経路を示している。なお、図6では、投射方向調整手段605の右上方に位置する対象物Xの図示を省略している。その他の構成は、実施形態1で記載したインターフェース装置と同様である。
(Embodiment 2)
FIG. 6 is a block diagram illustrating a configuration of the interface apparatus according to the present embodiment. FIG. 7 is an explanatory diagram of a driving method using the interface device of the present embodiment. As shown in FIG. 6, the interface apparatus 600 of this embodiment includes an image projection unit 601, a light separation unit 604, a projection direction adjustment unit 605, an imaging unit 606, and a control unit 607 as main components. Yes. The image projection unit 601 includes a light source 602 and an image rotation unit 603. The light source 602 includes, for example, a visible light source that outputs visible light of red light, green light, and blue light, and an infrared light source that outputs infrared light, and the light source is, for example, a semiconductor laser. The infrared light source may be a light source that emits detection light for detecting an object. As the image projection unit 601, for example, a laser projector can be used. The light separation means 604 is a detection light separation optical system for image pickup means that separates the reflected light of the detection light out of the reflected light of the projection image and enters the image pickup means such as a camera. The projection direction adjusting unit 605 is an optical system having a direction variable structure. The control unit 607 is connected to the image projection unit 601, the imaging unit 606, and the projection direction adjustment unit 605. In FIG. 6, reference numeral 608 denotes the direction of detection light (detection light image) in which the projection direction of the image projected from the image projection unit 601 is changed by the projection direction adjustment unit 605, and reference numeral 609 denotes the detection light. The path of return light (reflected light) reflected by X is shown. In addition, in FIG. 6, illustration of the target object X located in the upper right part of the projection direction adjustment means 605 is abbreviate | omitted. Other configurations are the same as those of the interface apparatus described in the first embodiment.

本実施形態においては、その内部に光源602および画像回転手段603を有する画像投射手段(レーザプロジェクタ)601が発した画像は、光分離手段604を通して投射方向調整手段605によって方向を変えられ投射される。対象物Xの3次元計測を行うためには、光源602は赤外光を発する。この際、対象物Xに当たって戻ってきた光は経路609を通り、光分離手段604を通って撮像手段606に入射する。制御手段607はこれら一連の動作の制御を行う。   In the present embodiment, an image emitted from an image projection unit (laser projector) 601 having a light source 602 and an image rotation unit 603 therein is changed in direction and projected by a projection direction adjustment unit 605 through a light separation unit 604. . In order to perform three-dimensional measurement of the object X, the light source 602 emits infrared light. At this time, the light returned upon hitting the object X passes through the path 609 and enters the imaging unit 606 through the light separation unit 604. The control means 607 controls these series of operations.

図7は、本実施形態のインターフェース装置についての、基本動作を示している。図7において、701は本実施形態のインターフェース装置(ヘッド部のみを図示)、702は撮像手段(カメラ系)606の画角、703は対象物Xの例としての手、704は赤外投射光、705はその光によって投影された手の上の赤外光のパターン、706は画像回転手段603を回転させている様子、707は投射画像(可視光)を示している。   FIG. 7 shows the basic operation of the interface device of this embodiment. In FIG. 7, reference numeral 701 denotes an interface device (only a head portion is shown) of the present embodiment, 702 is an angle of view of an imaging unit (camera system) 606, 703 is a hand as an example of the object X, and 704 is infrared projection light. 705, a pattern of infrared light on the hand projected by the light, 706 rotating the image rotating means 603, and 707 a projected image (visible light).

動作は以下のようになる。図7(a)に示すようにインターフェース装置701の内部の撮像手段(カメラ)606がジェスチャーを行う手や指の位置を認識する。前記認識は、例えば、投射方向調整手段605を周期的に走査することで行ってもよい。また、一旦、手や指などの対象物を認識した後は、前記認識した対象物を追跡するように、投射方向調整手段605を動作させてもよい。   The operation is as follows. As shown in FIG. 7A, the imaging means (camera) 606 inside the interface device 701 recognizes the position of the hand or finger performing the gesture. The recognition may be performed, for example, by periodically scanning the projection direction adjusting unit 605. In addition, once a target such as a hand or a finger is recognized, the projection direction adjusting unit 605 may be operated so as to track the recognized target.

次に、図7(b)に示すように、必要に応じて投射方向調整手段(方向可変構造を有する光学系)605により方向を変えた赤外投射光704を、手703に向かって投射する。認識の方式は、例えば、単眼のカメラの場合、タイムオブフライト方式、位相差方式等の方法を用いることができる。後述する別部分にカメラを設ける方式では、三角測量方式も使用することができる。   Next, as shown in FIG. 7B, the infrared projection light 704 whose direction is changed by the projection direction adjusting means (an optical system having a direction variable structure) 605 as necessary is projected toward the hand 703. . As the recognition method, for example, in the case of a monocular camera, a time-of-flight method, a phase difference method, or the like can be used. A triangulation method can also be used in a method in which a camera is provided in another part described later.

この手順で読み取った手や指の位置に応じて、操作し易い方向に向けて、操作用の画像を投射することが好ましい。そこで、図7(c)では、画像回転手段603により、つぎに投射する投射画像707の方向を最適化している。そして、図7(d)に示すように、投射画像(可視光)707を投射する。この画像に対する人のジェスチャーに応じて、何らかのアクションを行うことになる。この例では画像投射された選択肢を選ぶという動作になる。このように、本実施形態によると、インタラクティブな操作が可能となる。以上は投射画像を使ってアクションを行う例の説明であるが、単なるジェスチャーの入力で他のものをコントロールするだけでもよい。   According to the position of the hand or finger read in this procedure, it is preferable to project an operation image in a direction that is easy to operate. Therefore, in FIG. 7C, the direction of the projection image 707 to be projected next is optimized by the image rotation means 603. Then, as shown in FIG. 7D, a projection image (visible light) 707 is projected. Some action is performed according to the gesture of the person with respect to this image. In this example, the operation is to select an image-projected option. Thus, according to the present embodiment, an interactive operation is possible. The above is an explanation of an example in which an action is performed using a projected image, but it is also possible to control other things simply by inputting a gesture.

このように、本実施形態においては、ユーザ(操作を行おうとしている人)がアクセスする方向が、例えば、装置が初期に設定する画像の方向と異なっていた場合、体や手の位置を認識することにより、画像投射の方向を回転させ最適な位置に向けることが可能である。これに対し、関連する技術では、投射画像の輝度低下を起こさずに最適な位置に向けることは難しい。図17において、501は小型プロジェクタ、502は投射画像範囲、503はその一部を使った投射画像である。このように、人の方向に合わせようとすると、関連する技術では画像の制御は投射画像の一部を使って制御せざるを得ない。アンビエント型インターフェースでは、投射対象の形や位置が一定ではないために、その形や位置に合わせて投射画像を変えねばならず、より大きな投射範囲の一部を用いてこれを実現している。投射画像の明るさは投射面積に反比例する。従って、関連する技術において、このような使用形態では、画像は不必要に暗くなってしまう。本実施形態のような動作を行えることは、機械が人とその動きを認識して自律的に働きかけるアンビエント型インターフェースには重要であり、従って、本実施形態のインターフェース装置は、アンビエント型インターフェースに好適に対応させることができる。   As described above, in the present embodiment, when the direction in which the user (the person who is going to perform the operation) accesses is different from, for example, the direction of the image initially set by the device, the position of the body or hand is recognized. By doing so, it is possible to rotate the direction of image projection so as to be directed to an optimum position. On the other hand, with the related technology, it is difficult to direct the projected image to the optimum position without causing a decrease in luminance. In FIG. 17, reference numeral 501 denotes a small projector, 502 denotes a projection image range, and 503 denotes a projection image using a part thereof. In this way, when trying to match the direction of the person, the related technology has to control the image using a part of the projection image. In the ambient type interface, since the shape and position of the projection target are not constant, it is necessary to change the projection image according to the shape and position, and this is realized by using a part of a larger projection range. The brightness of the projected image is inversely proportional to the projected area. Therefore, in the related technique, in such a usage pattern, the image becomes unnecessarily dark. The ability to perform the operation as in this embodiment is important for an ambient type interface in which a machine recognizes a person and its movement and works autonomously. Therefore, the interface device of this embodiment is suitable for an ambient type interface. It can be made to correspond.

(実施形態3)
図8は、本発明のインターフェース装置における画像投射手段である、レーザプロジェクタ部分の一実施形態を示した図である。本発明のインターフェース装置における画像投射手段としては、例えば、小型プロジェクタを用いることができる。前記プロジェクタには、いくつか方式があるが、大別するとLEDを光源にするものと、レーザを光源にするものとに分けられる。LED型は光源自体の大きさのために、その光自体を走査することが不可能なために、DMD(デジタル・マイクロミラー・デバイス)やSiチップを画像変調に用いる反射型の小型液晶ディスプレイであるLCOS(Liquid crystal on silicon)等の面型の素子を用いて光の変調を行っている。レーザ型は前述したDMDやLCOSを用いる方式の他に小型のミラーを走査してビーム自体を走査する方式もある。LED型とレーザ型の最も大きな違いは、LED型は投射レンズによる焦点調節が必要であり、斜めや曲面になった面に投射する場合には全面で焦点を合わせることが不可能であるのに対し、レーザ型はレーザが実用的な範囲において焦点調節が不要であるということである。
(Embodiment 3)
FIG. 8 is a diagram showing an embodiment of a laser projector portion which is an image projection means in the interface apparatus of the present invention. As the image projection means in the interface apparatus of the present invention, for example, a small projector can be used. There are several types of projectors, but the projectors can be roughly classified into those using LEDs as light sources and those using lasers as light sources. The LED type is a reflective small liquid crystal display that uses DMD (digital micromirror device) or Si chip for image modulation because it cannot scan the light itself because of its size. Light is modulated using a surface element such as a certain LCOS (Liquid crystal on silicon). In addition to the above-described method using DMD or LCOS, the laser type includes a method of scanning a small mirror to scan the beam itself. The biggest difference between the LED type and the laser type is that the LED type needs to be focused by a projection lens, and it is impossible to focus on the entire surface when projecting to an oblique or curved surface. On the other hand, the laser type means that focus adjustment is not necessary within the practical range of the laser.

図8に示すように、本実施形態のレーザプロジェクタは、緑色半導体レーザ801、青色半導体レーザ802、赤色半導体レーザ803、赤外半導体レーザ804を有している。これらのレーザから出た光はそれぞれコリメートレンズ805で整形され、ミラー806、ダイクロイックミラー807によって合成され、回転機構付きホモジナイザ808に入射する。ホモジナイザ808の役割は、後述する変調素子の形状に合わせてビームを整形することと、回転機構により、その投射画像を回転することであり、本発明の画像回転手段に相当する。ホモジナイザ808を出た光はレンズ系809に入射した後、偏光ビームスプリッタ810に入る。元々レーザから出た光は一方向に偏光されており、ここでほとんどの光が反射されて、LCOS811に入射する。LCOS811が実装されている台812は回転機構を有している。LCOS811で変調、反射された光は再び偏光ビームスプリッタ810に入射し、投射レンズ813を通して投射される。814がその投射光を表している。   As shown in FIG. 8, the laser projector of this embodiment includes a green semiconductor laser 801, a blue semiconductor laser 802, a red semiconductor laser 803, and an infrared semiconductor laser 804. Light emitted from these lasers is shaped by a collimator lens 805, synthesized by a mirror 806 and a dichroic mirror 807, and incident on a homogenizer 808 with a rotation mechanism. The role of the homogenizer 808 is to shape the beam in accordance with the shape of a modulation element to be described later, and to rotate the projection image by a rotation mechanism, and corresponds to the image rotation means of the present invention. The light exiting the homogenizer 808 enters the lens system 809 and then enters the polarization beam splitter 810. The light originally emitted from the laser is polarized in one direction, and most of the light is reflected here and enters the LCOS 811. The table 812 on which the LCOS 811 is mounted has a rotation mechanism. The light modulated and reflected by the LCOS 811 again enters the polarization beam splitter 810 and is projected through the projection lens 813. Reference numeral 814 represents the projection light.

LCOS811は、時分割で駆動される素子であり、この場合、緑、青、赤、赤外の光はそれぞれ時間を区切って投射される。また、光源がレーザという点光源であるので、投射レンズはあるものの、実用的な範囲で焦点調節の必要のない画像が得られる。また、走査素子を使ってレーザビームを振る方式と異なり、レーザ光に対する法的規制が低減されるため、より明るい光を投射することが可能である。条件にもよるが、数百ルーメンの明るさを得ることが可能であり、ビームを走査する方式より、1桁程度明るい画像の表示が可能である。   The LCOS 811 is an element that is driven in a time division manner. In this case, green, blue, red, and infrared light are projected at time intervals. In addition, since the light source is a point light source such as a laser, an image that does not require focus adjustment within a practical range can be obtained although there is a projection lens. In addition, unlike a method of using a scanning element to oscillate a laser beam, legal regulations on laser light are reduced, so that brighter light can be projected. Although depending on the conditions, it is possible to obtain a brightness of several hundreds of lumens and display an image that is about one digit brighter than the beam scanning method.

本発明における画像回転手段である前記回転機構について、図9を用いて更に詳細に説明する。図9(a)は、回転機構付きホモジナイザ808、LCOS811とそれが実装された回転機構付き台812、偏光ビームスプリッタ810、投射レンズ813の部分のみを示す斜視図である。図9(b)において、901は回転機構付き台812の最初の位置、902は回転機構付きホモジナイザ808によって回転して投射された照明光の位置を示している。回転機構付きホモジナイザ808と回転機構付き台812が協調して回転することにより、このように、LCOS811の回転に合わせて投射光も形を維持しながら回転し、画像を投射レンズ813を通して投射できる。これにより画像の回転がなされる。   The rotation mechanism that is the image rotation means in the present invention will be described in more detail with reference to FIG. FIG. 9A is a perspective view showing only a homogenizer 808 with a rotation mechanism, an LCOS 811, a table 812 with a rotation mechanism on which it is mounted, a polarization beam splitter 810, and a projection lens 813. In FIG. 9B, 901 indicates the initial position of the table 812 with a rotation mechanism, and 902 indicates the position of the illumination light projected by rotation by the homogenizer 808 with the rotation mechanism. When the homogenizer 808 with a rotation mechanism and the table 812 with a rotation mechanism rotate in a coordinated manner, the projection light also rotates while maintaining its shape in accordance with the rotation of the LCOS 811, and an image can be projected through the projection lens 813. As a result, the image is rotated.

(実施形態4)
図10に回転機構を設けなくても画像の回転ができる方式の一例を示す。図10(a)は、ホモジナイザ1001、LCOS811とそれが実装された台1002、偏光ビームスプリッタ810、投射レンズ813の部分のみを示す斜視図である。図9に示した方式との違いは、ホモジナイザ1001が略円形の光を形成し回転機構がないこと、および、LCOS811の台1002に回転機構がないことである。これにより、図10(b)に示すように、LCOS811上の照明光1003が略円形となり、必然的に投射画像も略円形となる。このように、一部照射がなされない領域はでるものの、光のロスは、投射画像が長方形や正方形である場合に比べて小さく、明るい投射が可能である。
(Embodiment 4)
FIG. 10 shows an example of a method that can rotate an image without providing a rotation mechanism. FIG. 10A is a perspective view showing only the homogenizer 1001, the LCOS 811, the stage 1002 on which the homogenizer 1001 is mounted, the polarization beam splitter 810, and the projection lens 813. The difference from the method shown in FIG. 9 is that the homogenizer 1001 forms substantially circular light and has no rotation mechanism, and the LCOS 811 base 1002 has no rotation mechanism. As a result, as shown in FIG. 10B, the illumination light 1003 on the LCOS 811 has a substantially circular shape, and the projection image necessarily has a substantially circular shape. As described above, although a region where partial irradiation is not performed appears, the light loss is small compared to the case where the projection image is a rectangle or a square, and bright projection is possible.

投射画像が略円形である場合のメリットを、図11を用いて説明する。図11(a)に示すように、最初の投射画像1101が人の手1102に対して適切でない方向を向いていたとしても、機械的な回転を用いずに、画像データのみを適切な形に変換することにより、最適な方向への画像投射が可能となる(投射画像1103)。これも、アンビエント型の表示として好ましい態様である。   Advantages when the projected image is substantially circular will be described with reference to FIG. As shown in FIG. 11A, even if the first projected image 1101 is oriented in an inappropriate direction with respect to the human hand 1102, only the image data is converted into an appropriate form without using mechanical rotation. By converting, it is possible to project an image in the optimum direction (projected image 1103). This is also a preferable aspect as an ambient type display.

(実施形態5)
図12に、実施形態5のインターフェース装置を示す。本実施形態は、図6に示す実施形態2のインターフェース装置の構成に沿ったものである。図12に示すように、本実施形態のインターフェース装置は、画像投射手段、撮像手段、光分離手段、および、投射方向調整手段(方向可変機構付きレンズ1513)を有している。1514は投射光である。前記画像投射手段は、青、緑、赤、赤外のレーザを光源要素とする光源1501、ミラー1502、レーザプロジェクタの課題の一つであるスペックルノイズを低減するための振動板からなるデスペックラ1503、回転機構付きホモジナイザ1504、レンズ系1505、偏光ビームスプリッタ1506、LCOS1507、および、回転機構付き台1508を有している。前記撮像手段は、カメラ1511およびカメラのレンズ系1510を有している。物体からの反射信号光を撮像手段(カメラ1511、カメラのレンズ系1510)に導く偏光ビームスプリッタ1509は、前記光分離手段である。投射レンズ1512の位置は、2つの偏光ビームスプリッタ1506と1509の間であってもよい。全体がコンパクトにまとまるように、構成要素を配置してある。この場合、カメラ1511は最初の物体の画像認識とその物体の赤外パターン認識の両方に用いられる。デスペックラ1503はあれば好ましいが、必須の構成要素ではなく、これは、以下の実施形態でも同様である。また、前記画像投射手段と前記撮像手段とは、光学的に同一軸上にあることが好ましい。本実施形態のインターフェース装置では、例えば、方向可変機構付きレンズ1513を周期的に走査することにより、前記物体の画像認識を行ってもよい。また、一旦、前記物体を認識した後は、前記認識した物体を追跡するように、方向可変機構付きレンズ1513を動作させてもよい。
(Embodiment 5)
FIG. 12 shows an interface apparatus according to the fifth embodiment. This embodiment is in accordance with the configuration of the interface device of the second embodiment shown in FIG. As shown in FIG. 12, the interface apparatus of this embodiment has an image projection means, an imaging means, a light separation means, and a projection direction adjustment means (lens 1513 with a direction variable mechanism). Reference numeral 1514 denotes projection light. The image projecting means includes a light source 1501 having a blue, green, red, and infrared laser as light source elements, a mirror 1502, and a despeckle 1503 including a diaphragm for reducing speckle noise, which is one of the problems of laser projectors. , A homogenizer 1504 with a rotation mechanism, a lens system 1505, a polarization beam splitter 1506, an LCOS 1507, and a table 1508 with a rotation mechanism. The imaging means includes a camera 1511 and a camera lens system 1510. A polarization beam splitter 1509 that guides reflected signal light from an object to imaging means (camera 1511, camera lens system 1510) is the light separation means. The position of the projection lens 1512 may be between the two polarizing beam splitters 1506 and 1509. The components are arranged so that the whole is compact. In this case, the camera 1511 is used for both the image recognition of the first object and the infrared pattern recognition of the object. Although the despecula 1503 is preferable, it is not an essential component, and this is the same in the following embodiments. Further, it is preferable that the image projection unit and the imaging unit are optically on the same axis. In the interface device of this embodiment, for example, the object may be recognized by scanning the lens 1513 with a direction variable mechanism periodically. In addition, once the object is recognized, the direction variable mechanism-equipped lens 1513 may be operated so as to track the recognized object.

(実施形態6)
図13に、実施形態6のインターフェース装置を示す。図13に示すように、本実施形態のインターフェース装置は、画像投射手段、撮像手段、および、投射方向調整手段(方向可変機構付きレンズ1613)を有している。1614は投射光である。前記画像投射手段は、青、緑、赤、赤外のレーザを光源要素とする光源1601、ミラー1602、レーザプロジェクタの課題の一つであるスペックルノイズを低減するための振動板からなるデスペックラ1603、回転機構付きホモジナイザ1604、レンズ系1605、偏光ビームスプリッタ1606、LCOS1607、回転機構付き台1608、および、投射レンズ1609を有している。前記撮像手段は、カメラ1612およびカメラ用広角レンズ1610を有しており、1611は画角を示す。実施形態5と異なる点は、撮像手段(カメラ系)が分離されていることである。投射系の場合、先に述べたように方向をしぼらなければ非常に暗くなるため広角にはできないが、カメラ系では広角にすることは可能である。この例では、投射系とカメラ系の位置の違いを利用して、三角測量を応用した3次元測量も可能である。
(Embodiment 6)
FIG. 13 shows an interface apparatus according to the sixth embodiment. As shown in FIG. 13, the interface apparatus according to the present embodiment includes an image projection unit, an imaging unit, and a projection direction adjustment unit (lens 1613 with a direction variable mechanism). Reference numeral 1614 denotes projection light. The image projecting means includes a light source 1601 having blue, green, red, and infrared lasers as light source elements, a mirror 1602, and a despeckler 1603 including a diaphragm for reducing speckle noise, which is one of the problems of laser projectors. , A homogenizer 1604 with a rotation mechanism, a lens system 1605, a polarizing beam splitter 1606, an LCOS 1607, a stand 1608 with a rotation mechanism, and a projection lens 1609. The imaging means has a camera 1612 and a camera wide-angle lens 1610, and 1611 indicates an angle of view. The difference from the fifth embodiment is that the imaging means (camera system) is separated. In the case of the projection system, as described above, if the direction is not narrowed, it becomes very dark and cannot be made wide angle. However, in the camera system, it is possible to make wide angle. In this example, it is possible to perform a three-dimensional survey using triangulation using the difference in position between the projection system and the camera system.

(実施形態7)
図14に、実施形態7のインターフェース装置を示す。図14に示すように、本実施形態のインターフェース装置は、画像投射手段、撮像手段、および、投射方向調整手段(方向可変機構付きミラー1713)を有している。1714は投射光である。前記画像投射手段は、青、緑、赤、赤外のレーザを光源要素とする光源1701、ミラー1702、レーザプロジェクタの課題の一つであるスペックルノイズを低減するための振動板からなるデスペックラ1703、回転機構付きホモジナイザ1704、レンズ系1705、偏光ビームスプリッタ1706、LCOS1707、回転機構付き台1708、および、投射レンズ1719を有している。前記撮像手段は、カメラ1712およびカメラ用広角レンズ1710を有しており、1711は画角を示す。本実施形態は、投射方向調整手段(方向可変光学系)の主要素が、ミラーである場合の形態の一例である。他の基本的構成要素は図13に示す例と同様である。
(Embodiment 7)
FIG. 14 shows an interface apparatus according to the seventh embodiment. As shown in FIG. 14, the interface apparatus of the present embodiment includes an image projection unit, an imaging unit, and a projection direction adjustment unit (mirror 1713 with a direction variable mechanism). Reference numeral 1714 denotes projection light. The image projecting means is a despeckle 1703 comprising a light source 1701, a mirror 1702, and a diaphragm for reducing speckle noise, which is one of the problems of a laser projector, using blue, green, red, and infrared lasers as light source elements. , A homogenizer 1704 with a rotation mechanism, a lens system 1705, a polarization beam splitter 1706, an LCOS 1707, a stand 1708 with a rotation mechanism, and a projection lens 1719. The imaging means has a camera 1712 and a camera wide-angle lens 1710, and 1711 indicates an angle of view. The present embodiment is an example of a form in which the main element of the projection direction adjusting means (direction variable optical system) is a mirror. Other basic components are the same as those shown in FIG.

(実施形態8)
以上の実施形態においては、画像を形成する素子にLCOSを用いるものについて説明したが、DMD(デジタル・マイクロミラー・デバイス)型でも、前述の実施形態と同様なことが可能である。また、前述したように明るさは劣るものの、走査型のプロジェクタにおいても、前述の実施形態と同様の投射方向調整手段(方向可変光学系)の適用が可能である。図15に、その実施形態の一例を示す。図15に示すように、本実施形態のインターフェース装置は、画像投射手段、撮像手段、および、投射方向調整手段(方向可変機構付きミラー1806)を有している。1807は投射光である。前記画像投射手段は、青、緑、赤、赤外のレーザを光源要素とする光源1801、および、水平、垂直にビームを走査する能力を有し、少なくとも画像を回転させる機構を有する走査系1802を有している。走査系1802は、MEMS(Micro Electro Mechanical Systems)などで形成される。前記撮像手段は、カメラ1805およびカメラ用広角レンズ1803を有しており、1804は画角を示す。前述したように走査素子型の場合、走査素子が小さいため、それ自体の方向を変える機構を設けることも可能であるが、ミラーやレンズ単体の方が小型かつ質量が小さいため、より小型化することが可能である。
(Embodiment 8)
In the above embodiment, description has been made of using LCOS as an element for forming an image. However, a DMD (digital micromirror device) type can be used in the same manner as in the above embodiment. In addition, although the brightness is inferior as described above, the same projection direction adjusting means (direction variable optical system) as in the above-described embodiment can be applied to a scanning projector. FIG. 15 shows an example of the embodiment. As shown in FIG. 15, the interface device of the present embodiment includes an image projection unit, an imaging unit, and a projection direction adjustment unit (mirror 1806 with a direction variable mechanism). Reference numeral 1807 denotes projection light. The image projection means has a light source 1801 having blue, green, red, and infrared lasers as light source elements, and a scanning system 1802 having the ability to scan the beam horizontally and vertically, and at least a mechanism for rotating the image. have. The scanning system 1802 is formed of MEMS (Micro Electro Mechanical Systems) or the like. The imaging means includes a camera 1805 and a camera wide-angle lens 1803, and 1804 indicates a field angle. As described above, in the case of the scanning element type, since the scanning element is small, it is possible to provide a mechanism for changing the direction of the scanning element type. It is possible.

また、以上の実施形態では、プロジェクタは全てレーザプロジェクタであったが、非常に狭い範囲だけでしか動作させないのであれば、LED型のプロジェクタも実用に供する。その際でも画像の方向を変えることのできる機能は、機械が自律的に人に働きかけるアンビエント型の特性を有することになる。   In the above embodiments, the projectors are all laser projectors. However, if the projectors are operated only in a very narrow range, LED projectors are also practically used. Even in this case, the function that can change the direction of the image has an ambient type characteristic that the machine autonomously works on the person.

以上、実施形態を例示して説明したとおり、本発明のインターフェース装置は、動作範囲を広くすることが可能である。対象物となるもの、例えば、手がカメラの画角から外れるような動きをする場合、手の動く方向に投射方向調整手段を制御して向けて、追跡することにより、幅広い領域での動作をカバーすることができる。また、3次元的に対象を計測してジェスチャーを認識する際に投射する認識用のパターンを対象の位置によって可変できるため、常に最適なパターンを投射することが可能で、奥行き方向の動作範囲も拡大できる。   As described above, the interface device of the present invention can widen the operating range, as described by exemplifying the embodiments. When the target object moves, for example, when the hand moves out of the angle of view of the camera, the projection direction adjusting means is controlled and directed in the direction of movement of the hand to track the movement in a wide area. Can be covered. In addition, the recognition pattern that is projected when recognizing a gesture by measuring the object three-dimensionally can be varied depending on the position of the object, so that an optimum pattern can always be projected, and the operating range in the depth direction is also Can be expanded.

また、装置の小型化が容易である。投射方向調整手段の主たる部分は、例えば、ミラーやレンズのような、小型かつ質量が小さい部材を使用可能であるので、これを駆動する機械系も非常に小さくて済む。従来のように、プロジェクタとカメラとの組合せそのものの方向を可変する機構を考えれば、その差は明らかである。   In addition, the device can be easily downsized. As the main part of the projection direction adjusting means, for example, a small and low-weight member such as a mirror or a lens can be used, so that the mechanical system for driving it can be very small. The difference is obvious when considering a mechanism for changing the direction of the combination of the projector and the camera as in the prior art.

さらに、人の動作に対しての追随性を良好にすることが可能である。前述した投射方向調整手段により、速い応答性を持たせることが容易である。特に装置に対して対象物となる手などが近くにある場合、この高速応答性は大きな効果となる。   Furthermore, it is possible to improve the followability to human movement. It is easy to give quick response by the projection direction adjusting means described above. In particular, when a hand or the like that is an object is close to the apparatus, this high-speed response is very effective.

また、認識精度を向上することも可能である。本発明では対象物を正面でとらえ、かつ認識パターンを奥行きに対して動的に変化させることが可能であり、常に最適な密度のパターンを投射することができる。これにより、対象物の3次元的測定精度を一定に保つことが可能であり、距離に対する精度劣化を防ぐことができる。   It is also possible to improve recognition accuracy. In the present invention, it is possible to capture an object in front and to dynamically change the recognition pattern with respect to the depth, and it is possible to always project a pattern having an optimum density. As a result, the three-dimensional measurement accuracy of the object can be kept constant, and deterioration in accuracy with respect to the distance can be prevented.

さらにまた、投射画像を提示する態様においては、明るい投射画像を適切な方向に投射することが可能である。対象物の動く方向に投射方向調整手段を制御して向けて、追跡することが可能であり、不必要な部分に画像を投射することがないため、高輝度とすることができる。また、画像回転手段を有することで、人に対して適切な方向に画像を投射することが可能である。   Furthermore, in the aspect which presents a projected image, it is possible to project a bright projected image in an appropriate direction. The projection direction adjusting means can be controlled and directed in the direction in which the object moves, and an image is not projected onto an unnecessary portion, so that the brightness can be increased. Further, by having the image rotation means, it is possible to project an image in an appropriate direction with respect to a person.

以上説明したように、本発明のインターフェース装置およびインターフェース装置の駆動方法は、小型で、精度よく広い認識領域で人等の対象物を認識することが可能なインターフェースを提供可能である。すなわち、本発明によれば人の動作を機械が認識し、自律的かつ的確に情報を映像として伝えることが可能なアンビエント型のインターフェースを提供することができる。本発明のインターフェース装置およびインターフェース装置の駆動方法の用途としては、これに限られず、例えば、デジタルサイネージ、PC、タブレット端末、会議室や家庭での機器制御等があげられる。ただし、その用途は限定されず、広い分野に適用可能である。   As described above, the interface device and the driving method of the interface device of the present invention can provide an interface that is small and can accurately recognize an object such as a person in a wide recognition area. That is, according to the present invention, it is possible to provide an ambient type interface in which a machine recognizes a human motion and can autonomously and accurately convey information as a video. Applications of the interface device and the driving method of the interface device of the present invention are not limited to this, and examples include digital signage, PCs, tablet terminals, conference room and home appliance control. However, its use is not limited and can be applied to a wide range of fields.

上記の実施形態の一部または全部は、以下の付記のようにも記載しうるが、以下には限定されない。   A part or all of the above embodiment can be described as in the following supplementary notes, but is not limited to the following.

(付記1)
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含み、
前記画像投射手段は、対象物を検出するための検出光を発する光源を含み、
前記撮像手段により、前記対象物の位置が認識され、
前記投射方向調整手段により、前記画像投射手段から投射される画像の投射方向を、前記認識された対象物の位置に応じて移動可能とし、
前記画像投射手段により、前記対象物に前記検出光の画像が投射され、
前記撮像手段により、前記検出光の画像が認識され、
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とが制御され、かつ、前記撮像手段により認識された検出光の画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号が発せられる、インターフェース装置。
(Appendix 1)
Including image projection means, imaging means, projection direction adjustment means, and control means,
The image projection means includes a light source that emits detection light for detecting an object,
The position of the object is recognized by the imaging means,
By the projection direction adjusting means, the projection direction of the image projected from the image projecting means can be moved according to the position of the recognized object,
The image projection means projects an image of the detection light onto the object,
The image of the detection light is recognized by the imaging means,
The control means controls the image projection means, the imaging means, and the projection direction adjustment means, and in advance according to the state of the detection light image recognized by the imaging means, with respect to the state. An interface device in which a signal for performing a predetermined operation is issued.

(付記2)
前記画像投射手段は、さらに、可視光を発する光源を有している、付記1記載のインターフェース装置。
(Appendix 2)
The interface device according to appendix 1, wherein the image projection unit further includes a light source that emits visible light.

(付記3)
前記撮像手段は、前記画像投射手段からの投射画像の反射光のうち、前記検出光の反射光を分離する光分離手段を有し、前記画像投射手段と前記撮像手段とが光学的に同一軸上にある、付記2記載のインターフェース装置。
(Appendix 3)
The imaging means includes a light separating means for separating the reflected light of the detection light from the reflected light of the projection image from the image projecting means, and the image projecting means and the imaging means are optically on the same axis. The interface device according to Appendix 2, above.

(付記4)
前記撮像手段は、広角のレンズ系を有し、前記画像投射手段と分離された位置に設置されている、付記1または2記載のインターフェース装置。
(Appendix 4)
The interface apparatus according to appendix 1 or 2, wherein the imaging unit has a wide-angle lens system and is installed at a position separated from the image projection unit.

(付記5)
前記画像投射手段は、画像回転手段を有している、付記1から4のいずれかに記載のインターフェース装置。
(Appendix 5)
The interface apparatus according to any one of appendices 1 to 4, wherein the image projection unit includes an image rotation unit.

(付記6)
さらに、画像を変調する変調素子を有し、
前記変調素子は、面型の素子であって、
前記画像回転手段は、前記変調素子の面と照射面積が略同一の大きさの照射光を導くホモジナイザを有し、
前記変調素子を実装した台の回転に同期して、前記ホモジナイザが前記変調素子に同一面積の照射光を照射可能となるように回転する、
付記5記載のインターフェース装置。
(Appendix 6)
Furthermore, it has a modulation element for modulating an image,
The modulation element is a planar element,
The image rotation means has a homogenizer that guides irradiation light having an irradiation area substantially the same as the surface of the modulation element,
Synchronously with the rotation of the stage on which the modulation element is mounted, the homogenizer rotates so that the modulation element can be irradiated with irradiation light of the same area.
The interface device according to appendix 5.

(付記7)
さらに、画像を変調する変調素子を有し、
前記変調素子は、面型の素子であって、
前記画像投射手段は、略円形の照射光を前記変調素子に照射可能なホモジナイザを有し、
画像信号の変換により、画像の回転が行われる、
付記1から4のいずれかに記載のインターフェース装置。
(Appendix 7)
Furthermore, it has a modulation element for modulating an image,
The modulation element is a planar element,
The image projection means has a homogenizer capable of irradiating the modulation element with substantially circular irradiation light,
The image is rotated by converting the image signal.
The interface device according to any one of appendices 1 to 4.

(付記8)
前記投射方向調整手段は、レンズを有し、
前記レンズは、前記画像投射手段に対する傾斜角を調整可能であるとともに、回転可能である、
付記1から7のいずれかに記載のインターフェース装置。
(Appendix 8)
The projection direction adjusting means has a lens,
The lens is capable of adjusting an inclination angle with respect to the image projecting means and is rotatable.
The interface device according to any one of appendices 1 to 7.

(付記9)
前記レンズは、球面を有するレンズ支持体に取り付けられ、
前記レンズ支持体は、その周囲をリング状の支持部で支持され、
前記支持部は、前記レンズ支持体が回転可能となるように、その内側に少なくとも一対の駆動手段を有している、
付記8記載のインターフェース装置。
(Appendix 9)
The lens is attached to a lens support having a spherical surface;
The lens support is supported by a ring-shaped support portion around the lens support,
The support portion has at least a pair of driving means on the inside thereof so that the lens support body can rotate.
The interface device according to appendix 8.

(付記10)
前記投射方向調整手段は、ミラーを有し、
前記ミラーは、前記画像投射手段に対する傾斜角を調整可能であるとともに、回転可能である、
付記1から7のいずれかに記載のインターフェース装置。
(Appendix 10)
The projection direction adjusting means has a mirror,
The mirror is capable of adjusting an inclination angle with respect to the image projection means and is rotatable.
The interface device according to any one of appendices 1 to 7.

(付記11)
前記光源が、青色光、緑色光、赤色光の可視光を出力する可視光光源と、赤外光を出力する赤外光光源とを含み、
前記可視光光源および前記赤外光光源が半導体レーザである、
付記1から10のいずれかに記載のインターフェース装置。
(Appendix 11)
The light source includes a visible light source that outputs visible light of blue light, green light, and red light, and an infrared light source that outputs infrared light,
The visible light source and the infrared light source are semiconductor lasers;
The interface device according to any one of appendices 1 to 10.

(付記12)
前記画像投射手段が、走査素子による走査型である、
付記1から11のいずれかに記載のインターフェース装置。
(Appendix 12)
The image projection means is a scanning type by a scanning element,
The interface device according to any one of appendices 1 to 11.

(付記13)
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含むインターフェース装置を用い、
前記撮像手段により、対象物の位置を認識する対象物認識工程と、
前記投射方向調整手段により、前記画像投射手段から投射する画像の投射方向を、前記認識された対象物の位置に応じて移動可能とする投射方向調整工程と、
前記画像投射手段により、前記対象物に前記検出光の画像を投射する検出画像投射工程と、
前記撮像手段により、前記検出光の画像を認識する画像認識工程と、
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含む、インターフェース装置の駆動方法。
(Appendix 13)
Using an interface device including an image projection unit, an imaging unit, a projection direction adjustment unit, and a control unit,
An object recognition step of recognizing the position of the object by the imaging means;
A projection direction adjusting step for allowing the projection direction of the image projected from the image projection unit to be moved by the projection direction adjusting unit according to the position of the recognized object;
A detection image projection step of projecting an image of the detection light onto the object by the image projection means;
An image recognition step of recognizing an image of the detection light by the imaging means;
The control means controls the image projection means, the imaging means, and the projection direction adjustment means, and is predetermined for the state according to the state of the image recognized in the image recognition step. An interface device driving method including an operation step of generating a signal for performing a predetermined operation.

(付記14)
前記対象物が、人の部位の一部であり、
前記対象物認識工程において、前記撮像手段により、前記対象物の動きを認識し、
前記投射方向調整工程は、前記対象物認識工程において、前記対象物が前記撮像手段の画角から外れるように動くと予測される場合、前記撮像手段の画角から外れないように、前記対象物の動く方向に投射方向調整手段を制御して向ける工程を含み、
前記画像認識工程は、前記対象物に対して投射された検出光の画像の、前記対象物からの反射パターンを前記撮像手段で読み取ることにより、前記対象物の3次元計測を行う3次元計測工程を含み、
さらに、
前記対象物の状態を認識して、前記人の位置を感知し、前記人の位置に応じた最適な方向に画像を回転させる画像回転工程と、
前記画像投射手段から可視光の画像を投射する可視光画像投射工程とを含む、付記13記載のインターフェース装置の駆動方法。
(Appendix 14)
The object is part of a human part;
In the object recognition step, the imaging means recognizes the movement of the object,
In the object recognition step, the projection direction adjustment step may be configured to prevent the object from deviating from the angle of view of the imaging unit when the object is predicted to move away from the angle of view of the imaging unit. Including controlling and directing the projection direction adjusting means in the moving direction of
In the image recognition step, a three-dimensional measurement step of performing a three-dimensional measurement of the object by reading a reflection pattern from the object of an image of detection light projected onto the object by the imaging unit. Including
further,
An image rotation step of recognizing the state of the object, detecting the position of the person, and rotating the image in an optimal direction according to the position of the person;
The driving method of the interface device according to appendix 13, including a visible light image projecting step of projecting a visible light image from the image projecting unit.

(付記15)
前記対象物認識工程は、前記投射方向調整手段を周期的に走査して行い、一旦、対象物を認識した後は、前記認識した対象物を追跡するように動作する、
付記13または14記載のインターフェース装置の駆動方法。
(Appendix 15)
The object recognition step is performed by periodically scanning the projection direction adjusting means, and once the object is recognized, the object recognition process operates to track the recognized object.
15. A driving method of an interface device according to appendix 13 or 14.

(付記16)
前記対象物認識工程は、広角のレンズを具備した撮像手段によって行われる、
付記13から15のいずれかに記載のインターフェース装置の駆動方法。
(Appendix 16)
The object recognition step is performed by an imaging unit having a wide-angle lens.
16. A method for driving an interface device according to any one of appendices 13 to 15.

以上、実施形態および実施例を参照して本願発明を説明したが、本願発明は、上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解しうる様々な変更をすることができる。   Although the present invention has been described with reference to the exemplary embodiments and examples, the present invention is not limited to the above exemplary embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

この出願は、2012年1月24日に出願された日本出願特願2012−12159を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2012-12159 for which it applied on January 24, 2012, and takes in those the indications of all here.

100、600、701 インターフェース装置
101、601 画像投射手段
102、602、1501、1601、1701、1801 光源
105、605、1513、1613、1713、1806 投射方向調整手段
106、606 撮像手段
107、607 制御手段
108、608、1514、1614、1714、1807 投射光
109、609 反射光
401 赤外光パターン発生装置
402 赤外光パターン
403 カメラ
404、703、1102 対象物(手)
501 小型プロジェクタ
502 投射画像範囲
503、1101、1103 投射画像(可視光)
603 画像回転手段
604 光分離手段
702 画角
704 赤外投射光
705 赤外光パターン
706 画像回転手段の回転
707 投射画像(可視光)
801 緑色半導体レーザ
802 青色半導体レーザ
803 赤色半導体レーザ
804 赤外半導体レーザ
805 コリメートレンズ
806、1502、1602、1702 ミラー
807 ダイクロイックミラー
808、1504、1604、1704 回転機構付きホモジナイザ
809、1505、1605、1705 レンズ系
810、1506、1509、1606、1706 偏光ビームスプリッタ
811、1507、1607、1707 LCOS
812、1508、1608、1708 回転機構付き台
813、1512、1609、1719 投射レンズ
814 投射光
902、1003 照明光
1001 ホモジナイザ
1002 台
1201、1301 レンズ(投射方向調整手段)
1202 レンズホルダー
1203、1205、1304、1305、1402、1404 駆動手段
1204、1403 支持体
1206、1306、1405 投射光
1302 レンズ支持体
1303 支持部
1401 ミラー(投射方向調整手段)
1503、1603、1703 デスペックラ
1510 カメラのレンズ系
1511、1612、1712、1805 カメラ
1610、1710、1803 カメラ用広角レンズ
1611、1711、1804 画角
1802 走査系
100, 600, 701 Interface device 101, 601 Image projection means 102, 602, 1501, 1601, 1701, 1801 Light source 105, 605, 1513, 1613, 1713, 1806 Projection direction adjustment means 106, 606 Imaging means 107, 607 Control means 108, 608, 1514, 1614, 1714, 1807 Projected light 109, 609 Reflected light 401 Infrared light pattern generator 402 Infrared light pattern 403 Camera 404, 703, 1102 Object (hand)
501 Small projector 502 Projected image range 503, 1101, 1103 Projected image (visible light)
603 Image rotation means 604 Light separation means 702 Angle of view 704 Infrared projection light 705 Infrared light pattern 706 Rotation of image rotation means 707 Projected image (visible light)
801 Green semiconductor laser 802 Blue semiconductor laser 803 Red semiconductor laser 804 Infrared semiconductor laser 805 Collimate lens 806, 1502, 1602, 1702 Mirror 807 Dichroic mirror 808, 1504, 1604, 1704 Homogenizer with rotation mechanism 809, 1505, 1605, 1705 Lens System 810, 1506, 1509, 1606, 1706 Polarizing beam splitter 811, 1507, 1607, 1707 LCOS
812, 1508, 1608, 1708 Tables with rotation mechanism 813, 1512, 1609, 1719 Projection lens 814 Projection light 902, 1003 Illumination light 1001 Homogenizer 1002 Base 1201, 1301 Lens (Projection direction adjusting means)
1202 Lens holder 1203, 1205, 1304, 1305, 1402, 1404 Driving means 1204, 1403 Support body 1206, 1306, 1405 Projection light 1302 Lens support body 1303 Support section 1401 Mirror (projection direction adjusting means)
1503, 1603, 1703 Despecra 1510 Camera lens system 1511, 1612, 1712, 1805 Camera 1610, 1710, 1803 Wide angle lens 1611, 1711, 1804 Camera angle 1802 Scanning system

Claims (11)

画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含み、
前記画像投射手段は、対象物を検出するための検出光を発する光源を含み、
前記撮像手段により、前記対象物の位置が認識され、
前記投射方向調整手段により、前記画像投射手段から投射される画像の投射方向を、前記認識された対象物の位置に応じて移動可能とし、
前記画像投射手段により、前記対象物に前記検出光の画像が投射され、
前記撮像手段により、前記検出光の画像が認識され、
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とが制御され、かつ、前記撮像手段により認識された検出光の画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号が発せられ
記条件(2)を満たす、インターフェース装置

件(2):さらに、画像を変調する変調素子を有し、
前記変調素子は、面型の素子であって、
前記画像投射手段は、略円形の照射光を前記変調素子に照射可能なホモジナイザを有し、画像信号の変換により、画像の回転が行われる。
Including image projection means, imaging means, projection direction adjustment means, and control means,
The image projection means includes a light source that emits detection light for detecting an object,
The position of the object is recognized by the imaging means,
By the projection direction adjusting means, the projection direction of the image projected from the image projecting means can be moved according to the position of the recognized object,
The image projection means projects an image of the detection light onto the object,
The image of the detection light is recognized by the imaging means,
The control means controls the image projection means, the imaging means, and the projection direction adjustment means, and in advance according to the state of the detection light image recognized by the imaging means, with respect to the state. A signal to perform a predetermined operation is issued ,
Satisfy the following Symbol condition (2), the interface device.

Condition (2): further comprising a modulation element for modulating the image,
The modulation element is a planar element,
The image projection means has a homogenizer that can irradiate the modulation element with substantially circular irradiation light, and rotates the image by converting the image signal.
前記画像投射手段は、さらに、可視光を発する光源を有している、請求項1記載のインターフェース装置。The interface device according to claim 1, wherein the image projection unit further includes a light source that emits visible light. 前記撮像手段は、前記画像投射手段からの投射画像の反射光のうち、前記検出光の反射光を分離する光分離手段を有し、前記画像投射手段と前記撮像手段とが光学的に同一軸上にある、請求項2記載のインターフェース装置。The imaging means includes a light separating means for separating the reflected light of the detection light from the reflected light of the projection image from the image projecting means, and the image projecting means and the imaging means are optically on the same axis. The interface device according to claim 2, which is above. 前記撮像手段は、広角のレンズ系を有し、前記画像投射手段と分離された位置に設置されている、請求項1または2記載のインターフェース装置。The interface apparatus according to claim 1, wherein the imaging unit has a wide-angle lens system and is installed at a position separated from the image projection unit. 前記投射方向調整手段は、レンズを有し、
前記レンズは、前記画像投射手段に対する傾斜角を調整可能であるとともに、回転可能である、
請求項1から4のいずれか一項に記載のインターフェース装置。
The projection direction adjusting means has a lens,
The lens is capable of adjusting an inclination angle with respect to the image projecting means and is rotatable.
The interface device according to any one of claims 1 to 4.
前記レンズは、球面を有するレンズ支持体に取り付けられ、
前記レンズ支持体は、その周囲をリング状の支持部で支持され、
前記支持部は、前記レンズ支持体が回転可能となるように、その内側に少なくとも一対の駆動手段を有している、
請求項5記載のインターフェース装置。
The lens is attached to a lens support having a spherical surface;
The lens support is supported by a ring-shaped support portion around the lens support,
The support portion has at least a pair of driving means on the inside thereof so that the lens support body can rotate.
The interface device according to claim 5.
前記投射方向調整手段は、ミラーを有し、
前記ミラーは、前記画像投射手段に対する傾斜角を調整可能であるとともに、回転可能である、
請求項1から4のいずれか一項に記載のインターフェース装置。
The projection direction adjusting means has a mirror,
The mirror is capable of adjusting an inclination angle with respect to the image projection means and is rotatable.
The interface device according to any one of claims 1 to 4.
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含むインターフェース装置を用い、
前記撮像手段により、対象物の位置を認識する対象物認識工程と、
前記投射方向調整手段により、前記画像投射手段から投射する画像の投射方向を、前記認識された対象物の位置に応じて移動可能とする投射方向調整工程と、
前記画像投射手段により、前記対象物に前記検出光の画像を投射する検出画像投射工程と、
前記撮像手段により、前記検出光の画像を認識する画像認識工程と、
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とを制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態に対し定められた所定の動作を行う信号を発する動作工程とを含み
記条件(2)を満たす、インターフェース装置の駆動方法

件(2):前記インターフェース装置は、さらに、画像を変調する変調素子を有し、
前記変調素子は、面型の素子であって、
前記画像投射手段は、略円形の照射光を前記変調素子に照射可能なホモジナイザを有し、画像信号の変換により、画像の回転が行われる。
Using an interface device including an image projection unit, an imaging unit, a projection direction adjustment unit, and a control unit,
An object recognition step of recognizing the position of the object by the imaging means;
A projection direction adjusting step for allowing the projection direction of the image projected from the image projection unit to be moved by the projection direction adjusting unit according to the position of the recognized object;
A detection image projection step of projecting an image of the detection light onto the object by the image projection means;
An image recognition step of recognizing an image of the detection light by the imaging means;
The control means controls the image projection means, the imaging means, and the projection direction adjustment means, and is predetermined for the state according to the state of the image recognized in the image recognition step. An operation step for generating a signal for performing a predetermined operation ,
Satisfy the following Symbol condition (2), the driving method of the interface device.

Condition (2): wherein the interface device further includes a modulation element for modulating the image,
The modulation element is a planar element,
The image projection means has a homogenizer that can irradiate the modulation element with substantially circular irradiation light, and rotates the image by converting the image signal.
前記対象物が、人の部位の一部であり、
前記対象物認識工程において、前記撮像手段により、前記対象物の動きを認識し、
前記投射方向調整工程は、前記対象物認識工程において、前記対象物が前記撮像手段の画角から外れるように動くと予測される場合、前記撮像手段の画角から外れないように、前記対象物の動く方向に投射方向調整手段を制御して向ける工程を含み、
前記画像認識工程は、前記対象物に対して投射された検出光の画像の、前記対象物からの反射パターンを前記撮像手段で読み取ることにより、前記対象物の3次元計測を行う3次元計測工程を含み、
さらに、
前記対象物の状態を認識して、前記人の位置を感知し、前記人の位置に応じた最適な方向に画像を回転させる画像回転工程と、
前記画像投射手段から可視光の画像を投射する可視光画像投射工程とを含む、請求項8記載のインターフェース装置の駆動方法。
The object is part of a human part;
In the object recognition step, the imaging means recognizes the movement of the object,
In the object recognition step, the projection direction adjustment step may be configured to prevent the object from deviating from the angle of view of the imaging unit when the object is predicted to move away from the angle of view of the imaging unit. Including controlling and directing the projection direction adjusting means in the moving direction of
In the image recognition step, a three-dimensional measurement step of performing a three-dimensional measurement of the object by reading a reflection pattern from the object of an image of detection light projected onto the object by the imaging unit. Including
further,
An image rotation step of recognizing the state of the object, detecting the position of the person, and rotating the image in an optimal direction according to the position of the person;
The interface device driving method according to claim 8, further comprising: a visible light image projecting step of projecting a visible light image from the image projecting unit.
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含み、Including image projection means, imaging means, projection direction adjustment means, and control means,
前記画像投射手段は、対象物を検出するための検出光を発する光源を含み、The image projection means includes a light source that emits detection light for detecting an object,
前記撮像手段により、前記対象物の位置が認識され、The position of the object is recognized by the imaging means,
前記投射方向調整手段により、前記画像投射手段から投射される画像の投射方向を、前記The projection direction of the image projected from the image projection unit by the projection direction adjustment unit, 認識された対象物の位置に応じて移動可能とし、It can be moved according to the position of the recognized object,
前記画像投射手段により、前記対象物に前記検出光の画像が投射され、The image projection means projects an image of the detection light onto the object,
前記撮像手段により、前記検出光の画像が認識され、The image of the detection light is recognized by the imaging means,
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とがBy the control means, the image projection means, the imaging means, and the projection direction adjustment means are 制御され、かつ、前記撮像手段により認識された検出光の画像の状態に応じて、予め前記In accordance with the state of the image of the detection light that is controlled and recognized by the imaging means, 状態に対し定められた所定の動作を行う信号が発せられ、A signal is issued to perform a predetermined action for the state,
前記投射方向調整手段は、レンズを有し、The projection direction adjusting means has a lens,
前記レンズは、前記画像投射手段に対する傾斜角を調整可能であるとともに、回転可能でThe lens is capable of adjusting an inclination angle with respect to the image projection means and is rotatable. あり、Yes,
前記レンズは、球面を有するレンズ支持体に取り付けられ、The lens is attached to a lens support having a spherical surface;
前記レンズ支持体は、その周囲をリング状の支持部で支持され、The lens support is supported by a ring-shaped support portion around the lens support,
前記支持部は、前記レンズ支持体が回転可能となるように、その内側に少なくとも一対のThe support portion includes at least a pair of inner portions so that the lens support body can rotate. 駆動手段を有しており、Having drive means,
下記条件(1)を満たす、インターフェース装置。An interface device that satisfies the following condition (1).

条件(1):前記画像投射手段が、画像回転手段を有している。Condition (1): The image projection means has an image rotation means.
画像投射手段と、撮像手段と、投射方向調整手段と、制御手段とを含むインターフェースAn interface including image projection means, imaging means, projection direction adjustment means, and control means 装置を用い、Using the device,
前記撮像手段により、対象物の位置を認識する対象物認識工程と、An object recognition step of recognizing the position of the object by the imaging means;
前記投射方向調整手段により、前記画像投射手段から投射する画像の投射方向を、前記認The projection direction adjusting unit determines the projection direction of the image projected from the image projecting unit. 識された対象物の位置に応じて移動可能とする投射方向調整工程と、A projection direction adjustment step that allows movement according to the position of the identified object;
前記画像投射手段により、前記対象物に前記検出光の画像を投射する検出画像投射工程とA detection image projection step of projecting an image of the detection light onto the object by the image projection means; ,
前記撮像手段により、前記検出光の画像を認識する画像認識工程と、An image recognition step of recognizing an image of the detection light by the imaging means;
前記制御手段により、前記画像投射手段と、前記撮像手段と、前記投射方向調整手段とをThe control means causes the image projection means, the imaging means, and the projection direction adjustment means to 制御し、かつ、前記画像認識工程において認識した画像の状態に応じて、予め前記状態にIn accordance with the state of the image that is controlled and recognized in the image recognition step, 対し定められた所定の動作を行う信号を発する動作工程とを含み、An operation step for generating a signal for performing a predetermined operation for the
前記投射方向調整手段は、レンズを有し、The projection direction adjusting means has a lens,
前記レンズは、前記画像投射手段に対する傾斜角を調整可能であるとともに、回転可能でThe lens is capable of adjusting an inclination angle with respect to the image projection means and is rotatable. あり、Yes,
前記レンズは、球面を有するレンズ支持体に取り付けられ、The lens is attached to a lens support having a spherical surface;
前記レンズ支持体は、その周囲をリング状の支持部で支持され、The lens support is supported by a ring-shaped support portion around the lens support,
前記支持部は、前記レンズ支持体が回転可能となるように、その内側に少なくとも一対のThe support portion includes at least a pair of inner portions so that the lens support body can rotate. 駆動手段を有しており、Having drive means,
下記条件(1)を満たす、インターフェース装置の駆動方法。A driving method of an interface device that satisfies the following condition (1).

条件(1):前記画像投射手段が、画像回転手段を有している。Condition (1): The image projection means has an image rotation means.
JP2013555102A 2012-01-24 2012-09-18 Interface device and driving method of interface device Active JP6102751B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012012159 2012-01-24
JP2012012159 2012-01-24
PCT/JP2012/073791 WO2013111376A1 (en) 2012-01-24 2012-09-18 Interface device and method for driving interface device

Publications (2)

Publication Number Publication Date
JPWO2013111376A1 JPWO2013111376A1 (en) 2015-05-11
JP6102751B2 true JP6102751B2 (en) 2017-03-29

Family

ID=48873125

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013555102A Active JP6102751B2 (en) 2012-01-24 2012-09-18 Interface device and driving method of interface device

Country Status (2)

Country Link
JP (1) JP6102751B2 (en)
WO (1) WO2013111376A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160238833A1 (en) * 2013-10-02 2016-08-18 Nec Corporation Interface apparatus, module, control component, control method, and program storage medium
US10013116B2 (en) 2014-08-27 2018-07-03 Sony Corporation Projection display unit
US10216075B2 (en) 2014-09-15 2019-02-26 Hewlett-Packard Development Company, L.P. Digital light projector having invisible light channel
JP6597625B2 (en) * 2014-10-03 2019-10-30 ソニー株式会社 Projection display
EP3229469A1 (en) * 2016-04-06 2017-10-11 Fisba AG Light module for emission of light and a method for emitting visible and non-visible light
KR102422245B1 (en) * 2020-08-03 2022-07-19 주식회사 다함 Monitoring and control system for moss wall

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611932B2 (en) * 2006-05-17 2011-01-12 日本電信電話株式会社 Moving body following photographing projection device
JP4991458B2 (en) * 2007-09-04 2012-08-01 キヤノン株式会社 Image display apparatus and control method thereof

Also Published As

Publication number Publication date
WO2013111376A1 (en) 2013-08-01
JPWO2013111376A1 (en) 2015-05-11

Similar Documents

Publication Publication Date Title
JP6102751B2 (en) Interface device and driving method of interface device
EP2120455B1 (en) Electronics device having projector module
US8570372B2 (en) Three-dimensional imager and projection device
JP4829765B2 (en) Image display device and image display system
AU2014217524B2 (en) Flexible room controls
KR102461253B1 (en) Projection display apparatus including eye tracker
JP5971053B2 (en) Position detection device and image display device
JP6134804B2 (en) Video projection device
JP2015111772A (en) Projection device
US20150109261A1 (en) Projection apparatus
JP2014170149A (en) Projector
JP6102750B2 (en) Interface device, driving method of interface device, interface system, and driving method of interface system
US20120327130A1 (en) Floating virtual plasma display apparatus
US20140246573A1 (en) Electronic device
JP2008227883A (en) Projector
JP5437206B2 (en) Electronics
WO2017212601A1 (en) Optical distance-measurement device and image projection device provided with same
JP6645588B2 (en) Display system
TWI661233B (en) Dot projector structure and method for extracting image using dot projector structure
WO2014016994A1 (en) Interface device, program, and control method
JP2005062486A (en) Projection system, projection device, and projection method
JP2018028579A (en) Display device and display method
JP2013228573A (en) Electronic device with rsd function, control method for electronic device with rsd function, and computer program
JP2014145813A (en) Projector
JP2014120009A (en) Position determination device and input device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150806

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160606

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160804

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161227

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20170110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170213

R150 Certificate of patent or registration of utility model

Ref document number: 6102751

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150