JP6390736B2 - Spatial input device - Google Patents

Spatial input device Download PDF

Info

Publication number
JP6390736B2
JP6390736B2 JP2017050234A JP2017050234A JP6390736B2 JP 6390736 B2 JP6390736 B2 JP 6390736B2 JP 2017050234 A JP2017050234 A JP 2017050234A JP 2017050234 A JP2017050234 A JP 2017050234A JP 6390736 B2 JP6390736 B2 JP 6390736B2
Authority
JP
Japan
Prior art keywords
unit
image
light
input device
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2017050234A
Other languages
Japanese (ja)
Other versions
JP2017107606A (en
Inventor
謙 西岡
謙 西岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Funai Electric Co Ltd
Original Assignee
Funai Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Funai Electric Co Ltd filed Critical Funai Electric Co Ltd
Priority to JP2017050234A priority Critical patent/JP6390736B2/en
Publication of JP2017107606A publication Critical patent/JP2017107606A/en
Application granted granted Critical
Publication of JP6390736B2 publication Critical patent/JP6390736B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、空間入力装置に関する。   The present invention relates to a spatial input device.

従来、仮想的なユーザインタフェースを実現する空間入力装置が知られている。   Conventionally, a spatial input device that realizes a virtual user interface is known.

例えば特許文献1には、マイクロレンズアレイ部の各マイクロレンズに対応する単位領域ごとに配置された表示素子により画像が表示されると、表示された画像はマイクロレンズアレイ部によって空間上の一平面に結像する入出力装置が開示されている。この入出力装置では、指などの指示のための物体からの光がマイクロレンズアレイ部によって集光された後、表示素子と同一面内に配された撮像素子において受光され、物体の撮像データが取得される。この撮像データに基づき、物体の位置が検知される。   For example, in Patent Document 1, when an image is displayed by a display element arranged for each unit region corresponding to each microlens of the microlens array unit, the displayed image is displayed on a plane in space by the microlens array unit. An input / output device that forms an image is disclosed. In this input / output device, light from an object for instruction such as a finger is collected by a microlens array unit and then received by an image sensor arranged in the same plane as the display element, and image data of the object is obtained. To be acquired. Based on the imaging data, the position of the object is detected.

特開2010−55507号公報JP 2010-55507 A

しかしながら、上記特許文献1の入出力装置では、物体の3次元的位置を検知することはできるが、マイクロレンズアレイ部や複数の撮像素子が必要となり、構造が複雑化するという問題があった。   However, although the input / output device of Patent Document 1 can detect the three-dimensional position of an object, there is a problem that the structure is complicated because a microlens array unit and a plurality of imaging elements are required.

そこで、本発明は、簡素な構造により、高精度且つ高速に奥行き位置を検出することができる空間入力装置を提供することを目的とする。   Therefore, an object of the present invention is to provide a spatial input device capable of detecting a depth position with high accuracy and high speed with a simple structure.

上記目的を達成するために本発明の一態様に係る空間入力装置は、所定の光ビームを空間上に投影される画像に向けて出射して2次元的に走査する光ビーム走査部と、検出範囲の一端が前記画像に平行または一致するよう設定され、且つ操作物の前記画像への進入方向から見て前記検出範囲の一端の奥側に前記検出範囲が設けられる光検出部と、前記光ビーム走査部によって走査されて前記操作物で反射され前記光検出部により検出された前記光ビームの数である走査線数を計数し、計数された前記走査線数に基づいて奥行き位置を検出する奥行き検出部と、を備えた構成としている。   In order to achieve the above object, a spatial input device according to an aspect of the present invention includes a light beam scanning unit that emits a predetermined light beam toward an image projected onto space and performs two-dimensional scanning, and a detection. A light detection unit which is set so that one end of the range is parallel to or coincides with the image, and the detection range is provided on the back side of the one end of the detection range when viewed from the direction in which the operation article enters the image; The number of scanning lines, which is the number of the light beams scanned by the beam scanning unit and reflected by the operation object and detected by the light detection unit, is counted, and the depth position is detected based on the counted number of scanning lines. And a depth detection unit.

このような構成によれば、1つの光検出部を使用して、画像よりも奥に進入させた操作物の奥行き位置を高精度且つ高速に検出できる。従って、簡素な構造により、高精度且つ高速な奥行き位置検出を行うことができる。   According to such a configuration, it is possible to detect the depth position of the operation article that has entered deeper than the image with high accuracy and high speed using one light detection unit. Therefore, it is possible to detect the depth position with high accuracy and high speed with a simple structure.

また、上記構成において、前記光ビーム走査部による走査において、最後または最初に前記光ビームが前記操作物で反射されて前記光検出部により検出されるタイミングに基づき、前記検出範囲の一端における前記光ビームの照射位置座標をタッチ座標として検出するタッチ座標検出部を更に備えることとしてもよい。   In the above configuration, in the scanning by the light beam scanning unit, the light at one end of the detection range is based on the timing at which the light beam is reflected by the operation object at the end or first and detected by the light detection unit. It is good also as providing the touch coordinate detection part which detects the irradiation position coordinate of a beam as a touch coordinate.

このような構成によれば、奥行き位置に加えて、操作物によって画像をタッチした位置を1つの光検出部を使用して検出でき、コストの低減となる。   According to such a configuration, in addition to the depth position, the position where the image is touched with the operation article can be detected using one light detection unit, and the cost is reduced.

また、上記構成において、前記タッチ座標に応じて、前記走査線数と前記奥行き位置との対応関係が変化することとしてもよい。   In the above configuration, the correspondence between the number of scanning lines and the depth position may be changed according to the touch coordinates.

このような構成によれば、走査位置に応じて走査線の密度が変化する場合でも、タッチ位置による奥行き検出結果のばらつきを抑えることができ、ユーザへの違和感を抑えることができる。   According to such a configuration, even when the density of the scanning line changes according to the scanning position, variation in the depth detection result due to the touch position can be suppressed, and a sense of discomfort to the user can be suppressed.

また、上記いずれかの構成において、前記タッチ座標が検出された後、検出された前記奥行き位置が所定の奥行き位置より奥であるか否かに応じて処理を切替える処理部を更に備えることとしてもよい。   Further, in any one of the above-described configurations, it may further include a processing unit that switches processing depending on whether the detected depth position is deeper than a predetermined depth position after the touch coordinates are detected. Good.

このような構成によれば、操作物を画像より奥に進入させて更に操作物を押し込んだ場合と、操作物を所定の奥行き位置までで停止させた場合とで処理を変えることができる。   According to such a configuration, it is possible to change the processing depending on whether the operation article is inserted deeper than the image and the operation article is further pushed in or when the operation article is stopped at a predetermined depth position.

また、上記構成において、検出された前記奥行き位置が前記所定の奥行き位置より奥であるとき、前記処理部は、検出された前記タッチ座標に所定の画像を移動させることとしてもよい。   In the above configuration, when the detected depth position is behind the predetermined depth position, the processing unit may move a predetermined image to the detected touch coordinates.

このような構成によれば、操作物を画像より奥に進入させて更に操作物を押し込んだ場合、所定の画像を操作物の位置に追従させるドラッグモードへ移行できる。   According to such a configuration, when the operation article is moved deeper than the image and the operation article is further pushed in, it is possible to shift to a drag mode in which a predetermined image follows the position of the operation article.

また、上記いずれかの構成において、複数の前記タッチ座標を検出後、前記光検出部により検出されなくなると、引き出し動作がされたと判定する判定部を更に備えることとしてもよい。   In any of the above-described configurations, a detection unit may be further provided that determines that a pull-out operation has been performed when the plurality of touch coordinates are detected and is no longer detected by the light detection unit.

このような構成によれば、複数の操作物を画像より奥に進入させてから手前へ引抜く動作を引き出し動作として検出できる。   According to such a configuration, it is possible to detect an operation of pulling a plurality of operation articles deeper than the image and then pulling them out to the front as a pulling operation.

また、上記構成において、前記光検出部の検出範囲よりも前記操作物の前記画像への進入方向から見て手前側に設定される検出範囲を有した第2の光検出部と、前記引き出し動作がされたと判定されたとき、前記第2の光検出部による検出結果に基づいて引き出し量を算出する算出部と、を更に備えることとしてもよい。   Further, in the above configuration, the second light detection unit having a detection range that is set on the near side when viewed from the direction in which the operation article enters the image with respect to the detection range of the light detection unit, and the extraction operation And a calculation unit that calculates a drawing amount based on a detection result by the second light detection unit when it is determined that the detection has been performed.

このような構成によれば、引き出し動作がされた場合、引き出し量を算出でき、引き出し量に応じた動作を行うことができる。   According to such a configuration, when a drawer operation is performed, the drawer amount can be calculated, and an operation according to the drawer amount can be performed.

本発明によると、簡素な構造により、高精度且つ高速に奥行き位置を検出することができる。   According to the present invention, the depth position can be detected with high accuracy and high speed by a simple structure.

本発明の一実施形態に係る画像表示装置の全体概略斜視図である。1 is an overall schematic perspective view of an image display device according to an embodiment of the present invention. 本発明の一実施形態に係る画像表示装置の概略側面図である。1 is a schematic side view of an image display device according to an embodiment of the present invention. 赤外線レーザユニットの構成を示すブロック図である。It is a block diagram which shows the structure of an infrared laser unit. 光検出器の筐体内部の構成を示す斜視図である。It is a perspective view which shows the structure inside the housing | casing of a photodetector. 光検出器の検出範囲の設定例を示す側面図である。It is a side view which shows the example of a setting of the detection range of a photodetector. 垂直同期信号、水平同期信号、及び光検出器の受光レベルの一例を示すタイミングチャートである。It is a timing chart which shows an example of the light reception level of a vertical synchronizing signal, a horizontal synchronizing signal, and a photodetector. 奥行きをタッチ平面に平行に設定していない例を示す側面図である。It is a side view showing an example in which the depth is not set parallel to the touch plane. 奥行きをタッチ平面に平行に設定した例を示す側面図である。It is a side view which shows the example which set the depth in parallel with the touch plane. タッチ座標及び奥行きの検出処理の一例を示すフローチャートである。It is a flowchart which shows an example of a detection process of a touch coordinate and depth. 奥行き変換テーブルの一例を示す図である。It is a figure which shows an example of a depth conversion table. アイコンのドラッグ操作の様子を示す図である。It is a figure which shows the mode of the drag operation of an icon. ドラッグモードへの移行処理を示すフローチャートである。It is a flowchart which shows the transfer process to drag mode. ドラッグモードにおける処理を示すフローチャートである。It is a flowchart which shows the process in drag mode. 2つの光検出器を設ける実施例を示す側面図である。It is a side view which shows the Example which provides two photodetectors. 引き出し動作の様子を示す図である。It is a figure which shows the mode of extraction operation | movement. 引き出し動作判定処理を示すフローチャートである。It is a flowchart which shows a drawer operation | movement determination process.

以下に本発明の一実施形態について図面を参照して説明する。本発明の一実施形態に係る画像表示装置の全体概略斜視図を図1Aに示し、概略側面図を図1Bに示す。   An embodiment of the present invention will be described below with reference to the drawings. An overall schematic perspective view of an image display apparatus according to an embodiment of the present invention is shown in FIG. 1A, and a schematic side view is shown in FIG. 1B.

図1A及び図1Bに示す画像表示装置10は、2面コーナーリフレクタアレイ基板(反射素子集合基板)1と、液晶表示部2と、赤外線レーザユニット3と、光検出器4と、を備えている。   An image display device 10 shown in FIGS. 1A and 1B includes a two-sided corner reflector array substrate (reflective element assembly substrate) 1, a liquid crystal display unit 2, an infrared laser unit 3, and a photodetector 4. .

2面コーナーリフレクタアレイ基板1は、液晶表示部2により表示された画像の光学像Sを空中に結像させて、それを観察者が見ることができるようにするものである。   The two-sided corner reflector array substrate 1 forms an optical image S of an image displayed by the liquid crystal display unit 2 in the air so that an observer can see it.

2面コーナーリフレクタアレイ基板1は、基板に対して、基板の主面を垂直方向に貫通する正方形状の貫通孔が平面視で千鳥状に配置されて形成される構成となっている。貫通孔の平らな内壁面のうち直交する2つに、それぞれ鏡面を2面コーナーリフレクタとして形成している。   The double-sided corner reflector array substrate 1 has a structure in which square through holes that penetrate the main surface of the substrate in the vertical direction are arranged in a staggered manner in plan view with respect to the substrate. Mirror surfaces are formed as two-surface corner reflectors on two orthogonal inner wall surfaces of the through-holes.

基板の一方の主面F2側(図1B)にある空間内に配された点光源から出射された光線は、2面コーナーリフレクタにて2回反射して、屈曲しつつ基板を透過する。点光源から出射されて異なる2面コーナーリフレクタに向かうそれぞれの光線は、2面コーナーリフレクタにて2回反射された後、点光源が配された側の基板の主面F2と反対側の主面F1側の空間において1点の光学像に結像される。   The light beam emitted from the point light source disposed in the space on the one main surface F2 side (FIG. 1B) of the substrate is reflected twice by the two-surface corner reflector and passes through the substrate while being bent. Each light beam emitted from the point light source and directed to the different two-surface corner reflector is reflected twice by the two-surface corner reflector, and then the main surface opposite to the main surface F2 of the substrate on which the point light source is disposed. An image is formed at one point in the space on the F1 side.

画像の光を面発光する液晶表示部2は点光源の集合であると捉えることができる。従って、基板の一方の主面F2側にある空間(図1Bにおける主面F2の下方の空間)に配された液晶表示部2により面発光された画像光の光線は、2面コーナーリフレクタでの反射により、他方の主面F1側の空間(図1Bにおける主面F1の上方の空間)において液晶表示部2と対称な位置に光学像Sとして結像される。これにより、観察者であるユーザは、空中に画像が表示されている感覚を得ることができる。   The liquid crystal display unit 2 that emits surface light of the image can be regarded as a set of point light sources. Therefore, the light beam of the image light surface-emitted by the liquid crystal display unit 2 disposed in the space on the one main surface F2 side of the substrate (the space below the main surface F2 in FIG. 1B) is reflected by the two-surface corner reflector. Due to the reflection, an image is formed as an optical image S at a position symmetrical to the liquid crystal display unit 2 in the space on the other main surface F1 side (the space above the main surface F1 in FIG. 1B). Thereby, the user who is an observer can obtain the feeling that the image is displayed in the air.

画像表示装置10を仮想的な入力インタフェースとして機能させるため、上記のように2面コーナーリフレクタアレイ基板1により結像された光学像Sに対して赤外レーザ光を照射する赤外線レーザユニット3が設けられる。   In order to make the image display device 10 function as a virtual input interface, there is provided an infrared laser unit 3 that irradiates the optical image S imaged by the two-sided corner reflector array substrate 1 as described above with infrared laser light. It is done.

赤外線レーザユニット3のブロック構成を図2に示す。図2に示すように、赤外線レーザユニット3は、赤外LD(レーザダイオード)3Aと、コリメータレンズ3Bと、ビームスプリッタ3Cと、光検出器3Dと、水平MEMS(Micro Electro Mechanical Systems)ミラー3Eと、垂直MEMSミラー3Fと、レーザ制御回路3Gと、ミラーサーボ部3Hと、アクチュエータ3Iと、を備えている。   The block configuration of the infrared laser unit 3 is shown in FIG. As shown in FIG. 2, the infrared laser unit 3 includes an infrared LD (laser diode) 3A, a collimator lens 3B, a beam splitter 3C, a photodetector 3D, and a horizontal MEMS (Micro Electro Mechanical Systems) mirror 3E. , A vertical MEMS mirror 3F, a laser control circuit 3G, a mirror servo unit 3H, and an actuator 3I.

レーザ制御回路3Gによって制御されたパワーで赤外LD3Aは赤外レーザ光を出射する。出射された赤外レーザ光は、コリメータレンズ3Bにより平行光とされ、ビームスプリッタ3Cに入光する。ビームスプリッタ3Cに入光した光は、一部が反射されて光検出器3Dにより受光され、一部は透過して水平MEMSミラー3Eへ向かう。光検出器3Dで検出された検出信号に基づき、レーザ制御回路3Gが赤外LD3Aの出力パワーを制御する。   The infrared LD 3A emits infrared laser light with the power controlled by the laser control circuit 3G. The emitted infrared laser light is collimated by the collimator lens 3B and enters the beam splitter 3C. A part of the light entering the beam splitter 3C is reflected and received by the photodetector 3D, and part of the light is transmitted to the horizontal MEMS mirror 3E. Based on the detection signal detected by the photodetector 3D, the laser control circuit 3G controls the output power of the infrared LD 3A.

レーザ光を水平方向に走査するよう偏向可能な水平MEMSミラー3Eに入射されて反射されたレーザ光は、レーザ光を垂直方向に走査するよう偏向可能な垂直MEMSミラー3Fに入射されて反射し、赤外線レーザユニット3の筐体外部へ出射される。   The laser light incident on and reflected by the horizontal MEMS mirror 3E that can be deflected so as to scan the laser light in the horizontal direction is reflected by being incident on the vertical MEMS mirror 3F that can be deflected so as to scan the laser light in the vertical direction, The light is emitted outside the casing of the infrared laser unit 3.

赤外線レーザユニット3は、2面コーナーリフレクタアレイ基板1の液晶表示部2が配される主面F2側(図1B)にある空間に配置されるため、赤外線レーザユニット3から出射された赤外レーザ光は、2面コーナーリフレクタアレイ基板1の貫通孔を透過して光学像Sへ出射される。   Since the infrared laser unit 3 is disposed in a space on the main surface F2 side (FIG. 1B) on which the liquid crystal display unit 2 of the two-sided corner reflector array substrate 1 is disposed, the infrared laser emitted from the infrared laser unit 3 The light passes through the through-hole of the two-sided corner reflector array substrate 1 and is emitted to the optical image S.

水平MEMSミラー3E及び垂直MEMSミラー3Fの偏向により、赤外線レーザユニット3から出射されるレーザ光は光学像Sに対して2次元的に走査される。   The laser light emitted from the infrared laser unit 3 is two-dimensionally scanned with respect to the optical image S by the deflection of the horizontal MEMS mirror 3E and the vertical MEMS mirror 3F.

ミラーサーボ部3Hは、制御部5からの水平同期信号に応じてアクチュエータ3Iを駆動して水平MEMSミラー3Eを偏向させ、制御部5からの垂直同期信号に応じてアクチュエータ3Iを駆動して垂直MEMSミラー3Fを偏向させる。   The mirror servo unit 3H drives the actuator 3I in accordance with the horizontal synchronization signal from the control unit 5 to deflect the horizontal MEMS mirror 3E, and drives the actuator 3I in response to the vertical synchronization signal from the control unit 5 to generate vertical MEMS. The mirror 3F is deflected.

光検出器4は、赤外線レーザユニット3から出射されて指などの操作物により反射されたレーザ光を検出するためのものであり、2面コーナーリフレクタアレイ基板1の液晶表示部2が配される主面F2側(図1B)の空間に配置される。   The photodetector 4 is for detecting laser light emitted from the infrared laser unit 3 and reflected by an operation object such as a finger, and the liquid crystal display unit 2 of the two-sided corner reflector array substrate 1 is disposed. It arrange | positions in the space by the main surface F2 side (FIG. 1B).

光検出器4の筐体内部の構成の概略斜視図を図3に示す。図3に示すように、光検出器4の筐体内部には、反射レーザ光の照射を検出する受光素子4Aと、筐体の窓部から入射した反射レーザ光を集光して受光素子4Aに導く集光レンズ4Bと、受光素子4Aと集光レンズ4Bの間に配置されて受光素子4Aの一部を覆う高さを有した板状のマスキング部材4Cを備えている。   FIG. 3 shows a schematic perspective view of the configuration inside the housing of the photodetector 4. As shown in FIG. 3, inside the housing of the photodetector 4, a light receiving element 4A for detecting the irradiation of the reflected laser light and the reflected laser light incident from the window of the housing are condensed to receive the light receiving element 4A. And a plate-shaped masking member 4C having a height which is disposed between the light receiving element 4A and the light collecting lens 4B and covers a part of the light receiving element 4A.

なお、受光素子4Aは、図2に示すように、制御部5に接続されており、受光素子4Aによる検出信号が制御部5に送られる。   As shown in FIG. 2, the light receiving element 4 </ b> A is connected to the control unit 5, and a detection signal from the light receiving element 4 </ b> A is sent to the control unit 5.

マスキング部材4Cは、受光素子4Aの幅方向と同方向に幅を有する。そして、マスキング部材4Cは、その両端部が中央部より集光レンズ4B側へ近づいた湾曲形状をしており、受光素子4Aへの入射角に応じて反射レーザ光を遮蔽して受光素子4Aに照射されるのを規制する。   The masking member 4C has a width in the same direction as the width direction of the light receiving element 4A. The masking member 4C has a curved shape in which both ends thereof are closer to the condenser lens 4B side than the central portion, and shields the reflected laser light in accordance with the incident angle to the light receiving element 4A so as to cover the light receiving element 4A. Regulates irradiation.

受光素子4Aの幅方向の端部からの反射レーザ光は中央部に比べて、集光レンズ4Bにより集光されて受光素子4Aに照射されるスポットの径が大きくなる。従って、マスキング部材により遮蔽されるべきところが、スポット径の拡大により全てが遮蔽されずに受光素子4Aで受光されて誤検出の懸念がある。そこで、マスキング部材4Cを湾曲形状とすることで、スポット径の大きい端部の反射レーザ光をスポット径が小さいうちに遮蔽できる。   The reflected laser light from the end in the width direction of the light receiving element 4A is condensed by the condenser lens 4B and the spot diameter irradiated onto the light receiving element 4A is larger than that at the center. Therefore, the portion to be shielded by the masking member is received by the light receiving element 4A without being completely shielded by the enlargement of the spot diameter, and there is a fear of erroneous detection. Therefore, by making the masking member 4C into a curved shape, the reflected laser beam at the end portion with the large spot diameter can be shielded while the spot diameter is small.

このようなマスキング部材4Cの寸法の調整により、光検出器4の検出範囲の調整が可能である。光検出器4の検出範囲の設定例を図4に示す。図4の破線が光検出器4の検出範囲の限界(端部)を表す。図4に示すように、光検出器4の検出範囲の一端が光学像Sの近傍で光学像Sに対して平行となるよう設定され、この一端が操作物(図4では指)により光学像Sをタッチされた位置を検出するためのタッチ平面Tとなる。なお、タッチ平面Tは、光学像Sと一致するようにしてもよい。   The detection range of the photodetector 4 can be adjusted by adjusting the dimensions of the masking member 4C. An example of setting the detection range of the photodetector 4 is shown in FIG. The broken line in FIG. 4 represents the limit (end) of the detection range of the photodetector 4. As shown in FIG. 4, one end of the detection range of the photodetector 4 is set to be parallel to the optical image S in the vicinity of the optical image S, and this one end is optically imaged by an operation article (finger in FIG. 4). It becomes the touch plane T for detecting the position where S is touched. Note that the touch plane T may coincide with the optical image S.

そして、操作物の光学像Sへの進入方向から見てタッチ平面Tの奥側に光検出器4の検出範囲が設けられる。   And the detection range of the photodetector 4 is provided in the back | inner side of the touch plane T seeing from the approach direction to the optical image S of the operation thing.

垂直同期信号及び水平同期信号の一例を図5に示す。図5の例では、垂直同期信号は階段状の信号としており、水平同期信号は垂直同期信号の1ステップごとに増加・減少する三角波の信号としている。このような同期信号によって水平MEMSミラー3E及び垂直MEMSミラー3Fが偏向されることにより、赤外線レーザユニット3から出射されるレーザ光は水平走査方向(図4)を往復されつつ垂直走査方向(図4)に光学像S上を走査される。   An example of the vertical synchronizing signal and the horizontal synchronizing signal is shown in FIG. In the example of FIG. 5, the vertical synchronization signal is a stepped signal, and the horizontal synchronization signal is a triangular wave signal that increases / decreases for each step of the vertical synchronization signal. The horizontal MEMS mirror 3E and the vertical MEMS mirror 3F are deflected by such a synchronization signal, so that the laser light emitted from the infrared laser unit 3 is reciprocated in the horizontal scanning direction (FIG. 4) while being reciprocated in the vertical scanning direction (FIG. 4). ) Is scanned on the optical image S.

垂直走査方向を上から下に向かって走査する場合、図4の例では、まず指先でレーザ光が反射されて光検出器4により検出され、走査が進むにつれて順次指の底面でレーザ光が反射されて光検出器4により検出され、最後はタッチ平面T近傍における指の底面でレーザ光が反射されて光検出器4により検出される。このとき、図5に示すように、同期信号の時系列に沿って光検出器4の受光レベルの一群が現れる。制御部5(図2)は、この一群のうち最後に検出された受光レベルに対応する垂直及び水平同期信号の値(即ちMEMSミラーの位置)に基づき、タッチ平面Tにおけるレーザ光の照射位置座標を、操作物によって光学像Sがタッチされた位置を示すタッチ座標として検出する。タッチ座標は、垂直座標及び水平座標からなる2次元座標である。   In the case of scanning in the vertical scanning direction from top to bottom, in the example of FIG. 4, the laser light is first reflected by the fingertip and detected by the photodetector 4, and the laser light is sequentially reflected by the bottom surface of the finger as the scanning proceeds. Then, the light is detected by the light detector 4, and finally, the laser light is reflected by the bottom surface of the finger in the vicinity of the touch plane T and detected by the light detector 4. At this time, as shown in FIG. 5, a group of received light levels of the photodetector 4 appears along the time series of the synchronization signal. The control unit 5 (FIG. 2) determines the irradiation position coordinates of the laser light on the touch plane T based on the vertical and horizontal synchronization signal values (that is, the position of the MEMS mirror) corresponding to the light reception level detected last in the group. Are detected as touch coordinates indicating the position where the optical image S is touched by the operation article. Touch coordinates are two-dimensional coordinates composed of vertical coordinates and horizontal coordinates.

なお、垂直走査方向を下から上へ向かって走査する場合は、受光レベルの一群のうち最初に検出されたタイミングに基づきタッチ座標を検出すればよい。   When scanning in the vertical scanning direction from bottom to top, the touch coordinates may be detected based on the first detected timing among the group of light receiving levels.

また、制御部5は、上記一群のうち最後を除いた受光レベルの検出回数、即ち指で反射されたレーザ光の数である走査線数を計数し、計数された走査線数に基づいて奥行き位置を検出する(なお、一群における全ての検出回数を用いてもよい)。例えば、走査線数に対応して奥行きの層レベルを規定したテーブルを予め用意し、このテーブルに基づき奥行きの層レベルを検出すればよい。例えば、走査線数が0〜5本であれば、タッチ平面Tを含む層レベル0、走査線数が6〜10本であれば、層レベル0より奥側の層レベル1、走査線数が11〜15本であれば、層レベル1より奥側の層レベル2などと規定できる。   In addition, the control unit 5 counts the number of detections of the received light level excluding the last in the group, that is, the number of scanning lines that is the number of laser beams reflected by the finger, and the depth based on the counted number of scanning lines. A position is detected (note that all detection times in a group may be used). For example, a table defining the depth layer level corresponding to the number of scanning lines may be prepared in advance, and the depth layer level may be detected based on this table. For example, if the number of scanning lines is 0 to 5, the layer level 0 including the touch plane T, and if the number of scanning lines is 6 to 10, the layer level 1 deeper than the layer level 0 and the number of scanning lines are If it is 11-15, it can prescribe | regulate with the layer level 2 etc. of the back | inner side from the layer level 1.

このように本実施形態によれば、1つの光検出器4を用いて、タッチ座標の検出と、多段階の奥行き検出が可能となるので、部品点数が削減されてコストダウンを実現できる。   As described above, according to the present embodiment, it is possible to detect touch coordinates and detect multiple levels of depth using a single photodetector 4, thereby reducing the number of components and realizing cost reduction.

ここで、赤外線レーザユニット3によってレーザ光の垂直方向の走査を等速で行う場合、図6に示すように、赤外線レーザユニット3とタッチ平面Tの距離が短くなるタッチ平面Tの下側(垂直走査方向の下側)になる程、走査線は密となる。そのため、一定の走査線数で奥行きを規定すると、図6の一点鎖線に示すように奥行きをタッチ平面Tに平行な位置に設定できない。即ち、操作物を同じ奥行きで進入させているのに、光学像Sの垂直方向の位置によって奥行きの検出結果が変わるので、ユーザが違和感を感じる可能性がある。   Here, when scanning in the vertical direction of the laser beam by the infrared laser unit 3 at a constant speed, as shown in FIG. 6, the lower side of the touch plane T (vertical) where the distance between the infrared laser unit 3 and the touch plane T becomes short. The lower the scanning direction), the denser the scanning lines. Therefore, if the depth is defined by a fixed number of scanning lines, the depth cannot be set at a position parallel to the touch plane T as shown by the one-dot chain line in FIG. That is, although the operation article is entered at the same depth, the depth detection result varies depending on the position of the optical image S in the vertical direction, and thus the user may feel uncomfortable.

そこで、図8に示す処理による奥行き検出を行ってもよい。図8のステップS1で、制御部5がタッチ座標及び走査線数を検出した場合(ステップS1のY)、ステップS2に進む。ステップS2で、制御部5は、検出されたタッチ座標のうちの垂直座標、及び計数された走査線数に基づき、予め制御部5に格納された奥行き変換テーブルから奥行きの層レベルを取得する。   Therefore, depth detection by the process shown in FIG. 8 may be performed. When the control unit 5 detects the touch coordinates and the number of scanning lines in step S1 of FIG. 8 (Y in step S1), the process proceeds to step S2. In step S <b> 2, the control unit 5 acquires the layer level of the depth from the depth conversion table stored in advance in the control unit 5 based on the vertical coordinates of the detected touch coordinates and the counted number of scanning lines.

奥行き変換テーブルの一例を図9に示す。図9に示すように、垂直座標ごとに走査線数と層レベルの対応関係が規定されている。図9において、垂直座標の値が大きいほど、図6においてタッチ平面Tの下側に位置することを示す。そして、垂直座標の値が大きくなる程、同じ層レベルでも走査線数が大きくなるように規定している。これにより、図7において一点鎖線で示すように、奥行きをタッチ平面Tに対して平行に設定することができる。従って、同じ奥行きで操作物を進入させた場合に垂直方向位置に依らず、同じ奥行き検出結果となるので、ユーザの違和感を抑制できる。   An example of the depth conversion table is shown in FIG. As shown in FIG. 9, the correspondence between the number of scanning lines and the layer level is defined for each vertical coordinate. 9, the larger the value of the vertical coordinate, the lower the touch plane T in FIG. It is specified that the number of scanning lines increases as the vertical coordinate value increases even at the same layer level. As a result, the depth can be set parallel to the touch plane T as indicated by the alternate long and short dash line in FIG. Therefore, when the operation article is entered at the same depth, the same depth detection result is obtained regardless of the vertical position, and the user's uncomfortable feeling can be suppressed.

ステップS2の後、ステップS3で、制御部5は、検出されたタッチ座標、及び取得された奥行きの層レベルを出力する。そして、図8の処理は終了する。   After step S2, in step S3, the control unit 5 outputs the detected touch coordinates and the acquired depth layer level. Then, the process of FIG. 8 ends.

なお、上記では垂直座標のみ参照したが、水平座標のみ、または垂直座標と水平座標の両方を参照するようにしてもよい。   In the above description, only the vertical coordinate is referred to, but only the horizontal coordinate or both the vertical coordinate and the horizontal coordinate may be referred to.

次に、以上説明したタッチ座標検出及び奥行き検出を用いたアプリケーションの一例を図10〜図12を参照して説明する。ここで説明するアプリケーションは、操作物の押し込みによるドラッグモードである。   Next, an example of an application using touch coordinate detection and depth detection described above will be described with reference to FIGS. The application described here is a drag mode by pressing an operation article.

図11に示すフローチャートが開始され、まずステップS11で、指などの操作物がタッチ平面Tにタッチされ(図10の(A)の状態)、制御部5がタッチ座標を検出すると(ステップS11のY)、ステップS12へ進む。   The flowchart shown in FIG. 11 is started. First, in step S11, an operation object such as a finger is touched on the touch plane T (state (A) in FIG. 10), and the control unit 5 detects touch coordinates (in step S11). Y), proceed to step S12.

ステップS12で、制御部5が奥行きの層レベルを検出し、検出された層レベルが所定の層レベル以上であると判定し、操作物の押し込みを検出した場合(ステップS12のY)、ステップS13へ進む(図10の(B)の状態)。ステップS13で、制御部5は、ドラッグモードへ移行する。   When the control unit 5 detects the depth layer level in step S12, determines that the detected layer level is equal to or higher than the predetermined layer level, and detects pushing of the operation article (Y in step S12), step S13 is performed. (The state shown in FIG. 10B). In step S13, the control unit 5 shifts to the drag mode.

一方、ステップS12で、制御部5が、検出された層レベルが所定の層レベルに達しないと判定し、操作物が押し込まれていないことを検出した場合(ステップS12のN)、ステップS14へ進む。ステップS14で、制御部5は、タップ操作がなされたとして処理を行う。例えば、図10の(A)のようにアイコンIを指でタッチした状態で指を停止させた場合、タップ操作としての動作が行われる。   On the other hand, when the control unit 5 determines in step S12 that the detected layer level does not reach the predetermined layer level and detects that the operation article is not pushed in (N in step S12), the process proceeds to step S14. move on. In step S14, the control unit 5 performs processing assuming that a tap operation has been performed. For example, when the finger is stopped while the icon I is touched with the finger as shown in FIG. 10A, an operation as a tap operation is performed.

ドラッグモードへ移行すると、図12のフローチャートが開始される。ステップS15で、制御部5がタッチ座標を検出すると(ステップS15のY)、ステップS16へ進む。ステップS16では、ステップS15でタッチ座標と共に検出された層レベルが所定の層レベル以上であると判定した場合(ステップS16のY)、ステップS17へ進む。ステップS17で、制御部5は、ステップS15で検出されたタッチ座標の位置にアイコンを移動させるよう液晶表示部2を表示制御する。移動させるアイコンは、ステップS11(図11)で検出されたタッチ座標を含むアイコンである。ステップS17の後、ステップS15へ戻る。   When transitioning to the drag mode, the flowchart of FIG. 12 is started. If the control unit 5 detects the touch coordinates in step S15 (Y in step S15), the process proceeds to step S16. In step S16, when it is determined that the layer level detected together with the touch coordinates in step S15 is equal to or higher than the predetermined layer level (Y in step S16), the process proceeds to step S17. In step S17, the control unit 5 performs display control of the liquid crystal display unit 2 so as to move the icon to the position of the touch coordinates detected in step S15. The icon to be moved is an icon including the touch coordinates detected in step S11 (FIG. 11). After step S17, the process returns to step S15.

図10の(B)のように指をアイコンIに押し込んでドラッグモードへ移行した場合、このようなステップS15〜S17の繰り返しにより、指を押し込んだまま移動させるとアイコンIが追従して移動し、図10の(C)のような状態となる。   As shown in FIG. 10B, when the finger is pushed into the icon I and the mode is changed to the drag mode, the icon I follows and moves when the finger is pushed by repeating the steps S15 to S17. As shown in FIG. 10C.

そして、ステップS15で、制御部5がタッチ座標を検出できない場合(ステップS15のN)、またはステップS15でタッチ座標を検出できたが、ステップS16で所定の層レベルに達していない場合(ステップS16のN)、ステップS18へ進む。ステップS18で、制御部5は、アイコンを固定するよう液晶表示部2を表示制御する。   In step S15, the control unit 5 cannot detect the touch coordinates (N in step S15), or the touch coordinates can be detected in step S15, but the predetermined layer level is not reached in step S16 (step S16). N), the process proceeds to step S18. In step S18, the control unit 5 controls the display of the liquid crystal display unit 2 so as to fix the icon.

これにより、図10の(C)のようにアイコンIをドラッグにより移動させた状態で、図10の(D)のように指をアイコンIから引抜くと、ステップS18によりアイコンIが固定される(アイコンのドロップ)。   Thus, when the icon I is moved by dragging as shown in FIG. 10C, when the finger is pulled out from the icon I as shown in FIG. 10D, the icon I is fixed in step S18. (Drop icon).

このように本実施形態によるタッチ座標の検出、及び奥行きの検出によって、アイコンを光学像S上でドラッグできるユーザインタフェースを実現できる。従って、ユーザにとって、より感覚的にアイコンを操作できる。   As described above, a user interface capable of dragging an icon on the optical image S can be realized by detecting the touch coordinates and detecting the depth according to the present embodiment. Therefore, the user can operate the icon more intuitively.

また次に、アプリケーションの一例として、操作物による引き出し動作を説明する。この実施形態では、図13に示すように、光検出器4の検出範囲(図13の破線)よりも操作物の光学像Sへの進入方向から見て手前側に設定される検出範囲(図13の一点鎖線)を有した光検出器15を別途設ける。光検出器15は、光検出器4と同様に、受光素子15A、集光レンズ15B、及びそれらの間に配されるマスキング部材(不図示)を備えている。また、受光素子15Aからの検出信号は、制御部5(図2)に送られる。   Next, as an example of an application, a drawing operation by an operation article will be described. In this embodiment, as shown in FIG. 13, a detection range (see FIG. 13) that is set on the near side as viewed from the approaching direction of the operation article to the optical image S with respect to the detection range of the photodetector 4 (broken line in FIG. 13). 13 is provided separately. Similar to the photodetector 4, the photodetector 15 includes a light receiving element 15 </ b> A, a condenser lens 15 </ b> B, and a masking member (not shown) disposed therebetween. The detection signal from the light receiving element 15A is sent to the control unit 5 (FIG. 2).

このような構成による引き出し動作処理について、図14及び図15を参照して説明する。図15のフローチャートが開始され、まずステップS21で、制御部5がタッチ座標を2つ検出すると(ステップS21のY)、ステップS22へ進む。例えば図14の(A)のように、2本の指を光学像Sにタッチすると、タッチ座標が2つ検出される。   With reference to FIGS. 14 and 15, the drawing operation processing with such a configuration will be described. The flowchart of FIG. 15 is started. First, in step S21, when the control unit 5 detects two touch coordinates (Y in step S21), the process proceeds to step S22. For example, as shown in FIG. 14A, when two fingers touch the optical image S, two touch coordinates are detected.

ステップS22で、制御部5が、検出された2つのタッチ座標間の距離が所定距離以内であると判定すると(ステップS22のY)、ステップS23へ進む。例えば図14の(A)の後、(B)のように2本の指を近付けると、2つのタッチ座標間の距離が所定距離以内となる。   If the control unit 5 determines in step S22 that the distance between the two detected touch coordinates is within a predetermined distance (Y in step S22), the process proceeds to step S23. For example, after (A) in FIG. 14, when two fingers are brought close as shown in (B), the distance between the two touch coordinates is within a predetermined distance.

そして、ステップS23で、制御部5は、タッチ座標の検出を継続し、光検出器4によって操作物による反射レーザ光が検出されなくなったと判定すると(ステップS23のY)、ステップS24へ進む。   In step S23, when the control unit 5 continues to detect the touch coordinates and determines that the reflected laser beam from the operation article is no longer detected by the photodetector 4 (Y in step S23), the control unit 5 proceeds to step S24.

ステップS24で、制御部5が、2つの操作物の先端で反射された各レーザ光が光検出器15により検出されたタイミングに応じた垂直及び水平同期信号の値に基づき、各レーザ光のタッチ平面T上の位置座標を検出する。検出された各位置座標間の距離が所定距離以内であれば(ステップS24のY)、ステップS25へ進む。ステップS25で、制御部5は、引き出し動作が行われたと判定する。   In step S24, the control unit 5 touches each laser beam based on the values of the vertical and horizontal synchronization signals corresponding to the timing at which the laser beams reflected by the tips of the two manipulation objects are detected by the photodetector 15. A position coordinate on the plane T is detected. If the distance between the detected position coordinates is within a predetermined distance (Y in step S24), the process proceeds to step S25. In step S25, the control unit 5 determines that the drawing operation has been performed.

例えば図14の(B)の後、(C)のように2本の指を近付けたまま手前側に引き出すと、ステップS23、S24の処理の後、ステップS25で引き出し動作が行われたと判定される。   For example, after (B) in FIG. 14, when two fingers are pulled close to each other as shown in (C), it is determined that the pulling operation has been performed in step S25 after the processing in steps S23 and S24. The

ステップS25では、制御部5は、操作物の先端で反射されたレーザ光が光検出器15により検出されたタイミングに応じた垂直及び水平同期信号の値に基づき、レーザ光のタッチ平面T上の位置座標を検出する。そして、この検出された位置座標と、ステップS23にてタッチ座標の検出を継続したときの最後に検出されたタッチ座標に基づき、操作物の引き出し量を算出する。   In step S25, the control unit 5 determines the laser light on the touch plane T based on the values of the vertical and horizontal synchronization signals corresponding to the timing at which the laser beam reflected by the tip of the operation article is detected by the photodetector 15. Detect position coordinates. Then, based on the detected position coordinates and the touch coordinates detected at the end when the detection of the touch coordinates is continued in step S23, the drawing amount of the operation article is calculated.

制御部5は、例えば引き出し量に応じて、光学像Sにおける画像の拡大・縮小を行うよう液晶表示部2を表示制御する。   The control unit 5 controls the display of the liquid crystal display unit 2 so as to enlarge / reduce the image in the optical image S according to, for example, the amount of extraction.

このように本実施形態によれば、2つの操作物により引き出す動作によって操作を行えるユーザインタフェースを実現でき、ユーザにとって、より感覚的な操作感を与えることができる。   As described above, according to the present embodiment, it is possible to realize a user interface that can be operated by an operation that is pulled out by two operating objects, and to give a more sensuous operation feeling to the user.

以上、本発明の実施形態について説明したが、本発明の趣旨の範囲内であれば、実施形態は種々変形が可能である。   The embodiment of the present invention has been described above, but the embodiment can be variously modified within the scope of the gist of the present invention.

例えば、2次元的に走査する光ビームは赤外線に限らず、可視光としてもよい。これによれば、指などの操作物で可視光が反射するとユーザには色が見えるので、光ビームの走査範囲に操作物が確実に位置していることをユーザに知らせることができる。   For example, the light beam scanned two-dimensionally is not limited to infrared light, and may be visible light. According to this, when visible light is reflected by an operation object such as a finger, the user can see the color, so that the user can be informed that the operation object is reliably located in the scanning range of the light beam.

1 2面コーナーリフレクタアレイ基板
2 液晶表示部
3 赤外線レーザユニット
3A 赤外レーザダイオード
3B コリメータレンズ
3C ビームスプリッタ
3D 光検出器
3E 水平MEMSミラー
3F 垂直MEMSミラー
3G レーザ制御回路
3H ミラーサーボ部
3I アクチュエータ
4 光検出器
4A 受光素子
4B 集光レンズ
4C マスキング部材
5 制御部
10 画像表示装置
15 光検出器
15A 受光素子
15B 集光レンズ
S 光学像
T タッチ平面
I アイコン
DESCRIPTION OF SYMBOLS 1 Two-surface corner reflector array board | substrate 2 Liquid crystal display part 3 Infrared laser unit 3A Infrared laser diode 3B Collimator lens 3C Beam splitter 3D Photodetector 3E Horizontal MEMS mirror 3F Vertical MEMS mirror 3G Laser control circuit 3H Mirror servo part 3I Actuator 4 Light Detector 4A Light receiving element 4B Condensing lens 4C Masking member 5 Control unit 10 Image display device 15 Photo detector 15A Light receiving element 15B Condensing lens S Optical image T Touch plane I Icon

Claims (8)

光ビームを空間に投影される画像に向けて出射し、前記画像に対して該光ビームを2次元的に走査する走査部と、
検出範囲内の操作物で反射した前記光ビームを検出する第1の光検出部と、
前記第1の光検出部により検出された前記光ビームの数である走査線数を計数し、該走査線数に基づいて前記画像に垂直な方向における前記操作物第1奥行き位置を検出する第1の位置検出部と、
を備え
前記検出範囲の一端である検出平面は、前記画像と一致する、又は平行であり、
前記検出範囲は、前記操作物の前記画像への進入方向から見て前記検出平面の奥側に設けられる空間入力装置。
A scanning unit that emits a light beam toward an image projected in space and scans the light beam two-dimensionally with respect to the image ;
A first light detection unit for detecting the light beam reflected by an operation article within a detection range;
The number of scanning lines, which is the number of the light beams detected by the first light detection unit , is counted, and the first depth position of the operation article in the direction perpendicular to the image is detected based on the number of scanning lines. A first position detector;
Equipped with a,
A detection plane that is one end of the detection range coincides with or is parallel to the image;
The detection range is a spatial input device provided on the back side of the detection plane when viewed from the direction in which the operation article enters the image .
前記検出範囲は、前記画像の投影領域に対して平行な面から、前記投影領域に対して前記走査部側に所定の距離を有する領域である請求項1に記載の空間入力装置。   The spatial input device according to claim 1, wherein the detection range is a region having a predetermined distance on the scanning unit side with respect to the projection region from a plane parallel to the projection region of the image. 前記第1の位置検出部は、前記走査部の垂直走査方向の位置と前記走査線数の関係を規定したテーブルに基づいて、前記第1奥行き位置を検出する請求項1または請求項2に記載の空間入力装置。 The first position detector on the basis of the table defining the number of scanning lines of the relationship between the position of the vertical scanning direction of the scanning unit, according to claim 1 or claim 2 for detecting the first depth position Spatial input device. 前記走査部の垂直走査方向に基づき、前記光ビームの照射位置を指示位置として検出する第2の位置検出部を更に備える請求項1から請求項3のいずれか1項に記載の空間入力装置。   4. The spatial input device according to claim 1, further comprising a second position detection unit configured to detect an irradiation position of the light beam as an instruction position based on a vertical scanning direction of the scanning unit. 5. 前記第1奥行き位置所定の第2奥行き位置よりも奥であるか否かに基づき処理を切替える処理部を更に備える請求項4に記載の空間入力装置。 The spatial input device according to claim 4, further comprising a processing unit that switches processing based on whether the first depth position is deeper than a predetermined second depth position. 前記第1奥行き位置が前記所定の第2奥行き位置よりも奥であれば、前記処理部は、検出された前記指示位置に所定の画像を移動させる請求項5に記載の空間入力装置。 The spatial input device according to claim 5, wherein when the first depth position is deeper than the predetermined second depth position, the processing unit moves a predetermined image to the detected indication position. 前記第2の位置検出部により前記指示位置が検出されなくなったことに基づいて、所定の動作がされたと判定する判定部を更に備える請求項4から請求項6のいずれか1項に記載の空間入力装置。   The space according to claim 4, further comprising a determination unit that determines that a predetermined operation has been performed based on the fact that the designated position is no longer detected by the second position detection unit. Input device. 前記画像の投影領域に対して平行な面から、前記投影領域に対して前記走査部側と逆方向に所定の距離を有する第2の光検出部と、
前記第2の光検出部による検出結果に基づいて移動距離を算出する算出部と、を更に備える請求項7に記載の空間入力装置。
A second light detection unit having a predetermined distance in a direction opposite to the scanning unit with respect to the projection region from a plane parallel to the projection region of the image;
The spatial input device according to claim 7, further comprising: a calculation unit that calculates a movement distance based on a detection result by the second light detection unit.
JP2017050234A 2017-03-15 2017-03-15 Spatial input device Expired - Fee Related JP6390736B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017050234A JP6390736B2 (en) 2017-03-15 2017-03-15 Spatial input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017050234A JP6390736B2 (en) 2017-03-15 2017-03-15 Spatial input device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013080206A Division JP2014203323A (en) 2013-04-08 2013-04-08 Space input device

Publications (2)

Publication Number Publication Date
JP2017107606A JP2017107606A (en) 2017-06-15
JP6390736B2 true JP6390736B2 (en) 2018-09-19

Family

ID=59059992

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017050234A Expired - Fee Related JP6390736B2 (en) 2017-03-15 2017-03-15 Spatial input device

Country Status (1)

Country Link
JP (1) JP6390736B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6180004A (en) * 1984-09-28 1986-04-23 Toho Denshi Kogyo Kk Dimension measurement of article
JP2000267800A (en) * 1999-01-12 2000-09-29 Takenaka Komuten Co Ltd Movement recognizing device
US6614422B1 (en) * 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
JP2001264010A (en) * 2000-03-15 2001-09-26 Pfu Ltd Three-dimensional input device and recording medium
EP2144448B1 (en) * 2007-03-30 2019-01-09 National Institute of Information and Communications Technology Floating Image Interaction Device
JP5214223B2 (en) * 2007-11-15 2013-06-19 船井電機株式会社 projector
JP2010244484A (en) * 2009-04-10 2010-10-28 Funai Electric Co Ltd Image display device, image display method and image display program
JP2012173138A (en) * 2011-02-22 2012-09-10 Seiko Epson Corp Optical position detection device
JP2013065061A (en) * 2011-09-15 2013-04-11 Funai Electric Co Ltd Projector

Also Published As

Publication number Publication date
JP2017107606A (en) 2017-06-15

Similar Documents

Publication Publication Date Title
JP2014203323A (en) Space input device
CN109564495B (en) Display device, storage medium, display method, and control device
US10303305B2 (en) Scanning touch systems
US8902435B2 (en) Position detection apparatus and image display apparatus
KR20080044017A (en) Touch screen
JP2013065061A (en) Projector
JP6721875B2 (en) Non-contact input device
JP6102330B2 (en) projector
KR20010051563A (en) Optical digitizer using curved mirror
JP2014202951A (en) Image projection device and operation matter detection method
JP2016021229A (en) Input device
JP6390736B2 (en) Spatial input device
JP2016009396A (en) Input device
EP2889748A1 (en) Touch-sensitive display device with palm input rejection
JP2014170136A (en) Projector and electronic device with projector function
JP2008204047A (en) Display detection device and light detection device
JP5987395B2 (en) Display device
TW201327324A (en) Optical touch control module
JP2015060295A (en) Input device
JP6206180B2 (en) Image display device
CN102854509A (en) Optical position detection device, light receiving unit, and display system with input function
TW201327325A (en) Optical touch control module
JP2017139012A (en) Input device, aerial image interaction system, and input method
JP2001084108A (en) Device for inputting and detecting and displaying coordinate
JP2012173098A (en) Indicated position detector

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170324

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6390736

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees