JP6390736B2 - Spatial input device - Google Patents
Spatial input device Download PDFInfo
- Publication number
- JP6390736B2 JP6390736B2 JP2017050234A JP2017050234A JP6390736B2 JP 6390736 B2 JP6390736 B2 JP 6390736B2 JP 2017050234 A JP2017050234 A JP 2017050234A JP 2017050234 A JP2017050234 A JP 2017050234A JP 6390736 B2 JP6390736 B2 JP 6390736B2
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- light
- input device
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 claims description 55
- 230000003287 optical effect Effects 0.000 description 17
- 238000000034 method Methods 0.000 description 15
- 239000000758 substrate Substances 0.000 description 15
- 239000004973 liquid crystal related substance Substances 0.000 description 11
- 230000000873 masking effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Images
Landscapes
- Position Input By Displaying (AREA)
Description
本発明は、空間入力装置に関する。 The present invention relates to a spatial input device.
従来、仮想的なユーザインタフェースを実現する空間入力装置が知られている。 Conventionally, a spatial input device that realizes a virtual user interface is known.
例えば特許文献1には、マイクロレンズアレイ部の各マイクロレンズに対応する単位領域ごとに配置された表示素子により画像が表示されると、表示された画像はマイクロレンズアレイ部によって空間上の一平面に結像する入出力装置が開示されている。この入出力装置では、指などの指示のための物体からの光がマイクロレンズアレイ部によって集光された後、表示素子と同一面内に配された撮像素子において受光され、物体の撮像データが取得される。この撮像データに基づき、物体の位置が検知される。
For example, in
しかしながら、上記特許文献1の入出力装置では、物体の3次元的位置を検知することはできるが、マイクロレンズアレイ部や複数の撮像素子が必要となり、構造が複雑化するという問題があった。
However, although the input / output device of
そこで、本発明は、簡素な構造により、高精度且つ高速に奥行き位置を検出することができる空間入力装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a spatial input device capable of detecting a depth position with high accuracy and high speed with a simple structure.
上記目的を達成するために本発明の一態様に係る空間入力装置は、所定の光ビームを空間上に投影される画像に向けて出射して2次元的に走査する光ビーム走査部と、検出範囲の一端が前記画像に平行または一致するよう設定され、且つ操作物の前記画像への進入方向から見て前記検出範囲の一端の奥側に前記検出範囲が設けられる光検出部と、前記光ビーム走査部によって走査されて前記操作物で反射され前記光検出部により検出された前記光ビームの数である走査線数を計数し、計数された前記走査線数に基づいて奥行き位置を検出する奥行き検出部と、を備えた構成としている。 In order to achieve the above object, a spatial input device according to an aspect of the present invention includes a light beam scanning unit that emits a predetermined light beam toward an image projected onto space and performs two-dimensional scanning, and a detection. A light detection unit which is set so that one end of the range is parallel to or coincides with the image, and the detection range is provided on the back side of the one end of the detection range when viewed from the direction in which the operation article enters the image; The number of scanning lines, which is the number of the light beams scanned by the beam scanning unit and reflected by the operation object and detected by the light detection unit, is counted, and the depth position is detected based on the counted number of scanning lines. And a depth detection unit.
このような構成によれば、1つの光検出部を使用して、画像よりも奥に進入させた操作物の奥行き位置を高精度且つ高速に検出できる。従って、簡素な構造により、高精度且つ高速な奥行き位置検出を行うことができる。 According to such a configuration, it is possible to detect the depth position of the operation article that has entered deeper than the image with high accuracy and high speed using one light detection unit. Therefore, it is possible to detect the depth position with high accuracy and high speed with a simple structure.
また、上記構成において、前記光ビーム走査部による走査において、最後または最初に前記光ビームが前記操作物で反射されて前記光検出部により検出されるタイミングに基づき、前記検出範囲の一端における前記光ビームの照射位置座標をタッチ座標として検出するタッチ座標検出部を更に備えることとしてもよい。 In the above configuration, in the scanning by the light beam scanning unit, the light at one end of the detection range is based on the timing at which the light beam is reflected by the operation object at the end or first and detected by the light detection unit. It is good also as providing the touch coordinate detection part which detects the irradiation position coordinate of a beam as a touch coordinate.
このような構成によれば、奥行き位置に加えて、操作物によって画像をタッチした位置を1つの光検出部を使用して検出でき、コストの低減となる。 According to such a configuration, in addition to the depth position, the position where the image is touched with the operation article can be detected using one light detection unit, and the cost is reduced.
また、上記構成において、前記タッチ座標に応じて、前記走査線数と前記奥行き位置との対応関係が変化することとしてもよい。 In the above configuration, the correspondence between the number of scanning lines and the depth position may be changed according to the touch coordinates.
このような構成によれば、走査位置に応じて走査線の密度が変化する場合でも、タッチ位置による奥行き検出結果のばらつきを抑えることができ、ユーザへの違和感を抑えることができる。 According to such a configuration, even when the density of the scanning line changes according to the scanning position, variation in the depth detection result due to the touch position can be suppressed, and a sense of discomfort to the user can be suppressed.
また、上記いずれかの構成において、前記タッチ座標が検出された後、検出された前記奥行き位置が所定の奥行き位置より奥であるか否かに応じて処理を切替える処理部を更に備えることとしてもよい。 Further, in any one of the above-described configurations, it may further include a processing unit that switches processing depending on whether the detected depth position is deeper than a predetermined depth position after the touch coordinates are detected. Good.
このような構成によれば、操作物を画像より奥に進入させて更に操作物を押し込んだ場合と、操作物を所定の奥行き位置までで停止させた場合とで処理を変えることができる。 According to such a configuration, it is possible to change the processing depending on whether the operation article is inserted deeper than the image and the operation article is further pushed in or when the operation article is stopped at a predetermined depth position.
また、上記構成において、検出された前記奥行き位置が前記所定の奥行き位置より奥であるとき、前記処理部は、検出された前記タッチ座標に所定の画像を移動させることとしてもよい。 In the above configuration, when the detected depth position is behind the predetermined depth position, the processing unit may move a predetermined image to the detected touch coordinates.
このような構成によれば、操作物を画像より奥に進入させて更に操作物を押し込んだ場合、所定の画像を操作物の位置に追従させるドラッグモードへ移行できる。 According to such a configuration, when the operation article is moved deeper than the image and the operation article is further pushed in, it is possible to shift to a drag mode in which a predetermined image follows the position of the operation article.
また、上記いずれかの構成において、複数の前記タッチ座標を検出後、前記光検出部により検出されなくなると、引き出し動作がされたと判定する判定部を更に備えることとしてもよい。 In any of the above-described configurations, a detection unit may be further provided that determines that a pull-out operation has been performed when the plurality of touch coordinates are detected and is no longer detected by the light detection unit.
このような構成によれば、複数の操作物を画像より奥に進入させてから手前へ引抜く動作を引き出し動作として検出できる。 According to such a configuration, it is possible to detect an operation of pulling a plurality of operation articles deeper than the image and then pulling them out to the front as a pulling operation.
また、上記構成において、前記光検出部の検出範囲よりも前記操作物の前記画像への進入方向から見て手前側に設定される検出範囲を有した第2の光検出部と、前記引き出し動作がされたと判定されたとき、前記第2の光検出部による検出結果に基づいて引き出し量を算出する算出部と、を更に備えることとしてもよい。 Further, in the above configuration, the second light detection unit having a detection range that is set on the near side when viewed from the direction in which the operation article enters the image with respect to the detection range of the light detection unit, and the extraction operation And a calculation unit that calculates a drawing amount based on a detection result by the second light detection unit when it is determined that the detection has been performed.
このような構成によれば、引き出し動作がされた場合、引き出し量を算出でき、引き出し量に応じた動作を行うことができる。 According to such a configuration, when a drawer operation is performed, the drawer amount can be calculated, and an operation according to the drawer amount can be performed.
本発明によると、簡素な構造により、高精度且つ高速に奥行き位置を検出することができる。 According to the present invention, the depth position can be detected with high accuracy and high speed by a simple structure.
以下に本発明の一実施形態について図面を参照して説明する。本発明の一実施形態に係る画像表示装置の全体概略斜視図を図1Aに示し、概略側面図を図1Bに示す。 An embodiment of the present invention will be described below with reference to the drawings. An overall schematic perspective view of an image display apparatus according to an embodiment of the present invention is shown in FIG. 1A, and a schematic side view is shown in FIG. 1B.
図1A及び図1Bに示す画像表示装置10は、2面コーナーリフレクタアレイ基板(反射素子集合基板)1と、液晶表示部2と、赤外線レーザユニット3と、光検出器4と、を備えている。
An
2面コーナーリフレクタアレイ基板1は、液晶表示部2により表示された画像の光学像Sを空中に結像させて、それを観察者が見ることができるようにするものである。
The two-sided corner
2面コーナーリフレクタアレイ基板1は、基板に対して、基板の主面を垂直方向に貫通する正方形状の貫通孔が平面視で千鳥状に配置されて形成される構成となっている。貫通孔の平らな内壁面のうち直交する2つに、それぞれ鏡面を2面コーナーリフレクタとして形成している。
The double-sided corner
基板の一方の主面F2側(図1B)にある空間内に配された点光源から出射された光線は、2面コーナーリフレクタにて2回反射して、屈曲しつつ基板を透過する。点光源から出射されて異なる2面コーナーリフレクタに向かうそれぞれの光線は、2面コーナーリフレクタにて2回反射された後、点光源が配された側の基板の主面F2と反対側の主面F1側の空間において1点の光学像に結像される。 The light beam emitted from the point light source disposed in the space on the one main surface F2 side (FIG. 1B) of the substrate is reflected twice by the two-surface corner reflector and passes through the substrate while being bent. Each light beam emitted from the point light source and directed to the different two-surface corner reflector is reflected twice by the two-surface corner reflector, and then the main surface opposite to the main surface F2 of the substrate on which the point light source is disposed. An image is formed at one point in the space on the F1 side.
画像の光を面発光する液晶表示部2は点光源の集合であると捉えることができる。従って、基板の一方の主面F2側にある空間(図1Bにおける主面F2の下方の空間)に配された液晶表示部2により面発光された画像光の光線は、2面コーナーリフレクタでの反射により、他方の主面F1側の空間(図1Bにおける主面F1の上方の空間)において液晶表示部2と対称な位置に光学像Sとして結像される。これにより、観察者であるユーザは、空中に画像が表示されている感覚を得ることができる。
The liquid
画像表示装置10を仮想的な入力インタフェースとして機能させるため、上記のように2面コーナーリフレクタアレイ基板1により結像された光学像Sに対して赤外レーザ光を照射する赤外線レーザユニット3が設けられる。
In order to make the
赤外線レーザユニット3のブロック構成を図2に示す。図2に示すように、赤外線レーザユニット3は、赤外LD(レーザダイオード)3Aと、コリメータレンズ3Bと、ビームスプリッタ3Cと、光検出器3Dと、水平MEMS(Micro Electro Mechanical Systems)ミラー3Eと、垂直MEMSミラー3Fと、レーザ制御回路3Gと、ミラーサーボ部3Hと、アクチュエータ3Iと、を備えている。
The block configuration of the
レーザ制御回路3Gによって制御されたパワーで赤外LD3Aは赤外レーザ光を出射する。出射された赤外レーザ光は、コリメータレンズ3Bにより平行光とされ、ビームスプリッタ3Cに入光する。ビームスプリッタ3Cに入光した光は、一部が反射されて光検出器3Dにより受光され、一部は透過して水平MEMSミラー3Eへ向かう。光検出器3Dで検出された検出信号に基づき、レーザ制御回路3Gが赤外LD3Aの出力パワーを制御する。
The infrared LD 3A emits infrared laser light with the power controlled by the
レーザ光を水平方向に走査するよう偏向可能な水平MEMSミラー3Eに入射されて反射されたレーザ光は、レーザ光を垂直方向に走査するよう偏向可能な垂直MEMSミラー3Fに入射されて反射し、赤外線レーザユニット3の筐体外部へ出射される。
The laser light incident on and reflected by the horizontal MEMS mirror 3E that can be deflected so as to scan the laser light in the horizontal direction is reflected by being incident on the
赤外線レーザユニット3は、2面コーナーリフレクタアレイ基板1の液晶表示部2が配される主面F2側(図1B)にある空間に配置されるため、赤外線レーザユニット3から出射された赤外レーザ光は、2面コーナーリフレクタアレイ基板1の貫通孔を透過して光学像Sへ出射される。
Since the
水平MEMSミラー3E及び垂直MEMSミラー3Fの偏向により、赤外線レーザユニット3から出射されるレーザ光は光学像Sに対して2次元的に走査される。
The laser light emitted from the
ミラーサーボ部3Hは、制御部5からの水平同期信号に応じてアクチュエータ3Iを駆動して水平MEMSミラー3Eを偏向させ、制御部5からの垂直同期信号に応じてアクチュエータ3Iを駆動して垂直MEMSミラー3Fを偏向させる。
The mirror servo unit 3H drives the actuator 3I in accordance with the horizontal synchronization signal from the control unit 5 to deflect the horizontal MEMS mirror 3E, and drives the actuator 3I in response to the vertical synchronization signal from the control unit 5 to generate vertical MEMS. The
光検出器4は、赤外線レーザユニット3から出射されて指などの操作物により反射されたレーザ光を検出するためのものであり、2面コーナーリフレクタアレイ基板1の液晶表示部2が配される主面F2側(図1B)の空間に配置される。
The
光検出器4の筐体内部の構成の概略斜視図を図3に示す。図3に示すように、光検出器4の筐体内部には、反射レーザ光の照射を検出する受光素子4Aと、筐体の窓部から入射した反射レーザ光を集光して受光素子4Aに導く集光レンズ4Bと、受光素子4Aと集光レンズ4Bの間に配置されて受光素子4Aの一部を覆う高さを有した板状のマスキング部材4Cを備えている。
FIG. 3 shows a schematic perspective view of the configuration inside the housing of the
なお、受光素子4Aは、図2に示すように、制御部5に接続されており、受光素子4Aによる検出信号が制御部5に送られる。
As shown in FIG. 2, the
マスキング部材4Cは、受光素子4Aの幅方向と同方向に幅を有する。そして、マスキング部材4Cは、その両端部が中央部より集光レンズ4B側へ近づいた湾曲形状をしており、受光素子4Aへの入射角に応じて反射レーザ光を遮蔽して受光素子4Aに照射されるのを規制する。
The masking
受光素子4Aの幅方向の端部からの反射レーザ光は中央部に比べて、集光レンズ4Bにより集光されて受光素子4Aに照射されるスポットの径が大きくなる。従って、マスキング部材により遮蔽されるべきところが、スポット径の拡大により全てが遮蔽されずに受光素子4Aで受光されて誤検出の懸念がある。そこで、マスキング部材4Cを湾曲形状とすることで、スポット径の大きい端部の反射レーザ光をスポット径が小さいうちに遮蔽できる。
The reflected laser light from the end in the width direction of the
このようなマスキング部材4Cの寸法の調整により、光検出器4の検出範囲の調整が可能である。光検出器4の検出範囲の設定例を図4に示す。図4の破線が光検出器4の検出範囲の限界(端部)を表す。図4に示すように、光検出器4の検出範囲の一端が光学像Sの近傍で光学像Sに対して平行となるよう設定され、この一端が操作物(図4では指)により光学像Sをタッチされた位置を検出するためのタッチ平面Tとなる。なお、タッチ平面Tは、光学像Sと一致するようにしてもよい。
The detection range of the
そして、操作物の光学像Sへの進入方向から見てタッチ平面Tの奥側に光検出器4の検出範囲が設けられる。
And the detection range of the
垂直同期信号及び水平同期信号の一例を図5に示す。図5の例では、垂直同期信号は階段状の信号としており、水平同期信号は垂直同期信号の1ステップごとに増加・減少する三角波の信号としている。このような同期信号によって水平MEMSミラー3E及び垂直MEMSミラー3Fが偏向されることにより、赤外線レーザユニット3から出射されるレーザ光は水平走査方向(図4)を往復されつつ垂直走査方向(図4)に光学像S上を走査される。
An example of the vertical synchronizing signal and the horizontal synchronizing signal is shown in FIG. In the example of FIG. 5, the vertical synchronization signal is a stepped signal, and the horizontal synchronization signal is a triangular wave signal that increases / decreases for each step of the vertical synchronization signal. The horizontal MEMS mirror 3E and the
垂直走査方向を上から下に向かって走査する場合、図4の例では、まず指先でレーザ光が反射されて光検出器4により検出され、走査が進むにつれて順次指の底面でレーザ光が反射されて光検出器4により検出され、最後はタッチ平面T近傍における指の底面でレーザ光が反射されて光検出器4により検出される。このとき、図5に示すように、同期信号の時系列に沿って光検出器4の受光レベルの一群が現れる。制御部5(図2)は、この一群のうち最後に検出された受光レベルに対応する垂直及び水平同期信号の値(即ちMEMSミラーの位置)に基づき、タッチ平面Tにおけるレーザ光の照射位置座標を、操作物によって光学像Sがタッチされた位置を示すタッチ座標として検出する。タッチ座標は、垂直座標及び水平座標からなる2次元座標である。
In the case of scanning in the vertical scanning direction from top to bottom, in the example of FIG. 4, the laser light is first reflected by the fingertip and detected by the
なお、垂直走査方向を下から上へ向かって走査する場合は、受光レベルの一群のうち最初に検出されたタイミングに基づきタッチ座標を検出すればよい。 When scanning in the vertical scanning direction from bottom to top, the touch coordinates may be detected based on the first detected timing among the group of light receiving levels.
また、制御部5は、上記一群のうち最後を除いた受光レベルの検出回数、即ち指で反射されたレーザ光の数である走査線数を計数し、計数された走査線数に基づいて奥行き位置を検出する(なお、一群における全ての検出回数を用いてもよい)。例えば、走査線数に対応して奥行きの層レベルを規定したテーブルを予め用意し、このテーブルに基づき奥行きの層レベルを検出すればよい。例えば、走査線数が0〜5本であれば、タッチ平面Tを含む層レベル0、走査線数が6〜10本であれば、層レベル0より奥側の層レベル1、走査線数が11〜15本であれば、層レベル1より奥側の層レベル2などと規定できる。
In addition, the control unit 5 counts the number of detections of the received light level excluding the last in the group, that is, the number of scanning lines that is the number of laser beams reflected by the finger, and the depth based on the counted number of scanning lines. A position is detected (note that all detection times in a group may be used). For example, a table defining the depth layer level corresponding to the number of scanning lines may be prepared in advance, and the depth layer level may be detected based on this table. For example, if the number of scanning lines is 0 to 5, the
このように本実施形態によれば、1つの光検出器4を用いて、タッチ座標の検出と、多段階の奥行き検出が可能となるので、部品点数が削減されてコストダウンを実現できる。
As described above, according to the present embodiment, it is possible to detect touch coordinates and detect multiple levels of depth using a
ここで、赤外線レーザユニット3によってレーザ光の垂直方向の走査を等速で行う場合、図6に示すように、赤外線レーザユニット3とタッチ平面Tの距離が短くなるタッチ平面Tの下側(垂直走査方向の下側)になる程、走査線は密となる。そのため、一定の走査線数で奥行きを規定すると、図6の一点鎖線に示すように奥行きをタッチ平面Tに平行な位置に設定できない。即ち、操作物を同じ奥行きで進入させているのに、光学像Sの垂直方向の位置によって奥行きの検出結果が変わるので、ユーザが違和感を感じる可能性がある。
Here, when scanning in the vertical direction of the laser beam by the
そこで、図8に示す処理による奥行き検出を行ってもよい。図8のステップS1で、制御部5がタッチ座標及び走査線数を検出した場合(ステップS1のY)、ステップS2に進む。ステップS2で、制御部5は、検出されたタッチ座標のうちの垂直座標、及び計数された走査線数に基づき、予め制御部5に格納された奥行き変換テーブルから奥行きの層レベルを取得する。 Therefore, depth detection by the process shown in FIG. 8 may be performed. When the control unit 5 detects the touch coordinates and the number of scanning lines in step S1 of FIG. 8 (Y in step S1), the process proceeds to step S2. In step S <b> 2, the control unit 5 acquires the layer level of the depth from the depth conversion table stored in advance in the control unit 5 based on the vertical coordinates of the detected touch coordinates and the counted number of scanning lines.
奥行き変換テーブルの一例を図9に示す。図9に示すように、垂直座標ごとに走査線数と層レベルの対応関係が規定されている。図9において、垂直座標の値が大きいほど、図6においてタッチ平面Tの下側に位置することを示す。そして、垂直座標の値が大きくなる程、同じ層レベルでも走査線数が大きくなるように規定している。これにより、図7において一点鎖線で示すように、奥行きをタッチ平面Tに対して平行に設定することができる。従って、同じ奥行きで操作物を進入させた場合に垂直方向位置に依らず、同じ奥行き検出結果となるので、ユーザの違和感を抑制できる。 An example of the depth conversion table is shown in FIG. As shown in FIG. 9, the correspondence between the number of scanning lines and the layer level is defined for each vertical coordinate. 9, the larger the value of the vertical coordinate, the lower the touch plane T in FIG. It is specified that the number of scanning lines increases as the vertical coordinate value increases even at the same layer level. As a result, the depth can be set parallel to the touch plane T as indicated by the alternate long and short dash line in FIG. Therefore, when the operation article is entered at the same depth, the same depth detection result is obtained regardless of the vertical position, and the user's uncomfortable feeling can be suppressed.
ステップS2の後、ステップS3で、制御部5は、検出されたタッチ座標、及び取得された奥行きの層レベルを出力する。そして、図8の処理は終了する。 After step S2, in step S3, the control unit 5 outputs the detected touch coordinates and the acquired depth layer level. Then, the process of FIG. 8 ends.
なお、上記では垂直座標のみ参照したが、水平座標のみ、または垂直座標と水平座標の両方を参照するようにしてもよい。 In the above description, only the vertical coordinate is referred to, but only the horizontal coordinate or both the vertical coordinate and the horizontal coordinate may be referred to.
次に、以上説明したタッチ座標検出及び奥行き検出を用いたアプリケーションの一例を図10〜図12を参照して説明する。ここで説明するアプリケーションは、操作物の押し込みによるドラッグモードである。 Next, an example of an application using touch coordinate detection and depth detection described above will be described with reference to FIGS. The application described here is a drag mode by pressing an operation article.
図11に示すフローチャートが開始され、まずステップS11で、指などの操作物がタッチ平面Tにタッチされ(図10の(A)の状態)、制御部5がタッチ座標を検出すると(ステップS11のY)、ステップS12へ進む。 The flowchart shown in FIG. 11 is started. First, in step S11, an operation object such as a finger is touched on the touch plane T (state (A) in FIG. 10), and the control unit 5 detects touch coordinates (in step S11). Y), proceed to step S12.
ステップS12で、制御部5が奥行きの層レベルを検出し、検出された層レベルが所定の層レベル以上であると判定し、操作物の押し込みを検出した場合(ステップS12のY)、ステップS13へ進む(図10の(B)の状態)。ステップS13で、制御部5は、ドラッグモードへ移行する。 When the control unit 5 detects the depth layer level in step S12, determines that the detected layer level is equal to or higher than the predetermined layer level, and detects pushing of the operation article (Y in step S12), step S13 is performed. (The state shown in FIG. 10B). In step S13, the control unit 5 shifts to the drag mode.
一方、ステップS12で、制御部5が、検出された層レベルが所定の層レベルに達しないと判定し、操作物が押し込まれていないことを検出した場合(ステップS12のN)、ステップS14へ進む。ステップS14で、制御部5は、タップ操作がなされたとして処理を行う。例えば、図10の(A)のようにアイコンIを指でタッチした状態で指を停止させた場合、タップ操作としての動作が行われる。 On the other hand, when the control unit 5 determines in step S12 that the detected layer level does not reach the predetermined layer level and detects that the operation article is not pushed in (N in step S12), the process proceeds to step S14. move on. In step S14, the control unit 5 performs processing assuming that a tap operation has been performed. For example, when the finger is stopped while the icon I is touched with the finger as shown in FIG. 10A, an operation as a tap operation is performed.
ドラッグモードへ移行すると、図12のフローチャートが開始される。ステップS15で、制御部5がタッチ座標を検出すると(ステップS15のY)、ステップS16へ進む。ステップS16では、ステップS15でタッチ座標と共に検出された層レベルが所定の層レベル以上であると判定した場合(ステップS16のY)、ステップS17へ進む。ステップS17で、制御部5は、ステップS15で検出されたタッチ座標の位置にアイコンを移動させるよう液晶表示部2を表示制御する。移動させるアイコンは、ステップS11(図11)で検出されたタッチ座標を含むアイコンである。ステップS17の後、ステップS15へ戻る。
When transitioning to the drag mode, the flowchart of FIG. 12 is started. If the control unit 5 detects the touch coordinates in step S15 (Y in step S15), the process proceeds to step S16. In step S16, when it is determined that the layer level detected together with the touch coordinates in step S15 is equal to or higher than the predetermined layer level (Y in step S16), the process proceeds to step S17. In step S17, the control unit 5 performs display control of the liquid
図10の(B)のように指をアイコンIに押し込んでドラッグモードへ移行した場合、このようなステップS15〜S17の繰り返しにより、指を押し込んだまま移動させるとアイコンIが追従して移動し、図10の(C)のような状態となる。 As shown in FIG. 10B, when the finger is pushed into the icon I and the mode is changed to the drag mode, the icon I follows and moves when the finger is pushed by repeating the steps S15 to S17. As shown in FIG. 10C.
そして、ステップS15で、制御部5がタッチ座標を検出できない場合(ステップS15のN)、またはステップS15でタッチ座標を検出できたが、ステップS16で所定の層レベルに達していない場合(ステップS16のN)、ステップS18へ進む。ステップS18で、制御部5は、アイコンを固定するよう液晶表示部2を表示制御する。
In step S15, the control unit 5 cannot detect the touch coordinates (N in step S15), or the touch coordinates can be detected in step S15, but the predetermined layer level is not reached in step S16 (step S16). N), the process proceeds to step S18. In step S18, the control unit 5 controls the display of the liquid
これにより、図10の(C)のようにアイコンIをドラッグにより移動させた状態で、図10の(D)のように指をアイコンIから引抜くと、ステップS18によりアイコンIが固定される(アイコンのドロップ)。 Thus, when the icon I is moved by dragging as shown in FIG. 10C, when the finger is pulled out from the icon I as shown in FIG. 10D, the icon I is fixed in step S18. (Drop icon).
このように本実施形態によるタッチ座標の検出、及び奥行きの検出によって、アイコンを光学像S上でドラッグできるユーザインタフェースを実現できる。従って、ユーザにとって、より感覚的にアイコンを操作できる。 As described above, a user interface capable of dragging an icon on the optical image S can be realized by detecting the touch coordinates and detecting the depth according to the present embodiment. Therefore, the user can operate the icon more intuitively.
また次に、アプリケーションの一例として、操作物による引き出し動作を説明する。この実施形態では、図13に示すように、光検出器4の検出範囲(図13の破線)よりも操作物の光学像Sへの進入方向から見て手前側に設定される検出範囲(図13の一点鎖線)を有した光検出器15を別途設ける。光検出器15は、光検出器4と同様に、受光素子15A、集光レンズ15B、及びそれらの間に配されるマスキング部材(不図示)を備えている。また、受光素子15Aからの検出信号は、制御部5(図2)に送られる。
Next, as an example of an application, a drawing operation by an operation article will be described. In this embodiment, as shown in FIG. 13, a detection range (see FIG. 13) that is set on the near side as viewed from the approaching direction of the operation article to the optical image S with respect to the detection range of the photodetector 4 (broken line in FIG. 13). 13 is provided separately. Similar to the
このような構成による引き出し動作処理について、図14及び図15を参照して説明する。図15のフローチャートが開始され、まずステップS21で、制御部5がタッチ座標を2つ検出すると(ステップS21のY)、ステップS22へ進む。例えば図14の(A)のように、2本の指を光学像Sにタッチすると、タッチ座標が2つ検出される。 With reference to FIGS. 14 and 15, the drawing operation processing with such a configuration will be described. The flowchart of FIG. 15 is started. First, in step S21, when the control unit 5 detects two touch coordinates (Y in step S21), the process proceeds to step S22. For example, as shown in FIG. 14A, when two fingers touch the optical image S, two touch coordinates are detected.
ステップS22で、制御部5が、検出された2つのタッチ座標間の距離が所定距離以内であると判定すると(ステップS22のY)、ステップS23へ進む。例えば図14の(A)の後、(B)のように2本の指を近付けると、2つのタッチ座標間の距離が所定距離以内となる。 If the control unit 5 determines in step S22 that the distance between the two detected touch coordinates is within a predetermined distance (Y in step S22), the process proceeds to step S23. For example, after (A) in FIG. 14, when two fingers are brought close as shown in (B), the distance between the two touch coordinates is within a predetermined distance.
そして、ステップS23で、制御部5は、タッチ座標の検出を継続し、光検出器4によって操作物による反射レーザ光が検出されなくなったと判定すると(ステップS23のY)、ステップS24へ進む。 In step S23, when the control unit 5 continues to detect the touch coordinates and determines that the reflected laser beam from the operation article is no longer detected by the photodetector 4 (Y in step S23), the control unit 5 proceeds to step S24.
ステップS24で、制御部5が、2つの操作物の先端で反射された各レーザ光が光検出器15により検出されたタイミングに応じた垂直及び水平同期信号の値に基づき、各レーザ光のタッチ平面T上の位置座標を検出する。検出された各位置座標間の距離が所定距離以内であれば(ステップS24のY)、ステップS25へ進む。ステップS25で、制御部5は、引き出し動作が行われたと判定する。
In step S24, the control unit 5 touches each laser beam based on the values of the vertical and horizontal synchronization signals corresponding to the timing at which the laser beams reflected by the tips of the two manipulation objects are detected by the
例えば図14の(B)の後、(C)のように2本の指を近付けたまま手前側に引き出すと、ステップS23、S24の処理の後、ステップS25で引き出し動作が行われたと判定される。 For example, after (B) in FIG. 14, when two fingers are pulled close to each other as shown in (C), it is determined that the pulling operation has been performed in step S25 after the processing in steps S23 and S24. The
ステップS25では、制御部5は、操作物の先端で反射されたレーザ光が光検出器15により検出されたタイミングに応じた垂直及び水平同期信号の値に基づき、レーザ光のタッチ平面T上の位置座標を検出する。そして、この検出された位置座標と、ステップS23にてタッチ座標の検出を継続したときの最後に検出されたタッチ座標に基づき、操作物の引き出し量を算出する。
In step S25, the control unit 5 determines the laser light on the touch plane T based on the values of the vertical and horizontal synchronization signals corresponding to the timing at which the laser beam reflected by the tip of the operation article is detected by the
制御部5は、例えば引き出し量に応じて、光学像Sにおける画像の拡大・縮小を行うよう液晶表示部2を表示制御する。
The control unit 5 controls the display of the liquid
このように本実施形態によれば、2つの操作物により引き出す動作によって操作を行えるユーザインタフェースを実現でき、ユーザにとって、より感覚的な操作感を与えることができる。 As described above, according to the present embodiment, it is possible to realize a user interface that can be operated by an operation that is pulled out by two operating objects, and to give a more sensuous operation feeling to the user.
以上、本発明の実施形態について説明したが、本発明の趣旨の範囲内であれば、実施形態は種々変形が可能である。 The embodiment of the present invention has been described above, but the embodiment can be variously modified within the scope of the gist of the present invention.
例えば、2次元的に走査する光ビームは赤外線に限らず、可視光としてもよい。これによれば、指などの操作物で可視光が反射するとユーザには色が見えるので、光ビームの走査範囲に操作物が確実に位置していることをユーザに知らせることができる。 For example, the light beam scanned two-dimensionally is not limited to infrared light, and may be visible light. According to this, when visible light is reflected by an operation object such as a finger, the user can see the color, so that the user can be informed that the operation object is reliably located in the scanning range of the light beam.
1 2面コーナーリフレクタアレイ基板
2 液晶表示部
3 赤外線レーザユニット
3A 赤外レーザダイオード
3B コリメータレンズ
3C ビームスプリッタ
3D 光検出器
3E 水平MEMSミラー
3F 垂直MEMSミラー
3G レーザ制御回路
3H ミラーサーボ部
3I アクチュエータ
4 光検出器
4A 受光素子
4B 集光レンズ
4C マスキング部材
5 制御部
10 画像表示装置
15 光検出器
15A 受光素子
15B 集光レンズ
S 光学像
T タッチ平面
I アイコン
DESCRIPTION OF
Claims (8)
検出範囲内の操作物で反射した前記光ビームを検出する第1の光検出部と、
前記第1の光検出部により検出された前記光ビームの数である走査線数を計数し、該走査線数に基づいて前記画像に垂直な方向における前記操作物の第1奥行き位置を検出する第1の位置検出部と、
を備え、
前記検出範囲の一端である検出平面は、前記画像と一致する、又は平行であり、
前記検出範囲は、前記操作物の前記画像への進入方向から見て前記検出平面の奥側に設けられる空間入力装置。 A scanning unit that emits a light beam toward an image projected in space and scans the light beam two-dimensionally with respect to the image ;
A first light detection unit for detecting the light beam reflected by an operation article within a detection range;
The number of scanning lines, which is the number of the light beams detected by the first light detection unit , is counted, and the first depth position of the operation article in the direction perpendicular to the image is detected based on the number of scanning lines. A first position detector;
Equipped with a,
A detection plane that is one end of the detection range coincides with or is parallel to the image;
The detection range is a spatial input device provided on the back side of the detection plane when viewed from the direction in which the operation article enters the image .
前記第2の光検出部による検出結果に基づいて移動距離を算出する算出部と、を更に備える請求項7に記載の空間入力装置。 A second light detection unit having a predetermined distance in a direction opposite to the scanning unit with respect to the projection region from a plane parallel to the projection region of the image;
The spatial input device according to claim 7, further comprising: a calculation unit that calculates a movement distance based on a detection result by the second light detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050234A JP6390736B2 (en) | 2017-03-15 | 2017-03-15 | Spatial input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050234A JP6390736B2 (en) | 2017-03-15 | 2017-03-15 | Spatial input device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013080206A Division JP2014203323A (en) | 2013-04-08 | 2013-04-08 | Space input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017107606A JP2017107606A (en) | 2017-06-15 |
JP6390736B2 true JP6390736B2 (en) | 2018-09-19 |
Family
ID=59059992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017050234A Expired - Fee Related JP6390736B2 (en) | 2017-03-15 | 2017-03-15 | Spatial input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6390736B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6180004A (en) * | 1984-09-28 | 1986-04-23 | Toho Denshi Kogyo Kk | Dimension measurement of article |
JP2000267800A (en) * | 1999-01-12 | 2000-09-29 | Takenaka Komuten Co Ltd | Movement recognizing device |
US6614422B1 (en) * | 1999-11-04 | 2003-09-02 | Canesta, Inc. | Method and apparatus for entering data using a virtual input device |
JP2001264010A (en) * | 2000-03-15 | 2001-09-26 | Pfu Ltd | Three-dimensional input device and recording medium |
EP2144448B1 (en) * | 2007-03-30 | 2019-01-09 | National Institute of Information and Communications Technology | Floating Image Interaction Device |
JP5214223B2 (en) * | 2007-11-15 | 2013-06-19 | 船井電機株式会社 | projector |
JP2010244484A (en) * | 2009-04-10 | 2010-10-28 | Funai Electric Co Ltd | Image display device, image display method and image display program |
JP2012173138A (en) * | 2011-02-22 | 2012-09-10 | Seiko Epson Corp | Optical position detection device |
JP2013065061A (en) * | 2011-09-15 | 2013-04-11 | Funai Electric Co Ltd | Projector |
-
2017
- 2017-03-15 JP JP2017050234A patent/JP6390736B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2017107606A (en) | 2017-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2014203323A (en) | Space input device | |
CN109564495B (en) | Display device, storage medium, display method, and control device | |
US10303305B2 (en) | Scanning touch systems | |
US8902435B2 (en) | Position detection apparatus and image display apparatus | |
KR20080044017A (en) | Touch screen | |
JP2013065061A (en) | Projector | |
JP6721875B2 (en) | Non-contact input device | |
JP6102330B2 (en) | projector | |
KR20010051563A (en) | Optical digitizer using curved mirror | |
JP2014202951A (en) | Image projection device and operation matter detection method | |
JP2016021229A (en) | Input device | |
JP6390736B2 (en) | Spatial input device | |
JP2016009396A (en) | Input device | |
EP2889748A1 (en) | Touch-sensitive display device with palm input rejection | |
JP2014170136A (en) | Projector and electronic device with projector function | |
JP2008204047A (en) | Display detection device and light detection device | |
JP5987395B2 (en) | Display device | |
TW201327324A (en) | Optical touch control module | |
JP2015060295A (en) | Input device | |
JP6206180B2 (en) | Image display device | |
CN102854509A (en) | Optical position detection device, light receiving unit, and display system with input function | |
TW201327325A (en) | Optical touch control module | |
JP2017139012A (en) | Input device, aerial image interaction system, and input method | |
JP2001084108A (en) | Device for inputting and detecting and displaying coordinate | |
JP2012173098A (en) | Indicated position detector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170324 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180522 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180629 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180724 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180806 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6390736 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |