JP2016058046A - Coordinate input device, control method thereof, program, coordinate input system, and control method thereof - Google Patents
Coordinate input device, control method thereof, program, coordinate input system, and control method thereof Download PDFInfo
- Publication number
- JP2016058046A JP2016058046A JP2014186564A JP2014186564A JP2016058046A JP 2016058046 A JP2016058046 A JP 2016058046A JP 2014186564 A JP2014186564 A JP 2014186564A JP 2014186564 A JP2014186564 A JP 2014186564A JP 2016058046 A JP2016058046 A JP 2016058046A
- Authority
- JP
- Japan
- Prior art keywords
- touch operation
- coordinate input
- light
- sensor
- sensor units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、座標入力領域へのタッチ操作の位置を光学的に検出する座標入力装置と、この座標入力装置の制御方法と、この座標入力装置の制御方法を実行するためのプログラムと、この座標入力装置を有する座標入力システムと、この座標入力システムの制御方法に関する。特には、座標入力領域を設ける面などに着脱可能で可搬性を有する座標入力装置と、この座標入力装置の制御方法と、この座標入力装置の制御方法を実行するためのプログラムと、この座標入力装置を有する座標入力システムと、この座標入力システムの制御方法に関する。 The present invention relates to a coordinate input device that optically detects the position of a touch operation on a coordinate input region, a control method for the coordinate input device, a program for executing the control method for the coordinate input device, and the coordinates The present invention relates to a coordinate input system having an input device and a control method of the coordinate input system. In particular, a coordinate input device that can be attached to and detached from the surface on which the coordinate input area is provided and is portable, a control method for the coordinate input device, a program for executing the control method for the coordinate input device, and the coordinate input device The present invention relates to a coordinate input system having a device and a control method of the coordinate input system.
光を用いる方式の座標入力装置として、座標入力領域の外側に再帰性反射材を設け、投光手段からの光を再帰反射材で反射し、その光量分布を受光手段により検出する方式が知られている。特許文献1には、座標入力領域内が指等でタッチされて光路が遮られると、遮光された方向を検知することでタッチ位置を算出するという構成が開示されている。このような光学式の座標入力装置は、少なくとも2基のセンサユニットにより検出されるタッチ位置の方向(角度)と、これら2基のセンサユニット間の距離の情報に基づき、座標入力領域へのタッチ位置を幾何学的に算出する。
As a coordinate input device using light, a method is known in which a retroreflecting material is provided outside the coordinate input area, the light from the light projecting means is reflected by the retroreflecting material, and the light quantity distribution is detected by the light receiving means. ing.
ところで、このような座標入力装置においては、センサユニットの相対位置を確定しなければ、タッチ操作の位置の座標を算出できない。そして、センサユニットの相対位置を確定するためには、あるセンサユニットから見た他のセンサユニットの相対的な方向(角度)のみならず、ある絶対的な基準方向に対するセンサユニットの方向が必要になる。そこで、このような座標入力装置の製造においては、センサユニットを筺体へと組み込んだ後、基準となる方向(角度)を取得して、座標入力装置に保持させていた。例えば、筺体の垂直方向の角度を専用の冶具を用いて予め計測し、基準点角度情報として保持させていた。しかしながら、センサユニットを筺体へ組み込んだ後に基準となる角度を取得する際には、高い作業精度が求められる。このため、高い作業精度の要求を満たすような専用の治具と、このような基準方向の取得と付与の工数が必要であり、製造コストの上昇を招いていた。 By the way, in such a coordinate input device, the coordinates of the position of the touch operation cannot be calculated unless the relative position of the sensor unit is determined. In order to determine the relative position of the sensor unit, not only the relative direction (angle) of another sensor unit viewed from one sensor unit, but also the direction of the sensor unit with respect to a certain absolute reference direction is required. Become. Therefore, in manufacturing such a coordinate input device, after the sensor unit is incorporated into the housing, a reference direction (angle) is acquired and held in the coordinate input device. For example, the angle in the vertical direction of the housing is measured in advance using a dedicated jig and held as reference point angle information. However, when the reference angle is acquired after the sensor unit is incorporated into the housing, high working accuracy is required. For this reason, a dedicated jig that satisfies the requirement for high work accuracy and the number of steps for obtaining and giving such a reference direction are required, resulting in an increase in manufacturing cost.
本発明は上述した問題を解決するためになされたものであり、座標入力装置の製造において基準方向の取得と付与の工程を省略することにより、製造コストの削減を図ることである。 The present invention has been made to solve the above-described problems, and is intended to reduce the manufacturing cost by omitting the process of obtaining and assigning the reference direction in the manufacture of the coordinate input device.
上記課題を解決するため、本発明の座標入力装置は、入射光を再帰反射する再帰反射手段と、前記再帰反射手段に向けて投光する投光手段と、前記投光手段から投光されて前記再帰反射手段で再帰反射した反射光を受光する受光手段と、を有する少なくとも4基のセンサユニットと、前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出手段と、前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求手段と、前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出手段と、を有することを特徴とする。 In order to solve the above problems, a coordinate input device according to the present invention includes a retroreflective unit that retroreflects incident light, a light projecting unit that projects light toward the retroreflective unit, and a light projected from the light projecting unit. A light receiving means for receiving reflected light retroreflected by the retroreflecting means, and a position of a touch operation on a rectangular coordinate input area based on a light quantity distribution received by the light receiving means. Touch position calculation means for calculating the position of the touch input operation, and two of the four sensor units located at the four corners of the coordinate input area, which are located in the diagonal direction in the overlapping area where the position of the touch operation can be detected. Request means for performing a process for prompting a touch operation to a position different from the intersection of the two straight lines connecting the sensor unit, the position of the touch operation is calculated, and the position of the touch operation is the overlap region Relative position calculation means for calculating the relative position of the four sensor units based on the calculation result of the position of the touch operation when the position is different from the intersection of To do.
本発明によれば、使用時において、自動的に基準方向の取得ができる。このため、座標入力装置の製造において基準方向の取得と付与の工程を省略することができ、製造コストの削減を図ることができる。 According to the present invention, the reference direction can be automatically acquired during use. For this reason, in the manufacture of the coordinate input device, the process of obtaining and assigning the reference direction can be omitted, and the manufacturing cost can be reduced.
以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。なお、説明の便宜上、「光」という場合には、可視光以外の波長領域の電磁波(特に赤外線)も含むものとする。また、以下の各実施形態において示す構成は本発明の具体化の例に過ぎず、本発明は以下の各実施形態に示す構成に限定されるものではない。 Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. For convenience of explanation, the term “light” includes electromagnetic waves (especially infrared rays) in a wavelength region other than visible light. The configurations shown in the following embodiments are merely examples of the present invention, and the present invention is not limited to the configurations shown in the following embodiments.
(第1の実施形態)
まず、第1の実施形態に係る座標入力装置100と座標入力システム101の概略構成を、図1と図2を参照して説明する。図1は、本発明の第1の実施形態に係る座標入力装置100と座標入力システム101の概略構成の例を模式的に示す図である。図1に示すように、座標入力装置100は、筺体として2基で一組のセンサバー1L,1Rを有する。2基のセンサバー1L,1Rには、それぞれ、少なくとも2基のセンサユニット21L,22L,21R,22Rが設けられる。このため、座標入力装置100は、全体で少なくとも4基のセンサユニット21L,22L,21R,22Rを有する。
(First embodiment)
First, schematic configurations of the
座標入力システム101は、座標入力装置100と、座標入力装置100の外部機器であるコンピュータ(以下、PC300と記す)と、表示装置200とを有する。図2は、PC300のハードウェア構成の例を示す図である。図2に示すように、PC300は、CPU301と、RAM302と、ROM303と、外部メモリ304と、入力部305と、表示部306と、通信I/F部307と、バスを有して構成されている。CPU301は、PC300における動作を統括的に制御するものであり、バスを介してPC300の各部を制御する。RAM302は、CPU301の主メモリ、ワークエリア等として機能する。ROM303には、CPU301が処理を実行するために必要なプログラム等が記憶されている。外部メモリ304には、後述する処理を実行するためのアプリケーションのプログラムが格納されている。外部メモリ304としては、たとえはHDD(ハードディスクドライブ)やSSD(シリコンソリッドディスク)などの公知の各種記憶デバイスが適用できる。入力部305は、使用者等がPC300を操作する部分である。入力部305としては、例えばキーボードやマウスなどの公知の各種入力デバイスが適用できる。表示部306は、CPU301の制御に従い、各種画像や情報などを表示する。表示部306には、液晶表示装置など、公知の各種表示デバイスが適用できる。通信I/F部307は、外部(本実施形態では、座標入力装置100と表示装置200)との通信を司るものである。バスは、CPU301と、RAM302と、ROM303と、外部メモリ304と、入力部305と、表示部306と、通信I/F部307とを通信可能に接続する。そして、CPU301は、処理の実行に際して、外部メモリ304に格納されているコンピュータプログラムを読み出し、RAM302をワークエリアとして使用することにより、当該プログラム実行する。これにより各種の機能動作を実現する。
The
なお、PC300は、上記構成に限定されない。PC300は、所定のアプリケーションを実行できるとともに、座標入力装置100と表示装置200と通信できる構成であればよい。PC300には、例えば、公知の各種パーソナルコンピュータ(ラップトップタイプやPDAタイプも含む)が適用できる。
The PC 300 is not limited to the above configuration. The PC 300 may have any configuration as long as it can execute a predetermined application and can communicate with the
表示装置200は、座標入力装置100が生成した画像や、PC300のアプリケーションが生成した画像を座標入力領域5(後述)の内側に投影(表示)する。表示装置200が画像を投影(表示)する領域が表示領域111である。表示装置200は、外部(本実施形態では座標入力装置100とPC300)から入力された画像を投影(表示)できる構成であればよく、具体的な構成は特に限定されない。表示装置200には、公知のプロジェクタなど、公知の各種表示装置が適用できる。
The
図1に示すように、座標入力装置100の各々のセンサバー1L,1Rは、矩形状の座標入力領域5の対向する2辺の外側に配置されて使用される。そして、その状態で、4基のセンサユニット21L,22L,21R,22Rのそれぞれは、矩形状の座標入力領域5の四隅部近傍に位置する。より具体的には、各々のセンサバー1L,1Rの2基のセンサユニット21L,22L,21R,22Rのそれぞれは、矩形状の座標入力領域5の対向する2辺のそれぞれの両端部近傍に位置する。なお、座標入力領域5とは、座標入力装置100により座標の入力が可能な領域をいうものとする。換言すると、略平行に配置される2基のセンサバー1L,1Rの間に、座標入力領域5が設けられる。表示装置200としてフロントプロジェクタが適用され、平面状のホワイトボード6などに画像を投影する場合には、表示装置200による表示領域111(表示画面)は、座標入力装置100による座標入力領域5の範囲内に設定される。なお、画像を投影する対象は、ホワイトボード6に限定されるものではなく、壁面やスクリーンなどであっても良い。説明の便宜上、平面状で矩形状の座標入力領域5における横方向をX軸方向(向かって右向きが+)とし、縦方向をY方向(下向きが+)とし、法線方向(図1中の紙面に直角な方向)をZ方向とする。
As shown in FIG. 1, the sensor bars 1 </ b> L and 1 </ b> R of the coordinate
一方のセンサバー1L(図1においては左側に配置されるセンサバー)には、少なくとも2基のセンサユニット21L,22Lと、演算制御回路3Lとが内蔵される。同様に、もう一方のセンサバー1R(図1においては右側に配置されるセンサバー)には、少なくとも2基のセンサユニット21R,22Rと、演算制御回路3Rとが内蔵される。センサユニット21L,22L,21R,22Rは、それぞれ、投光手段30と受光手段40を有する。また、各々のセンサバー1L,1Rの使用状態において互いに対向する側面には、入射光を再帰反射する再帰反射手段4L,4Rが設けられる。再帰反射手段4L,4Rは、座標入力領域5の対向する2辺の各々に設けられたセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rの投光手段30が投光した赤外線を再帰反射させる。再帰反射手段4L,4Rは、入射光を再帰反射させる構成であればよい。このため、再帰反射手段4L,4Rには、公知の各種再帰反射材(再帰反射テープなど)が適用できる。
One
一方のセンサバー1Lに内蔵される演算制御回路3Lは、センサユニット21L,22Lを制御するとともに、それらの出力結果を演算処理する。さらに、一方のセンサバー1Lに内蔵される演算制御回路3Lは、もう一方のセンサバー1Rに内蔵される演算制御回路3Rを制御する。もう一方のセンサバー1Rに内蔵される演算制御回路3Rは、センサユニット21R,22Rを制御するとともに、それらの出力結果を演算処理する。そして、演算処理の結果を、一方のセンサバー1Lに内蔵される演算制御回路3Lに送信する。そして、使用者等が座標入力領域5内の所望の位置を指示やタッチ等すると、一方のセンサバー1Lに設けられる演算制御回路3Lは、4基のセンサユニット21L,22L,21R,22Rからの出力結果を処理して指示やタッチ等の位置を算出する。本発明の実施形態では、使用者等による座標入力領域5への指示やタッチを「タッチ操作」と称し、タッチ操作された位置を「タッチ位置」と称する。なお、タッチ操作は、座標入力領域5の面に接触する動作でなくてもよい。そして、演算制御回路3Lは、タッチ位置の算出結果を、PC300へ出力する。なお、図1においては、一方のセンサバー1Lに内蔵される演算制御回路3Lと、もう一方のセンサバー1Rに内蔵される演算制御回路3Rとが、ケーブル7で接続されて有線通信する構成を示す。ただし、一方のセンサバー1Lに内蔵される演算制御回路3Lともう一方のセンサバー1Rに内蔵される演算制御回路3Rとが無線通信する構成であってもよい。
The
図3は、センサユニット21Lの概略構成の例を模式的に示す図である。具体的には、図3(A)は図1のA−A線断面図である。図3(B)は、センサユニット21Lに含まれる投光手段30をZ軸方向から見た正面図である。図3(C)は、センサユニット21Lに含まれる受光手段40をZ軸方向から見た正面図である。なお、図3においては、4基のセンサユニット21L,22L,21R,22Rのうちの1基のセンサユニット21Lの構成を示すが、他のセンサユニット22L,21R,22Rも、センサユニット21Lと同様の構成を有する。具体的には、センサユニット22L,21Rは、センサユニット21Lと鏡面対象の構成を有し、センサユニット22Rは、センサユニット21Lと点対称の構成(構成は同じで配置の向きが異なる)を有する。
FIG. 3 is a diagram schematically illustrating an example of a schematic configuration of the
センサユニット21Lは、一方のセンサバー1Lに内蔵されている。図3(A)に示すように、センサユニット21Lは、投光手段30と受光手段40とを有する。投光手段30の光軸Apと受光手段40の光軸Arとは、座標入力領域5(すなわち、X−Y平面)に平行であり、Z軸方向に距離Lpdをおいて離れている。そして、センサバー1Lの側面には、投光手段30の光軸Apと受光手段40の光軸Arとの間に、再帰反射手段4Lが設けられる。なお、センサバー1Lの側面には、投光手段30が発する赤外線と再帰反射手段4Rで反射して入射する赤外線とが通過する開口部が設けられ、この開口部を塞ぐように光透過性を有する保護部材45が設けられる。保護部材45は、開口部を塞ぐことによって、センサバー1Lの内部へのゴミ等の異物の侵入を防止する。
The
図3(B)に示すように、投光手段30は、光源の例である赤外LED31と、投光レンズ32とを有する。赤外LED31と投光レンズ32とは、例えば接着層33により固定される。赤外LED31は赤外線を発する。投光レンズ32は、赤外LED31が発する赤外線を、座標入力領域5の面(例えばホワイトボード6の面)に略平行な光束に成形する。そして、投光手段30は、対向する辺に設けられるもう一方のセンサバー1Rの再帰反射手段4Rの全領域を照明するように設けられる。具体的には、投光手段30は、Z軸方向視において、投光範囲が方向gから方向hの範囲であって、頂点が点Opの位置の扇状の光束を出射する。また、投光手段30の光軸は方向fに設定される。方向fは、もう一方のセンサバー1Rの長手方向の端部であって、センサユニット21Lから遠い側の端部(対角方向に位置する端部)に向かう方向である。具体的には、向かって左側のセンサバー1Lの上端に設けられるセンサユニット21Lを基準とすると、方向fは、このセンサユニット21Lから右側のセンサバー1Rの下端に向かう方向となる。
As illustrated in FIG. 3B, the
図3(C)に示すように、受光手段40は、投光手段30が投光し、対向する辺に設けられたセンサバー1L,1Rに装着されている再帰反射手段4L,4Rにおいて反射(再帰反射)して入射した光を検出する。受光手段40は、検出手段の例であるラインCCD41と、受光レンズ42と、視野絞り43と、赤外線通過フィルター44とを有する。なお、保護部材45に赤外通過フィルター機能を設け、受光手段40に赤外線通過フィルター44を設けない構成であってもよい。受光手段40の光軸の方向は、X軸方向に平行な方向に設定される。また、図3(C)においては、前述の方向gから方向hの範囲が受光手段40の視野範囲となり、点Orの位置が光学的な中心位置となる。なお、受光手段40は、その光軸に対して非対称な光学系となっている。ラインCCD41には、複数の画素(光電変換素子)が直線状に並べられた構成を有する。そして、入射する光の方向に応じて、受光手段40のラインCCD41のいずれかの画素に集光される。このため、ラインCCD41の画素番号は入射する光の入射角度の情報を表すことになる。
As shown in FIG. 3C, the light receiving means 40 is reflected (recursively) by the retroreflective means 4L and 4R mounted on the sensor bars 1L and 1R provided on the opposite sides, which are projected by the
そして、投光手段30と受光手段40とは、Z軸方向視において、点Opと点Orの位置、および、方向gと方向hとが略一致するように、Z軸方向に重ねて配置される(図3(A)参照)。
The
図4(A)は、座標入力装置100の概略構成と、投光手段30と受光手段40の配置の例を模式的に示す図である。センサバー1Lのセンサユニット21Lの投光手段30は、方向gから方向hの範囲に赤外線を投光する。そして、センサバー1Lのセンサユニット21Lの投光手段30から投光される赤外線のうち、もう一方のセンサバー1Rの再帰反射手段4Rが装着されている範囲(図4においては、方向jから方向fの範囲)に入射した光が再帰反射する。そして、再帰反射手段4Rで再帰反射した光は、センサバー1Lの受光手段40で検出される。このように、2基のセンサバー1L,1Rは、互いに、相手方のセンサバー1L,1Rの2基のセンサユニット21L,22L,21R,22Rから見て方向gと方向hの間に配置された状態で使用される。さらに、一方のセンサバー1Lの各々のセンサユニット21L,22Lから見て、それぞれ方向fにもう一方のセンサバー1Rのそれぞれの端部が位置する状態で使用される。なお、図4においては、一方のセンサバー1Lについて方向f,g,hを示すが、もう一方のセンサバー1Rについても同様である。
FIG. 4A is a diagram schematically illustrating an example of the schematic configuration of the coordinate
ところで、投光手段30が発する光束は、完全には平行とはならず、投光手段30から離れるにしたがって光束の幅が広くなる(図3(A)参照)。このため、再帰反射手段4Rで再帰反射する光量は、投光手段30からの距離が大きくなるにしたがって減少する。したがって、投光手段30の中心点Opから再帰反射手段4Rまでの距離が近い方向jに比べ、距離の遠い方向fは、入射する光の強度が低い。さらに、再帰反射手段4Rにおける再帰反射光率は、再帰反射手段4Rの再帰反射面に直角方向から入射した場合に比較すると、入射角が大きくなるにしたがって低下する。換言すると、再帰反射手段4L,4Rへの入射光が再帰反射光として再帰反射する割合は、再帰反射手段4L,4Rへの入射光の入射角に依存する。そして、方向fは、再帰反射手段4L,4Rへの入射角が最も大きい方向であるから、再帰反射する割合が最も低下する。一方、受光手段40の光軸Arは、X軸方向に平行な方向に設定されている。そして、入射する反射光と受光手段40の光軸Arとがなす角度は、方向fから入射する反射光において最も大きくなる。一般的な光学レンズのレンズ特性は、光軸となす角度が大きくなるに従って集光効率が低下する。このため、方向fは、集光効率の低下により最も暗くなる方向であると言える。したがって、投光手段30が方向gから方向hの範囲の全域で一定の強度の光を投光(照射)できたとしても、受光手段40で検出できる再帰反射光は、方向jからの再帰反射光が最も強くなり、方向jから方向fに向かうに従って弱くなる(図4(B)参照)。
By the way, the luminous flux emitted from the
一方で、赤外LED31の赤外線の強度は、一般的に光軸方向において最大となる。そして光軸とのなす角度が大きくなるに従って、赤外線の強度は低下する。このような投光強度(照射強度)の低下の度合いは、一般的には図4(C)に示すように、投光強度(照射強度)が光軸方向の半分となる角度『半値角』で定義される。本実施形態においては、再帰反射光の強度が最も弱くなる方向fに投光手段30の光軸Apを向ける構成とする。これにより、方向fへの投光強度を増大させ、方向fから方向jに向かうにしたがって、相対的に投光強度を低下させている。このような構成であると、図4(D)に示すように、方向jから方向fまでの範囲において、検出できる再帰反射光の強度の不均一の低減または解消ができる。したがって、方向によらず安定した信号が得られるようになる。なお、本実施形態では、赤外LED31の投光強度の分布に応じて、投光手段30の光軸を再帰反射光レベルが最も弱い方向fに向ける構成を示した。しかしながら、投光手段30の受光手段40に対する傾斜角は前述の角度に限られるものではない。例えば、投光レンズ32に非対称の光学特性を持たせた場合には、図4(C)に示す光量分布も非対称性を有することになる。この場合、その非対称性を有する分布において投光強度が最大となる方向を、方向fに一致させる構成であってもよい。
On the other hand, the infrared intensity of the
次に、センサバー1L,1Rの構成について、図5を参照して説明する。本実施形態では、2基のセンサバー1L,1Rを、例えばホワイトボード6や壁面などの平面状の領域に取り付けて使用する。そして、ホワイトボード6や壁面に投影されている表示領域111を直接にタッチ操作できるようにする。表示領域111の大きさは、ホワイトボード6の大きさや壁面の大きさに応じて使用者等が適宜設定するものであり、固定値ではない。例えば、ホワイトボード6を用いる場合であっても、市販のホワイトボードには種々のサイズが有る。投影画面のスクリーンとして大画面を投影できるサイズには、例えば、縦横寸法が900×1200mm、900×1800mm、1200×1800mmのものがある。ただし、これらの寸法は、ホワイトボードとして有効に使える範囲を意味しているのではなく、四辺周囲部の筺体枠を含む寸法であることが多い。したがって、座標入力領域5として実際に使える領域はそれより小さく、大きさもメーカによってまちまちとなっている。
Next, the configuration of the sensor bars 1L and 1R will be described with reference to FIG. In the present embodiment, the two
そこで、本実施形態では、種々の寸法に対応できるように、座標入力装置100のセンサバー1L,1Rには、長手方向に伸縮する伸縮機構が設けられる。そして、センサバー1L,1Rの伸縮機構を伸縮させることによって、各々のセンサバー1L,1Rに内蔵される2基のセンサユニット21L,22L,21R,22Rの距離を変更できる。例えば、縦寸法が筺体900〜1200mmのホワイトボード6の平面部分の大きさ820mmから1200mmに装着できるように、センサバー1L,1Rの外形長さが820〜1200mmの範囲で可変である構成が適用できる。
Therefore, in the present embodiment, the sensor bars 1L and 1R of the coordinate
図5(A)は、センサバー1Lの概略構成の例を示す断面図である。なお、もう一方のセンサバー1Rも、センサバー1Lと同様の構成を有する。各々のセンサバー1L,1Rは、上側筺体ケース61と下側筺体ケース62とを有する。上側筺体ケース61と下側筺体ケース62の一方には外側パイプ63が設けられ、他方には内側パイプ64が設けられる。内側パイプ64は、その少なくとも一部が外側パイプ63の内側に嵌まり込んでいる。そして、内側パイプ64と外側パイプ63は、互いに軸線方向にスライド式に往復動可能である。また、外側パイプ63は上側筺体ケース61に固定され、内側パイプ64は下側筺体ケース62に固定される。ただし、外側パイプ63が下側筺体ケース62に固定され、内側パイプ64が上側筺体ケース61に固定される構成であってもよい。図5(B)に示すように、センサバー1L,1Rを伸縮させると、外側パイプ63と内側パイプ64とが勘合関係を維持した状態でスライドする。本実施形態においては、外側パイプ63と内側パイプ64とが金属製である構成が適用される。外側パイプ63と内側パイプ64とを金属製とすることにより、伸縮動作時のセンサバー1L,1Rの機械的強度を確保している。なお、金属製である外側パイプ63と内側パイプ64の各々の一端は、プレス成形などによって押しつぶされている。そして、当該押しつぶされた部分において、上側筺体ケース61と下側筺体ケース62の各々に機械的に結合される。さらに、当該押しつぶされた部分に、センサユニット21L,22L,21R,22Rの各々が装着される。
FIG. 5A is a cross-sectional view illustrating an example of a schematic configuration of the
本実施形態においては、センサユニット21L,22L,21R,22Rは、それらの受光手段40の光軸Arがセンサバー1L,1Rの長手方向(伸縮方向)に対して直角な方向となるように配置されている。そして、受光手段40の視野範囲は、光軸Arに対して非対称に設けられている。このような構成によれば、筺体であるセンサバー1L,1Rを細くできる。すなわち、ラインCCD41およびこのラインCCD41が実装される回路基板の長手方向を、センサバー1L,1Rの長手方向に平行にできる。
In the present embodiment, the
例えば、図5(C)に示すように、センサユニット21L,22L,21R,22Rが軸対称な光学系有しているとする。このような構成では、受光手段40に必要な視野範囲を確保するために、受光手段40の光学系の光軸を、センサバー1L,1Rの長手方向(図5(C)においては上下方向)に対して傾けなければならない。このため、その光学系を収納するセンサバー1L,1Rの幅Lwは、光軸が長手方向に直角である構成と比較して大きくなる。その結果、筺体であるセンサバー1L,1Rも大きくなって重量が増加する。このため、可搬性が低下するだけではなく、センサバー1L,1Rを装着するために必要な面積がより大きくなる。したがって、ホワイトボード6等に装着する場合には、表示装置200による表示領域111の面積が小さくなる。
For example, as shown in FIG. 5C, it is assumed that the
また、受光手段40の光学系が、光軸Arに関して軸対称で、かつ、光軸Arがセンサバー1L,1Rのスライド方向に直角な方向である構成について考える。そして、受光手段40の光学系に設けられるミラーなどの光学部材によって光線を折り曲げて必要な視野範囲を確保するものとする。このような構成では、光路上にミラー等の新たな光学素子を設けなければならなくなり、センサユニット21L,22L,21R,22Rが大型化する。したがって、このような構成では、非軸対称な光学系を用いる構成に比較して、センサバー1L,1Rの幅が大きくなる。
Consider a configuration in which the optical system of the light receiving means 40 is axially symmetric with respect to the optical axis Ar, and the optical axis Ar is perpendicular to the sliding direction of the sensor bars 1L and 1R. Then, the light beam is bent by an optical member such as a mirror provided in the optical system of the light receiving means 40 to ensure a necessary visual field range. In such a configuration, a new optical element such as a mirror must be provided on the optical path, and the
また、受光手段40の光学系が、光軸(X軸)に関して軸対称で、十分に大きな視野範囲(例えば、光軸Arを中心として±50°の視野範囲)である構成について考える。この場合には、受光手段40の光学系の視野範囲は、図5(A)に示すように、方向hから方向mの範囲となる。なお、方向mは、光軸(X軸)に関して、方向hに対称な方向である。この場合には、光軸(X軸)と方向hがなす角度=光軸(X軸)と方向hがなす角度(=50°)の関係となる。これに対し、座標入力装置100が必要とする視野範囲は、対向する辺に設けられた再帰反射手段4L,4Rの全域をカバーする範囲であり、これは、方向fから方向jの範囲のみである。このため、光軸(X軸)の片側略半分の視野範囲(すなわち、方向jから方向mの範囲)は、使用しない領域となる。従って、このような構成であっても、受光手段40の有効な視野範囲は、実質的に光軸Arに関して非対称な光学系を採用しているのと同等である。
Consider a configuration in which the optical system of the light receiving means 40 is axially symmetric with respect to the optical axis (X axis) and has a sufficiently large visual field range (for example, a visual field range of ± 50 ° with respect to the optical axis Ar). In this case, the visual field range of the optical system of the light receiving means 40 is a range from the direction h to the direction m as shown in FIG. The direction m is a direction symmetrical to the direction h with respect to the optical axis (X axis). In this case, the angle formed by the optical axis (X axis) and the direction h = the angle formed by the optical axis (X axis) and the direction h (= 50 °). On the other hand, the visual field range required by the coordinate
なお、本実施形態では、座標入力領域5が横長の矩形状であり、その左右のそれぞれにセンサバー1L,1Rを配置する構成を示す(図1参照)。この場合には、センサバー1L,1Rの伸縮量は、座標入力領域5の短尺方向である縦寸法を基準にして設定されることになる。ただし、本発明は、このような構成に限定されるものではない。例えば、横長の矩形状の座標入力領域5の左右でなく、上下のそれぞれに配置する構成であってもよい。この場合には、矩形状の座標入力領域5の左右のそれぞれに装着して用いる場合に比較して、センサバー1L,1Rを最大限伸ばした場合の寸法を大きくすることになる。さらに、壁面等などに大きな画面を投影するような場合には、想定する最大表示領域の大きさに応じて、センサバー1L,1Rの伸縮機構の伸縮量を設定することになる。
In this embodiment, the coordinate
なお、ホワイトボード6のような横長の矩形状の面に、横長の矩形状の座標入力領域5を設定する場合には、センサバー1L,1Rを、左右のそれぞれ(すなわち短辺)に装着する構成であることが好ましい。すなわち、一般的に、ホワイトボード6のアスペクト比は、公知の各種表示装置の表示領域のアスペクト比に比較して、横長となる比を有する。このため、ホワイトボード6に表示装置200の表示領域111を最大限確保しようとすると、ホワイトボード6の左右両端部に空白(画像が表示されない領域)が形成されることになる。このため、ホワイトボード6の左右両端部にセンサバー1L,1Rを配置しても、表示装置200の表示領域111が小さくならない。このため、より大きな表示領域111を使用できる操作環境を提供できる。
In the case where the horizontally long rectangular coordinate
また、表示装置200の表示領域111のアスペクト比は、横長となる比を有する。このため、センサバー1L,1Rを、座標入力領域5の左右(すなわち短辺)のそれぞれに装着する構成であれば、上下(すなわち長辺)のそれぞれに装着する構成に比較して、センサバー1L,1Rの最大長さを小さくできる。着脱可能な座標入力装置100は、取り扱いや搬送の便宜のため、軽量で小型であることが好ましい。例えば、使用者等が所望の使用場所(例えば会議室等)に搬送し、使用場所に設置されているホワイトボード6や壁面を座標入力領域5として用いることにより、使用場所に搬送して直ちに使用できることが好ましい。矩形状の座標入力領域5の短辺に装着する構成であれば、長辺に装着する構成に比較して、小型化と軽量化を図ることができる。したがって、搬送や使用準備が容易となる。
Further, the aspect ratio of the
また、センサバー1L,1Rを座標入力領域5の左右のそれぞれに配置する構成であると、配置が容易である。すなわち、座標入力領域5の上下のそれぞれに装着する構成では、高所作業が必要になることがある。これに対して、座標入力領域5の左右のそれぞれに設置する構成であれば、このような高所作業が不要である。
Further, if the sensor bars 1L and 1R are arranged on the left and right sides of the coordinate
次に、座標入力装置100の機能構成の例について、図6(A)を参照して説明する。図6(A)は、演算制御回路3L,3Rの機能構成の例を示すブロック図である。本実施形態においては、一方のセンサバー1Lに内蔵される演算制御回路3Lと、もう一方のセンサバー1Rに内蔵される演算制御回路3Rとは、外部へのインタフェースの仕様を除き、同様の構成を有する。そして、演算制御回路3L,3Rは、各々接続されるセンサユニット21L,22L,21R,22Rの制御や各種演算を行っている。
Next, an example of a functional configuration of the coordinate
メイン演算部71は、CPUとROMとRAMとを含むワンチップマイコンなどで構成される。そして、メイン演算部71は、センサユニット21L,22L,21R,22RにCCD制御信号を出力してラインCCD41のシャッタタイミングや、データの出力制御などを行っている。クロック発生部CLK72は、ラインCCD41用のクロックを生成し、センサユニット21L,22L,21R,22Rに送信する。また、このクロックは、ラインCCD41と同期して各種制御を行うために、メイン演算部71にも送信される。さらに、メイン演算部71は、センサユニット21L,22L,21R,22Rの赤外LED31を駆動するLED駆動信号を生成し、センサユニット21L,22L,21R,22Rに送信する。
The
センサユニット21L,22L,21R,22Rにおける検出手段の例であるラインCCD41からの検出信号は、A/Dコンバータ73に入力される。A/Dコンバータ73は、メイン演算部71による制御にしたがって、検出信号をアナログデータからデジタルデータに変換する。変換された検出信号のデジタルデータはメモリ74に記憶される。メイン演算部71は、記憶された検出信号のデジタルデータを用いて、光束の入射方向(角度)を算出する角度計算を行う。そして、メイン演算部71は、計算した光束の入射方向の角度情報から、幾何学的なタッチ位置を算出し、USBインタフェース78などを介してPC300に出力する。
A detection signal from a
各々のセンサバー1L,1Rに内蔵される演算制御回路3L,3Rは、各々のセンサバー1L,1Rに内蔵される2基のセンサユニット21L,22L,21R,22Rを制御する。そして、例えば一方のセンサバー1Lに内蔵される演算制御回路3Lがマスター機能を果たすものとする。この場合には、この演算制御回路3Lのメイン演算部71は、シリアル通信を行うインタフェース77を介して、もう一方のセンサバー1Rに内蔵される演算制御回路3Rに制御信号を送信し、演算制御回路3L,3R間で同期をとる。そして、一方のセンサバー1Lに内蔵される演算制御回路3Lは、もう一方のセンサバー1Rに内蔵される演算制御回路3Rから、必要なデータを取得する。なお、2つの演算制御回路3L,3Rは、マスター・スレーブ制御にて動作する。本実施形態では、演算制御回路3Lがマスターで、演算制御回路3Rがスレーブである構成を例に示す。ただし、2つの演算制御回路3L,3Rは、いずれがマスターとなり、いずれがスレーブとなるかは限定されない。例えば、2つの演算制御回路3L,3Rには、メイン演算部71のポートに切替え信号を入力するための不図示のディップスイッチ等が設けられる構成であってもよい。この場合には、使用者等は、このディップスイッチ等を操作してマスターとスレーブを切替えることができる。
マスターである演算制御回路3Lは、対向する辺に設けられるセンサバー1Rに内蔵されるセンサユニット21R,22Rのデータを取得するために、スレーブである演算制御回路3Rに、インタフェース77を介して制御信号を送信する。そして、スレーブである演算制御回路3Rは、センサユニット21R,22Rによる検出結果からタッチ位置の角度情報を算出し、算出した角度情報を、インタフェース77を介してマスター側の演算制御回路3Lに送信する。なお、USBインタフェース78は、本実施形態においては、マスターである演算制御回路3Lに実装される。
The
このほか、演算制御回路3L,3Rは、不図示の専用ペン(不図示)が発する赤外線を検出する赤外線受光手段76と、専用ペンからの信号をデコードするためのサブ演算部75とを有する。専用ペンは、ペン先が入力面に押圧されたことを検出するスイッチ手段と、ペン筺体のサイド部に設けられる種々のスイッチ手段を有する。そして専用ペンは、それらのスイッチ手段の状態やペンの識別情報を、専用ペンに設けられる赤外線発光手段で送信する。演算制御回路3L,3Rは、専用ペンが発する赤外線を受信してデコードすることにより、専用ペンの操作状態を検知できる。
In addition, the
さらに、演算制御回路3L,3Rには、インジケータ79とスピーカ80とを有する。インジケータ79は、メイン演算部71の制御に従い、所定の表示を行う。インジケータ79には、例えば液晶表示装置やLEDインジケータなど、公知の各種インジケータが適用できる。スピーカ80は、メイン演算部71の制御に従い、音声を発する。なお、インジケータ79とスピーカ80は、演算制御回路3L,3Rと物理的に離れた位置に配置されていてもよい。
Further, the
一方のセンサバー1Lのセンサユニット21L,22Lと、もう一方のセンサバー1Rのセンサユニット21R,22Rとは、異なるタイミングで交互に動作する。これにより、それぞれのセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rは、互いに他方のセンサユニット21L,22L,21R,22Rの投光手段30からの赤外線を検出しない。このため、自身に設けられる投光手段30が発した赤外線の再帰反射光を検出できる。具体的には、次のとおりである。
The
図6(B)は、センサユニット21L,22Lの動作を示すタイミングチャートである。SH信号701と、ICGL信号702と、ICGR信号703は、センサユニット21L,22L,21R,22RのラインCCD41を制御する制御信号である。SH信号701の間隔によってラインCCD41のシャッタ開放時間が決定される。ICGL信号702は、一方のセンサバー1Lのセンサユニット21L,22Lへのゲート信号である。ICGR信号703は、もう一方のセンサバー1Rのセンサユニット21R,22Rへのゲート信号である。ICGL信号702とICGR信号703は、ラインCCD41の電荷を読み出し部へ転送する信号である。ICGR信号703は、マスターとして動作する一方のセンサバー1Lの演算制御回路3Lから、インタフェース77を介して、スレーブとして動作するもう一方のセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3Rは、ラインCCD41の電荷を読み出し部へ転送する信号を生成する。CCDL信号704は、一方のセンサバー1Lのセンサユニット21L,22LのラインCCD41のシャッタ開放時間を示す信号である。CCDR信号705は、もう一方のセンサバー1Rのセンサユニット21R,22RのラインCCD41のシャッタ開放時間を示す信号である。
FIG. 6B is a timing chart showing the operation of the
LEDL信号706は、一方のセンサバー1Lのセンサユニット21L,22Lの投光手段30に設けられる赤外LED31を駆動する駆動信号である。LEDR信号707は、もう一方のセンサバー1Rのセンサユニット21R,22Rの投光手段30に設けられる赤外LED31を駆動する駆動信号である。SH信号701の最初の周期において、一方のセンサバー1Lの演算制御回路3Lは、センサユニット21L,22Lの投光手段30の赤外LED31を点灯するために、LEDL信号706をセンサユニット21L,22Lに送信する。これにより、センサユニット21L,22Lの投光手段30の赤外LED31が発光する。SH信号701の次の周期で、演算制御回路3Lは、インタフェース77を介して、もう一方のセンサバー1Rの演算制御回路3RにLEDR信号707を送信する。もう一方のセンサバー1Rの演算制御回路3Rは、演算制御回路3LからLEDR信号707を受信すると、センサユニット21R,22Lの投光手段30の赤外LED31を点灯するための信号を生成し、赤外LED31を発光させる。
The
演算制御回路3L,3Rは、赤外LED31の発光とラインCCD41のシャッタ開放が終了した後に、ラインCCD41の信号を読み出し、後述する方法で角度情報を算出する。そして、スレーブとして動作する演算制御回路3Rの演算結果は、マスターとして動作する演算制御回路3Lに、インタフェース77を介して送信される。以下、このような動作を繰り返す。このように、一方のセンサバー1Lのセンサユニット21L,22Lと、対向するもう一方のセンサバー1Rのセンサユニット21R,22Rとは、交互に異なるタイミングで動作する。このような構成によれば、それぞれのセンサバー1L,1Rの21L,22L,21R,22Rは、互いに他方のセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rの赤外光を検出しない。すなわち、自身に設けられる投光手段30が発光した赤外線の再帰反射光のみを検出できる。
The
次に、センサバー1L,1Rのセンサユニット21L,22L,21R,22Rが出力する信号について、図7を参照して説明する。図7(A)は、投光手段30が投光していない状態での受光手段40の出力を模式的に示すグラフである。図7(B)は、投光している状態での受光手段40の出力を模式的に示すグラフである。図7(B)のCCD出力のレベルAは、最大レベルの光量を検出した場合の出力であり、レベルBは受光する光量のレベルが0である(すなわち受光していない)場合の出力である。
Next, signals output from the
センサユニット21L,22Lは、投光手段30により対向して設けられる相手方のセンサバー1L,1Rの再帰反射手段4L,4Rに向けて赤外線を投光する。そして、再帰反射手段4L,4Rで再帰反射した赤外線を自身のセンサユニット21L,22Lの受光手段40で検出する。したがって、図7(B)に示すように、レベルAまたはレベルAに近いレベルの出力が得られる範囲の一端の画素番号Niにより規定される方向が、方向j(図4参照)である。同様にこの範囲の反対側の一端の画素番号Nfにより規定される方向は、方向f(図4参照)となる。なお、画素番号Njから画素番号Nfまでの範囲における光量レベルは、表示領域111の大きさやそのアスペクト比、それに対応したセンサバー1L,1Rの配置状態(例えば、二つのセンサバー1L,1Rどうしの距離)や伸縮状態等によって変化する。
The
演算制御回路3L,3Rのメイン演算部71は、最適な光量レベルが得られるように、SH信号701を調整してラインCCD41のシャッタ開放時間と赤外LED31の露光時間を制御する。すなわち、光量レベルが高い場合にはシャッタ開放時間と露光時間の一方または両方を短くし、低い場合にはシャッタ開放時間と露光時間の一方または両方を長くする。このほか、演算制御回路3L,3Rは、検出された光量レベルに応じて、赤外LED31に流す電流を調整しても良い。このように演算制御回路3L,3Rは、センサユニット21L,22L,21R,22Rの出力信号を監視することで、最適な光量レベルを得る。なお、演算制御回路3L,3Rは、このような制御を、検出される光量レベルに変動が生じた場合に適宜行っても良い。また、ひとたびセンサバー1L,1Rが配置され、その状態が保持されている間は、光量レベルは安定するはずである。そこで、このような光量の調整は、配置が完了した後の電源投入時に行う構成であってもよい。
The
図7(C)は、使用者等が座標入力領域5にタッチ操作して光路を遮った場合の出力レベルの例を模式的に示すグラフである。図7(C)に示すように、座標入力領域5に対してタッチ操作を行って光路を遮ると、遮られた光路に対応する画素(ここでは、画素番号Ncを例に示す)においては再帰反射光が検出されない。したがって、遮られた光路に対応する位置Cにおいて検出される光量レベルはレベルB(またはレベルBに近いレベル)となる。
FIG. 7C is a graph schematically showing an example of the output level when the user or the like touches the coordinate
<タッチ位置算出>
演算制御回路3L,3Rのメイン演算部71は、タッチ位置算出手段の例として機能し、図7(A)、(B)、(C)に示すこれらの信号を用いて、タッチ位置の方向(換言すると角度)を算出している。ここで、タッチ位置の方向を算出する方法について説明する。
<Calculation of touch position>
The
まず、座標入力装置100の起動時(電源投入時)やリセット時に、自動的にまたは使用者等の操作によって、基準データを取得する。具体的には、次のとおりである。マスターとなる演算制御回路3Lのメイン演算部71は、投光手段30が赤外線を発しておらず、かつ、使用者等によるタッチ操作が行われてない状態で、ラインCCD41の出力レベルを取得する。そして、取得した出力レベルをA/Dコンバータ73によりA/D変換し、これを基準データBase_Data[N](NはラインCCD41の画素番号)としてメモリ74に記憶する。この基準データBase_Data[N]は、図7(A)に示すように、レベルB付近の出力レベルを有するデータである。また、この基準データBase_Data[N]は、ラインCCD41であるCCDのバイアスのばらつき等を含んでいる。
First, when the coordinate
また、メイン演算部71は、投光手段30が赤外線を発しており、かつ、使用者等によるタッチ操作が行われてない状態で、ラインCCD41の出力レベルを取得する。そして、前記同様に、取得した出力レベルをA/Dコンバータ73によってA/D変換し、これを基準データRef_Data[N]としてメモリ74に記憶する。この基準データは、図7(B)に示すようなデータとなる。すなわち、ある範囲における出力レベルはレベルAまたはその近傍のレベルとなり、それ以外の範囲における出力レベルはレベルBまたはその近傍のレベルとなる。図7(B)では、画素番号NjからNfの範囲における出力レベルがレベルAまたはその近傍のレベルとなる例を示す。画素番号Njは、方向jに対応する画素の番号である。画素番号Nfは、方向fに対応する画素の番号である。
In addition, the
その後、メイン演算部71は、図6(B)に示すタイミングでサンプリングを開始する。サンプリング中において、タッチ操作が行われていなければ、図7(B)に示すようなサンプリングデータが取得されることになる。また、タッチ操作が行われると、そのタッチ操作により生じる遮光範囲の位置に応じて図7(C)に示すようなサンプリングデータが検出される。すなわち、タッチ操作の位置に応じて、局所的に出力レベルがレベルBに近いレベルCとなる部分が現れる。このレベルCとなる部分の位置が、タッチ操作の位置に対応する。このため、局所的にレベルCとなる部分の位置は、タッチ位置に応じて変化する。投光手段30が投光している状態で取得するサンプリングデータをNorm_Data[N]とする。
Thereafter, the
メイン演算部71は、これらのデータを用い、使用者等のタッチ操作による生じた遮光範囲が座標入力領域5にあるか否かの判定を行う。まず遮光範囲を特定するために、メイン演算部71は、ラインCCD41の各々の画素について、出力レベルの変化の絶対量を算出する。各画素の出力レベルの変化の絶対量Norm_Data0[N]は、次の式(1)で算出される。
Norm_Data0[N] = Norm_Data[N] - Ref_Data[N] (1)
そして、メイン演算部71は、各画素のNorm_Data0[N]の値と予め設定してある閾値Vthaとを比較する。メイン演算部71は、閾値を超えるNorm_Data0[N]が例えば所定数以上の連続した画素で発生した場合に、タッチ操作が有ったと判断する。閾値Vthaとの差分を用いることにより、ノイズなどによる誤判定を防止し、検出レベルの変化を確実に検出できる。なお、この処理は、差分を算出して比較するだけであるため短時間で可能である。このため、メイン演算部71は、タッチ操作の有無の判定を高速に行うことができる。
The
Norm_Data0 [N] = Norm_Data [N]-Ref_Data [N] (1)
Then, the
次に、メイン演算部71は、タッチ操作の位置の座標をより高精度に検出するために、検出レベルの変化の比を計算する。そして、この計算結果に基づき、タッチ操作の位置を決定する。検出レベルの変化の比Norm_DataR[N]は、次の式(2)により算出される。
Norm_DataR[N] = Norm_Data0[N] / (Base_Data[N] - Ref_Data[N]) (2)
この検出レベルの変化の比に対して、あらかじめ設定される閾値Vthrを適用する。そして、メイン演算部71は、変化の比が閾値Vthrを超える範囲の立ち上がり部と立下り部の画素番号を抽出し、それら抽出した画素の中央に位置する画素を入力画素として、角度を算出する。
Next, the
Norm_DataR [N] = Norm_Data0 [N] / (Base_Data [N]-Ref_Data [N]) (2)
A preset threshold value Vthr is applied to the ratio of the detection level changes. Then, the
図7(D)は、検出レベルの変化の比の算出結果の例を示すグラフである。図7(D)に示すように、遮光領域の立ち上がり部分において、検出レベルの変化の比はNs番目の画素でレベルLsとなって閾値Vthrを超えたとする。そして、立下りの部分において、検出レベルの変化の比はNt番目の画素でレベルLtとなって閾値Vthr以下になったとする。中心画素Npは、次の式(3)を用いて算出(決定)できる。
Np = Ns + (Nt - Ns) / 2 (3)
ただし、式(3)を用いる方法では、ラインCCD41の画素の間隔が、検出の最小の分解能となる。そこで、より細かく検出するために、それぞれの画素のレベルとその一つ前の画素のレベルを用い閾値を横切った仮想の画素番号を計算してもよい。すなわち、例えば、画素Nsの検出レベルをLsとし、画素Ns−1番の検出レベルをLs-1とし、画素NtのレベルをLtとし、画素Nt−1の検出レベルをLt-1とする。そうすると、それぞれの仮想画素番号Nsv,Ntvは、
Nsv = Ns-1 + ( Vthr - Ls-1 ) / ( Ls - Ls-1 ) (4)
Ntv = Nt-1 + ( Vthr - Lt-1 ) / ( Lt - Lt-1 ) (5)
と計算できる。そして、仮想的な中心画素Npvは、次の式(6)で決定される。
Npv = Nsv + ( Ntv - Nsv ) / 2 (6)
このように、画素番号とその検出レベルから仮想的な画素番号を計算(決定)することで、より分解能の高い検出ができる。
FIG. 7D is a graph illustrating an example of a calculation result of a ratio of detection level changes. As shown in FIG. 7D, it is assumed that the ratio of the change in the detection level at the rising portion of the light shielding region becomes the level Ls at the Ns-th pixel and exceeds the threshold value Vthr. In the falling portion, it is assumed that the ratio of change in the detection level becomes the level Lt at the Nt-th pixel and becomes equal to or lower than the threshold value Vthr. The center pixel Np can be calculated (determined) using the following equation (3).
Np = Ns + (Nt-Ns) / 2 (3)
However, in the method using Expression (3), the pixel interval of the
Nsv = Ns-1 + (Vthr-Ls-1) / (Ls-Ls-1) (4)
Ntv = Nt-1 + (Vthr-Lt-1) / (Lt-Lt-1) (5)
Can be calculated. The virtual center pixel Npv is determined by the following equation (6).
Npv = Nsv + (Ntv-Nsv) / 2 (6)
Thus, by calculating (determining) a virtual pixel number from the pixel number and its detection level, detection with higher resolution can be performed.
上記のようにして、遮光領域の中央画素の画素番号が得られる。得られた中央画素の画素番号から実際の座標値を計算するためには、中央画素の画素番号を角度情報(座標情報)に変換する必要がある。実際の座標計算では、便宜上、光軸方向と中央画素の方向との角度そのものではなく、その角度の正接(tangent)の値を求めることが好ましい。なお、画素番号をtanθに変換する方法としては、テーブルを参照する方法や変換式を用いる方法が適用できる。変換式として、例えば高次の多項式を用いると、精度を確保できる。多項式の次数などは、メイン演算部71の計算能力および要求される精度等を鑑みて決定すればよい。
As described above, the pixel number of the central pixel of the light shielding area is obtained. In order to calculate an actual coordinate value from the obtained pixel number of the central pixel, it is necessary to convert the pixel number of the central pixel into angle information (coordinate information). In actual coordinate calculation, for convenience, it is preferable to obtain not the angle itself between the optical axis direction and the direction of the central pixel but the value of the tangent of the angle. As a method of converting the pixel number into tan θ, a method of referring to a table or a method of using a conversion formula can be applied. For example, when a high-order polynomial is used as the conversion formula, accuracy can be ensured. The order of the polynomial may be determined in view of the calculation capability of the
ここで、5次の多項式を用いる場合の例を示す。5次の多項式を用いる場合には、6個の係数が必要になる。そこで、出荷時などに、この係数をメモリ74などに記憶しておく。5次の多項式の係数をL5,L4,L3,L2,L1,L0とすると、tanθは次の式(7)で算出される。
tanθ= (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0
(7)
同様な計算を各々のセンサユニット21L,22L,21R,22Rについて実行することにより、それぞれのセンサユニット21L,22L,21R,22Rについて、遮光領域の方向を示す角度を決定できる。なお、上記の式(7)ではtanθを算出しているが、角度そのものを算出し、その後tanθを求めてもよい。
Here, an example in the case of using a fifth-order polynomial is shown. When a fifth order polynomial is used, six coefficients are required. Therefore, this coefficient is stored in the memory 74 or the like at the time of shipment. If the coefficients of the fifth-order polynomial are L5, L4, L3, L2, L1, and L0, tan θ is calculated by the following equation (7).
tanθ = (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0
(7)
By executing the same calculation for each of the
以上説明したとおり、本実施形態では、マスターとして動作する演算制御回路3Lのメイン演算部71が、タッチ位置を算出するタッチ位置算出手段の例として機能する。ただし、本発明は、このような構成に限定されない。2基の演算制御回路3L,3Rのメイン演算部71が、協働してタッチ位置算出手段として機能する構成であってもよい。
As described above, in the present embodiment, the
<センサユニットの相対位置算出>
次に、センサユニット21L,22L,21R,22Rの相対的な位置を算出する方法について説明する。図8(A)は、センサユニット21L,22L,21R,22Rが検出する視野範囲を模式的に示す図である。センサバー1Lのセンサユニット21Lは、対向するセンサバー1Rに設けられた再帰反射手段4Rからの光を受光する。このため、このセンサユニット21Lの視野範囲には、方向jから方向fの範囲が含まれる。センサバー1Lのセンサユニット22Lの視野範囲には、方向fから方向jの範囲が含まれる。
<Calculating the relative position of the sensor unit>
Next, a method for calculating the relative positions of the
図8(B)は、一方のセンサバー1Lの2基のセンサユニット21L,22Lの視野範囲が重複する領域を模式的に示す図である。説明の便宜上、この領域を第1の重複領域91と称する。図8(B)においては、第1の重複領域91を太線で示す。演算制御回路3Lのメイン演算部71は、タッチ位置算出手段の例として機能し、第1の重複領域91内へのタッチ操作の位置の座標を、2基のセンサユニット21L,22Lによる検出結果に基づいて算出する。
FIG. 8B is a diagram schematically showing a region where the visual field ranges of the two
同様に、センサバー1Rのセンサユニット21Rの視野範囲には、方向gから方向hの範囲が含まれる。センサユニット22Rの視野範囲には、方向hから方向gの範囲が含まれる。図8(C)は、もう一方のセンサバー1Rの2基のセンサユニット21R,22Rの視野範囲が重複する領域を模式的に示す図である。説明の便宜上、この領域を第2の重複領域92と称する。図8(C)において、第2の重複領域92を太線です。演算制御回路3Lのメイン演算部71は、タッチ位置算出手段の例として機能し、この第2の重複領域92へのタッチ操作の位置の座標を、これらの2基のセンサユニット21R,22Rによる検出結果に基づいて算出する。
Similarly, the visual field range of the
さらに、第1の重複領域91と第2の重複領域92とが重複する領域を、第3の重複領域93と定義する。図8(D)は、第3の重複領域93を模式的に示す図である。図8(D)において、第3の重複領域93を太線で示す。第3の重複領域93は座標入力領域5の中央付近に位置する。演算制御回路3Lのメイン演算部71は、この第3の重複領域93内へのタッチ操作の位置を、座標入力領域5の四隅部近傍の4基のセンサユニット21L,22L,21R,22Rの全ての検出結果から算出することが可能となる。
Furthermore, a region where the first overlapping
図9(A)(B)は、4基のセンサユニット21L,22L,21R,22Rの相対位置関係を模式的に示す図である。図9(A)の角度θ1は、直線cと直線aとのなす角度である。直線cは、一方のセンサバー1Lのセンサユニット22Lから対角方向に位置するもう一方のセンサバー1Rのセンサユニット21Rに至る直線である。直線aは、センサユニット22Lから対向するもう一方のセンサユニット22Rに至る直線である。この角度θ1の算出方法は、次のとおりである。マスターとして動作する演算制御回路3Lのメイン演算部71は、センサユニット21Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。同様に、センサユニット22Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。メイン演算部71は、これらの赤外線を検出したラインCCD41の画素番号から、センサユニット22Lからみたセンサユニット21R,22Lの方向(角度)を算出し、算出したこれらの方向の差分から角度θ1を算出する。
9A and 9B are diagrams schematically illustrating the relative positional relationship between the four
図9(A)の角度θ2は、直線dと直線aのなす角である。直線dは、センサユニット22Rから対角方向に位置するセンサユニット21Lに至る直線である。角度θ3は、直線dと直線bとのなす角度である。直線bは、センサユニット21Lからセンサユニット21Rに至る直線である。角度θ4は、直線bと直線cとのなす角度である。これらの角度θ2〜θ4も、メイン演算部71が、前記の角度θ1と同様の方法により算出する。
The angle θ2 in FIG. 9A is an angle formed by the straight line d and the straight line a. The straight line d is a straight line from the
図9(A)(B)において、角度θ5は、直線eと直線cのなす角である。直線eは、一方のセンサバー1Lに設けられる2基のセンサユニット21L,22Lを結ぶ直線である。角度θ5が確定すると、上述のように算出した角度θ1〜θ4を用いることにより、必然的に4基のセンサユニット21L,22L,21R,22Rの相対位置が確定する。しかしながら、センサユニット22Lとセンサユニット21Lとは互いに検出できないため、角度θ1〜θ4が算出されても、4基のセンサユニット21L,22L,21R,22Rの相対位置は確定しない。
9A and 9B, the angle θ5 is an angle formed by the straight line e and the straight line c. The straight line e is a straight line connecting the two
したがって、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定するためには、4基のセンサユニット21L,22L,21R,22Rの相対的な角度θ1〜θ4のみならず、ある基準方向からの角度を検出しなければならない。例えば、センサユニット21Lとセンサユニット22Lとを結ぶ直線eの方向(垂直方向)を基準方向として定義し、4基のセンサユニット21L,22L,21R,22Rの少なくとも1基について、この基準方向からの角度を検出しなければならない。このためには、従来の構成では、センサユニット22Lの基準方向の情報を与えるために、正確に線分eの垂直方向を指示する作業が必要となる。さらには、センサバー1Lにセンサユニット21L,22Lが組み込まれた状態で計測する必要が有るため、冶工具等を用いて正確な位置を特定し、その位置で指示する事によって得られる入力情報を反映しなければならない。これに対して本実施形態では、組み立て上のこの作業工程を省略することができ、製造コストの削減を図ることができる。具体的には、以下のとおりである。
Accordingly, in order to determine the relative positions of the four
2本の直線c,dは、対角方向に位置するセンサユニットを結ぶ2本の直線である。これら2本の直線c,dの交点を交点αとする。そうすると、図9(A)(B)に示すように、2本の直線c,dの交点αは、第3の重複領域93内(センサユニットの全てがタッチ位置を検出できる重複領域内)に位置する。図9(B)に示すように、第3の重複領域93内であって、且つ、交点αとは異なる位置である指示点Pに対してタッチ操作が行われた場合について考える。ここで、各角度および直線を、次のように定義する。センサユニット22Lから指示点Pに至る直線を直線sとし、直線aと直線sのなす角度を角度θ6とする。センサユニット22Rから指示点Pに至る直線を直線tとし、直線aと直線tとがなす角度を角度θ7とする。直線dと直線tとのなす角度を角度θ8とする。センサユニット21Lから指示点Pに至る直線を直線uとする。直線dと直線uとのなす角度を角度θ9とする。直線eと直線uとのなす角度を角度θ10とし、直線eと直線sとのなす角度を角度θ11とする。さらに、直線aの長さを基準長さ(=1)と仮定する。
The two straight lines c and d are two straight lines that connect the sensor units located in the diagonal direction. Let the intersection point of these two straight lines c and d be the intersection point α. Then, as shown in FIGS. 9A and 9B, the intersection α of the two straight lines c and d is in the third overlapping region 93 (in the overlapping region where all the sensor units can detect the touch position). To position. As shown in FIG. 9B, a case is considered in which a touch operation is performed on an instruction point P that is in the third
前述のとおり、角度θ5が確定すれば、4基のセンサユニット21L,22L,21R,22Rの相対位置関係が確定する。そこで、図9(B)中の各角度を、正弦定理、加法定理等を用いて整理することにより、角度θ5を、下記の通り計算できる。
1/sin(π-(θ6+θ7)) = t/sinθ6 = s/sinθ7 (8)
u/sinθ8 = t/sinθ9 (9)
u/sinθ11 = s/sinθ10(10)
θ6 + θ7 + θ8 + θ9 + θ10 + θ11 = π (11)
式(9)によって、
s = sinθ7/sin(θ6+θ7) (12)
式(8)、(9)、(12)から、
u = t * sinθ8 / sinθ9 = s * sinθ6 / sinθ7 * sinθ8 / sinθ9
= (sinθ6 * sinθ8) / (sin(θ6+θ7) * sinθ9 ) (13)
式(10)、(13)から、
tanθ11 = u/s * sinθ10
= u/s * sin(θ6+θ7+θ8+θ9+θ11)
= u/s * (sin(θ6+θ7+θ8+θ9)cosθ11 + cos(θ6+θ7+θ8+θ9)sinθ11))
となり、したがって、
θ11 = tan-1(sin(θ6+θ7+θ8+θ9)/(s/u-cos(θ6+θ7+θ8+θ9))
= tan-1(sin(θ6+θ7+θ8+θ9)/
(sinθ7*sinθ9/sinθ6/sinθ8-cos(θ6+θ7+θ8+θ9))) (14)
となる。これにより、角度θ11を算出できる。そして、θ5は、
θ5 =θ11 - (θ1 - θ6) (15)
となる。
As described above, when the angle θ5 is determined, the relative positional relationship between the four
1 / sin (π- (θ6 + θ7)) = t / sinθ6 = s / sinθ7 (8)
u / sinθ8 = t / sinθ9 (9)
u / sinθ11 = s / sinθ10 (10)
θ6 + θ7 + θ8 + θ9 + θ10 + θ11 = π (11)
By equation (9)
s = sinθ7 / sin (θ6 + θ7) (12)
From equations (8), (9), (12)
u = t * sinθ8 / sinθ9 = s * sinθ6 / sinθ7 * sinθ8 / sinθ9
= (sinθ6 * sinθ8) / (sin (θ6 + θ7) * sinθ9) (13)
From equations (10) and (13),
tanθ11 = u / s * sinθ10
= u / s * sin (θ6 + θ7 + θ8 + θ9 + θ11)
= u / s * (sin (θ6 + θ7 + θ8 + θ9) cosθ11 + cos (θ6 + θ7 + θ8 + θ9) sinθ11))
And therefore
θ11 = tan-1 (sin (θ6 + θ7 + θ8 + θ9) / (s / u-cos (θ6 + θ7 + θ8 + θ9))
= tan-1 (sin (θ6 + θ7 + θ8 + θ9) /
(sinθ7 * sinθ9 / sinθ6 / sinθ8-cos (θ6 + θ7 + θ8 + θ9))) (14)
It becomes. Thereby, the angle θ11 can be calculated. And θ5 is
θ5 = θ11-(θ1-θ6) (15)
It becomes.
マスターとして動作する演算制御回路3Lのメイン演算部71は、相対位置算出手段の例として機能し、上述のように4基のセンサユニット21L,22L,21R,22Rの相対位置を確定する。すなわち、メイン演算部71は、使用者等に対して前述の指示点Pに対してタッチ操作を行うように促す処理の例であるタッチ操作要求処理を実行する。すなわち、メイン演算部71は、タッチ操作要求手段(要求手段)の例として機能する。さらに、前述の指示点Pに対するタッチ操作要求処理は、座標入力装置を接続したPC300上の専用アプリケーションの中で処理する構成であっても構わない。すなわち、PC300には、タッチ操作要求処理を実行するためのアプリケーションが予めインストールされている(コンピュータプログラムが外部メモリ304に予め格納されている)。そして、このアプリケーションにより(PC300がこのコンピュータプログラムを実行することにより)タッチ操作要求処理が実行され、PC300がタッチ操作要求手段として機能する。そして、メイン演算部71は、タッチ操作の位置を検出することにより、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定することができる。なお、タッチ操作要求処理の内容については後述する。
The
<初期設定とタッチ指示>
次に、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定する処理について、図10を参照して説明する。図10は、電源が投入されてからの初期設定処理を示すフローチャートである。前述のとおり演算制御回路3Lのメイン演算部71は、ワンチップマイコンなどで構成される。ワンチップマイコンは、ひとつのICチップ上に、CPU、RAM、ROM、各種入出力装置などが搭載された処理装置である。そして、この初期設定処理を実行するためのコンピュータプログラムは、ワンチップマイコンのROMにあらかじめ格納されている。ワンチップマイコンのCPUは、このコンピュータプログラムをROMから読出し、RAMをワークエリアとして使用して実行する。これにより、図10に示す処理が実現する。なお、PC300に後述の各処理の一部を実行するためのアプリケーションがインストールされており、PC300がこれらのアプリケーションを実行することにより、座標入力装置100とPC300とが協働して図10に示す処理が実現する構成であってもよい。
<Initial settings and touch instructions>
Next, processing for determining the relative positions of the four
この初期設定処理には、4基のセンサユニット21L,22L,21R,22Rの相対位置を確定する相対位置算出処理が含まれる。メイン演算部71は、使用者等による所定位置へのタッチ操作を検出することによって、4基のセンサユニット21L,22L,21R,22Rの相対的な位置関係を確定する。なお、図10に示す処理の開始に先立ち、2基のセンサバー1L,1Rが、使用者等により、ホワイトボード6や壁面などに対向して配置される。配置された2基のセンサバー1L,1Rに挟まれる領域が、座標入力領域5となる。この際、使用者等は、座標入力領域5に、表示装置200が画像を投影する矩形状の領域である表示領域111の全域が含まれるように、2基のセンサバー1L,1Rの間隔を調整する。そして、使用者等により電源が投入されると、マスターとして動作する演算制御回路3Lのメイン演算部71は、前述のようにコンピュータプログラムをROMから読出し、RAMに展開して実行する。これにより、初期設定処理が開始される。
The initial setting process includes a relative position calculation process for determining the relative positions of the four
ステップS1001において、メイン演算部71は、初期化処理を行う。例えば、メイン演算部71は、入出力ポートの設定、タイマ設定、ラインCCD41のシャッタ開放時間や赤外LED31の点灯時間や駆動電流などの、座標入力装置100に関する各種初期化を行う。
In step S1001, the
ステップS1002において、メイン演算部71は、各々のセンサユニット21L,22L,21R,22Rの位置が適正であるか否かを判断する。具体的には、メイン演算部71は、センサユニット21Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。同様に、センサユニット22Rの投光手段30を作動させ、その赤外線をセンサユニット22LのラインCCD41により検出する。メイン演算部71は、これらの赤外線を検出した画素番号から、センサユニット22Lからみたセンサユニット21R,22Lの方向(角度)を算出し、算出したこれらの方向から角度θ1を算出する。メイン演算部71は、他の角度θ2〜θ4についても同様に算出する。この際、メイン演算部71は、各々のセンサユニット21L,22L,21R,22Rにより、対向するセンサバーの2基のセンサユニット21L,22L,21R,22Rが発する赤外線を検出できたか否かを判断する。赤外線が検出できなかった場合は、センサユニット21L,22L,21R,22Rの受光手段40の視野範囲に、対向するセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rが位置していない可能性がある。そこで、メイン演算部71は、全てのセンサユニット21L,22L,21R,22Rについて、対向するセンサバー1L,1Rのセンサユニット21L,22L,21R,22Rの投光手段30が発する赤外線を検出できたか判断する。そして、全てのセンサユニット21L,22L,21R,22Rについて検出できた場合には、センサバー1L,1Rの位置が適正であると判断する。この場合には、ステップS1004に進む。そうでない場合には、メイン演算部71は、センサバー1L,1Rの位置が適正でないと判断する。この場合には、ステップS1003に進む。
In step S1002, the
ステップS1003では、演算制御回路3Lのメイン演算部71は、センサバー1L,1Rの位置が適正でない旨を使用者等に報知する処理を実行する。例えば、メイン演算部71は、センサバー1L,1Rの位置が適正でない旨をインジケータ79に表示したり、スピーカ80を介して所定の音声を発したりする。これにより、使用者等に対して、センサバー1L,1Rの再設置を促す。そして、ステップS1001に戻る。
In step S1003, the
ステップS1004においては、メイン演算部71は、キャリブレーション処理を実行する。キャリブレーション処理は、表示装置200による表示領域111の座標系(表示画像座標系)と、座標入力装置100の座標系とを補正して変換する為の情報取得を行う処理である。キャリブレーション処理については、従来公知の構成が適用できる。このため、キャリブレーション処理の説明を省略する。例えば、このキャリブレーション処理として、特開2013−210951号公報に開示されている処理が適用できる。
In step S1004, the
ステップS1005において、演算制御回路3Lのメイン演算部71は、表示装置200が表示する表示領域111内に第3の重複領域93が含まれるか否かを判断する。図11は、表示装置200が表示する表示領域111内に第3の重複領域93が含まれる状態を模式的に示す図である。この際、メイン演算部71は、座標入力領域5と表示領域111との位置関係を変換するために、ステップS1004のキャリブレーション処理で取得した情報を利用する。表示領域111内に第3の重複領域93が含まれない場合には、ステップS1006に進む。図11に示すように、第3の重複領域93が含まれると判断した場合には、ステップS1007に進む。
In step S1005, the
ステップS1006において、メイン演算部71は、表示領域111内に第3の重複領域93が含まれない旨を報知する処理を実行する。例えば、メイン演算部71は、表示領域111内に第3の重複領域93が含まれない旨をインジケータ79に表示したり、スピーカ80を介して所定の音声を発したりする。また、PC300に、この処理を実行するためのアプリケーションが予めインストールされており、PC300がこのアプリケーションを実行することにより、表示装置200が投影(表示)する画像にアラートを重畳して表示してもよい。この場合には、メイン演算部71は、PC300に、この処理の実行を指示する信号を送信する。そして、PC300は、この信号を受信すると、前述の処理を実行する。これにより、使用者等に対して、表示装置200による表示領域111の位置や範囲の再調整を促す。そして、ステップS1004に戻る。
In step S <b> 1006, the
ステップS1007では、メイン演算部71は、第3の重複領域93内へのタッチ操作の実行を使用者等に対して促す処理(タッチ操作要求処理)を実行する。例えば、メイン演算部71が表示装置200に指示画面を表示させる処理が適用できる。また、メイン演算部71は、インジケータ79に第3の重複領域93へのタッチ操作を促すような表示を行わせてもよく、スピーカ80を介して第3の重複領域93内へのタッチ操作を促すような音声を発してもよい。そして、ステップS1006に進む。このほか、前述のように、PC300にタッチ操作要求処理を実行するためのアプリケーションが予めインストールされており、PC300のCPU301がこのアプリケーションを実行することによりタッチ操作要求処理を実行してもよい。
In step S <b> 1007, the
ステップS1008において、メイン演算部71は、使用者等によるタッチ操作があったかどうかを判断する。具体的には、メイン演算部71は、各々のセンサユニット21L,22L,21R,22Rによる検出レベルから、座標入力領域5内に遮光領域が存在するか否かを判断する。遮光領域が存在する場合には、タッチ操作があったと判断する。そしてこの場合には、ステップS1009に進む。そうでない場合には、メイン演算部71は、タッチ操作がないと判断する。この場合には、ステップS1007に戻る。
In step S1008, the
ステップS1009において、メイン演算部71は、ステップS1008において検出したタッチ操作の位置が、第3の重複領域93内であるか否かを判断する。第3の重複領域93内へのタッチ操作であると判断した場合には、ステップS1011へ進む。第3の重複領域93外へのタッチ操作であると判断した場合には、ステップS1010に進む。
In step S1009, the
ステップS1011において、メイン演算部71は、ステップS1008において検出したタッチ操作の位置が、交点αと同じ位置である否かを判断する。タッチ操作の位置が交点αと異なる位置であると判断した場合には、ステップS1012へ進む。タッチ操作の位置が交点αと同じ位置であると判断した場合には、ステップS1010に進む。
In step S1011, the
ステップS1010においては、メイン演算部71は、誘導手段の例として機能する。そして、メイン演算部71は、4基のセンサユニット21L,22L,21R,22Rにより取得する遮光位置の情報を利用して、使用者等に対し、タッチ操作の位置を第3の重複領域93内へ誘導する処理を実行する。
In step S1010, the
ここで、タッチ操作の位置を第3の重複領域93内(全てのセンサユニットがタッチ位置を検出できる重複領域内)に誘導する処理の例について、図12を参照して説明する。図12は、タッチ操作の位置を第3の重複領域93内に誘導する処理の内容の例を模式的に示す図である。図12(A)は、座標入力領域5の位置A〜Dにタッチ操作がなされた場合の例を示している。また、図12(B)〜(E)は、タッチ操作が位置A〜Dになされた場合において、各々のセンサユニット21L,22L,21R,22Rにより検出された光量分布を模式的に示すグラフである。すなわち、図12(B)は、図12(A)において位置Aにタッチ操作がなされた場合に、センサユニット21L,21Rにより検出される光量分布を示している。また、図12(C)は位置Bに、図12(D)は位置Cに、図12(E)は位置Dにタッチ操作された場合の光量分布を示す。
Here, an example of processing for guiding the position of the touch operation into the third overlapping area 93 (in the overlapping area where all the sensor units can detect the touch position) will be described with reference to FIG. FIG. 12 is a diagram schematically illustrating an example of the content of processing for guiding the position of the touch operation into the third overlapping
図12(B)〜(E)の各図中の「第3の重複領域」は、各々のセンサユニット21L,22L,21R,22Rから見て、第3の重複領域93が存在する方向である。例えば、センサユニット21Lについてみると、対角方向に位置するセンサユニット22Rからの光が入射する方向と、再帰反射手段4Rからの再帰反射光が入射する範囲の端部との間の範囲(方向)が、第3の重複領域93が存在する方向となる。そして、4基の全てのセンサユニット21L,22L,21R,22Rにより、遮光領域(すなわちタッチ操作された位置)が同時に第3の重複領域93内で検出された場合には、タッチ位置が第3の重複領域93内に位置していることを示している。したがって、この場合には、メイン演算部71は、タッチ操作の位置が第3の重複領域93内にあると判断する。そうでない場合には、タッチ操作の位置が第3の重複領域93内にはないと判断する。なお、ここでいう「同時」とは、厳密な意味で同時ではなくてもよく、人間の動作であれば同時とみなせる程度にタイミングがずれていてもよい。前述のとおり、2基のセンサバー1L,1Rのセンサユニット21R,22L,21R,22Lが交互に動作する構成であると、4基のセンサユニット21L,22L,21R,22Rの組み合わせによっては、厳密に同時に検出できないためである。
The “third overlapping region” in each of FIGS. 12B to 12E is the direction in which the third
そして、メイン演算部71は、タッチ操作の位置が第3の重複領域93内にないと判断した場合には、タッチ操作の位置を第3の重複領域93内に誘導する誘導処理を実行する。タッチ操作の位置が、座標入力領域5内であるが第3の重複領域93外である場合には、遮光領域は4基のうちの2基または3基のセンサユニット21L,22L,21R,22Rによって検出されることになる。そこで、メイン演算部71は、この場合には、4基のセンサユニット21L,22L,21R,22Rのうち、遮光領域を検出している2基のセンサユニットによる検出結果に基づいて、現在のタッチ位置を算出する。そして、メイン演算部71は、現在のタッチ位置から見た第3の重複領域93の方向を算出し、算出した方向を報知する処理を実行する。例えば、メイン演算部71は、図12(A)に示すように、現在のタッチ位置からみた第3の重複領域93の方向を示す矢印を、表示装置200を介して座標入力領域5(表示領域111)に表示する。この際、メイン演算部71は、このような誘導処理を実行するための専用のアプリケーションを用いてもよい。また、メイン演算部71は、インジケータ79に、現在のタッチ位置からみた第3の重複領域93の方向を表示してもよい。さらに、メイン演算部71は、スピーカ80を介して、現在のタッチ位置からみた第3の重複領域93の方向を音声で報知してもよい。
When the
例えば、図12(B)に示す光量分布が得られた場合には、現在のタッチ位置は図12(A)の位置Aであることを示している。このため、メイン演算部71は、位置Aから見た第3の重複領域93の方向を示す矢印を、例えば表示装置200を介して座標入力領域5に表示する。これにより、タッチ操作の位置の移動方向を使用者等に報知し、タッチ位置を第3の重複領域93内に誘導できる。図12(C)〜(E)に示す光量分布が得られた場合であっても、矢印の表示位置および向きが異なるほかは同様である。
For example, when the light amount distribution shown in FIG. 12B is obtained, it is indicated that the current touch position is the position A in FIG. For this reason, the
ステップS1012において、メイン演算部71は、第3の重複領域93内へのタッチ操作を促す処理と、タッチ操作の位置を第3の重複領域93内に誘導する処理を完了する。このように、本実施形態では、第3の重複領域93内であって、かつ、2本の直線の交点αとは異なる位置へのタッチ操作を検出するまでは、第3の重複領域93内へのタッチ操作を促す処理を継続する。そして、ステップS1013に進む。
In step S <b> 1012, the
ステップS1013では、メイン演算部71は、相対位置算出手段として機能し、4基のセンサユニット21L,22L,21R,22Rの相対位置を算出して確定する。相対位置の算出方法は、前述のとおりである。以上のステップを経ると、初期設定処理を終了する。
In step S1013, the
本実施形態によれば、座標入力装置100の配置時などにおいて、自動的に、基準方向からのセンサユニットの方向(角度θ5)を取得できる。このため、座標入力装置100の製造において基準方向の取得と付与の工程を省略することができ、製造コストの削減を図ることができる。また、座標入力装置100の使用のための配置時において、センサバー1L,1Rの配置方向を例えば正確に垂直方向に向けなければならないなどといった制限はない。このため、使用者等にとって使用の準備の手間を省略することができる。
According to this embodiment, the direction (angle θ5) of the sensor unit from the reference direction can be automatically acquired when the coordinate
(第2の実施形態)
次に、第2の実施形態について説明する。第1の実施形態では、タッチ位置を第3の重複領域93内へ誘導する処理において、報知手段として、専用アプリ、スピーカ80、またはインジケータ79を用いる構成を示した。ただし、報知手段はこれらに限定されるものではない。例えば、外部機器としてPC300(コンピュータ)が適用される場合には、メイン演算部71は、検出したタッチ位置を外部機器であるPC300に出力するとともに、マウスカーソルの表示態様を変更するという構成が適用できる。具体的には、メイン演算部71は、マウスカーソルを点滅させて表示する、一定範囲で回転させる等の処理を実行する。このような処理によっても、使用者等に対してタッチ位置の変更を促すことができる。このような構成であると、専用のアプリケーションやドライバ等を予めPCへインストールする作業が不要となる。このため、使用者等にとって使用の準備の手間を省略することができる。したがって、利便性が向上する。
(Second Embodiment)
Next, a second embodiment will be described. In the first embodiment, the configuration in which the dedicated application, the
(その他の実施形態)
以上、実施形態例を詳述したが、本発明は例えば、システム、装置、方法、プログラム若しくは記録媒体(記憶媒体)等としての実施態様をとることが可能である。具体的には、複数の機器(例えば、ホストコンピュータ、インタフェース機器、撮像装置、webアプリケーション等)から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
(Other embodiments)
Although the embodiment has been described in detail above, the present invention can take an embodiment as a system, apparatus, method, program, recording medium (storage medium), or the like. Specifically, the present invention may be applied to a system composed of a plurality of devices (for example, a host computer, an interface device, an imaging device, a web application, etc.), or may be applied to a device composed of a single device. good.
例えば、前記実施形態では、座標入力装置100のメイン演算部71が上述の各処理を実行する構成を示したが、この構成に限定されない。例えば、前記各処理の一部をPC300によって実現してもよい。この場合には、前述の各処理の一部を実行するためのアプリケーションのコンピュータプログラムが予めPC300の外部メモリ304に格納されている。そして、CPU301がこのコンピュータプログラムを実行することにより、上述の各処理が実行される。この場合には、座標入力装置100とPC300とが協働して前記処理を実現することになる。
For example, in the above-described embodiment, the configuration in which the
また、本発明の目的は、以下の構成でも達成できる。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコード(コンピュータプログラム)を記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 The object of the present invention can also be achieved by the following configuration. That is, a recording medium (or storage medium) that records a program code (computer program) of software that implements the functions of the above-described embodiments is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
100:座標入力装置
1L,1R:センサバー
21L,22L,21R,22R:センサユニット
3L,3R:演算制御回路
4L,4R:再帰反射手段
5:座標入力有効領域
6:ホワイトボード
93:第3の重複領域
100: Coordinate
Claims (17)
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出手段と、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求手段と、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出手段と、
を有することを特徴とする座標入力装置。 At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
Touch position calculating means for calculating a position of a touch operation on a rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. Request means for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating means for calculating a relative position;
A coordinate input device comprising:
を有する座標入力装置の制御方法であって、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出ステップと、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求ステップと、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出ステップと、
を有することを特徴とする座標入力装置の制御方法。 At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
A control method of a coordinate input device having
A touch position calculating step of calculating a position of a touch operation to the rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. A request step for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating step for calculating a relative position;
A control method for a coordinate input device, comprising:
を有する座標入力装置を制御するコンピュータに、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出ステップと、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求ステップと、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出ステップと、
を実行させることを特徴とするプログラム。 At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
A computer for controlling a coordinate input device having:
A touch position calculating step of calculating a position of a touch operation to the rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. A request step for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating step for calculating a relative position;
A program characterized by having executed.
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出手段と、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求手段と、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出手段と、
を有することを特徴とする座標入力システム。 At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
Touch position calculating means for calculating a position of a touch operation on a rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. Request means for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating means for calculating a relative position;
A coordinate input system comprising:
を有する座標入力システムの制御方法であって、
前記受光手段により受光した光量分布に基づいて矩形状の座標入力領域へのタッチ操作の位置を算出するタッチ位置算出ステップと、
前記座標入力領域の四隅部に位置する4基の前記センサユニットの全てが前記タッチ操作の位置を検出できる重複領域内の、対角方向に位置する2基の前記センサユニットを結ぶ2本の直線の交点とは異なる位置へのタッチ操作を促す処理を行う要求ステップと、
前記タッチ操作の位置を算出し、前記タッチ操作の位置が前記重複領域内の前記交点とは異なる位置である場合には、前記タッチ操作の位置の算出結果に基づいて前記4基のセンサユニットの相対的な位置を算出する相対位置算出ステップと、
を有することを特徴とする座標入力システムの制御方法。 At least four light-receiving means for projecting incident light toward the retro-reflecting means for retro-reflecting, and light-receiving means for receiving the reflected light projected from the light projecting means and retroreflected by the retro-reflecting means; The basic sensor unit,
A control method of a coordinate input system having
A touch position calculating step of calculating a position of a touch operation to the rectangular coordinate input area based on a light amount distribution received by the light receiving means;
Two straight lines connecting the two sensor units located in the diagonal direction in the overlapping area where all of the four sensor units located at the four corners of the coordinate input area can detect the position of the touch operation. A request step for performing a process of prompting a touch operation to a position different from the intersection of
When the position of the touch operation is calculated, and the position of the touch operation is a position different from the intersection in the overlap region, the four sensor units are configured based on the calculation result of the position of the touch operation. A relative position calculating step for calculating a relative position;
A control method for a coordinate input system, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014186564A JP2016058046A (en) | 2014-09-12 | 2014-09-12 | Coordinate input device, control method thereof, program, coordinate input system, and control method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014186564A JP2016058046A (en) | 2014-09-12 | 2014-09-12 | Coordinate input device, control method thereof, program, coordinate input system, and control method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016058046A true JP2016058046A (en) | 2016-04-21 |
Family
ID=55758514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014186564A Pending JP2016058046A (en) | 2014-09-12 | 2014-09-12 | Coordinate input device, control method thereof, program, coordinate input system, and control method thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016058046A (en) |
-
2014
- 2014-09-12 JP JP2014186564A patent/JP2016058046A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4405766B2 (en) | Coordinate input device, coordinate input method | |
US9335865B2 (en) | Coordinate input apparatus, control method therefor, and computer-readable medium | |
US8982102B2 (en) | Coordinate input apparatus | |
WO2010137277A1 (en) | Optical position detection apparatus | |
US8941622B2 (en) | Coordinate input apparatus | |
JP5591069B2 (en) | Coordinate input device, control method therefor, and program | |
JP6031293B2 (en) | Coordinate input device, control method therefor, and program | |
KR20130110309A (en) | System for recognizing touch-point using mirror | |
JP6218590B2 (en) | Coordinate input device and control method thereof | |
JP2016058046A (en) | Coordinate input device, control method thereof, program, coordinate input system, and control method thereof | |
JP6334980B2 (en) | Coordinate input device, control method therefor, and program | |
JP2006350908A (en) | Optical information input device | |
JP2015225466A (en) | Coordinate input device, control method for the same, and program | |
JP5950767B2 (en) | Coordinate input device, control method therefor, and program | |
JP2005128693A (en) | Coordinate input device, its control method, and program | |
JP2005173684A (en) | Optical coordinate input device | |
JP5969794B2 (en) | Coordinate input device | |
JP2006059153A (en) | Optical coordinate input device | |
JP2006260474A (en) | Light shielding type coordinate input device | |
JP2015156115A (en) | coordinate input device | |
JP2015230562A (en) | Coordinate input device, control method of the same, and program | |
JP2007072589A (en) | Coordinate-input device | |
JP2016018282A (en) | Coordinate input device, control method thereof, and program | |
JP2017045336A (en) | Input device and detection method | |
JP2006065654A (en) | Coordinate input apparatus, method for controlling the same, control program, and storage medium |