JP6334980B2 - Coordinate input device, control method therefor, and program - Google Patents

Coordinate input device, control method therefor, and program Download PDF

Info

Publication number
JP6334980B2
JP6334980B2 JP2014062732A JP2014062732A JP6334980B2 JP 6334980 B2 JP6334980 B2 JP 6334980B2 JP 2014062732 A JP2014062732 A JP 2014062732A JP 2014062732 A JP2014062732 A JP 2014062732A JP 6334980 B2 JP6334980 B2 JP 6334980B2
Authority
JP
Japan
Prior art keywords
light
unit
sensor
input device
positional relationship
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014062732A
Other languages
Japanese (ja)
Other versions
JP2015185043A (en
JP2015185043A5 (en
Inventor
松下 明弘
明弘 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014062732A priority Critical patent/JP6334980B2/en
Publication of JP2015185043A publication Critical patent/JP2015185043A/en
Publication of JP2015185043A5 publication Critical patent/JP2015185043A5/ja
Application granted granted Critical
Publication of JP6334980B2 publication Critical patent/JP6334980B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、座標入力有効領域に対する指示位置を検出する座標入力技術に関するものである。   The present invention relates to a coordinate input technique for detecting a designated position with respect to a coordinate input effective area.

従来、この種の座標入力装置として、各種方式の座標入力装置(タッチパネルやデジタイザ)が提案、または製品化されている。例えば、特殊な器具等を用いずに、指で画面上をタッチすることで、PC(パーソナルコンピュータ)等の端末の操作を簡単に行うことがきるタッチパネル等が広く用いられている。   Conventionally, various types of coordinate input devices (touch panels and digitizers) have been proposed or commercialized as this type of coordinate input device. For example, a touch panel that can easily operate a terminal such as a PC (personal computer) by touching the screen with a finger without using a special instrument is widely used.

座標入力方式としては、抵抗膜を用いたもの、または、超音波を用いたもの等、種々のものがある。光を用いたものとして、座標入力面外側に再帰性反射材を設け、投光部からの光を再帰反射材で反射し、その光量分布を受光部により検出する方式(光学遮光方式)が知られている(例えば、特許文献1、2参照)。この方式は、座標入力領域内の指等で遮光された遮光部分(領域)の方向を検出し、遮光位置、つまり、座標入力位置の座標を決定する。   As a coordinate input method, there are various methods such as a method using a resistance film or a method using ultrasonic waves. As a method using light, a retroreflective material is provided outside the coordinate input surface, the light from the light projecting part is reflected by the retroreflective material, and the light quantity distribution is detected by the light receiving part (optical shading method). (For example, see Patent Documents 1 and 2). In this method, the direction of a light-shielding portion (area) shielded by a finger or the like in the coordinate input area is detected, and the light-shielding position, that is, the coordinates of the coordinate input position are determined.

特許文献1の構成を一般化した例として、図13の構成を示す。図13は、座標入力面の両端に配置されたセンサユニット2L及び2Rと、座標を入力する際に使用する座標入力面である所の座標入力有効領域5が示される。そして、座標入力有効領域5の周囲3辺には、進入してきた光を進入してきた方向に再帰的に反射する再帰反射部4が設けられている。   As an example in which the configuration of Patent Document 1 is generalized, the configuration of FIG. 13 is shown. FIG. 13 shows the sensor units 2L and 2R arranged at both ends of the coordinate input surface and the coordinate input effective area 5 which is a coordinate input surface used when inputting coordinates. Then, on the three sides around the coordinate input effective area 5, there are provided retroreflecting portions 4 that recursively reflect the incoming light in the incoming direction.

センサユニット2L及び2Rは、投光部及び受光部(不図示)を有している。投光部は、座標入力有効領域5の入力面にほぼ平行に扇形に広がる光を投光し、受光部は、その光が再帰反射部4で再帰反射され、戻ってきた光を受光する。座標入力装置は、2つのセンサユニット2L及び2Rでそれぞれ検知された光の遮光方向(遮光角度θL及びθR)と当該センサユニット間の距離に基づいて、座標入力有効領域5に入力された指示位置Pを算出することができる。   The sensor units 2L and 2R have a light projecting unit and a light receiving unit (not shown). The light projecting unit projects light that spreads in a fan shape substantially parallel to the input surface of the coordinate input effective area 5, and the light receiving unit receives the light that is retroreflected by the retroreflecting unit 4 and returned. The coordinate input device indicates the indicated position input to the coordinate input effective area 5 based on the light shielding direction (light shielding angles θL and θR) detected by the two sensor units 2L and 2R and the distance between the sensor units. P can be calculated.

尚、図中、3はセンサユニット2L及び2Rを制御し、また、取得したセンサユニット2L及び2Rの出力信号を処理、あるいはその処理結果を外部装置に出力する演算制御回路である。   In the figure, reference numeral 3 denotes an arithmetic control circuit that controls the sensor units 2L and 2R, processes the acquired output signals of the sensor units 2L and 2R, or outputs the processing results to an external device.

また、特許文献2では、多数のセンサユニットを使って、大画面の座標入力装置を小型なシステムで実現するための構成が開示されている。さらに、特許文献3では、デバイスを任意の位置に設置できるようにして使い勝手を向上するシステムが開示されている。   Patent Document 2 discloses a configuration for realizing a large screen coordinate input device with a small system using a large number of sensor units. Furthermore, Patent Document 3 discloses a system that improves usability by allowing a device to be installed at an arbitrary position.

この種の座標入力装置を表示装置と一体にすることによって、表示装置の表示画面をタッチすることで、表示状態を制御したり、あたかも紙と鉛筆の様な関係で、指示位置の軌跡を筆跡として表示したりすることが可能となる。   By integrating this type of coordinate input device with the display device, the display state can be controlled by touching the display screen of the display device, or the locus of the indicated position can be drawn by hand as if it were a pencil and paper. Can be displayed.

表示装置としては、液晶表示装置等の各種方式のフラットパネルディスプレイやフロントプロジェクターが知られている。フラットパネルディスプレイの場合には、座標入力装置を重ねて配置すれば、このような操作環境を実現でき、スマートフォン等の携帯機器はその代表例と言える。フラットパネルディスプレイの大型化に伴い、大型のタッチパネルと組み合わせて、例えば、デジタルサイネージと言った分野でもその導入が進んでいる。   As display devices, flat panel displays and front projectors of various types such as liquid crystal display devices are known. In the case of a flat panel display, such an operation environment can be realized by arranging coordinate input devices in a stacked manner, and a portable device such as a smartphone can be said to be a representative example. With the increase in size of flat panel displays, in combination with large touch panels, for example, digital signage has been introduced.

特開2004−272353号公報JP 2004-272353 A 特開2012−234413号公報JP 2012-234413 A 特開2014−048960号公報JP 2014-048960 A

特許文献3に示されるような、装置を任意の位置に設置できるシステムでは、電源が投入されたとき等に、その設置位置を検出する処理が行われる。そして、その設置位置の検出結果を用いて、入力された指示位置を算出するアルゴリズムを備えている。   In a system in which an apparatus can be installed at an arbitrary position as disclosed in Patent Document 3, processing for detecting the installation position is performed when the power is turned on. And the algorithm which calculates the input instruction | indication position using the detection result of the installation position is provided.

このような装置では、使用中にユーザが設置位置を変更すると、入力された指示位置を正しく算出できなくなる。その結果、指示位置に対して、表示画面上に入力される位置がずれてしまう。ユーザが意図せず装置に接触する等して設置位置がずれてしまったような場合も同様の問題が起きる。   In such an apparatus, if the user changes the installation position during use, the input designated position cannot be calculated correctly. As a result, the position input on the display screen is shifted from the designated position. The same problem occurs when the installation position is shifted due to the user unintentionally touching the apparatus.

装置の設置位置が変更された場合は、装置の設置位置を検出し直して指示位置の算出に必要なパラメータ等を更新する処理、及び、装置の設置位置と表示画面の位置関係を更新する処理等を実行する必要がある。従来、これらの処理は、例えば、装置に専用のスイッチを搭載して、それをユーザが操作することで実現していた。しかし、この方法はユーザの操作を必要とし、また、画面サイズが大きいような環境では、スイッチの場所までユーザが移動しなければならない等、ユーザの負担が大きく、操作性に欠けていた。   When the installation position of the device is changed, processing for re-detecting the installation position of the device and updating parameters etc. necessary for calculating the indicated position, and processing for updating the positional relationship between the installation position of the device and the display screen Etc. need to be executed. Conventionally, these processes have been realized, for example, by mounting a dedicated switch on the apparatus and operating it by the user. However, this method requires the user's operation, and in an environment where the screen size is large, the user has to move to the location of the switch.

本発明は上記の課題を解決するためになされたものであり、装置の設置位置が変化した場合に、ユーザの負担を最小限にしながら、指示位置の算出を正しく行うことができる座標入力技術を提供することを目的とする。   The present invention has been made in order to solve the above-described problem, and provides a coordinate input technique that can correctly calculate the indicated position while minimizing the burden on the user when the installation position of the apparatus changes. The purpose is to provide.

上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、光を投光する投光手段と光を受光する受光手段とを有するセンサユニットを複数有する座標入力装置であって、前記投光手段による投光範囲内の入力面に対して行われた操作の位置を、複数の前記センサユニットが有する複数の前記受光手段による受光状態であって前記投光手段による投光に応じた受光状態と、所定のパラメータとに基づいて検出する検出手段と、前記所定のパラメータを、複数の前記センサユニットの位置関係の変化に応じた判定結果に基づいて変更する設定手段と、前記位置関係が変化したことを、第1のセンサユニットが有する前記投光手段による投光に応じた受光状態であって前記第1のセンサユニットとは異なる第2のセンサユニットが有する前記受光手段による受光状態に基づいて判定する判定手段とを有し、前記設定手段は、前記位置関係が変化したと前記判定手段により判定されたことに応じて前記所定のパラメータを変更する
In order to achieve the above object, a coordinate input device according to the present invention comprises the following arrangement. That is, a coordinate input device having a plurality of sensor units each having a light projecting unit for projecting light and a light receiving unit for receiving light, which is performed on an input surface within a light projecting range by the light projecting unit. Detecting means for detecting an operation position based on a light receiving state corresponding to the light projecting by the light projecting unit and a predetermined parameter in a light receiving state by the plurality of light receiving units included in the plurality of sensor units; Setting means for changing the predetermined parameter based on a determination result corresponding to a change in the positional relationship among the plurality of sensor units, and the light projecting unit included in the first sensor unit that the positional relationship has changed. Determining means for determining based on a light receiving state of the light receiving means of a second sensor unit different from the first sensor unit in a light receiving state according to the light projection by And, wherein the setting means changes the predetermined parameters according to the positional relationship is determined by the determination means to have changed.

本発明によれば、装置の設置位置が変化した場合に、ユーザの負担を最小限にしながら、指示位置の算出を正しく行うことができる座標入力技術を提供できる。   ADVANTAGE OF THE INVENTION According to this invention, when the installation position of an apparatus changes, the coordinate input technique which can calculate a designated position correctly can be provided, minimizing a user's burden.

座標入力装置の概略構成図である。It is a schematic block diagram of a coordinate input device. センサユニットの詳細構成を示す図である。It is a figure which shows the detailed structure of a sensor unit. 演算制御回路の第1の検出モードの動作を説明するための図である。It is a figure for demonstrating operation | movement of the 1st detection mode of an arithmetic control circuit. 検出信号波形の処理を説明する図である。It is a figure explaining the process of a detection signal waveform. 座標算出を説明する図である。It is a figure explaining coordinate calculation. 相対座標系と表示座標系を説明するための図である。It is a figure for demonstrating a relative coordinate system and a display coordinate system. 演算制御回路の第2の検出モードの動作を説明するための図である。It is a figure for demonstrating operation | movement of the 2nd detection mode of an arithmetic control circuit. センサユニットの相対的な位置関係の算出を説明するための図である。It is a figure for demonstrating calculation of the relative positional relationship of a sensor unit. 初期設定処理を示すフローチャートである。It is a flowchart which shows an initial setting process. 設置再設定処理を示すフローチャートである。It is a flowchart which shows an installation reset process. キャリブレーション処理を示すフローチャートである。It is a flowchart which shows a calibration process. 通常動作の処理を示すフローチャートである。It is a flowchart which shows the process of normal operation | movement. 従来の光学式座標入力装置の基本構成を説明するための図である。It is a figure for demonstrating the basic composition of the conventional optical coordinate input device.

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。尚、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。   Hereinafter, the present invention will be described in detail based on preferred embodiments with reference to the accompanying drawings. The configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
座標入力装置の概略構成を、図1を用いて説明する。
<Embodiment 1>
A schematic configuration of the coordinate input device will be described with reference to FIG.

図中、1Lは、センサユニット2−L1及び2−L2(第1のセンサユニット及び第2のセンサユニット)を装備するセンサバーである。また、1Rは、2−R1及び2−R2(第3のセンサユニット及び第4のセンサユニット)を装備するセンサバーである。   In the figure, 1L is a sensor bar equipped with sensor units 2-L1 and 2-L2 (first sensor unit and second sensor unit). 1R is a sensor bar equipped with 2-R1 and 2-R2 (third sensor unit and fourth sensor unit).

筐体であるセンサバー1L及び1R(総称する場合は、センサバー1と表記)は、図示のように矩形状の座標入力有効領域5の対向する2辺に設けられる。表示装置が仮にフロントプロジェクターとすれば、表示領域は座標入力有効領域5の範囲内に設定され、例えば、平面状のホワイトボード6に投影される。無論、ホワイトボード6に限定されるものではなく、壁面等であっても良い。   The sensor bars 1L and 1R (generally referred to as sensor bar 1) as the housing are provided on two opposite sides of the rectangular coordinate input effective area 5 as shown in the figure. If the display device is a front projector, the display area is set within the range of the coordinate input effective area 5 and is projected onto, for example, a planar whiteboard 6. Of course, it is not limited to the white board 6 and may be a wall surface or the like.

センサバー1L及び1Rの側面にはそれぞれ、図示のように再帰反射部4L及び4R(総称する場合は、再帰反射部4と表記)が装着されている。そして、再帰反射部4L及び4Rはそれぞれ、対向する辺に設けられたセンサバー1Lあるいは1Rのセンサユニットが投光した赤外光を再帰的に反射できるように構成してある。   Retroreflective portions 4L and 4R (collectively referred to as retroreflecting portions 4 when collectively referred to) are attached to the side surfaces of the sensor bars 1L and 1R, respectively, as shown in the figure. Each of the retroreflective portions 4L and 4R is configured to recursively reflect the infrared light projected by the sensor unit 1L or 1R provided on the opposite side.

センサバー1Lに内蔵される演算制御回路3Lはセンサユニット2−L1及び2−L2を制御して、その出力結果を演算処理すると共に、センサバー1Rの演算制御回路3Rを制御する。センサバー1Rの演算制御回路3Rは、センサユニット2−R1及び2−R2を制御して、その出力結果を演算処理して、センサバー1Lの演算制御回路3Lにその結果を送信する。そして、センサバー1Lの演算制御回路3Lは、4つのセンサユニット2−L1、2−L2、2−R1及び2−R2からの出力結果を処理して、指示位置を算出し、パーソナルコンピュータ等の外部機器へ結果を出力する。   The arithmetic control circuit 3L built in the sensor bar 1L controls the sensor units 2-L1 and 2-L2, performs arithmetic processing on the output results, and controls the arithmetic control circuit 3R of the sensor bar 1R. The arithmetic control circuit 3R of the sensor bar 1R controls the sensor units 2-R1 and 2-R2, performs arithmetic processing on the output result, and transmits the result to the arithmetic control circuit 3L of the sensor bar 1L. Then, the arithmetic control circuit 3L of the sensor bar 1L processes the output results from the four sensor units 2-L1, 2-L2, 2-R1, and 2-R2, calculates the indicated position, Output the result to the device.

図1では、センサバー1Lの演算制御回路3Lとセンサバー1Rの演算制御回路3Rとはコードで接続される構成(つまり、有線接続)となっているが、これに限定されない。例えば、無線等の通信機能を互いに搭載して、それらの通信機能を使用してデータの送受信(無線接続)を行っても良い。   In FIG. 1, the calculation control circuit 3L of the sensor bar 1L and the calculation control circuit 3R of the sensor bar 1R are connected by a cord (that is, wired connection), but the present invention is not limited to this. For example, wireless communication functions may be mounted on each other, and data transmission / reception (wireless connection) may be performed using these communication functions.

尚、以後の説明にあっては、水平方向をX軸(図面右側が+)、天地方向をY軸(下側が+)として説明する。   In the following description, the horizontal direction will be described as the X axis (+ on the right side of the drawing), and the vertical direction will be described as the Y axis (lower side is +).

図2はセンサユニット2−L1、2−L2、2−R1及び2−R2(総称する場合は、センサユニット2と表記する)の詳細構成を示す図である。図2(A)は図1における断面A−Aであり、図2(B)及び(C)は図中の矢印方向から見た正面図である。   FIG. 2 is a diagram showing a detailed configuration of the sensor units 2-L1, 2-L2, 2-R1, and 2-R2 (generically referred to as the sensor unit 2). 2A is a cross section AA in FIG. 1, and FIGS. 2B and 2C are front views as seen from the direction of the arrows in the figure.

図2(A)において、センサユニット2は、センサバー1に収納されており、座標入力有効領域5に向けて光を投光する投光部30及び到来光を受光する受光部40で構成される。投光部30と受光部40の距離はL_pdであり、その間に再帰反射部4が図示のように設けられている。45は光透過性の部材であって、センサバー1内へのゴミ等の異物の侵入を防止するための保護部材である。   2A, the sensor unit 2 is housed in the sensor bar 1 and includes a light projecting unit 30 that projects light toward the coordinate input effective region 5 and a light receiving unit 40 that receives incoming light. . The distance between the light projecting unit 30 and the light receiving unit 40 is L_pd, and the retroreflecting unit 4 is provided between them as shown in the figure. Reference numeral 45 denotes a light transmissive member, which is a protective member for preventing foreign matter such as dust from entering the sensor bar 1.

図2(B)において、投光部30は、発光部である赤外LED31、投光レンズ32、両者を固定するための接着層33で構成される。投光レンズ32は、赤外LED31の光を、座標入力面となるホワイトボード6と略平行な光束となるように構成する。そして、対向する辺に設けられたセンサバー1の再帰反射部4の全領域を照明するように、投光範囲がg〜h範囲であって、頂点が点Oの位置(センサユニット2の重心位置)の扇状の光束を出射する。   2B, the light projecting unit 30 includes an infrared LED 31 that is a light emitting unit, a light projecting lens 32, and an adhesive layer 33 for fixing both. The light projecting lens 32 is configured so that the light from the infrared LED 31 becomes a light beam substantially parallel to the whiteboard 6 serving as a coordinate input surface. The light projection range is a range from g to h and the vertex is the position of the point O (the position of the center of gravity of the sensor unit 2) so as to illuminate the entire region of the retroreflective portion 4 of the sensor bar 1 provided on the opposite side. ) Is emitted.

図2(C)において、受光部40は、投光部30が投光した光が、対向する辺に設けられたセンサバー1に装着されている再帰反射部4によって再帰反射された光を検出する。41は光電変換素子であるところのラインCCD、42は受光レンズ、43は視野絞り、44は赤外線通過フィルターである。また、保護部材45に赤外通過フィルター機能を設けることで、赤外線通過フィルター44を廃止してもかまわない。   In FIG. 2C, the light receiving unit 40 detects light retroreflected by the retroreflecting unit 4 attached to the sensor bar 1 provided on the opposite side of the light projected by the light projecting unit 30. . 41 is a line CCD which is a photoelectric conversion element, 42 is a light receiving lens, 43 is a field stop, and 44 is an infrared ray passing filter. Further, the infrared passing filter 44 may be eliminated by providing the protective member 45 with an infrared passing filter function.

受光部40の光軸はX軸方向に設定される。視野範囲はg〜h範囲であり、点Oの位置が光学的な中心位置となっている。また、受光部40は、図示のように光軸に対して非対称な光学系となっている。点Oの位置、及び方向g、方向hが略一致するように、投光部30と受光部40は、図2(A)のように重ねて配置される。また、受光部40は、入射する光の方向に応じて、ラインCCD41の画素に集光されるので、ラインCCD41の画素番号は入射する光の角度情報を表す。   The optical axis of the light receiving unit 40 is set in the X-axis direction. The visual field range is the g to h range, and the position of the point O is the optical center position. Further, the light receiving section 40 is an optical system that is asymmetric with respect to the optical axis as shown in the figure. The light projecting unit 30 and the light receiving unit 40 are arranged so as to overlap each other so that the position of the point O and the directions g and h substantially coincide with each other, as shown in FIG. Further, since the light receiving unit 40 is focused on the pixels of the line CCD 41 in accordance with the direction of the incident light, the pixel number of the line CCD 41 represents angle information of the incident light.

また、受光部40は、座標入力有効領域5の座標入力面と略平行な視野範囲を有し、その光軸方向は、ラインCCD41の受光面の法線方向と一致するように配置されている。   The light receiving unit 40 has a visual field range substantially parallel to the coordinate input surface of the coordinate input effective area 5, and its optical axis direction is arranged to coincide with the normal direction of the light receiving surface of the line CCD 41. .

図3(A)は演算制御回路3のブロック図である。実施形態1におけるセンサバー1Lの演算制御回路3Lとセンサバー1Rの演算制御回路3Rは、外部へのインタフェース仕様を除き、いずれも同様の回路構成であり、接続される対応するセンサユニット2の制御、演算を行う。図3(A)は、特に、センサバー1Lの演算制御回路3Lの構成を示している。   FIG. 3A is a block diagram of the arithmetic control circuit 3. The calculation control circuit 3L of the sensor bar 1L and the calculation control circuit 3R of the sensor bar 1R in Embodiment 1 have the same circuit configuration except for the interface specifications to the outside, and control and calculation of the corresponding sensor unit 2 to be connected. I do. FIG. 3A particularly shows the configuration of the arithmetic control circuit 3L of the sensor bar 1L.

センサユニット2−L1及び2−L2のラインCCD41用のCCD制御信号は、ワンチップマイコン等で構成されるCPU61から出力され、ラインCCD41のシャッタータイミングやデータの出力制御等を行う。ここで、CPU61は、内部に不揮発性メモリ(例えば、フラッシュメモリ)を内蔵しており、この不揮発性メモリには、座標入力装置を制御するためのプログラムや各種の設定値等のデータが記憶されている。これにより、CPU61は、不揮発性メモリに記憶されているプログラムを読み出して実行したり、各種設定値の書込や読出を随時行うことができるようになっている。   The CCD control signals for the line CCD 41 of the sensor units 2-L1 and 2-L2 are output from the CPU 61 constituted by a one-chip microcomputer or the like, and perform shutter timing of the line CCD 41, data output control, and the like. Here, the CPU 61 has a built-in nonvolatile memory (for example, a flash memory), and the nonvolatile memory stores a program for controlling the coordinate input device and data such as various setting values. ing. Thereby, the CPU 61 can read and execute a program stored in the nonvolatile memory, and can write and read various setting values at any time.

CCD用のクロックはクロック発生回路CLK62から各センサユニット2−L1及び2−L2に送信されるとともに、ラインCCD41との同期をとって各種制御を行うためにCPU61にも入力されている。尚、センサユニット2−L1及び2−L2の赤外LED31を駆動するLED駆動信号は、CPU61から供給される。   The CCD clock is transmitted from the clock generation circuit CLK62 to each of the sensor units 2-L1 and 2-L2, and is also input to the CPU 61 for performing various controls in synchronization with the line CCD 41. The LED drive signal for driving the infrared LEDs 31 of the sensor units 2-L1 and 2-L2 is supplied from the CPU 61.

センサユニット2−L1及び2−L2それぞれのラインCCD41からの検出信号は、A/Dコンバータ63に入力され、CPU61からの制御によって、デジタル値に変換される。変換されたデジタル値はメモリ64に記憶され、角度計算に用いられる。そして、計算された角度情報から幾何学的な指示位置を算出し、外部PC等の情報処理装置にインタフェース68(例えば、USBインタフェース)を介して出力される。   Detection signals from the line CCDs 41 of the sensor units 2-L1 and 2-L2 are input to the A / D converter 63 and converted into digital values under the control of the CPU 61. The converted digital value is stored in the memory 64 and used for angle calculation. Then, a geometric indication position is calculated from the calculated angle information, and is output to an information processing apparatus such as an external PC via an interface 68 (for example, a USB interface).

先に示した通り、各センサバー1の演算制御回路3は、各々2つのセンサユニット2を制御している。仮に、センサバー1Lの演算制御回路3Lがメイン機能を果たすものとすれば、CPU61はシリアル通信部67を介して、センサバー1Rの演算制御回路3Rに制御信号を送信して、回路間の同期を行う。そして、演算制御回路3Rから、必要なデータの取得を行うことになる。   As described above, the arithmetic control circuit 3 of each sensor bar 1 controls two sensor units 2 each. If the arithmetic control circuit 3L of the sensor bar 1L fulfills the main function, the CPU 61 transmits a control signal to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67 to synchronize the circuits. . Then, necessary data is acquired from the arithmetic control circuit 3R.

演算制御回路3L及び3R間の動作は、マスター・スレーブ制御にて動作する。実施形態1の場合、演算制御回路3Lがマスターで、演算制御回路3Rがスレーブである。尚、各演算制御回路は、マスター・スレーブのどちらにもなりうるが、ディップスイッチ(不図示)等の切替部で、CPUのポートに切替信号を入力することで、マスター・スレーブの切替が可能となっている。   The operation between the arithmetic control circuits 3L and 3R is performed by master / slave control. In the first embodiment, the arithmetic control circuit 3L is a master and the arithmetic control circuit 3R is a slave. Each arithmetic control circuit can be either a master or a slave, but the master / slave can be switched by inputting a switching signal to the CPU port with a switching unit such as a DIP switch (not shown). It has become.

マスターであるセンサバー1Lの演算制御回路3Lからは、対向する辺に設けられたセンサバー1Rのセンサユニット2−R1及び2−R2のデータを取得するために、制御信号がスレーブの演算制御回路3Rにシリアル通信部67を介して送信される。そして、センサユニット2−R1及び2−R2で得られた角度情報が算出され、シリアル通信部67を介してマスター側の演算制御回路3Lに送信される。   In order to acquire data of the sensor units 2-R1 and 2-R2 of the sensor bar 1R provided on the opposite side from the arithmetic control circuit 3L of the sensor bar 1L as the master, the control signal is sent to the slave arithmetic control circuit 3R. It is transmitted via the serial communication unit 67. Then, the angle information obtained by the sensor units 2-R1 and 2-R2 is calculated and transmitted to the arithmetic control circuit 3L on the master side via the serial communication unit 67.

尚、インタフェース68は、実施形態1の場合、マスター側の演算制御回路3Lに実装されることになる。また、66は、指示具として、赤外線を発光する専用ペン(不図示)を使用した時の赤外線受光部である。65は専用ペンからの信号をデコードするためのサブCPUである。専用ペンは、ペン先が入力面を押圧したことを検知するスイッチや、ペン筺体サイド部に種々のスイッチを有する。それらのスイッチの状態やペンの識別情報を専用ペンに設けられた赤外線発光部で送信することにより、専用ペンの操作状態を検知することが可能となる。   In the case of the first embodiment, the interface 68 is mounted on the arithmetic control circuit 3L on the master side. Reference numeral 66 denotes an infrared light receiving unit when a dedicated pen (not shown) that emits infrared light is used as an indicator. Reference numeral 65 denotes a sub CPU for decoding a signal from the dedicated pen. The dedicated pen has a switch for detecting that the pen tip has pressed the input surface, and various switches on the side of the pen housing. It is possible to detect the operation state of the dedicated pen by transmitting the state of those switches and the identification information of the pen by the infrared light emitting unit provided in the dedicated pen.

図3(B)はセンサユニット2を動作させるためにマスター側の演算制御回路3LのCPU61が出力する制御信号、及びセンサユニット2の動作を示すタイミングチャートである。   FIG. 3B is a timing chart showing the control signal output from the CPU 61 of the arithmetic control circuit 3L on the master side to operate the sensor unit 2 and the operation of the sensor unit 2.

71、72、73がラインCCD41制御用の制御信号であり、SH信号71の間隔でラインCCD41のシャッター開放時間が決定される。ICGL信号72はセンサバー1Lのセンサユニット2−L1及び2−L2へのゲート信号であり、ラインCCD41内部の光電変換部の電荷を読出部へ転送する信号である。   71, 72 and 73 are control signals for controlling the line CCD 41, and the shutter opening time of the line CCD 41 is determined by the interval of the SH signal 71. The ICGL signal 72 is a gate signal to the sensor units 2-L1 and 2-L2 of the sensor bar 1L, and is a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit.

CCDL信号74は、センサユニット2−L1及び2−L2のラインCCD41のシャッター開放時間を示す信号である。ICGR信号73は、対向するセンサバー1Rのセンサユニット2−R1及び2−R2へのゲート信号であり、シリアル通信部67を介してセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3RがラインCCD41内部の光電変換部の電荷を読出部へ転送する信号を生成する。CCDR信号75は、センサユニット2−R1及び2−R2のラインCCD41のシャッター開放時間を示す信号である。   The CCDL signal 74 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-L1 and 2-L2. The ICGR signal 73 is a gate signal to the sensor units 2-R1 and 2-R2 of the opposing sensor bar 1R, and is transmitted to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit. The CCDR signal 75 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-R1 and 2-R2.

LEDL信号76及びLEDR信号77は、各センサユニット2の赤外LED31の駆動信号である。SH信号71の最初の周期でセンサバー1Lのセンサユニット2−L1及び2−L2の赤外LED31を点灯するために、LEDL信号76が各々のLED駆動回路(不図示)を経て赤外LED31に供給される。   The LEDL signal 76 and the LEDR signal 77 are drive signals for the infrared LED 31 of each sensor unit 2. In order to turn on the infrared LEDs 31 of the sensor units 2-L1 and 2-L2 of the sensor bar 1L in the first cycle of the SH signal 71, an LEDL signal 76 is supplied to the infrared LEDs 31 via respective LED drive circuits (not shown). Is done.

そして、SH信号71の次の周期で、対向する辺に設けられたセンサバー1Rのセンサユニット2−R1及び2−R2の赤外LED31を点灯するために、LEDR信号77がシリアル通信部67を介して演算制御回路3Rに送信される。そして、演算制御回路3Rが各々のLED駆動回路に供給するための信号を生成する。   Then, in order to turn on the infrared LEDs 31 of the sensor units 2-R1 and 2-R2 of the sensor bar 1R provided on opposite sides in the next cycle of the SH signal 71, the LEDR signal 77 is transmitted via the serial communication unit 67. To the arithmetic control circuit 3R. Then, the arithmetic control circuit 3R generates a signal to be supplied to each LED drive circuit.

赤外LED31の駆動、及びラインCCD41のシャッター開放が終了した後に、ラインCCD41の信号がセンサユニット2から読み出され、後述する方法で角度情報を算出する。そして、スレーブ側の演算制御回路3Rの演算結果はマスター側の演算制御回路3Lに送信される。   After the driving of the infrared LED 31 and the shutter release of the line CCD 41 are completed, the signal of the line CCD 41 is read from the sensor unit 2 and angle information is calculated by a method described later. Then, the calculation result of the slave-side calculation control circuit 3R is transmitted to the master-side calculation control circuit 3L.

以上のように動作させることで、センサバー1Lのセンサユニット2−L1及び2−L2と対向するセンサバー1Rのセンサユニット2−R1及び2−R2とは、異なるタイミングで動作するようになる。このように構成することで、対向する辺に設けられたセンサユニットの赤外光を検出することなく、センサユニット自身が発光した再帰反射光のみを検出できる。   By operating as described above, the sensor units 2-R1 and 2-R2 of the sensor bar 1R facing the sensor units 2-L1 and 2-L2 of the sensor bar 1L operate at different timings. By comprising in this way, only the retroreflected light which sensor unit itself emitted can be detected, without detecting the infrared light of the sensor unit provided in the edge | side which opposes.

図4を用いて、センサバー1のセンサユニット2から出力される、受光状態を示す信号について説明する。先ず、センサユニット2の投光部30の発光が無い状態である場合の受光部40の出力は図4(A)となり、発光が有る場合の受光部40の出力は図4(B)となる。図4(B)において、レベルAが検出した光量の最大レベルであり、レベルBが光を全く検出(受光)できてないレベルと言える。   With reference to FIG. 4, a signal indicating the light receiving state output from the sensor unit 2 of the sensor bar 1 will be described. First, the output of the light receiving unit 40 when there is no light emission of the light projecting unit 30 of the sensor unit 2 is FIG. 4A, and the output of the light receiving unit 40 when there is light emission is FIG. 4B. . In FIG. 4B, level A is the maximum level of the detected light amount, and level B can be said to be a level at which no light can be detected (received).

センサユニット2が発光した赤外線は、対向する辺に設けられた再帰反射部4で再帰反射され、自身のセンサユニット2で検出される。画素番号Njから画素番号Nfまでの光量は、表示画面の大きさやそのアスペクト比、それに対応したセンサバー1の配置状態(特に、2つのセンサバー1間の距離)等によって変化する。   The infrared light emitted from the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided on the opposite side and is detected by the sensor unit 2 itself. The amount of light from the pixel number Nj to the pixel number Nf varies depending on the size of the display screen, the aspect ratio thereof, the arrangement state of the sensor bar 1 corresponding thereto (particularly, the distance between the two sensor bars 1), and the like.

実施形態1の座標入力装置は、最適な光量レベルが得られるように、SH信号を制御することによって、ラインCCD41のシャッター開放時間、及び赤外LED31の露光時間を調整する。センサユニット2から得られる光量が多ければ時間を短くし、逆に少なければ時間を長く設定することができる。さらには、検出光量レベルに応じて、赤外LED31に流す電流を調整しても良い。このように出力信号を監視することで、最適な光量が得られるように構成されている。このような調整を、レベル変動が有った場合に適宜行う仕様としても良い。もしくは、センサバー1が設置され、その状態が保持されている間は、安定した一定の信号が得られるはずであるので、このような光量の調整は、設置が完了した電源投入時に行えばよい。   The coordinate input device according to the first embodiment adjusts the shutter open time of the line CCD 41 and the exposure time of the infrared LED 31 by controlling the SH signal so that an optimum light amount level is obtained. If the amount of light obtained from the sensor unit 2 is large, the time can be shortened. Conversely, if the amount of light is small, the time can be set long. Furthermore, the current flowing through the infrared LED 31 may be adjusted according to the detected light amount level. By monitoring the output signal in this way, an optimum light amount can be obtained. Such adjustment may be made as appropriate when there is a level fluctuation. Alternatively, a stable and constant signal should be obtained while the sensor bar 1 is installed and its state is maintained, and thus such light quantity adjustment may be performed when the power is turned on after installation is completed.

座標入力有効領域5の入力面をタッチ(指示)することで光路を遮ると、図4(C)のように、例えば、画素番号Ncで光量が検出できなくなる。実施形態1では、この図4(A)〜図4(C)の信号を用いて、タッチした方向、言い換えると、角度を算出する。   When the optical path is blocked by touching (instructing) the input surface of the coordinate input effective area 5, for example, as shown in FIG. 4C, it becomes impossible to detect the light amount with the pixel number Nc. In the first embodiment, the touched direction, in other words, the angle is calculated using the signals shown in FIGS. 4A to 4C.

まず、システムの起動時、システムのリセット時、あるいは自動的に、基準データを取得する。以降、一つのセンサユニット2のデータ処理について説明するが、他のセンサユニットでも同様の処理を行っている。   First, reference data is acquired when the system is started, when the system is reset, or automatically. Hereinafter, the data processing of one sensor unit 2 will be described, but the same processing is performed in other sensor units.

電源投入時、操作者によるタッチ操作が行われてない状態で、投光部30の照明無しの状態でラインCCD41の出力をA/Dコンバータ63によりA/D変換して、この値をBase_Data[N]としてメモリ64に記憶する。これは、ラインCCD41のバイアスのばらつき等を含んだデータとなり、図4(A)のレベルB付近のデータとなる。ここで、[N]はラインCCD41のCCD画素番号であり、有効な入力範囲に対応する画素番号が用いられる。   When the power is turned on, the output of the line CCD 41 is A / D converted by the A / D converter 63 in a state where no touch operation is performed by the operator and the illumination unit 30 is not illuminated, and this value is converted to Base_Data [ N] is stored in the memory 64. This is data including variations in the bias of the line CCD 41 and the like, and is data in the vicinity of level B in FIG. Here, [N] is the CCD pixel number of the line CCD 41, and a pixel number corresponding to an effective input range is used.

同様に、操作者によるタッチ操作が行われてない状態で、投光部30から投光した状態での光量分布を取得して記憶する。これは、図4(B)の実線で表されたデータであり、Ref_Data[N]としてメモリ64に記憶する。これにより、初期データとして2種類のデータの記憶を管理する。   Similarly, a light amount distribution in a state where light is projected from the light projecting unit 30 in a state where no touch operation is performed by the operator is acquired and stored. This is data represented by a solid line in FIG. 4B and is stored in the memory 64 as Ref_Data [N]. This manages the storage of two types of data as initial data.

その後、サンプリングを開始することになるが、タッチ操作が行われてなければ、図4(B)に示すデータは、タッチ操作が行われると、その指示位置に応じて影Cが検出された図4(C)に示すデータが検出される。この投光部30の照明有りの状態で得られるサンプルデータをNorm_Data[N]と定義する。   Thereafter, sampling is started. If no touch operation is performed, the data shown in FIG. 4B is a diagram in which a shadow C is detected according to the designated position when the touch operation is performed. Data shown in 4 (C) is detected. Sample data obtained when the light projecting unit 30 is illuminated is defined as Norm_Data [N].

これらのデータ(メモリ64に記憶されているBase_Data[N]とRef_Data[N])を用いて、まずは、指示具の入力の有無、遮光部分の有無の判定を行う。まず、遮光部分を特定するために、データの変化量を各々の画素において算出し、予め設定してある閾値Vthaと比較する。   Using these data (Base_Data [N] and Ref_Data [N] stored in the memory 64), first, the presence / absence of the input of the pointing tool and the presence / absence of the light shielding portion are determined. First, in order to specify the light shielding portion, the amount of change in data is calculated for each pixel and compared with a preset threshold value Vtha.

Norm_Data0[N] = Norm_Data[N] - Ref_Data[N] (1)
ここで、Norm_Data0[N]は、各画素における光量の変化量であり、閾値比較により、ノイズ等による誤判定を防止し、所定量の確実な変化を検出する。そして、閾値を超えるデータが、例えば、所定数以上の連続した画素で発生した場合に、タッチ操作が有ると判定する。この処理は、差を取り比較するだけなので、短時間での演算が可能であり、入力の有無判定を高速に行うことができる。
Norm_Data0 [N] = Norm_Data [N]-Ref_Data [N] (1)
Here, Norm_Data0 [N] is the amount of change in the amount of light in each pixel. By comparing the thresholds, erroneous determination due to noise or the like is prevented, and a certain amount of reliable change is detected. Then, when data exceeding the threshold value is generated in, for example, a predetermined number or more of continuous pixels, it is determined that there is a touch operation. Since this process only takes a difference and compares it, it is possible to perform a calculation in a short time and to determine whether or not there is an input at high speed.

次に、より高精度に検出するために、式(2)を用いて、画素データの変化の比を計算して入力点の決定を行う。   Next, in order to detect with higher accuracy, an input point is determined by calculating a ratio of change in pixel data using Expression (2).

Norm_DataR[N] = Norm_Data0[N] / (Base_Data[N] - Ref_Data[N]) (2)
この画素データ(光量分布)に対して、別途設定される閾値Vthrを適用する。そして、その閾値Vthrを横切る点に対応する、光量分布中の遮光部分に対応する光量変動領域の立ち上がり部と立ち下がり部の画素番号から、両者の中央を指示具による入力に対応する画素とすることで、角度を算出する。
Norm_DataR [N] = Norm_Data0 [N] / (Base_Data [N]-Ref_Data [N]) (2)
A separately set threshold value Vthr is applied to the pixel data (light quantity distribution). Then, based on the pixel numbers of the rising and falling portions of the light amount fluctuation region corresponding to the light shielding portion in the light amount distribution corresponding to the point crossing the threshold value Vthr, the center of both is set as the pixel corresponding to the input by the pointing tool. Thus, the angle is calculated.

図4(D)は変化の比の計算を終了後の検出結果の例である。今、閾値Vthrで検出すると、遮光部分の立ち上がり部分は、Ns番目の画素でレベルLsとなり閾値Vthrを超えたとする。さらに、Nt番目の画素でレベルLtとなり閾値Vthrを下まわったとする。   FIG. 4D shows an example of a detection result after the calculation of the change ratio. Now, when detecting with the threshold value Vthr, it is assumed that the rising portion of the light-shielding portion becomes the level Ls at the Ns-th pixel and exceeds the threshold value Vthr. Furthermore, it is assumed that the level becomes Lt at the Ntth pixel and falls below the threshold value Vthr.

この時、出力すべきラインCCD41の画素番号Npを、立ち上がり部と立ち下がり部の画素番号の中央値として式(3)のように計算しても良いが、そうすると、ラインCCD41の画素間隔が出力画素番号の分解能になる。   At this time, the pixel number Np of the line CCD 41 to be output may be calculated as the median value of the pixel numbers of the rising and falling portions as in Expression (3), but in this case, the pixel interval of the line CCD 41 is output. It becomes the resolution of the pixel number.

Np = Ns + (Nt - Ns) / 2 (3)
そこで、より高分解能に検出するために、それぞれの画素のデータレベルとその一つ前の隣接画素のデータレベルを用い、閾値Vthrを横切る仮想の画素番号を計算する。
Np = Ns + (Nt-Ns) / 2 (3)
Therefore, in order to detect with higher resolution, a virtual pixel number crossing the threshold value Vthr is calculated using the data level of each pixel and the data level of the immediately preceding adjacent pixel.

画素NsのレベルをLs、画素Ns−1番のレベルをLs−1、そして、画素NtのレベルをLt、画素Nt−1のレベルをLt−1とすると、それぞれの仮想画素番号Nsv、Ntvは、
Nsv = Ns-1 + ( Vthr - Ls-1 ) / ( Ls -LS-1 ) (4)
Ntv = Nt-1 + ( Vthr - Lt-1 ) / ( Lt -Lt-1 ) (5)
と計算できる。この計算式によれば、出力レベルに応じた仮想画素番号、つまり、ラインCCD41の画素番号よりも細かい画素番号を取得できる。そして、これらの仮想画素番号Nsv、Ntvの仮想中心画素Npvは、式(6)で決定される。
When the level of the pixel Ns is Ls, the level of the pixel Ns-1 is Ls-1, the level of the pixel Nt is Lt, and the level of the pixel Nt-1 is Lt-1, the respective virtual pixel numbers Nsv and Ntv are ,
Nsv = Ns-1 + (Vthr-Ls-1) / (Ls -LS-1) (4)
Ntv = Nt-1 + (Vthr-Lt-1) / (Lt -Lt-1) (5)
Can be calculated. According to this calculation formula, a virtual pixel number corresponding to the output level, that is, a pixel number smaller than the pixel number of the line CCD 41 can be acquired. And the virtual center pixel Npv of these virtual pixel numbers Nsv and Ntv is determined by Expression (6).

Npv = Nsv + ( Ntv - Nsv ) / 2 (6)
このように、閾値Vthrを越えるデータレベルの画素の画素番号とその隣接する画素番号と、それらのデータレベルから、所定レベルの閾値Vthrを横切る仮想的な仮想画素番号を計算することで、より分解能の高い検出を実現できる。
Npv = Nsv + (Ntv-Nsv) / 2 (6)
Thus, by calculating the virtual virtual pixel number that crosses the threshold value Vthr of the predetermined level from the pixel number of the pixel of the data level exceeding the threshold value Vthr, the adjacent pixel number, and the data level thereof, the resolution can be further increased. High detection can be realized.

このように得られた中心画素番号から、実際の指示具の座標値を計算するためには、この中心画素番号を角度情報に変換する必要がある。   In order to calculate the actual coordinate value of the pointing tool from the center pixel number obtained in this way, it is necessary to convert the center pixel number into angle information.

後述する実際の座標計算では、角度そのものよりもその角度における正接(tangent)の値を計算するほうが都合がよい。尚、画素番号から、tanθへの変換には、テーブル参照や変換式を用いる。変換式は、例えば、高次の多項式を用いると精度を確保できるが、次数等は計算能力及び精度スペック等を鑑みて決定すればよい。   In actual coordinate calculation described later, it is more convenient to calculate the value of the tangent at the angle rather than the angle itself. A table reference or a conversion formula is used for conversion from the pixel number to tan θ. For example, a high-order polynomial can be used as the conversion formula to ensure accuracy, but the order and the like may be determined in consideration of calculation capability, accuracy specifications, and the like.

ここで、5次多項式を用いる場合の例を示すと、5次多項式を用いる場合には係数が6個必要になるので、出荷時等にこの係数データをCPU61内の不揮発性メモリに記憶しておけばよい。今、5次多項式の係数をL5、L4、L3、L2、L1、L0としたとき、tanθは
tanθ=(L5*Npr+L4)*Npr+L3)*Npr+L2)*Npr+L1)*Npr+L0 (7)
であらわすことができる。同様なことを、各々のセンサユニットに対して行えば、それぞれの角度データを決定できる。もちろん、上記例では、tanθを計算しているが、角度データそのものを計算し、その後、tanθを計算しても構わない。
Here, an example in the case of using a 5th order polynomial requires 6 coefficients when using a 5th order polynomial, so this coefficient data is stored in the nonvolatile memory in the CPU 61 at the time of shipment or the like. Just keep it. Now, when the coefficients of the fifth-order polynomial are L5, L4, L3, L2, L1, and L0, tan θ is
tanθ = (L5 * Npr + L4) * Npr + L3) * Npr + L2) * Npr + L1) * Npr + L0 (7)
Can be represented. If the same thing is done for each sensor unit, the respective angle data can be determined. Of course, in the above example, tan θ is calculated, but the angle data itself may be calculated, and then tan θ may be calculated.

図5は、画面座標との位置関係を示す図である。センサバー1Lのセンサユニット2−L1の視野範囲は方向jから方向fの範囲であり、角度の正負を図示のように設定する。そして、センサユニット2−L1の光軸はX軸方向であり、その方向を角度0°と定義する。同様に、センサユニット2−L2の視野範囲は方向fから方向jの範囲であり、角度の正負を図示のように設定し、及び、センサユニット2−L2の光軸の方向を角度0°と定義する。そして、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心を結ぶ線分をY軸と定義すれば、各センサユニットの光軸はその線分の法線方向となる。また、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心との距離をdhと定義する。   FIG. 5 is a diagram illustrating a positional relationship with the screen coordinates. The visual field range of the sensor unit 2-L1 of the sensor bar 1L is a range from the direction j to the direction f, and the positive and negative angles are set as illustrated. The optical axis of the sensor unit 2-L1 is the X-axis direction, and the direction is defined as an angle of 0 °. Similarly, the field-of-view range of the sensor unit 2-L2 is a range from the direction f to the direction j, the positive / negative of the angle is set as illustrated, and the direction of the optical axis of the sensor unit 2-L2 is an angle of 0 °. Define. Then, if a line segment connecting the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is defined as the Y axis, the optical axis of each sensor unit is the normal direction of the line segment. Further, the distance between the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is defined as dh.

今、点Pの位置でタッチ操作が行われた場合を想定する。   Assume that a touch operation is performed at the point P.

センサユニット2−L1で算出される角度はθL1であり、センサユニット2−L2で算出される角度はθL2である。この2つの角度情報と距離dhを用いて、幾何学的に指示位置Pの座標を算出することが可能となる。   The angle calculated by the sensor unit 2-L1 is θL1, and the angle calculated by the sensor unit 2-L2 is θL2. Using these two angle information and the distance dh, the coordinates of the indicated position P can be calculated geometrically.

x=dh・tan(π/2-θL2)・tan(π/2-θL1)/(tan(π/2-θL2)+tan(π/2-θL1)) (8)
y=dh・tan(π/2-θL2)/(tan(π/2-θL2)+tan(π/2-θL1)) (9)
また、一方のセンサユニットの出力がθL1=0、もしくはθL2=0の場合であっても、他方のセンサユニットが出力する角度情報に基づき、幾何学的に容易に指示位置を算出することが可能である。
x = dh ・ tan (π / 2-θL2) ・ tan (π / 2-θL1) / (tan (π / 2-θL2) + tan (π / 2-θL1)) (8)
y = dh · tan (π / 2-θL2) / (tan (π / 2-θL2) + tan (π / 2-θL1)) (9)
Even if the output of one sensor unit is θL1 = 0 or θL2 = 0, the indicated position can be easily calculated geometrically based on the angle information output by the other sensor unit. It is.

ここで、センサユニット2−L1及びセンサユニット2−L2の視野範囲から、指示位置Pが図5(B)のハッチング部の範囲に有る場合のみ、その指示位置を算出することが可能である。指示位置がその範囲に無い場合には、図5(C)、図5(D)、図5(E)に示す様に、演算に用いるセンサユニットの組み合わせを変更することで、座標入力有効領域5全域の指示位置を検出できるようになる。従って、各センサユニット2が検出した遮光方向の有無、及び遮光方向に基づき、座標算出に必要なセンサユニットを選択して、指示位置を算出する。そして、選択したセンサユニット2の組み合わせに応じて、式(8)、式(9)のパラメータを変更して、座標変換を行えばよい。   Here, from the visual field range of the sensor unit 2-L1 and the sensor unit 2-L2, it is possible to calculate the indicated position only when the indicated position P is within the hatched range of FIG. When the designated position is not within the range, the coordinate input effective area can be obtained by changing the combination of the sensor units used for the calculation as shown in FIGS. 5 (C), 5 (D), and 5 (E). It becomes possible to detect the designated positions in all five areas. Therefore, based on the presence / absence of the light shielding direction detected by each sensor unit 2 and the light shielding direction, the sensor unit necessary for coordinate calculation is selected, and the indicated position is calculated. And according to the combination of the selected sensor units 2, the parameters of Equation (8) and Equation (9) may be changed to perform coordinate conversion.

尚、図5(F)に示すように、センサユニット選択の境界領域近傍に指示位置Pが存在すると、この場合は、図5(B)もしくは図5(C)の状態のセンサユニットの組み合わせで、その指示位置を算出できる。具体的な構成として、例えば、センサユニット2−L2の視野範囲と、センサユニット2−R1の視野範囲は、座標入力有効領域5の対角線方向で重複するように構成される。そして、重複した領域でタッチした場合には、複数通りのセンサユニットの組み合わせで座標算出が可能となる。その場合にあっては、両者の組み合わせで算出した座標値の平均値を確定座標として出力しても良い。   As shown in FIG. 5 (F), if the designated position P exists in the vicinity of the boundary region for sensor unit selection, in this case, the combination of sensor units in the state of FIG. 5 (B) or FIG. 5 (C) is used. The indicated position can be calculated. As a specific configuration, for example, the visual field range of the sensor unit 2-L2 and the visual field range of the sensor unit 2-R1 are configured to overlap in the diagonal direction of the coordinate input effective region 5. And when it touches in the overlapping area | region, a coordinate calculation is attained by the combination of a plurality of types of sensor units. In that case, an average value of coordinate values calculated by a combination of the two may be output as definite coordinates.

さて、このように算出された座標値は、実施形態1の座標入力装置が持つ第1の座標系(以後、相対座標系と称す)の値であって、位置算出が可能な有効領域は図1における座標入力有効領域5である。そして、この座標入力有効領域5の範囲内にディスプレイの表示面を設けることになる。ディスプレイが仮にフロントプロジェクターとすると、図6に示すように、投影画像である表示領域8が座標入力有効領域5内に設定されることになる。図6では、d1を原点としてdx軸、dy軸からなる表示座標系である第2の座標系(以後、表示座標系と称す)からなる。表示されている画像を直接タッチすることで、アイコン等のタップ操作を行うためには、相対座標系に対する表示座標系の位置を合わせる作業を行う必要がある。位置合わせ作業は一般的にキャリブレーションと呼ばれている。   The coordinate values calculated in this way are values of the first coordinate system (hereinafter referred to as a relative coordinate system) possessed by the coordinate input device of the first embodiment, and the effective area where the position can be calculated is shown in FIG. 1 is a coordinate input effective area 5 in FIG. The display surface of the display is provided in the range of the coordinate input effective area 5. If the display is a front projector, a display area 8 that is a projection image is set in the coordinate input effective area 5 as shown in FIG. In FIG. 6, it consists of the 2nd coordinate system (henceforth a display coordinate system) which is a display coordinate system which consists of dx-axis and dy-axis by making d1 into an origin. In order to perform a tap operation on an icon or the like by directly touching the displayed image, it is necessary to perform an operation of aligning the position of the display coordinate system with respect to the relative coordinate system. The alignment operation is generally called calibration.

通常、キャリブレーションを実行するためには、表示制御を行っているパーソナルコンピュータ(PC)に専用のアプリケーションソフトがインストールされる。アプリケーションを起動すると、表示画面には十字クロス等の指標が表示され、ユーザにそのクロス位置をタッチするように促す。その動作を異なる位置で所定回数繰り返すことで得られる相対座標系の座標値と、十字クロスが表示されている位置の表示座標系の座標値とが一致するように、座標系の変換が行われる。   Usually, in order to execute calibration, dedicated application software is installed in a personal computer (PC) that performs display control. When the application is activated, an indicator such as a cross is displayed on the display screen, and the user is prompted to touch the cross position. The coordinate system is converted so that the coordinate value of the relative coordinate system obtained by repeating the operation a predetermined number of times at different positions matches the coordinate value of the display coordinate system at the position where the cross is displayed. .

実施形態1の座標入力装置にあっては、アプリケーションソフトを使って十字クロスの位置を表示させてタッチさせるのではなく、表示画面の4隅をタッチすることで、この座標変換を行っている。このように構成することで、その場にあるPCに接続することで、特別なソフトをインストールすることなく直ぐに使えると言う優れた効果が得られる。特に、本願発明の座標入力装置は、センサバー1を持ち運んで会議室に設置する可搬型であり、一緒にPCを持ち運ぶ必要が無いと言うことは大きな利点である。持ち運んだ先の、その場のPC、その場の表示装置を利用して、簡単に設置を完了させて直ぐに使えると言う優れた効果を発揮する。   In the coordinate input device according to the first embodiment, the coordinate conversion is performed by touching the four corners of the display screen instead of displaying and touching the position of the crosshairs using application software. By configuring in this way, it is possible to obtain an excellent effect that it can be used immediately without installing special software by connecting to a PC on the spot. In particular, the coordinate input device of the present invention is a portable type in which the sensor bar 1 is carried and installed in a conference room, and it is a great advantage that there is no need to carry a PC together. Using the local PC and the local display device, you can easily complete the installation and use it immediately.

このキャリブレーションモードへの遷移は、例えば、センサバー1に設けられたモード遷移スイッチ(不図示)で行われる。ユーザは、表示画面の位置を変更した場合等にモード遷移スイッチを押下する。このモード遷移スイッチにより、キャリブレーションモードへ遷移すると、センサバー1に内蔵されるスピーカ等の出力部により、4隅部を順次タッチするようにガイダンスする。また、隅部のタッチが完了する毎に、入力が完了したことを示すブザー音を報知しても良い。または、センサバー1に内蔵されるインジケータで、その操作を促しても良い。   The transition to the calibration mode is performed by, for example, a mode transition switch (not shown) provided in the sensor bar 1. The user presses the mode transition switch when the position of the display screen is changed. When the mode transition switch is used to make a transition to the calibration mode, guidance is provided so that the four corners are sequentially touched by an output unit such as a speaker built in the sensor bar 1. Also, a buzzer sound indicating that the input has been completed may be notified every time the corner touch is completed. Alternatively, the operation may be prompted by an indicator built in the sensor bar 1.

さて、相対座標系での座標算出では、式(8)及び式(9)で演算に用いるセンサユニット2間の距離dhが既知である必要が有る。しかしながら、表示装置と組み合わせて使用する図6のような使用態様の場合、この距離dhは必ずしも既知である必要は無い。つまり、ディスプレイの大きさを示す4隅部の情報が、タッチ操作することにより順次、相対座標系における各センサユニットでの角度情報として取得される。その結果、比による計算だけで、表示座標系の指示位置の座標を算出することが可能である。   Now, in the coordinate calculation in the relative coordinate system, it is necessary that the distance dh between the sensor units 2 used for the calculation in the equations (8) and (9) needs to be known. However, in the case of use as shown in FIG. 6 used in combination with a display device, this distance dh does not necessarily need to be known. That is, information on the four corners indicating the size of the display is sequentially acquired as angle information at each sensor unit in the relative coordinate system by performing a touch operation. As a result, it is possible to calculate the coordinates of the indicated position in the display coordinate system only by calculation based on the ratio.

さて、実施形態1の座標入力装置は、種々の表示サイズの表示面に対して、ユーザが2本のセンサバー1を装着して使用することを想定している。そして、2本のセンサバー1間の相対的な位置関係として、2つのセンサバー1が平行、同一長さ、かつX軸方向に他方のセンサバーのセンサユニットが配置されることで、相対座標系での高精度な位置検出が可能となる。2本のセンサバー1がこのような配置となる仕組みを設けることも可能であるが、その場合、ユーザにそれなりの慎重な設置作業を強いることになる。仮に、2つのセンサバー1を目分量で簡単に装着できれば、利便性の向上、設置時間の大幅短縮へとつながる。そこで、実施形態1にあっては、利便性向上のために、座標検出モードとして第2の検出モードを有する。   Now, it is assumed that the coordinate input device according to the first embodiment is used by a user wearing two sensor bars 1 on display surfaces of various display sizes. As a relative positional relationship between the two sensor bars 1, the two sensor bars 1 are parallel, have the same length, and the sensor unit of the other sensor bar is arranged in the X-axis direction. High-precision position detection is possible. Although it is possible to provide a mechanism in which the two sensor bars 1 have such an arrangement, in that case, the user is forced to perform appropriate installation work. If the two sensor bars 1 can be easily mounted in a certain amount, the convenience will be improved and the installation time will be greatly shortened. Therefore, the first embodiment has the second detection mode as the coordinate detection mode in order to improve convenience.

図7(A)は第2の検出モードを説明するためのマスター側のセンサバー1LのCPU61が出力する制御信号、及びセンサユニット2の動作を示すタイミングチャートである。   FIG. 7A is a timing chart showing the control signal output from the CPU 61 of the master side sensor bar 1L and the operation of the sensor unit 2 for explaining the second detection mode.

91、92、93がラインCCD41制御用の制御信号であり、SH信号91の間隔でラインCCD41のシャッター開放時間が決定される。ICGL信号92はセンサバー1Lのセンサユニット2−L1及び2−L2へのゲート信号であり、ラインCCD41内部の光電変換部の電荷を読出部へ転送する信号である。   91, 92 and 93 are control signals for controlling the line CCD 41, and the shutter opening time of the line CCD 41 is determined by the interval of the SH signal 91. The ICGL signal 92 is a gate signal to the sensor units 2-L1 and 2-L2 of the sensor bar 1L, and is a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit.

CCDL信号94は、センサユニット2−L1及び2−L2のラインCCD41のシャッター開放時間を示す信号である。ICGR信号93は、対向するセンサバー1Rのセンサユニット2−R1及び2−R2へのゲート信号であり、シリアル通信部67を介してセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3RがラインCCD41内部の光電変換部の電荷を読出部へ転送する信号を生成することになる。CCDR信号95は、センサユニット2−R1及び2−R2のラインCCD41のシャッター開放時間を示す信号である。   The CCDL signal 94 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-L1 and 2-L2. The ICGR signal 93 is a gate signal to the sensor units 2-R1 and 2-R2 of the opposing sensor bar 1R, and is transmitted to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67. Then, the arithmetic control circuit 3R generates a signal for transferring the charge of the photoelectric conversion unit in the line CCD 41 to the reading unit. The CCDR signal 95 is a signal indicating the shutter opening time of the line CCD 41 of the sensor units 2-R1 and 2-R2.

LEDL信号96及びLEDR信号97は、各センサユニット2の赤外LED31の駆動信号である。SH信号91の最初の周期でセンサバー1Rのセンサユニット2−R1及び2−R2の赤外LED31を点灯するために、LEDR信号97がシリアル通信部67を介してセンサバー1Rの演算制御回路3Rに送信される。そして、演算制御回路3Rが各々のLED駆動回路に供給するための信号を生成する。   The LEDL signal 96 and the LEDR signal 97 are drive signals for the infrared LED 31 of each sensor unit 2. In order to turn on the infrared LEDs 31 of the sensor units 2-R1 and 2-R2 of the sensor bar 1R in the first cycle of the SH signal 91, the LEDR signal 97 is transmitted to the arithmetic control circuit 3R of the sensor bar 1R via the serial communication unit 67. Is done. Then, the arithmetic control circuit 3R generates a signal to be supplied to each LED drive circuit.

そして、SH信号91の次の周期で、センサバー1Lのセンサユニット2−L1及び2−L2の赤外LED31を点灯するために、LEDL信号96が各々のLED駆動回路を経て赤外LED31に供給する。   Then, in order to turn on the infrared LEDs 31 of the sensor units 2-L1 and 2-L2 of the sensor bar 1L in the next cycle of the SH signal 91, the LEDL signal 96 is supplied to the infrared LEDs 31 through the respective LED driving circuits. .

赤外LED31の駆動、及びラインCCD41のシャッター開放が終了した後に、ラインCCD41の信号がセンサユニット2から読み出され、後述する方法で角度情報を算出する。そして、スレーブ側の演算制御回路3Rの演算結果はマスター側の演算制御回路3Lに送信される。   After the driving of the infrared LED 31 and the shutter release of the line CCD 41 are completed, the signal of the line CCD 41 is read from the sensor unit 2 and angle information is calculated by a method described later. Then, the calculation result of the slave-side calculation control circuit 3R is transmitted to the master-side calculation control circuit 3L.

以上のように動作させることで、センサバー1Lのセンサユニット2−L1及び2−L2は、対向するセンサバー1Rのセンサユニット2−R1及び2−R2が発光した赤外LED31の赤外光を直接検出(直接受光)する。同様に、センサバー1Rのセンサユニット2−R1及び2−R2は、対向するセンサバー1Lのセンサユニット2−L1及び2−L2が発光した赤外LED31の赤外光を直接検出する。   By operating as described above, the sensor units 2-L1 and 2-L2 of the sensor bar 1L directly detect the infrared light of the infrared LED 31 emitted from the sensor units 2-R1 and 2-R2 of the opposing sensor bar 1R. (Direct reception). Similarly, the sensor units 2-R1 and 2-R2 of the sensor bar 1R directly detect the infrared light of the infrared LED 31 emitted by the sensor units 2-L1 and 2-L2 of the opposing sensor bar 1L.

尚、図3では、センサバー1Lのセンサユニット2−L1及び2−L2と対向するセンサバー1Rのセンサユニット2−R1及び2−R2とを異なるタイミングで動作する座標検出モードであり、これが第1の検出モードとなる。   FIG. 3 shows a coordinate detection mode in which the sensor units 2-R1 and 2-R2 of the sensor bar 1R facing the sensor units 2-L1 and 2-L2 of the sensor bar 1L are operated at different timings. The detection mode is set.

図7(B)は、第2の検出モードで動作する場合に、センサユニット2で得られる検出信号波形を示している。対向する辺に設けられた2つのセンサユニット2の投光部30からの発光をそれぞれ受光するので、ピーク信号が2つ生成される。そして、先に述べた角度算出の方法と同様な方法で、その方向を各々算出する。尚、図中の破線は、図4(B)で示す受光部40の出力(光量分布)を示すものであり、方向Nj、方向Nfの間にピーク信号が生成されることを示している。このとき、検出されたピーク信号のCCD画素番号はそれぞれN1、N2として、メモリ64に保存される。   FIG. 7B shows a detection signal waveform obtained by the sensor unit 2 when operating in the second detection mode. Since light emitted from the light projecting units 30 of the two sensor units 2 provided on the opposite sides is received, two peak signals are generated. Then, the respective directions are calculated by the same method as the angle calculation method described above. In addition, the broken line in a figure shows the output (light quantity distribution) of the light-receiving part 40 shown to FIG. 4 (B), and has shown that the peak signal is produced | generated between the direction Nj and the direction Nf. At this time, the CCD pixel numbers of the detected peak signals are stored in the memory 64 as N1 and N2, respectively.

上述のように、ユーザが2つのセンサバー1を目分量で装着した場合であっても、高精度な位置検出を実現することが実施形態1の目的の一つである。そのために、各センサユニット2が、対向するセンサバー1に収納されているセンサユニット2の投光部30の光を検出することで、対向するセンサユニット2がどの方向に位置するかを検出する。   As described above, one of the objects of the first embodiment is to realize highly accurate position detection even when the user wears the two sensor bars 1 with the reference amount. Therefore, each sensor unit 2 detects in which direction the opposing sensor unit 2 is located by detecting the light of the light projecting unit 30 of the sensor unit 2 housed in the opposing sensor bar 1.

図8を用いて、その様子を説明する。図8において、センサユニット2−L1の光軸中心とセンサユニット2−L2の光軸中心を結ぶ線分をY軸、その法線方向をX軸とすれば、センサユニット2−L1及び2−L2の光軸はX軸と平行である。そして、対向するセンサユニット2−R1は、センサユニット2−L1から見ると角度θ1の方向であり、センサユニット2−L2から見ると角度θ3の方向である。同様に、θ1からθ8までの角度を算出することが可能であり、その結果、センサバー1Lのセンサユニット2−L1の光軸と、センサバー1Rのセンサユニット2−R1の光軸の成す角度θ9が算出される。   This will be described with reference to FIG. In FIG. 8, if the line segment connecting the optical axis center of the sensor unit 2-L1 and the optical axis center of the sensor unit 2-L2 is the Y axis and the normal direction is the X axis, the sensor units 2-L1 and 2-L The optical axis of L2 is parallel to the X axis. The opposing sensor unit 2-R1 is in the direction of the angle θ1 when viewed from the sensor unit 2-L1, and is the direction of the angle θ3 when viewed from the sensor unit 2-L2. Similarly, an angle from θ1 to θ8 can be calculated. As a result, an angle θ9 formed by the optical axis of the sensor unit 2-L1 of the sensor bar 1L and the optical axis of the sensor unit 2-R1 of the sensor bar 1R is obtained. Calculated.

言い換えると、センサバー1Lとセンサバー1Rの相対的な傾きを検出することができる。更には、センサバー1の長手方向の長さが変化した場合であっても、各センサユニット2間の絶対的距離を知ることはできないが、4つのセンサユニットの相対的な位置関係を取得することが可能である。そして、先に述べたディスプレイの大きさを示す4隅部の情報を、タッチ操作することで取得すれば、相対座標による計算(比による演算)だけでも、表示座標系での座標を高精度で算出することが可能となる。   In other words, the relative inclination of the sensor bar 1L and the sensor bar 1R can be detected. Furthermore, even if the length of the sensor bar 1 in the longitudinal direction changes, the absolute distance between the sensor units 2 cannot be known, but the relative positional relationship between the four sensor units is acquired. Is possible. If the information on the four corners indicating the size of the display described above is obtained by touch operation, the coordinates in the display coordinate system can be obtained with high accuracy even by calculation by relative coordinates (calculation by ratio). It is possible to calculate.

図9は電源投入時からの初期設定処理を示すフローチャートである。   FIG. 9 is a flowchart showing an initial setting process after power-on.

まず、投影画像である表示領域8の全領域を含む矩形状の座標入力有効領域5を形成するために、操作者によってセンサバー1がホワイトボード6に装着されると、CPU61は、例えば、電源投入が行われて初期設定を行う(S101)。尚、センサバー1には、例えば、マグネット等の装着部が内蔵されていて、ホワイトボード6等の壁面に貼りつけることができるようになっている。   First, when the sensor bar 1 is mounted on the whiteboard 6 by the operator in order to form the rectangular coordinate input effective area 5 including the entire display area 8 which is a projected image, the CPU 61 turns on the power, for example. Is performed to perform initial setting (S101). For example, the sensor bar 1 has a built-in mounting portion such as a magnet and can be attached to a wall surface of the whiteboard 6 or the like.

次に、CPU61は、入出力ポートの設定、タイマ設定等の座標入力装置に係る各種初期化を行うとともに、光電変換素子に残っている余分な電荷を除去する等のラインCCD41の初期化も行う(S102)。次に、ラインCCD41が検出する光量の最適化を行う。ホワイトボード6や表示領域8の大きさは、使用環境により様々であり、センサバー1間の距離は適宜ユーザによって設定される。従って、装着の状態によって、検出される光の強度は異なる。そのため、CPU61は、ラインCCD41のシャッター開放時間や赤外LED31の点灯時間、もしくは赤外LED31の駆動電流の設定を含む第2の検出モードで動作設定を行う(S103)。ここで、S103における動作設定とは、対向するセンサユニット2から直接光を受ける動作の状態(図7における第2の検出モード)であって、4つのセンサユニット2の相対的な位置関係を導出することを目的とする。   Next, the CPU 61 performs various initializations related to the coordinate input device such as input / output port setting and timer setting, and also initializes the line CCD 41 such as removing excess charges remaining in the photoelectric conversion elements. (S102). Next, the amount of light detected by the line CCD 41 is optimized. The size of the whiteboard 6 and the display area 8 varies depending on the use environment, and the distance between the sensor bars 1 is set by the user as appropriate. Therefore, the detected light intensity varies depending on the wearing state. Therefore, the CPU 61 performs operation setting in the second detection mode including setting of the shutter opening time of the line CCD 41, the lighting time of the infrared LED 31, or the driving current of the infrared LED 31 (S103). Here, the operation setting in S103 is an operation state (second detection mode in FIG. 7) of receiving light directly from the opposing sensor unit 2, and the relative positional relationship of the four sensor units 2 is derived. The purpose is to do.

次に、CPU61は、ラインCCD41の出力信号を取り込む(S104)。そして、CPU61は、その出力信号に基づいて、光を検出したか否かを判定することで、センサユニットの配置が適切であるか否かを判定する(S105)。ここで、光が検出できない場合(S105でNO)、これは、センサユニット2の受光部40の視野範囲に、対向する位置にあるセンサユニット2が位置していない可能性がある状態である。つまり、この状態は、ユーザによるセンサバー1の配置/設置が不適な状態にある。そこで、このような場合は、その旨を報知して、センサバーの再設置を促す(S106)。そして、ユーザによる再設置が完了すると、再び、S101を開始する。尚、S104で取り込む出力信号は、図7(B)に示すような信号となり、実施形態1の場合は、2つのピーク信号が出力されている状態が正常状態と言える。この際、CPU61は、2つのピーク信号のCCD画素番号を、それぞれN1、N2として検出する。   Next, the CPU 61 takes in the output signal of the line CCD 41 (S104). Then, the CPU 61 determines whether or not the sensor unit is appropriately arranged by determining whether or not light is detected based on the output signal (S105). Here, when light cannot be detected (NO in S105), this is a state in which there is a possibility that the sensor unit 2 at the opposite position may not be located in the visual field range of the light receiving unit 40 of the sensor unit 2. That is, this state is a state in which the placement / installation of the sensor bar 1 by the user is inappropriate. Therefore, in such a case, the fact is notified to prompt the user to re-install the sensor bar (S106). When the re-installation by the user is completed, S101 is started again. Note that the output signal captured in S104 is a signal as shown in FIG. 7B, and in the first embodiment, the state in which two peak signals are output can be said to be a normal state. At this time, the CPU 61 detects the CCD pixel numbers of the two peak signals as N1 and N2, respectively.

次に、CPU61は、検出信号の波形のチェックを行う(S107)。対向する位置にあるセンサユニット2の光が強すぎる場合、例えば、検出信号の波形(波形レベル)の少なくとも一部が所定の閾値を超える場合(S107でNO)、S103に戻り、例えば、露光時間をより短くする等の設定値の変更(再設定)を行う。そして、今度、S107でチェックされる検出信号の波形は、より光強度が弱い状態となっているはずである。そして、その信号レベルが適正である場合(S107でYES)、例えば、検出信号の波形の少なくとも一部が所定の閾値以下である場合、S108に進む。   Next, the CPU 61 checks the waveform of the detection signal (S107). When the light of the sensor unit 2 at the opposite position is too strong, for example, when at least a part of the waveform (waveform level) of the detection signal exceeds a predetermined threshold (NO in S107), the process returns to S103, for example, exposure time Change (reset) the set value, such as shortening. Then, the waveform of the detection signal checked in S107 should be in a state where the light intensity is weaker. If the signal level is appropriate (YES in S107), for example, if at least a part of the waveform of the detection signal is equal to or less than a predetermined threshold, the process proceeds to S108.

以上の動作を、各センサユニット(実施形態1の場合、4つ)で実行し、すべての信号が最適化されると、CPU61は、CPU61内部の不揮発性メモリに記憶されている、2つのピーク信号のCCD画素番号を読み出す(S108)。ここで、読み出される値は、前回電源が入っていた時までに座標入力装置の設置位置(センサバー1L及び1Rの相対的な設置位置)を表すパラメータとして記録されたものである。読み出されたCCD画素番号をそれぞれN1p、N2pとする。そして、CPU61は、S104で取り込んだ出力信号に含まれる2つのピーク信号に対応するCCD画素番号N1、N2を不揮発性メモリに記録する(S109)。これにより、不揮発性メモリに記録されていたCCD画素番号の値は、今回、記録される値に更新されることになる。   When the above operation is executed by each sensor unit (four in the case of the first embodiment) and all signals are optimized, the CPU 61 stores two peaks stored in the nonvolatile memory inside the CPU 61. The CCD pixel number of the signal is read (S108). Here, the read value is recorded as a parameter representing the installation position of the coordinate input device (the relative installation position of the sensor bars 1L and 1R) until the previous power-on. The read CCD pixel numbers are N1p and N2p, respectively. Then, the CPU 61 records the CCD pixel numbers N1 and N2 corresponding to the two peak signals included in the output signal captured in S104 in the nonvolatile memory (S109). As a result, the value of the CCD pixel number recorded in the nonvolatile memory is updated to the value recorded this time.

次に、CPU61は、下記式により、不揮発性メモリに前回記録された2つのピーク信号と今回記録された2つのピーク信号を比較(変化分を算出)して、両者に変化があるか否かを判定する(S110)。   Next, the CPU 61 compares the two peak signals recorded last time in the nonvolatile memory with the two peak signals recorded this time (calculates the amount of change) according to the following formula, and determines whether or not there is a change in both. Is determined (S110).

ΔN1=N1−N1p (10)
ΔN2=N2−N2p (11)
まず、変化量ΔN1及びΔN2が両方とも、予め決められている閾値Ntを超えていない場合、CPU61は、検知結果として座標入力装置の設置位置が、前回電源が入っていた時の設置位置からの変化が十分小さいと判定する(S110でNO)。その後、CPU61は、センサユニット2の相対的な位置関係を算出するセンサ位置算出処理を行う。θ1からθ8の値が分かっているため、幾何学的な計算により、各センサユニットの相対的な位置関係を算出することができる(S112)。尚、各センサユニットの相対的な位置関係の算出は、図8を用いて説明したが、詳細には、例えば、特開2014−048960号公報に開示される技術を使用することができる。
ΔN1 = N1-N1p (10)
ΔN2 = N2−N2p (11)
First, when both of the change amounts ΔN1 and ΔN2 do not exceed the predetermined threshold value Nt, the CPU 61 determines that the installation position of the coordinate input device is different from the installation position when the power was last turned on as a detection result. It is determined that the change is sufficiently small (NO in S110). Thereafter, the CPU 61 performs a sensor position calculation process for calculating the relative positional relationship of the sensor unit 2. Since the values of θ1 to θ8 are known, the relative positional relationship of each sensor unit can be calculated by geometric calculation (S112). Although the calculation of the relative positional relationship between the sensor units has been described with reference to FIG. 8, for example, the technique disclosed in Japanese Patent Application Laid-Open No. 2014-048960 can be used in detail.

S113以降では、センサユニット2が投光した赤外光が、対向するセンサバー1に設けられた再帰反射部4で再帰反射され、その光を自身の受光部40で検出した時の信号レベルを最適化する。上述したとおり、センサバー1の配置は一意では無く、その配置に応じた検出レベルを最適化することで、安定した信号を得ることを目的とする。っそこで、CPU61は、設定する項目として、ラインCCD41のシャッター開放時間や赤外LED31の点灯時間、もしくは赤外LED31の駆動電流の設定を含む第1の検出モードで動作設定を行う(S113)。仮に最初の動作設定を光量が最大に得られるように設定すると、その時のラインCCD41の出力信号を取り込む(S114)。   After S113, the infrared light projected by the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided in the opposing sensor bar 1, and the signal level when the light is detected by its own light receiving unit 40 is optimized. Turn into. As described above, the arrangement of the sensor bar 1 is not unique, and an object is to obtain a stable signal by optimizing the detection level according to the arrangement. Therefore, the CPU 61 performs the operation setting in the first detection mode including the setting of the shutter opening time of the line CCD 41, the lighting time of the infrared LED 31, or the driving current of the infrared LED 31 as items to be set (S113). If the first operation setting is set so that the light quantity can be maximized, the output signal of the line CCD 41 at that time is captured (S114).

CPU61は、検出信号の波形のチェックを行う(S115)。取り込まれた出力信号は、照明時のデータであり、図4(B)の様な波形となる。光が強すぎると、ラインCCD41のダイナミックレンジの範囲を超え、出力が飽和することになるので、正確な角度を算出することが困難となる。その場合は、S111で、検出信号の波形が不適と判定され(S115でNO)、S113に戻り、検出信号の波形(波形レベル)がより小さくなるように、再設定が行われる。再帰反射光を検出するので、S103〜S107での処理(つまり、第2の検出モード)でセンサユニット2の投光を受光部40で直接検出する場合と比べて、格段に投光する光量が大きくなるように設定することになる。   The CPU 61 checks the waveform of the detection signal (S115). The captured output signal is data at the time of illumination, and has a waveform as shown in FIG. If the light is too strong, the output exceeds the range of the dynamic range of the line CCD 41 and the output is saturated, making it difficult to calculate an accurate angle. In that case, in S111, it is determined that the waveform of the detection signal is inappropriate (NO in S115), and the process returns to S113, and resetting is performed so that the waveform (waveform level) of the detection signal becomes smaller. Since retroreflected light is detected, the amount of light to be projected is significantly greater than when the light receiving unit 40 directly detects the light projection of the sensor unit 2 in the processing in S103 to S107 (that is, the second detection mode). It will be set to be larger.

そして、波形レベルが最適と判定される場合(S115でYES)、CPU61は、照明無しの状態の信号Base_Data[N](図4(A)参照)を取得してメモリ64に記憶する(S116)。次に、CPU61は、照明有りの状態の信号Ref_Data[N](図4(B)参照)を取得してメモリ64に記憶する(S117)。   If it is determined that the waveform level is optimal (YES in S115), the CPU 61 acquires a signal Base_Data [N] (see FIG. 4A) in a state without illumination and stores it in the memory 64 (S116). . Next, the CPU 61 acquires the signal Ref_Data [N] (see FIG. 4B) in the illuminated state and stores it in the memory 64 (S117).

このようにして、全てのセンサユニットでのデータが取得されると、一連の初期設定処理が完了し、図12に示す通常のサンプリング動作に移行する。図12の処理の内容については後述する。   In this way, when data in all sensor units is acquired, a series of initial setting processing is completed, and the normal sampling operation shown in FIG. 12 is performed. The contents of the process in FIG. 12 will be described later.

一方、S110において、変化量ΔN1及びΔN2のいずれかが閾値Ntを超えていた場合、CPU61は、検知結果として座標入力装置の設置位置が、前回電源が入っていた時の設置位置から大きく変化したと判定する(S110でYES)。その場合、CPU61は、座標入力装置の設置を再設定するための設置再設定処理を実行する。この設置再設定処理の詳細について図10を用いて説明する。   On the other hand, in S110, when either of the change amounts ΔN1 and ΔN2 exceeds the threshold value Nt, the CPU 61 detects that the installation position of the coordinate input device has changed greatly from the installation position when the power was last turned on as a detection result. (YES in S110). In that case, the CPU 61 executes an installation resetting process for resetting the installation of the coordinate input device. Details of the installation resetting process will be described with reference to FIG.

まず、CPU61は、座標入力装置の設置位置が変化したことをユーザに通知するために、その旨を示す通知として、ビープ音を出力すると同時にエラーを示すインジケータを点灯する(S401)。次に、CPU61は、第2の検出モードでラインCCD41の出力信号を取り込む(S402)。そして、CPU61は、座標入力装置の設置位置の変化がないか判定する(S403)。   First, in order to notify the user that the installation position of the coordinate input device has changed, the CPU 61 outputs a beep sound as a notification to that effect and lights up an indicator indicating an error (S401). Next, the CPU 61 takes in the output signal of the line CCD 41 in the second detection mode (S402). Then, the CPU 61 determines whether there is a change in the installation position of the coordinate input device (S403).

このときの出力信号の検出波形の一例を図7(C)に示す。取り込んだ検出波形を実線で示し、ピーク信号に対応するCCD画素番号をそれぞれN1’、N2’とする。また、点線で示す波形は、S104で取り込んだ時の検出波形であり、ピーク信号に対応するCCD画素番号はそれぞれN1、N2である。ピーク信号に対応するCCD画素番号が変化するということは、センサバー1Lとセンサバー1Rの位置関係が変化していることを示している。そこで、それぞれの値の変化量をチェックする。   An example of the detected waveform of the output signal at this time is shown in FIG. The captured detection waveform is indicated by a solid line, and the CCD pixel numbers corresponding to the peak signal are N1 'and N2', respectively. The waveform indicated by the dotted line is the detection waveform when captured in S104, and the CCD pixel numbers corresponding to the peak signal are N1 and N2, respectively. The change in the CCD pixel number corresponding to the peak signal indicates that the positional relationship between the sensor bar 1L and the sensor bar 1R has changed. Therefore, the amount of change in each value is checked.

ΔN1=N1’−N1 (12)
ΔN2=N2’−N2 (13)
変化量ΔN1及びΔN2のいずれかが閾値Ntを超えている場合、検知結果として座標入力装置の設置位置の変化が継続していると判定する(S403でNO)。この場合は、S402に戻り、CPU61は、再度、ラインCCD41の出力信号を取り込む。このとき、N1’、N2’の値をそれぞれN1、N2に代入する。従って、再度、S403で式(12)および式(13)を計算するときは、前回取り込んだときの値と、新たに取り込んだ値とを比較することになる。
ΔN1 = N1′−N1 (12)
ΔN2 = N2′−N2 (13)
If any of the change amounts ΔN1 and ΔN2 exceeds the threshold value Nt, it is determined that the change in the installation position of the coordinate input device continues as a detection result (NO in S403). In this case, the process returns to S402, and the CPU 61 takes in the output signal of the line CCD 41 again. At this time, the values of N1 ′ and N2 ′ are assigned to N1 and N2, respectively. Therefore, when calculating formulas (12) and (13) again in step S403, the values acquired last time are compared with the newly acquired values.

一方、変化量ΔN1及びΔN2のいずれも閾値Ntを超えていない場合、CPU61は、検知結果として座標入力装置の設置位置の変化が十分小さいと判定し、時間計測を開始した後に、同様に、S402に戻る。以上の処理を繰り返し、変化量ΔN1及びΔN2が閾値Ntを超えていない状態が一定時間経過した場合(S403でYES)、S404に進む。尚、この一定時間は、例えば、1秒から数秒程度の範囲の値で予め設定されている。   On the other hand, if neither of the change amounts ΔN1 and ΔN2 exceeds the threshold value Nt, the CPU 61 determines that the change in the installation position of the coordinate input device is sufficiently small as a detection result, and similarly starts S402 after starting time measurement. Return to. The above processing is repeated, and when a state where the change amounts ΔN1 and ΔN2 do not exceed the threshold value Nt has elapsed for a certain time (YES in S403), the process proceeds to S404. The predetermined time is set in advance with a value in the range of about 1 second to several seconds, for example.

S404〜S409では、設置位置の変化に応じて更新が必要な設定情報を再設定する処理を行う。まず、S404〜S407の処理は、図9におけるS113〜S117で説明した処理と同様である。第1の検出モードでラインCCD41の出力信号を取り込み、波形レベルの調整及び記憶を行う。   In S404 to S409, a process for resetting setting information that needs to be updated according to a change in the installation position is performed. First, the processing of S404 to S407 is the same as the processing described in S113 to S117 in FIG. In the first detection mode, the output signal of the line CCD 41 is captured, and the waveform level is adjusted and stored.

次に、CPU61は、図9のS109と同じように、今回検出した2つのピーク信号に対応するCCD画素番号N1’、N2’を不揮発性メモリに記録する(S408)。そして、CPU61は、キャリブレーション処理を実行する(S409)。このキャリブレーション処理の詳細について図11を用いて説明する。   Next, as in S109 of FIG. 9, the CPU 61 records the CCD pixel numbers N1 'and N2' corresponding to the two detected peak signals in the nonvolatile memory (S408). Then, the CPU 61 executes a calibration process (S409). Details of the calibration processing will be described with reference to FIG.

まず、CPU61は、第1の検出モードに設定し、ラインCCD41の出力信号を取り込む(S203)。そして、CPU61は、入力の有無を判定する(S204)。入力がない場合(S204でNO)、入力があるまで待機する。一方、入力がある場合(S204でYES)、CPU61は、出力信号に遮光部分が生成されているセンサユニットを選択する(S205)。CPU61は、その選択したセンサユニットを用いて、遮光部分が生成されている角度を各々算出する(S206)。そして、CPU61は、データの取得が完了したことを報知する(S301)。この報知は、例えば、完了を示すビープ音を出力する。   First, the CPU 61 sets the first detection mode and takes in the output signal of the line CCD 41 (S203). Then, the CPU 61 determines whether or not there is an input (S204). If there is no input (NO in S204), the process waits until there is an input. On the other hand, if there is an input (YES in S204), the CPU 61 selects a sensor unit in which a light-shielding part is generated in the output signal (S205). The CPU 61 calculates each angle at which the light-shielding portion is generated using the selected sensor unit (S206). And CPU61 alert | reports that acquisition of data was completed (S301). This notification outputs, for example, a beep sound indicating completion.

次に、CPU61は、表示領域8の4隅の全てのデータの取得が完了したか否かを判定する(S302)。取得が完了していない場合(S302でNO)、S203に戻る。一方、取得が完了している場合(S302でYES)、相対座標系から表示座標系へと変換するためのパラメータを算出する(S303)。ここで、算出されたパラメータは、S208(図12)における座標変換で使用される。キャリブレーション処理を完了すると、図12に示す通常のサンプリング動作に移行する。   Next, the CPU 61 determines whether or not acquisition of all data at the four corners of the display area 8 has been completed (S302). If acquisition has not been completed (NO in S302), the process returns to S203. On the other hand, if the acquisition has been completed (YES in S302), parameters for converting from the relative coordinate system to the display coordinate system are calculated (S303). Here, the calculated parameters are used in the coordinate conversion in S208 (FIG. 12). When the calibration process is completed, the routine proceeds to a normal sampling operation shown in FIG.

図12は初期設定処理後の通常のサンプリング動作を示すフローチャートである。   FIG. 12 is a flowchart showing a normal sampling operation after the initial setting process.

まず、CPU61は、第2の検出モードに設定し、ラインCCD41の出力信号を取り込む(S201)。次に、CPU61は、取り込んだ出力信号に基づいて、座標入力装置の設置位置が変化したか否かを判定する(S202)。この処理は、図10のS402、S403と同様である。座標入力装置の設置位置が大きく変化した場合(S202でYES)、CPU61は、設置再設定処理を実行する(S209)。この処理の内容は図10で説明した通りである。   First, the CPU 61 sets the second detection mode and takes in the output signal of the line CCD 41 (S201). Next, the CPU 61 determines whether or not the installation position of the coordinate input device has changed based on the captured output signal (S202). This process is the same as S402 and S403 in FIG. When the installation position of the coordinate input device has changed significantly (YES in S202), the CPU 61 executes an installation resetting process (S209). The contents of this process are as described in FIG.

一方、座標入力装置の設置位置が変化していない場合(S202でYES)、S203以降の処理が実行される。通常の取込動作(第1の検出モード)として、センサユニット2が投光した赤外光が、対向するセンサバー1に設けられた再帰反射部4で再帰反射され、その光を自身の受光部40で検出した時の信号を検出する(S203)。その時のデータは、Norm_data[N]であり、仮にタッチ操作があって光路を遮ると、図4(C)のように、画素番号Ncの辺りで光信号が検出できなくなる。   On the other hand, when the installation position of the coordinate input device has not changed (YES in S202), the processing after S203 is executed. As a normal capturing operation (first detection mode), the infrared light projected by the sensor unit 2 is retroreflected by the retroreflecting unit 4 provided in the opposing sensor bar 1, and the light is received by its own light receiving unit. A signal when detected at 40 is detected (S203). The data at that time is Norm_data [N]. If there is a touch operation and the optical path is interrupted, an optical signal cannot be detected around the pixel number Nc as shown in FIG.

CPU61は、いずれかのセンサユニット2で、このような光の遮光部分が生成されたか否か、つまり、入力の有無を判定する(S204)。入力が無いと判定される場合(S204でNO)、S201に戻る。一方、入力が有ると判定される場合(S204でYES)、前述の図11の説明と同様に、CPU61は、センサユニットの選択(S205)、角度算出(S206)を行う。ここで算出された角度と、各センサユニットの位置関係の情報を用いて、CPU61は、相対座標系での指示位置の座標を算出する(S207)。尚、指示位置の座標の算出は、例えば、特開2014−048960号公報に開示される技術を使用することができる。各センサユニットの位置関係の情報は、図9のS112で算出されている。そして、算出した指示位置座標を表示座標系に変換して、その座標値を外部機器に外部機器に出力(送信)する(S208)。   The CPU 61 determines whether or not such a light-shielding portion is generated in any one of the sensor units 2, that is, whether or not there is an input (S204). If it is determined that there is no input (NO in S204), the process returns to S201. On the other hand, when it is determined that there is an input (YES in S204), the CPU 61 performs sensor unit selection (S205) and angle calculation (S206), as described above with reference to FIG. Using the calculated angle and the positional relationship information of each sensor unit, the CPU 61 calculates the coordinates of the indicated position in the relative coordinate system (S207). For example, the technique disclosed in Japanese Patent Application Laid-Open No. 2014-048960 can be used to calculate the coordinates of the designated position. The positional relationship information of each sensor unit is calculated in S112 of FIG. Then, the calculated designated position coordinates are converted into a display coordinate system, and the coordinate values are output (transmitted) to the external device (S208).

以上説明したように、実施形態1によれば、座標入力装置の設置位置の変化を検出して、その旨をユーザに通知して、キャリブレーション処理等の再設定処理を自動的に実行することで、ユーザ操作の負担を軽減し使い勝手を改善することができる。また、座標入力装置の初期設定処理において、座標入力装置の現在の設置位置と過去の設置位置との変化を検出し、再設定処理を自動的に実行することで、ユーザが気付かないうちに位置が変化したような場合においても対応することができる。特に、座標入力装置を設置したまま長期間使用するような場合には大きな効果が得られる。   As described above, according to the first embodiment, the change of the installation position of the coordinate input device is detected, the user is notified of this, and the resetting process such as the calibration process is automatically executed. Thus, it is possible to reduce the burden of user operation and improve usability. Also, in the initial setting process of the coordinate input device, a change between the current installation position and the past installation position of the coordinate input device is detected, and the re-setting process is automatically executed, so that the position can be obtained without the user's knowledge. It is possible to cope with a case where the change has occurred. In particular, a great effect can be obtained when the coordinate input device is used for a long period of time.

例えば、座標入力装置の使用後に設置した状態のままにしておき、後日再び使用するような場合、その間に何らかの原因によって設置位置がずれると、指示位置座標にずれが発生する。この状態でキャリブレーションを行わないまま使用してしまうと、指示位置座標のずれにより誤操作を引き起こす可能性があるが、実施形態1の構成を適用することによって、そのような事を未然に防止することができる。   For example, when the coordinate input device is left in the installed state and is used again at a later date, if the installation position is deviated for some reason during that time, the designated position coordinate is deviated. If it is used without performing calibration in this state, there is a possibility of causing an erroneous operation due to the deviation of the designated position coordinates. However, such a thing can be prevented beforehand by applying the configuration of the first embodiment. be able to.

<実施形態2>
実施形態1では、センサユニット2は、投光部30に赤外LED31を内蔵し、受光部40にラインCCD41等を内蔵する構成について説明している。実施形態2としては、カメラ等の撮像部を使用するシステムについても、実施形態1を適用することができる。
<Embodiment 2>
In the first embodiment, the sensor unit 2 has a configuration in which the infrared LED 31 is built in the light projecting unit 30 and the line CCD 41 is built in the light receiving unit 40. As the second embodiment, the first embodiment can also be applied to a system that uses an imaging unit such as a camera.

この場合、図8を例にすると、センサユニット2−L1、2−L2、2−R1及び2−R2には、撮像部が内蔵されている。各撮像部は、表示領域8の方向の画像を撮像し、他の撮像部の位置する角度を、マッチング等の画像認識処理を行うことで検出する。その結果、θ1からθ8までの角度を検出することができるので、実施形態1と同様の処理を実現することができる。   In this case, taking FIG. 8 as an example, the sensor units 2-L1, 2-L2, 2-R1, and 2-R2 have built-in imaging units. Each imaging unit captures an image in the direction of the display area 8 and detects an angle at which another imaging unit is positioned by performing image recognition processing such as matching. As a result, since the angle from θ1 to θ8 can be detected, the same processing as in the first embodiment can be realized.

撮像部を使用するシステムにおけるタッチ検出は、画像認識処理で指示具(指等)の入力を検出する方法や、ペンを用いる方法がある。ペンを用いる方法では、例えば、ペン先にLEDを内蔵し、タッチ時にLEDを発光させ、その光を撮像部で検出することで入力の方向を検知する。   Touch detection in a system that uses an imaging unit includes a method of detecting an input of a pointing tool (finger or the like) in an image recognition process and a method of using a pen. In the method using a pen, for example, an LED is incorporated in the pen tip, the LED is caused to emit light when touched, and the light is detected by the imaging unit to detect the input direction.

尚、以上の実施形態の機能は以下の構成によっても実現することができる。つまり、本実施形態の処理を行うためのプログラムコードをシステムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)がプログラムコードを実行することによっても達成される。この場合、記憶媒体から読み出されたプログラムコード自体が上述した実施形態の機能を実現することとなり、またそのプログラムコードを記憶した記憶媒体も本実施形態の機能を実現することになる。   In addition, the function of the above embodiment is realizable also with the following structures. That is, it is also achieved by supplying a program code for performing the processing of the present embodiment to a system or apparatus, and a computer (or CPU or MPU) of the system or apparatus executing the program code. In this case, the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code also realizes the function of the present embodiment.

また、本実施形態の機能を実現するためのプログラムコードを、1つのコンピュータ(CPU、MPU)で実行する場合であってもよいし、複数のコンピュータが協働することによって実行する場合であってもよい。さらに、プログラムコードをコンピュータが実行する場合であってもよいし、プログラムコードの機能を実現するための回路等のハードウェアを設けてもよい。またはプログラムコードの一部をハードウェアで実現し、残りの部分をコンピュータが実行する場合であってもよい。   Further, the program code for realizing the function of the present embodiment may be executed by one computer (CPU, MPU), or may be executed by a plurality of computers cooperating. Also good. Further, the program code may be executed by a computer, or hardware such as a circuit for realizing the function of the program code may be provided. Alternatively, a part of the program code may be realized by hardware and the remaining part may be executed by a computer.

1:センサバー、2:センサユニット、3:演算制御回路、4:再帰反射部、5:座標入力有効領域、6:ホワイトボード
8 表示領域
1: sensor bar, 2: sensor unit, 3: calculation control circuit, 4: retroreflective unit, 5: coordinate input effective area, 6: whiteboard 8 display area

Claims (14)

光を投光する投光手段と光を受光する受光手段とを有するセンサユニットを複数有する座標入力装置であって、
前記投光手段による投光範囲内の入力面に対して行われた操作の位置を、複数の前記センサユニットが有する複数の前記受光手段による受光状態であって前記投光手段による投光に応じた受光状態と、所定のパラメータとに基づいて検出する検出手段と、
前記所定のパラメータを、複数の前記センサユニットの位置関係の変化に応じた判定結果に基づいて変更する設定手段と
前記位置関係が変化したことを、第1のセンサユニットが有する前記投光手段による投光に応じた受光状態であって前記第1のセンサユニットとは異なる第2のセンサユニットが有する前記受光手段による受光状態に基づいて判定する判定手段とを有し、
前記設定手段は、前記位置関係が変化したと前記判定手段により判定されたことに応じて前記所定のパラメータを変更することを特徴とする座標入力装置。
A coordinate input device having a plurality of sensor units each having a light projecting unit for projecting light and a light receiving unit for receiving light,
The position of the operation performed on the input surface within the light projecting range by the light projecting unit is a light receiving state by the plurality of light receiving units included in the plurality of sensor units, and corresponds to the light projection by the light projecting unit. Detecting means based on the received light state and a predetermined parameter;
Setting means for changing the predetermined parameter based on a determination result according to a change in a positional relationship among the plurality of sensor units ;
The light receiving means of the second sensor unit different from the first sensor unit in a light receiving state corresponding to the light projection by the light projecting means of the first sensor unit, indicating that the positional relationship has changed. And determining means for determining based on the light receiving state by
The coordinate input device , wherein the setting unit changes the predetermined parameter in response to the determination by the determination unit that the positional relationship has changed .
前記設定手段は、前記位置関係が変化した後に前記位置関係が所定の期間変化しなかったことを判定した判定結果に基づいて前記所定のパラメータを変更することを特徴とする請求項1記載の座標入力装置。 The setting means, according to claim 1, wherein the positional relationship after the positional relationship is changed to change the predetermined parameter based on the determination result of determining that it did not change the predetermined time period Coordinate input device. 光を投光する投光手段と光を受光する受光手段とを有するセンサユニットを複数有する座標入力装置であって、A coordinate input device having a plurality of sensor units each having a light projecting unit for projecting light and a light receiving unit for receiving light,
前記投光手段による投光範囲内の入力面に対して行われた操作の位置を、複数の前記センサユニットが有する複数の前記受光手段による受光状態であって前記投光手段による投光に応じた受光状態と、所定のパラメータとに基づいて検出する検出手段と、The position of the operation performed on the input surface within the light projecting range by the light projecting unit is a light receiving state by the plurality of light receiving units included in the plurality of sensor units, and corresponds to the light projection by the light projecting unit Detecting means based on the received light state and a predetermined parameter;
前記所定のパラメータを、複数の前記センサユニットの位置関係の変化に応じた判定結果に基づいて変更する設定手段とを有し、Setting means for changing the predetermined parameter based on a determination result according to a change in the positional relationship of the plurality of sensor units;
前記設定手段は、前記位置関係が変化した後に前記位置関係が所定の期間変化しなかったことを判定した判定結果に基づいて前記所定のパラメータを変更することを特徴とする座標入力装置。The coordinate input device, wherein the setting unit changes the predetermined parameter based on a determination result obtained by determining that the positional relationship has not changed for a predetermined period after the positional relationship has changed.
前記設定手段は、前記位置関係が変化した後に前記入力面に対して行われる操作であって表示された画像内の予め定められた位置に対する操作に基づいて前記所定のパラメータを変更することを特徴とする請求項1乃至3の何れか1項に記載の座標入力装置。   The setting unit is configured to change the predetermined parameter based on an operation performed on the input surface after the positional relationship is changed and an operation on a predetermined position in a displayed image. The coordinate input device according to any one of claims 1 to 3. 前記設定手段により変更される前記所定のパラメータは、前記入力面に対応する第1の座標系と画像が表示される表示領域に対応する第2の座標系とを関連付けるパラメータを含むことを特徴とする請求項1乃至4の何れか1項に記載の座標入力装置。   The predetermined parameter changed by the setting unit includes a parameter for associating a first coordinate system corresponding to the input surface and a second coordinate system corresponding to a display area where an image is displayed. The coordinate input device according to any one of claims 1 to 4. 前記設定手段により変更される前記所定のパラメータは、前記受光手段により受光される光の光量分布に関する基準を表すパラメータを含むことを特徴とする請求項1乃至5の何れか1項に記載の座標入力装置。   The coordinates according to any one of claims 1 to 5, wherein the predetermined parameter changed by the setting unit includes a parameter representing a reference relating to a light amount distribution of light received by the light receiving unit. Input device. 前記位置関係の変化に応じた判定結果に基づいてユーザに対する通知を行う通知手段を有することを特徴とする請求項1乃至6の何れか1項に記載の座標入力装置。   The coordinate input device according to claim 1, further comprising a notification unit configured to notify a user based on a determination result corresponding to the change in the positional relationship. 前記投光手段により投光される光を反射する反射手段を有し、
前記検出手段は、前記入力面に対して行われた操作の位置を、前記投光手段により投光され前記反射手段により反射された光の前記受光手段による受光状態に基づいて検出することを特徴とする請求項1乃至7の何れか1項に記載の座標入力装置。
Reflecting means for reflecting the light projected by the light projecting means;
The detecting means detects a position of an operation performed on the input surface based on a light receiving state by the light receiving means of light projected by the light projecting means and reflected by the reflecting means. The coordinate input device according to any one of claims 1 to 7.
前記検出手段により検出された操作の位置に応じた座標データを出力する出力手段を有することを特徴とする請求項1乃至8の何れか1項に記載の座標入力装置。   9. The coordinate input device according to claim 1, further comprising output means for outputting coordinate data corresponding to the position of the operation detected by the detection means. 前記センサユニットを少なくとも2つ有する第1の筐体と、
前記センサユニットを少なくとも2つ有する第2の筐体とを有し、
前記入力面は前記第1の筐体と前記第2の筐体との間に位置することを特徴とする請求項1乃至9の何れか1項に記載の座標入力装置。
A first housing having at least two sensor units;
A second housing having at least two sensor units;
The coordinate input device according to claim 1, wherein the input surface is located between the first casing and the second casing.
撮像を行う撮像手段を複数有する座標入力装置であって、
前記撮像手段による撮像範囲内の入力面に対して行われた操作の位置を、複数の前記撮像手段による撮像画像と、所定のパラメータとに基づいて検出する検出手段と、
前記所定のパラメータを、複数の前記撮像手段の位置関係の変化に応じた判定結果に基づいて変更する設定手段と
前記位置関係が変化したことを、第1の撮像手段による撮像画像内の位置であって前記第1の撮像手段とは異なる第2の撮像手段の位置に基づいて判定する判定手段とを有し、
前記設定手段は、前記位置関係が変化したと前記判定手段により判定されたことに応じて前記所定のパラメータを変更することを特徴とする座標入力装置。
A coordinate input device having a plurality of imaging means for imaging,
Detection means for detecting a position of an operation performed on an input surface within an imaging range by the imaging means based on a plurality of images taken by the imaging means and a predetermined parameter;
A setting unit that changes the predetermined parameter based on a determination result according to a change in a positional relationship between the plurality of imaging units ;
Determination means for determining that the positional relationship has changed based on a position of a second imaging means that is different from the first imaging means and is a position in an image captured by the first imaging means. ,
The coordinate input device , wherein the setting unit changes the predetermined parameter in response to the determination by the determination unit that the positional relationship has changed .
センサユニットを複数有する座標入力装置の制御方法であって、
前記センサユニットから光を投光する投光工程と、
前記投光工程における投光に応じて前記センサユニットにより光を受光する受光工程と、
前記投光工程における投光範囲内の入力面に対して行われた操作の位置を、前記受光工程における複数の前記センサユニットによる受光状態と、所定のパラメータとに基づいて検出する検出工程と、
前記所定のパラメータを、複数の前記センサユニットの位置関係の変化に応じた判定結果に基づいて変更する設定工程と
前記位置関係が変化したことを、前記投光工程における第1のセンサユニットによる投光に応じた受光状態であって前記受光工程における前記第1のセンサユニットとは異なる第2のセンサユニットによる受光状態に基づいて判定する判定工程とを有し、
前記設定工程においては、前記位置関係が変化したと前記判定工程において判定されたことに応じて前記所定のパラメータが変更されることを特徴とする制御方法。
A control method of a coordinate input device having a plurality of sensor units,
A light projecting step of projecting light from the sensor unit;
A light receiving step of receiving light by the sensor unit according to the light projection in the light projecting step;
A detection step of detecting a position of an operation performed on an input surface within a light projection range in the light projection step based on a light reception state by the plurality of sensor units in the light reception step and a predetermined parameter;
A setting step of changing the predetermined parameter based on a determination result according to a change in the positional relationship of the plurality of sensor units ;
The change in the positional relationship is a light receiving state according to light projection by the first sensor unit in the light projecting step, and light reception by a second sensor unit different from the first sensor unit in the light receiving step. A determination step for determining based on the state,
Wherein in the setting step, the control method characterized by Rukoto changed the predetermined parameters in response to said positional relationship is determined in the determination step to have changed.
前記設定工程においては、前記位置関係が変化した後に前記入力面に対して行われる操作であって表示された画像内の予め定められた位置に対する操作に基づいて前記所定のパラメータが変更されることを特徴とする請求項12に記載の制御方法。 In the setting step, the predetermined parameter is changed based on an operation performed on the input surface after the positional relationship has changed and an operation on a predetermined position in the displayed image. The control method according to claim 12 . コンピュータを、請求項1乃至11の何れか1項に記載の座標入力装置の各手段として機能させるためのプログラム。 The program for functioning a computer as each means of the coordinate input device of any one of Claims 1 thru | or 11 .
JP2014062732A 2014-03-25 2014-03-25 Coordinate input device, control method therefor, and program Active JP6334980B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014062732A JP6334980B2 (en) 2014-03-25 2014-03-25 Coordinate input device, control method therefor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014062732A JP6334980B2 (en) 2014-03-25 2014-03-25 Coordinate input device, control method therefor, and program

Publications (3)

Publication Number Publication Date
JP2015185043A JP2015185043A (en) 2015-10-22
JP2015185043A5 JP2015185043A5 (en) 2017-04-20
JP6334980B2 true JP6334980B2 (en) 2018-05-30

Family

ID=54351463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014062732A Active JP6334980B2 (en) 2014-03-25 2014-03-25 Coordinate input device, control method therefor, and program

Country Status (1)

Country Link
JP (1) JP6334980B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102242478B1 (en) * 2019-11-20 2021-04-21 주식회사 센서리움 Method for generating coordinate information based on touch area performed by interactive system having a pair of laser scanners, and the interactive system using the same

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4083941B2 (en) * 1999-09-03 2008-04-30 株式会社リコー Coordinate input device
JP5725774B2 (en) * 2010-09-13 2015-05-27 キヤノン株式会社 Coordinate input device and coordinate input method
JP6021531B2 (en) * 2012-08-31 2016-11-09 キヤノン株式会社 Coordinate input device, control method therefor, and program

Also Published As

Publication number Publication date
JP2015185043A (en) 2015-10-22

Similar Documents

Publication Publication Date Title
JP5973849B2 (en) Coordinate input device and sensor bar used for coordinate input device
JP4442877B2 (en) Coordinate input device and control method thereof
JP5591069B2 (en) Coordinate input device, control method therefor, and program
JP5875445B2 (en) Coordinate input device
JP6021531B2 (en) Coordinate input device, control method therefor, and program
JP6031293B2 (en) Coordinate input device, control method therefor, and program
JP6334980B2 (en) Coordinate input device, control method therefor, and program
JP6218590B2 (en) Coordinate input device and control method thereof
JP5950767B2 (en) Coordinate input device, control method therefor, and program
JP2015230562A (en) Coordinate input device, control method of the same, and program
JP5969794B2 (en) Coordinate input device
JP2016018282A (en) Coordinate input device, control method thereof, and program
US9958989B2 (en) Coordinate input apparatus, control method thereof, and non-transitory computer-readable storage medium
JP5738112B2 (en) Coordinate input device, control method therefor, and program
JP2005071022A (en) Coordinate inputting device and coordinate inputting method
JP2015156115A (en) coordinate input device
JP2016076068A (en) Coordinate input device, control method of the same and program thereof
JP2015022577A (en) Coordinate input device, control method of coordinate input device, and program
JP2016058046A (en) Coordinate input device, control method thereof, program, coordinate input system, and control method thereof
JP2007072589A (en) Coordinate-input device
JP2017045336A (en) Input device and detection method
JP2017045152A (en) Coordinate input device, information processing method, and program
JP2017041078A (en) Coordinate input device, information processing method, and program
JP2006065654A (en) Coordinate input apparatus, method for controlling the same, control program, and storage medium
JP2015207063A (en) Coordinate input device, and control method and program of the same

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170315

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180104

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180427

R151 Written notification of patent or utility model registration

Ref document number: 6334980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151