JP2010113598A - Input system, input method, input device and program - Google Patents
Input system, input method, input device and program Download PDFInfo
- Publication number
- JP2010113598A JP2010113598A JP2008286710A JP2008286710A JP2010113598A JP 2010113598 A JP2010113598 A JP 2010113598A JP 2008286710 A JP2008286710 A JP 2008286710A JP 2008286710 A JP2008286710 A JP 2008286710A JP 2010113598 A JP2010113598 A JP 2010113598A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- tip
- detection result
- processing
- image generation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、入力システム、入力方法、入力装置及びプログラムに関する。 The present invention relates to an input system, an input method, an input device, and a program.
従来から、プロジェクタを用いてパソコンの画面を投射し、その投射画面上に表示されているカーソルに対するペン等のポインティングデバイス(入力装置の一形態)の動きを検出して、そのペンの動きに応じて投射画面上でカーソルを移動させることにより、情報の入力を行うことが可能な入力システムが知られている。また、その他の入力システムとして、画面を投射するスクリーン自体に、抵抗膜方式や表面弾性波方式、誘導方式等によるポインティングデバイスの動き検出機能を備えた専用の板面を使用するシステムも提案されている。 Conventionally, a personal computer screen is projected using a projector, the movement of a pointing device (a form of input device) such as a pen with respect to the cursor displayed on the projection screen is detected, and the movement of the pen is detected. There is known an input system capable of inputting information by moving a cursor on a projection screen. As another input system, a system using a dedicated plate surface with a motion detection function of a pointing device by a resistive film method, a surface acoustic wave method, a guidance method, or the like is proposed for the screen itself that projects the screen. Yes.
このようにスクリーン自体にポインティングデバイスの動き検出機能を備える方式では、このスクリーンをホワイトボードに類似する構成とし、移動用のキャスター等が設けられる場合も多いが、大きく重いため持ち歩くことは困難であり、使用する場面は限られていた。これに対し、比較的小型化を図ることが可能な入力システムが下記特許文献1及び2に開示されている。
In this way, the screen itself has a pointing device motion detection function, and this screen has a configuration similar to that of a whiteboard. In many cases, a moving caster is provided, but it is large and heavy, so it is difficult to carry around. The scene to use was limited. On the other hand, input systems that can be made relatively small are disclosed in
下記特許文献1に開示された入力システム(電子黒板システム)は、ペンに赤外線及び超音波の発信部を設ける一方、画面が投射されるホワイトボード上の所定位置に赤外線受信部及び2つの超音波受信部からなる受信ユニットを設け、ペンから発信される赤外線を赤外線受信部で受信してから超音波を2つの超音波受信部で受信する時間を測定し、その時間測定結果と音速とを基に2つの超音波受信部とペンとの距離を算出し、三角測量の原理からペンの位置(座標)を検出するものである。
In the input system (electronic blackboard system) disclosed in
下記特許文献2に開示された入力システム(投射像記憶システム)は、プロジェクタでホワイトボードに投射した画面にマーカペンで文字等を記入し、投射画面と記入された文字とをカメラで撮影して得られる合成像を記憶するものである。
上記特許文献1のシステムでは、ペンと受信ユニットからなる座標検出装置と、プロジェクタ等の投射装置とが別の装置であるため、検出座標と投射画像の座標の校正が必要となる。特許文献1には、このような座標の校正手法として、2つの超音波受信部のそれぞれに発光素子を取り付け、この発光素子とホワイトボード上に投射されたテストパターンとをカメラによって撮影し、その撮影画像を基に発光素子と投射画像との位置関係を取得することにより、自動的に座標の校正を行うことが記載されている。しかしながら、この手法によると、校正だけのために専用の発光素子やカメラを設ける必要があり、装置コストの増加を招く。
In the system disclosed in
また、一般的な校正手法として、プロジェクタから予め決められた校正パターンを投射し、その投射画面上で指定された場所をペンで順次指し示すという手法が挙げられるが、システムの使用前にこの校正作業を必ず行う必要があり、ユーザに負担を強いることになる。さらに、特許文献1のシステムでは、超音波の分解能の制約から、座標検出精度を上げるには2つの超音波受信部間の距離間隔を広くしなければならず、受信ユニットの大型化を招くという問題がある。
Also, as a general calibration method, there is a method of projecting a predetermined calibration pattern from a projector and sequentially pointing a designated place on the projection screen with a pen, but this calibration work is performed before using the system. Must be performed, which imposes a burden on the user. Furthermore, in the system of
上記特許文献2のシステムでは、パソコン側のカーソルを制御することができない。また、一般的な公知の手法として、ペン先に赤外線または特定の色を発光する機能を設け、ペン先をその発光波長に対応する光学フィルタを介して撮影し、その撮影画像を基にペン先の位置を検出することでカーソルを制御する手法が挙げられる。しかしながら、この手法を採用しても、専用のカメラを用意する必要があり、また、プロジェクタとカメラは独立した装置であるため、投射画像と撮影画像との位置関係を校正する必要が生じる。 In the system disclosed in Patent Document 2, the cursor on the personal computer side cannot be controlled. In addition, as a general known technique, the pen tip is provided with a function of emitting infrared light or a specific color, the pen tip is photographed through an optical filter corresponding to the emission wavelength, and the pen tip is based on the photographed image. A method for controlling the cursor by detecting the position of the position is given. However, even if this method is adopted, it is necessary to prepare a dedicated camera, and since the projector and the camera are independent devices, it is necessary to calibrate the positional relationship between the projected image and the captured image.
本発明は、上述した事情に鑑みてなされたものであり、表示画面上における入力装置の位置を検出するための専用の位置検出装置を必要とせず、表示画像と検出位置の座標を校正する必要のない入力システム、入力方法、入力装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above-described circumstances, and does not require a dedicated position detection device for detecting the position of the input device on the display screen, and it is necessary to calibrate the coordinates of the display image and the detection position. It is an object of the present invention to provide an input system, an input method, an input device, and a program that are free from problems.
上記目的を達成するために、本発明に係る入力システムは、画像を生成する画像生成装置と、前記画像を表示する表示装置と、前記表示装置の表示画面に接触可能な先端部と、該先端部への入射光を検出する光検出部と、該光検出部の検出結果を基に所定の処理を行う処理部と、前記画像生成装置との通信を行う送信部と、を備える移動操作可能な入力装置とから構成され、前記入力装置における前記処理部は前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする。
このような特徴を有する入力システムによれば、入力装置内に設けられた光検出部の検出結果を基に画像生成装置による画像生成処理と協同しながら入力装置の先端部の位置検出処理を行うため、従来のような入力装置の位置を検出するための専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
In order to achieve the above object, an input system according to the present invention includes an image generation device that generates an image, a display device that displays the image, a tip portion that can contact a display screen of the display device, and the tip A light detection unit that detects incident light on the unit, a processing unit that performs a predetermined process based on a detection result of the light detection unit, and a transmission unit that communicates with the image generation device An input device, and the processing unit in the input device performs position detection processing of the tip portion in cooperation with image generation processing by the image generation device based on a detection result of the light detection unit. And
According to the input system having such characteristics, the position detection process of the tip of the input device is performed in cooperation with the image generation process by the image generation device based on the detection result of the light detection unit provided in the input device. Therefore, there is no need for a dedicated position detection device for detecting the position of the input device as in the prior art, so there is no need to calibrate the coordinates of the display image and the detection position, improving the usability and maintainability of the system, The overall size can be reduced and the apparatus cost can be reduced.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記位置検出処理において、前記光検出部の検出結果を基に前記表示画面に表示しているカーソルパターン上に前記先端部が位置しているか否かを判定し、否の場合に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置を探査するためのキャリブレーション処理を行うことにより、前記先端部の位置を確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示することが好ましい。
入力装置の先端部を表示画面に接触させた場合に、先端部がカーソルパターン上に位置していれば、問題なくカーソルパターンの位置が先端部の位置であると判定することができる。しかしながら、先端部がカーソルパターン上に位置していない場合には、画像生成装置との協同によるキャリブレーション処理によって先端部の位置を確定することによって、カーソルパターンの位置と先端部の位置とを一致させることができる。
In the input system described above, the processing unit of the input device may be configured such that, in the position detection process, the tip is positioned on a cursor pattern displayed on the display screen based on a detection result of the light detection unit. And determining the position of the tip by performing a calibration process for exploring the position of the tip while cooperating with the image generation processing by the image generation device. Preferably, the image generation apparatus is instructed to move the cursor pattern to the determined tip position.
When the tip of the input device is brought into contact with the display screen, if the tip is positioned on the cursor pattern, it can be determined that the position of the cursor pattern is the position of the tip without any problem. However, if the tip is not positioned on the cursor pattern, the position of the tip matches the position of the tip by determining the position of the tip through calibration processing in cooperation with the image generation device. Can be made.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記位置検出処理において、前記表示画面に表示しているカーソルパターンを点滅させるように前記画像生成装置に指示し、前記光検出部の検出結果を基に前記点滅の有無を確認することにより、前記カーソルパターン上に前記先端部が位置しているか否かを判定することが好ましい。
これにより、簡単にカーソルパターン上に先端部が位置しているか否かを判定することができる。
In the input system described above, the processing unit of the input device instructs the image generation device to blink the cursor pattern displayed on the display screen in the position detection processing, and the light detection unit It is preferable to determine whether or not the tip portion is located on the cursor pattern by confirming the presence or absence of the blinking based on the detection result.
Thereby, it is possible to easily determine whether or not the tip is positioned on the cursor pattern.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記キャリブレーション処理において、表示画面全体を探査範囲として初期設定する初期設定処理と、前記画像生成装置に対して、表示画面上の探査範囲を異なる明るさで2分割表示するように指示する第1の分割処理と、前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、前記画像生成装置に対して、前記第1の分割処理で2分割表示している2領域の明るさを反転させるように指示する第2の分割処理と、前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、前記第1の検出結果と第2の検出結果を基に、2分割された2領域の内、検出レベルが高い方の領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理とを実行することが好ましい。
このようなキャリブレーション処理を行うことにより、高精度に先端部の位置を検出することができる。
Further, in the input system described above, the processing unit of the input device may perform an initial setting process in which the entire display screen is initially set as a search range in the calibration process, and a search on the display screen for the image generation device. A first division process for instructing the range to be divided into two parts with different brightness, and a first light detection for obtaining a detection result of the light detection unit after the first division process as a first detection result An acquisition process; a second division process for instructing the image generating apparatus to invert the brightness of the two areas displayed in two divisions in the first division process; and the second division process A second light detection acquisition process for acquiring a detection result of the light detection unit later as a second detection result, and two regions divided into two based on the first detection result and the second detection result The region with the higher detection level Is set as a candidate range in which the tip is located, and a search range setting process for resetting the candidate range as a new search range, and after the reset of the search range, a predetermined number of times from the first divided process to the search range The center coordinate of the candidate range finally obtained by repeating a series of processes up to the setting process is determined as the position of the tip, and the cursor pattern is placed at the determined position of the tip with respect to the image generation device. It is preferable to execute a tip position determination process instructing to move.
By performing such calibration processing, the position of the tip can be detected with high accuracy.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記キャリブレーション処理において、表示画面全体を探査範囲として初期設定する初期設定処理と、前記画像生成装置に対して、表示画面上の探査範囲を異なる色で縦方向に、または横方向に複数分割して表示するように指示する第1の分割処理と、前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、前記画像生成装置に対して、前記第1の分割処理とは異なる方向に複数分割して表示するように指示する第2の分割処理と、前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、前記第1の検出結果と第2の検出結果を基に、縦方向と横方向とで色が一致する分割領域の交差領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理とを実行することが好ましい。
このようなキャリブレーション処理を行うことにより、高精度に先端部の位置を検出することができると共に、先に述べたキャリブレーション処理よりも短時間で先端部の位置を確定することができる。
Further, in the input system described above, the processing unit of the input device may perform an initial setting process in which the entire display screen is initially set as a search range in the calibration process, and a search on the display screen for the image generation device. A first division process for instructing to display a range divided into a plurality of colors in the vertical direction or the horizontal direction, and a first detection result of the light detection unit after the first division process; A first light detection acquisition process acquired as a result, a second division process that instructs the image generation apparatus to divide and display a plurality of images in a direction different from the first division process, Based on the second light detection acquisition process for acquiring the detection result of the light detection unit after the second division process as a second detection result, and the vertical direction based on the first detection result and the second detection result And the color match in the horizontal direction A search range setting process in which a crossing region of a split region is set as a candidate range in which the tip is located, and the candidate range is reset as a new search range; and after the reset of the search range, the first division The center coordinate of the candidate range that is finally obtained by repeating a series of processing from processing to the search range setting processing is determined as the position of the tip, and the position of the determined tip is determined with respect to the image generation device It is preferable to execute tip position determination processing instructing to move the cursor pattern.
By performing such a calibration process, the position of the tip can be detected with high accuracy, and the position of the tip can be determined in a shorter time than the calibration process described above.
また、上述した入力システムにおいて、前記入力装置は、前記先端部が前記表示画面に接触したか否かを検出する接触検出部を備え、前記処理部は、前記位置検出処理によって前記先端部の位置と前記カーソルパターンの位置とが一致した後、前記接触検出部の検出結果が接触有りを示している場合には、前記先端部の移動に応じた書き込み処理を実行し、前記接触検出部の検出結果が接触無しを示している場合には、前記先端部の移動に追従して前記カーソルパターンを移動させるフローティング処理を実行することが好ましい。
このように位置検出処理によって前記先端部の位置と前記カーソルパターンの位置とが一致した後、先端部が表示画面に接触している場合には、作業者は書き込み入力を行おうとしていると推測され、また、先端部が接触していない場合には、作業者は単に入力装置の移動を行おうとしていると推測されるため、上記のように先端部が表示画面に接触している場合には書き込み処理を実行し、また、先端部が接触していない場合にはフローティング処理を実行することにより、作業者の意図に応じた処理を行うことができる。
Further, in the input system described above, the input device includes a contact detection unit that detects whether or not the distal end portion has contacted the display screen, and the processing unit detects the position of the distal end portion by the position detection process. If the detection result of the contact detection unit indicates that there is a contact after the position of the cursor pattern coincides with the position of the cursor pattern, a writing process is executed according to the movement of the tip part to detect the contact detection unit When the result indicates no contact, it is preferable to execute a floating process for moving the cursor pattern following the movement of the tip.
After the position of the tip and the position of the cursor pattern are matched by the position detection processing in this way, if the tip is in contact with the display screen, it is assumed that the operator is about to input In addition, when the tip is not in contact, it is assumed that the operator is simply going to move the input device. Therefore, when the tip is in contact with the display screen as described above, Performs a writing process, and when the tip is not in contact, performs a floating process, thereby performing a process according to the operator's intention.
また、上述した入力システムにおいて、前記カーソルパターンは、専用色が割り当てられた中心部と該中心部を内包し他の色が割り当てられた周辺部とからなり、該周辺部には方位に対応して区分され且つ異なる色が割り当てられた複数の方位検出領域が形成されたパターンであって、前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記光検出部の検出結果を基に色判定を行うことにより、前記先端部が前記カーソルパターン内のどの方位検出領域に存在しているか判定し、前記先端部が存在していると判定された方位検出領域に対応する方位に向かって前記カーソルパターンを移動させるように前記画像生成装置に指示する一方、書き込み処理の場合には加えてカーソルパターンの移動軌跡上に線を描くように指示することが好ましい。
上記のような構成のカーソルパターンを用いることにより、入力装置の先端部の移動に応じてカーソルパターンの追従移動、及び線の書き込みを行うことができる。
In the input system described above, the cursor pattern includes a central portion to which a dedicated color is assigned and a peripheral portion that includes the central portion and is assigned another color, and the peripheral portion corresponds to an orientation. A pattern in which a plurality of orientation detection regions to which different colors are assigned are formed, wherein the processing unit of the input device is based on a detection result of the light detection unit in the writing process or the floating process. By performing color determination, it is determined in which azimuth detection region in the cursor pattern the tip portion is present, and the direction corresponding to the azimuth detection region in which the tip portion is determined to be present is determined. The image generation apparatus is instructed to move the cursor pattern, while in the case of writing processing, a line is added on the movement locus of the cursor pattern. It is preferable to instruct the memorial service.
By using the cursor pattern having the above configuration, the cursor pattern can be moved and the line can be written in accordance with the movement of the tip of the input device.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記光検出部の検出結果を基に色判定を行う色判定処理と、前記色判定処理によって判定された色と前記カーソルパターンにおける中心部の色とが一致するか否かを判定し、一致している場合には前記接触検出部の検出結果が接触有りを示しているか否かの判定処理を再実行する中心部判定処理と、前記中心部判定処理において一致していないと判定された場合に、前記色判定処理によって判定された色と同一の色の方位検出領域を前記先端部が存在する方位検出領域として探索する方位探索処理とを実行することが好ましい。
これにより、精度良く入力装置の先端部の移動方位を知ることができ、正確にカーソルパターンの追従移動、及び線の書き込みを行うことができる。
In the input system described above, the processing unit of the input device is determined by the color determination process in which color determination is performed based on the detection result of the light detection unit in the writing process or the floating process, and the color determination process. It is determined whether or not the determined color matches the color of the center portion of the cursor pattern, and if they match, a determination process is performed to determine whether or not the detection result of the contact detection unit indicates the presence of contact. When it is determined that the center determination process to be re-executed and the center determination process do not match, the tip portion has an orientation detection area of the same color as the color determined by the color determination process It is preferable to execute a direction search process for searching as a direction detection region.
Thereby, it is possible to know the moving direction of the tip of the input device with high accuracy, and to accurately follow the cursor pattern and write a line.
また、上述した入力システムにおいて、前記入力装置は、自己に発生する加速度を検出する加速度検出部を備え、前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記加速度検出部の加速度検出結果に基づいて入力装置がカーソルパターンから前記先端部が外れてしまう程の速度で移動したか否かを判定し、否の場合には前記光検出部の検出結果に基づく色判定を行う一方、カーソルパターンから前記先端部が外れてしまう程の速度で移動したと判定した場合には前記位置検出処理を最初からやり直すことが好ましい。
このように、入力装置がカーソルパターンから前記先端部が外れてしまう程の速度で移動した場合にはカーソルパターンの追従移動は困難であるため、位置検出処理の最初からやり直すことにより、継続的にシステムを使用することができる。また、この場合、カーソルパターンは停止するため、カーソルパターンが意図しない位置に移動してしまうことを防止することができる。
In the input system described above, the input device includes an acceleration detection unit that detects an acceleration generated by the input device, and the processing unit of the input device performs acceleration of the acceleration detection unit in the writing process or the floating process. Based on the detection result, it is determined whether or not the input device has moved at such a speed as to move the tip from the cursor pattern. If not, color determination based on the detection result of the light detection unit is performed. When it is determined that the tip has moved at such a speed that the tip portion is removed from the cursor pattern, it is preferable to repeat the position detection process from the beginning.
In this way, when the input device moves at a speed at which the tip part is removed from the cursor pattern, it is difficult to follow the cursor pattern. The system can be used. In this case, since the cursor pattern stops, it is possible to prevent the cursor pattern from moving to an unintended position.
また、上述した入力システムにおいて、前記カーソルパターンの中心部及び周辺部における各方位検出領域の色は、赤色、緑色、青色の任意の組み合わせによって表現されており、赤色、緑色、青色のそれぞれの明るさは2ビットのコードで設定されていることが好ましい。
これにより、簡単且つ確実に入力装置の位置検出及びカーソルパターンの追従移動を行うことができる。
In the input system described above, the color of each azimuth detection area at the center and the periphery of the cursor pattern is expressed by any combination of red, green, and blue, and the brightness of each of red, green, and blue The length is preferably set by a 2-bit code.
Thereby, it is possible to easily and reliably detect the position of the input device and follow the cursor pattern.
また、上述した入力システムにおいて、前記カーソルパターンにおける各方位検出領域のコード設定手法として、グレイコードを採用していることが好ましい。
これにより、入力装置の先端部がカーソルパターン内の2つの方位検出領域に跨って位置し、不安定なコードを得た場合であっても、隣接する方位検出領域以外のコードが検出されることはないため、カーソルパターンの移動方向が作業者が意図したものとは全く異なることはなく、意図しない方向に移動することを回避することができる。
In the input system described above, it is preferable to employ a gray code as a code setting method for each direction detection area in the cursor pattern.
As a result, even when the leading end of the input device is located across two azimuth detection areas in the cursor pattern and an unstable code is obtained, codes other than the adjacent azimuth detection areas are detected. Therefore, the movement direction of the cursor pattern is not completely different from that intended by the operator, and movement in an unintended direction can be avoided.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記位置検出処理の始めに、前記カーソルパターンの中心部及び周辺部における各方位検出領域毎に設定されたコードを、前記光検出部の検出結果を基に判定するためのコード判定閾値を設定する閾値設定処理を実行することが好ましい。
このようなコード判定閾値を設定することにより、光検出部の検出結果から正確にカーソルパターンの各領域の色に対応するコードを判定することができる。
Further, in the input system described above, the processing unit of the input device may include a code set for each azimuth detection region at the center and the periphery of the cursor pattern at the beginning of the position detection process. It is preferable to execute a threshold setting process for setting a code determination threshold for determination based on the detection result.
By setting such a code determination threshold, it is possible to accurately determine a code corresponding to the color of each area of the cursor pattern from the detection result of the light detection unit.
また、上述した入力システムにおいて、前記入力装置の処理部は、前記閾値設定処理において、前記画像生成装置に対して表示画面を黒表示するように指示する黒表示処理と、前記黒表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、黒検出結果として取得する黒レベル取得処理と、前記画像生成装置に対して表示画面を白表示するように指示する白表示処理と、前記白表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、白検出結果として取得する白レベル取得処理と、前記黒検出結果及び白検出結果に基づいて赤色、緑色、青色に対応する前記コード判定閾値を設定する設定処理とを実行することが好ましい。
このような閾値設定処理を行うことで、より精度の良いコード判定閾値を得ることができる。
In the input system described above, the processing unit of the input device may include a black display process for instructing the image generation apparatus to display a display screen in black in the threshold setting process, and the light after the black display. A black level acquisition process for acquiring each detection result corresponding to red, green, and blue of the detection unit as a black detection result; and a white display process for instructing the image generation device to display the display screen in white. , After the white display, white level acquisition processing for acquiring detection results corresponding to red, green, and blue of the light detection unit as white detection results, and red, green based on the black detection results and white detection results It is preferable to execute setting processing for setting the code determination threshold value corresponding to blue.
By performing such a threshold setting process, a more accurate code determination threshold can be obtained.
また、上述した入力システムにおいて、前記表示装置として投射型表示装置を複数備え、各投射型表示装置によって各方向から同一の投射領域に画面を同時に表示させるか、または選択的にある投射型表示装置だけで画面を表示させることが好ましい。
このような構成とすることにより、入力装置を手で操作する場合に生じる影の影響を減らすことができ、作業効率の向上を図ることができる。
Further, in the input system described above, a plurality of projection display devices are provided as the display device, and each projection type display device simultaneously displays a screen in the same projection area from each direction, or is selectively provided. It is preferable to display the screen only.
With such a configuration, it is possible to reduce the influence of shadows generated when the input device is operated by hand, and to improve work efficiency.
また、本発明に係る入力方法は、画像生成装置によって生成した画像を表示装置によって表示し、移動操作可能な入力装置に設けられた、前記表示装置の表示画面に接触可能な先端部への入射光の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出を行うことを特徴とする。
このような特徴を有する入力方法によると、従来のような入力装置の位置を検出するための専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
In addition, the input method according to the present invention displays an image generated by the image generation device on the display device, and is incident on a tip portion provided on the input device capable of moving operation and touching the display screen of the display device. The position of the tip portion is detected in cooperation with image generation processing by the image generation device based on a light detection result.
According to the input method having such a feature, there is no need for a dedicated position detecting device for detecting the position of the input device as in the prior art, and therefore it is not necessary to calibrate the coordinates of the display image and the detected position, and the system Can improve usability and maintainability, reduce the overall system size, and reduce device costs.
また、本発明に係る入力装置は、表示装置の表示画面に接触可能な先端部と、該先端部への入射光を検出する光検出部と、該光検出部の検出結果を基に所定の処理を行う処理部と、画像生成装置との通信を行う送信部と、を備え、前記処理部は、前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする。
このような特徴を有する入力装置によると、従来のような専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、入力システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
Further, the input device according to the present invention includes a tip portion that can contact the display screen of the display device, a light detection portion that detects incident light on the tip portion, and a predetermined result based on a detection result of the light detection portion. A processing unit that performs processing, and a transmission unit that performs communication with the image generation device, and the processing unit cooperates with the image generation processing by the image generation device based on the detection result of the light detection unit. A tip position detection process is performed.
According to the input device having such a feature, there is no need for a dedicated position detection device as in the prior art, so it is not necessary to calibrate the coordinates of the display image and the detection position, improving the usability and maintainability of the input system, The entire system can be reduced in size and the apparatus cost can be reduced.
また、本発明に係るプログラムは、入力装置に設けられた先端部への入射光を検出する光検出部の検出結果を基に、画像生成装置による画像生成処理と協同しながら前記先端部の位置検出機能をコンピュータに実現させることを特徴とする。
このような特徴を有するプログラムによると、従来のような専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、入力システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
Further, the program according to the present invention is based on the detection result of the light detection unit that detects the incident light on the tip provided in the input device, and the position of the tip is cooperated with the image generation processing by the image generation device. A detection function is realized by a computer.
According to the program having such features, there is no need for a dedicated position detection device as in the prior art, so that it is not necessary to calibrate the coordinates of the display image and the detection position, and the input system is improved in usability and maintainability. The overall size can be reduced and the apparatus cost can be reduced.
以下、本発明の一実施形態について図面を参照しながら説明する。
〔第1実施形態〕
まず、本発明に係る入力システムの第1実施形態について説明する。図1は、第1実施形態における入力システムの構成概略図である。この図1に示すように、本入力システムは、プロジェクタ(表示装置)10、ペン(入力装置)20、コンピュータ(画像生成装置)30及び通信ケーブル40とから概略構成されている。また、図1において、符号DKは作業机、符号Kは作業者である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
First, a first embodiment of an input system according to the present invention will be described. FIG. 1 is a schematic configuration diagram of an input system according to the first embodiment. As shown in FIG. 1, this input system is schematically configured from a projector (display device) 10, a pen (input device) 20, a computer (image generation device) 30, and a
プロジェクタ10は、作業机DK上において所定の高さに設置されており、通信ケーブル40を介して接続されたコンピュータ20から入力される映像信号に応じた画像を、作業机DKの上面に設けられたスクリーンに投射表示する。ペン20は、プロジェクタ10によって作業机DKに投射された画面(投射画面W)上において、作業者Kの手によって操作されるポインティングデバイスであり、その操作に応じて得られる各種情報を基に所定の処理を行い、その処理結果を送信信号としてコンピュータ30に無線送信する機能を備えている。
The
コンピュータ30は、作業机DK上の所定位置に配置されたPC(Personal Computer)であり、ペン20から送信される送信信号を受信するための無線通信カード31を備えている。このコンピュータ30は、表示すべき画像を表す映像信号を生成してプロジェクタ10に出力する一方、ペン20から無線通信カード31を介して受信した信号に基づいてペン20の位置を把握し、ペン20の位置に応じて投射画面Wに表示しているカーソルの位置制御を行う。なお、コンピュータ30は、不図示のCPU(Central Processing Unit)やハードディスク等を内蔵しており、CPUによってハードディスクに記憶されているプログラムを実行することにより、上記のカーソルの位置制御等の各種処理を行っている。
The
図2は、ペン20の構成概略図である。この図2に示すように、ペン20は、ペン先に相当する先端部21と、先端部21と一体的に接合された円筒部材の内部に配置された処理回路(処理部)22、動き検出部(加速度検出部)23、送信部24及び電源部25とから構成されている。
FIG. 2 is a schematic configuration diagram of the
図3は、先端部21の詳細図である。図3において、ペン先部材100は、透明な樹脂で構成されていると共に、その先端100aの表面には微細な光学的散乱構造が形成されており、外部から照射された光が先端100aの表面で散乱されて一部の光が内部に入り、ペン先部材100の全体が導光部材として機能して反対側に光を伝達する。ペン先部材100の先端100aを除く側面には、外部からの光が入射しないように塗装が施された塗料部100bが設けられている。
FIG. 3 is a detailed view of the
ペン先部材100における先端100aの反対側の端部は透明な平坦形状となっており、その端部にはカラーセンサ101が受光面と端部とが対向するように接着されている。カラーセンサ101は、R(赤)、G(緑)、B(青)の各色に対応するカラーフィルタと、各カラーフィルタに対応して設けられた3つのフォトダイオードとを備えており、ペン先部材100を介して入射される外部光の各色R、G、B毎の明るさに応じた信号を出力する構成となっている。なお、この出力信号は、後述する先端部21に設けられた前置回路200に出力される(図4参照)。
The end of the
また、カラーセンサ101の受光面とは反対側の面には接点102が設けられており、ペン先部材100の把持部材103との間にはバネ104が設けられており、また、把持部材103側には接点102と対向して接点105が設けられている。従って、ペン先部材100の先端に、軸方向に平行な力が加わると、ペン先部材100が軸方向に摺動し、バネ104が圧縮されて、カラーセンサ101の接点102と把持部材103の接点105とが接触する(電気的に接続される)。このような接点102と105は、後述するスイッチ(接触検出部)203として処理回路22に接続されている(図4参照)。
In addition, a
ペン先部材100の中央付近には、周面を取り巻くように電極106が設けられており、また、把持部材103の先端部には、開口部を取り巻くように電極107が設けられている。さらに、把持部材103における開口部の内側には、ペン先部材100を取り巻くように支持部108が設けられており、ペン先部材100をわずかな間隙で支持する構成となっている。ペン先部材100の先端に、軸方向に平行な力が印加された場合には、上述のようにペン先部材100が軸方向に摺動するが、軸方向と直交する方向に力が印加された場合には、支持部108を支点として電極106と107とが接触する。このような電極106と107は、後述するスイッチ(接触検出部)204として処理回路22に接続されている(図4参照)。
An
作業者Kがペン20を手に持って投射画面W上で文字の書き込み操作や、所定の指示操作を行う場合、ペン20におけるペン先部材100の先端100aがスクリーン表面に接触するため、ペン先部材100には斜め方向の力が印加されて、接点102と105とが接触、または電極106と107とが接触、若しくは両方が接触することにより、いわゆるペンタッチを検出することができる。
When the operator K holds the
図4は、ペン20の信号処理系の回路ブロック図である。この図4に示すように、先端部21に設けられた前置回路200は、R(赤)、G(緑)、B(青)の各色に対応するカラーフィルタ110R、110G、110Bと、各カラーフィルタに対応して設けられた3つのフォトダイオード111R、111G、111Bとを備えたカラーセンサ101と、各色に対応するオペアンプ201R、201G、201Bと、負帰還抵抗202R、202G、202Bと、接点102と105からなるスイッチ203と、電極106と107からなるスイッチ204とから構成されている。なお、カラーセンサ101と、オペアンプ201R、201G、201Bと、負帰還抵抗202R、202G、202Bとは、本発明における光検出部に相当する。
FIG. 4 is a circuit block diagram of the signal processing system of the
フォトダイオード111Rの出力はオペアンプ201Rの反転入力端子と接続されており、オペアンプ201Rはフォトダイオード111Rによって受光された赤色光の明るさに応じた電圧を処理回路22のA/Dコンバータ210Rに出力する。フォトダイオード111Gの出力はオペアンプ201Gの反転入力端子と接続されており、オペアンプ201Gはフォトダイオード111Gによって受光された緑色光の明るさに応じた電圧を処理回路22のA/Dコンバータ210Gに出力する。フォトダイオード111Bの出力はオペアンプ201Bの反転入力端子と接続されており、オペアンプ201Bはフォトダイオード111Bによって受光された青色光の明るさに応じた電圧を処理回路22のA/Dコンバータ210Bに出力する。スイッチ203の両端(つまり接点102と105)、及びスイッチ204の両端(つまり電極106と107)は、処理回路22のインタフェース回路211と接続されている。
The output of the photodiode 111R is connected to the inverting input terminal of the
処理回路22は、各色に対応するA/Dコンバータ210R、210G、210Bと、インタフェース回路211と、CPU212と、RAM(Random Access Memory)213と、 ROM(Read Only Memory)214、バス215とから構成されている。
The
A/Dコンバータ210Rは、オペアンプ201Rの出力電圧をデジタルデータ(赤色明るさデータ)に変換してインタフェース回路211に出力する。A/Dコンバータ210Gは、オペアンプ201Gの出力電圧をデジタルデータ(緑色明るさデータ)に変換してインタフェース回路211に出力する。A/Dコンバータ210Bは、オペアンプ201Bの出力電圧をデジタルデータ(青色明るさデータ)に変換してインタフェース回路211に出力する。
The A /
インタフェース回路211は、A/Dコンバータ210R、210G、210Bから入力される各色の明るさデータと、スイッチ203、204のオン/オフ状態を示すデータと、後述する動き検出部23から入力されるX軸加速度データ及びY軸加速度データとを、バス215を介してCPU212に出力する。
The
CPU212は、バス215を介してインタフェース回路211、RAM213、ROM214、及び後述する送信部24のインタフェース回路230と接続されている。このCPU212は、ROM214に記憶されているプログラムを実行することにより、インタフェース回路211から得られる各種データに基づいて所定の処理を行い、その処理結果を送信データとし、送信部24を介してコンピュータ30に送信する。
The
RAM213は、CPU212が各種の演算処理を行う際にデータの一時保存先として用いられるワーキングメモリである。ROM214は、CPU212が実行するプログラムやその他の演算処理に必要なデータを予め記憶している不揮発性メモリである。
The
動き検出部23は、X加速度センサ220、Y加速度センサ221、A/Dコンバータ222及びA/Dコンバータ223から構成されている。ここで、ペン20の長手方向と垂直な平面内において、互いに直交するX軸及びY軸を想定する。X加速度センサ220は、上記X軸方向に生じる加速度を検出し、その検出結果を示す加速度信号をA/Dコンバータ222に出力する。Y加速度センサ221は、上記Y軸方向に生じる加速度を検出し、その検出結果を示す加速度信号をA/Dコンバータ223に出力する。
The
A/Dコンバータ222は、X加速度センサ220から入力される加速度信号をデジタルデータ(X軸加速度データ)に変換してインタフェース回路211に出力する。A/Dコンバータ223は、Y加速度センサ221から入力される加速度信号をデジタルデータ(Y軸加速度データ)に変換してインタフェース回路211に出力する。
このような動き検出部23によって、ペン20が動くことにより生じる加速度を検出することができる。
The A /
By such a
送信部24は、インタフェース回路230、変調回路231、増幅回路232及びアンテナ233から構成されている。インタフェース回路230は、処理回路22から入力される送信データを変調回路231に出力する。変調回路231は、インタフェース回路230から入力される送信データの変調処理を行うことにより、RF周波数帯の送信信号を生成して増幅回路232に出力する。増幅回路232は、変調回路231から入力される送信信号を増幅し、増幅後の送信信号をアンテナ233を介してコンピュータ30(無線通信カード31)に送信する。
なお、図4では、図示していないが、電源部25は、前置回路200、処理回路22、動き検出部23及び送信部24に電源電圧を供給するものである。
The
Although not shown in FIG. 4, the
以上のように構成されたペン20においては、作業者Kによる操作に応じて、ペンタッチの有無と、現在のペン先位置における各色光の明るさと、X軸及びY軸方向の加速度とが情報として得られることになり、各種情報を基にした処理が行われて、その処理結果がコンピュータ30に送信されることになる。
In the
続いて、図5を参照して、コンピュータ30のカーソルとしてプロジェクタ10から投射されるカーソルパターンについて説明する。なお、本実施形態におけるカーソルは、一般的にマウスやキーボード等で操作するカーソルとはそのパターンが異なるが、ポインタとしての役割を担うという点では同じである。
Next, a cursor pattern projected from the
図5(a)に、本実施形態におけるカーソルパターンCPの一例を示す。この図5に示すように、カーソルパターンCPは、円形の中心部CP1と、該中心部CP1を内包する同心円の周辺部CP2とからなり、この周辺部CP2には中心点からの方位に対応して区分された複数(本実施形態では16個)の方位検出領域DS1〜DS16が形成されている。ここで、図中に示すようなXY座標系を想定し、左回りを正の方向とすると、例えば、方位検出領域DS1はX軸に対して0/8×π(rad)=0(rad)の方位に対応し、方位検出領域DS2は1/8×π(rad)の方位に対応している。 FIG. 5A shows an example of the cursor pattern CP in the present embodiment. As shown in FIG. 5, the cursor pattern CP includes a circular center portion CP1 and a concentric peripheral portion CP2 including the central portion CP1, and the peripheral portion CP2 corresponds to an orientation from the center point. A plurality (16 in this embodiment) of azimuth detection areas DS1 to DS16 are formed. Here, assuming an XY coordinate system as shown in the figure and assuming that the counterclockwise direction is a positive direction, for example, the direction detection region DS1 is 0/8 × π (rad) = 0 (rad) with respect to the X axis. The azimuth detection area DS2 corresponds to an azimuth of 1/8 × π (rad).
他も同様に、方位検出領域DS3は2/8×π(rad)、方位検出領域DS4は3/8×π(rad)、方位検出領域DS5は4/8×π(rad)、方位検出領域DS6は5/8×π(rad)、方位検出領域DS7は6/8×π(rad)、方位検出領域DS8は7/8×π(rad)、方位検出領域DS9は8/8×π(rad)、方位検出領域DS10は9/8×π(rad)、方位検出領域DS11は10/8×π(rad)、方位検出領域DS12は11/8×π(rad)、方位検出領域DS13は12/8×π(rad)、方位検出領域DS14は13/8×π(rad)、方位検出領域DS15は14/8×π(rad)、方位検出領域DS16は15/8×π(rad)の方位に対応している。 Similarly, the direction detection area DS3 is 2/8 × π (rad), the direction detection area DS4 is 3/8 × π (rad), the direction detection area DS5 is 4/8 × π (rad), the direction detection area DS6 is 5/8 × π (rad), the direction detection region DS7 is 6/8 × π (rad), the direction detection region DS8 is 7/8 × π (rad), and the direction detection region DS9 is 8/8 × π ( rad), the direction detection region DS10 is 9/8 × π (rad), the direction detection region DS11 is 10/8 × π (rad), the direction detection region DS12 is 11/8 × π (rad), and the direction detection region DS13 is 12/8 × π (rad), the direction detection region DS14 is 13/8 × π (rad), the direction detection region DS15 is 14/8 × π (rad), and the direction detection region DS16 is 15/8 × π (rad) It corresponds to the direction.
図5(b)は、カーソルパターンCPの中心部CP1と、周辺部CP2における各方位検出領域DS1〜DS16に割り当てられた各色R、G、Bのレベル(明るさ)を示すコードを表している。この図に示すように、各色毎のレベルを2ビットで示し、「00」、「01」、「10」、「11」の4段階のレベルを表現可能としている。ここでは、「00」を黒表示(投射光の無い状態)、「11」を最大の明るさに対応させている。中心部CP1では、G(緑)を「11」に、R(赤)及びB(青)を「00」に設定している。各方位検出領域DS1〜DS16では、Gのみ「01」で固定しているが、R及びBは順次異なるコードが設定されている。このコードの設定手法としては、グレイコードを採用しており、隣接する部分では1ビットしか変化しないように設定している。 FIG. 5B shows a code indicating the level (brightness) of each color R, G, B assigned to each of the orientation detection regions DS1 to DS16 in the central portion CP1 of the cursor pattern CP and the peripheral portion CP2. . As shown in this figure, the level for each color is indicated by 2 bits, and four levels of “00”, “01”, “10”, and “11” can be expressed. Here, “00” corresponds to black display (no projection light), and “11” corresponds to the maximum brightness. In the central portion CP1, G (green) is set to “11”, and R (red) and B (blue) are set to “00”. In each of the azimuth detection areas DS1 to DS16, only G is fixed at “01”, but different codes are sequentially set for R and B. As a code setting method, a gray code is adopted, and setting is performed so that only one bit changes in an adjacent portion.
次に、上記のように構成された入力システムの動作について説明する。ここで、表示画面W上には、上述したカーソルパターンCPを含む所定の画像が表示されているものとする。図6は、ペン20の動作(位置検出処理)を表すフローチャートである。この図に示す動作は、ペン20におけるCPU212がROM214に記憶されているプログラムを実行することによって実現されるものである。
Next, the operation of the input system configured as described above will be described. Here, it is assumed that a predetermined image including the cursor pattern CP described above is displayed on the display screen W. FIG. 6 is a flowchart showing the operation (position detection process) of the
まず、ステップS1において、ペン20のCPU212は、スイッチ203及び204のオン/オフ状態を示すデータに基づいて、ペンタッチが行われたか否か(ペン先部材100が表示画面Wに接触したか否か)を判定し、「Yes」の場合(ペンタッチが行われた場合)にステップS2の信号レベル補正処理(閾値設定処理)を行う。
First, in step S1, the
図7に、信号レベル補正処理を表すフローチャートを示す。この図7に示すように、信号レベル補正処理において、まず、CPU212は、送信部24を介してコンピュータ30に表示画面W1の全体を黒表示にするように指示する(ステップS21:黒表示処理)。そして、CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータをVrb、緑色明るさデータをVgb、青色明るさデータをVbbとしてRAM213に記憶する(ステップS22:黒レベル取得処理)。これらVrb、Vgb、Vbbの値は、プロジェクタ10からの投射光が周囲に反射した光や照明光などのペン位置検出時には不要な明るさを示すものである。
FIG. 7 is a flowchart showing the signal level correction process. As shown in FIG. 7, in the signal level correction process, first, the
続いて、CPU212は、送信部24を介してコンピュータ30に表示画面W1の全体を白表示にするように指示し(ステップS23:白表示処理)、この時にインタフェース回路211を介して得られる赤色明るさデータをVrp、緑色明るさデータをVgp、青色明るさデータをVbpとしてRAM213に記憶する(ステップS24:白レベル取得処理)。これらVrp、Vgp、Vbpの値は、ペン位置検出時の最大の明るさを示すものである。つまり、ペン20によって検出される各色毎の明るさは、赤色ではVrb〜Vrpの範囲、緑色ではVgb〜Vgpの範囲、青色ではVbb〜Vbpの範囲に含まれることになる。
Subsequently, the
続いて、CPU212は、図8に示すように、各色の検出レベル(各色の明るさデータの値)から、カーソルパターンCPの方位検出領域DS1〜DS16に割り当てられたコード「00」〜「11」を判定するためのコード判定閾値を設定してRAM213に記憶する(ステップS25:設定処理)。
Subsequently, as shown in FIG. 8, the
ここで、図5で説明したように、各方位検出領域DS1〜DS16における各色は4段階のコードによって設定されているため、図8に示すように、3つのコード判定閾値を設定する。具体的には、光出力に対応した検出レベルはほぼ線形になるため、コード判定閾値も検出レベルを等分して決定すれば良い。例えば、R(赤)に着目すると、3つのコード判定閾値Vrt1、Vrt2、Vrt3は下記(1)〜(3)式で表される。
Vrt1=Vrb+(Vrp−Vrb)/4 ・・・・(1)
Vrt2=Vrb+(Vrp−Vrb)/4・2 ・・・・(2)
Vrt3=Vrb+(Vrp−Vrb)/4・3 ・・・・(3)
G(緑)、B(青)についても同様にコード判定閾値を求めることができる。
なお、プロジェクタ10の内部で階調特性を非線形に加工している場合などには、光出力と検出レベルとの関係も非線形となるが、各コード判定閾値はそれぞれの特性を考慮して決定すれば良い。
Here, as described with reference to FIG. 5, each color in each of the azimuth detection areas DS1 to DS16 is set by four stages of codes, so three code determination thresholds are set as shown in FIG. Specifically, since the detection level corresponding to the light output is almost linear, the code determination threshold value may be determined by equally dividing the detection level. For example, focusing on R (red), the three code determination thresholds Vrt1, Vrt2, and Vrt3 are expressed by the following equations (1) to (3).
Vrt1 = Vrb + (Vrp−Vrb) / 4 (1)
Vrt2 = Vrb + (Vrp-Vrb) /4.2 (2)
Vrt3 = Vrb + (Vrp-Vrb) /4.3 (3)
Similarly, the code determination threshold can be obtained for G (green) and B (blue).
When the gradation characteristics are processed nonlinearly inside the
CPU212は、上記のような信号レベル補正処理が終了すると、図6に示すステップS3の初期位置検出処理を行う。図9に、初期位置検出処理を表すフローチャートを示す。この図に示すように、初期位置検出処理において、まず、CPU212は、送信部24を介してコンピュータ30に対し、カーソルパターンCPの中心部CP1を緑色の最大明るさで点滅表示するように指示する(ステップS31)。
When the signal level correction process as described above is completed, the
そして、CPU212は、この時にインタフェース回路211を介して得られる緑色明るさデータ(緑色の検出レベル)Vgが、上記のように決定したコード「11」に対応する緑色のコード判定閾値Vgt3を基準として繰り返し変化するかを確認することにより、中心部CP1の点滅を検出したか否かを判定する(ステップS32)。CPU212は、このステップS32において、「Yes」の場合、つまりペン20の先端位置がカーソルパターンCPの中心部CP1の位置と一致している場合には、初期位置検出処理を終了して図6に示すステップS4の処理に移行し、「No」の場合、つまりペン20の先端がカーソルパターンCPとは別の位置に存在する場合には、ステップS33のキャリブレーション処理を行う。
Then, the
このキャリブレーション処理とは、ペン20の先端100aが投射画面W上でカーソルパターンCPと離れた位置でペンタッチした場合に、先端100aの位置を探査して、カーソルパターンCPの中心部CP1を先端100aの位置に移動させるための処理である。図10は、キャリブレーション処理を表すフローチャートである。また、図11は、キャリブレーション処理中における表示画面Wの変化の様子を表したものである。以下、これら図10及び図11を参照して、キャリブレーション処理について説明する。
In this calibration process, when the
図10に示すように、キャリブレーション処理において、まず、CPU212は、ペン先位置を探査するための分解能を2のN乗として設定し、その設定値を送信部24を介してコンピュータ30に送信する(ステップT1)。ここで、Nの値は、投射画面Wの大きさと、カーソルパターンCPの中心部CP1の大きさとの関係から決定する。例えば、投射画面Wの対角が40インチ、中心部CP1の直径が5mmであるとすると、40×25.4/5=203.2となるため、27<203.2<28であることから、N=8に設定する。なお、このNの値は、事前に既知の値であるためコンピュータ30のハードディスク等に予め記憶しておいても良い。
As shown in FIG. 10, in the calibration process, first, the
続いて、CPU212は、投射画面Wの全体を探査範囲として設定する(ステップT2:初期設定処理)。以下では、投射画面Wにおいて、ペン20の先端100aの存在を調べる領域を探査範囲と定義し、探査範囲に先端100aが存在した場合には、その範囲を候補範囲と定義する。
Subsequently, the
そして、CPU212は、探査範囲、つまり投射画面Wの全体を白領域と黒領域とに横方向に2分割して表示するようにコンピュータ30に指示する(ステップT3:第1の分割処理)。これにより、コンピュータ30は、図11(a)に示すように、探査範囲、つまり投射画面Wの全体が白領域と黒領域とに横方向に2分割されて表示されるようにプロジェクタ10を制御する。
Then, the
次に、CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbのいずれか、または任意の組み合わせを現在の先端100aの位置における明るさデータV1として取得する(ステップT4:第1の光検出取得処理)。
Next, the
そして、CPU212は、探査範囲の白領域と黒領域とを反転して表示するようにコンピュータ30に指示する(ステップT5:第2の分割処理)。これにより、コンピュータ30は、図11(b)に示すように、探査範囲の白領域と黒領域とを反転して表示するようにプロジェクタ10を制御する。CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbのいずれか、または任意の組み合わせを現在の先端100aの位置における明るさデータV2として取得する(ステップT6:第2の光検出取得処理)。
Then, the
ここで、CPU212は、ステップT4で取得した明るさデータV1とステップT6で取得した明るさデータV2とを比較し、明るさが高い方(つまり白領域)にペン20の先端100aが存在すると推測されるため、明るさが高い方の領域を候補範囲として設定し(ステップT7)、さらに、現在の候補範囲を新たな探査範囲として再設定して、コンピュータ30に指示する(ステップT8)。つまり、図11に示すように、投射画面Wの右下部分にペン20の先端100aが存在しているとすると、図11(a)に示す白領域が新たな探査範囲として再設定される。なお、ステップT7及びT8は、本発明における探査範囲設定処理に相当する。
Here, the
以降、上述したステップT3〜T8の処理がN回繰り返される。例えば、図11(c)(d)は、2巡目のステップT3〜T8の処理における表示画面Wの変化の様子を表したものであり、図11(e)(f)は、3巡目のステップT3〜T8の処理における表示画面Wの変化の様子を表したものであり、また、図11(g)(h)は、4巡目のステップT3〜T8の処理における表示画面Wの変化の様子を表したものである。 Thereafter, the processes in steps T3 to T8 described above are repeated N times. For example, FIGS. 11C and 11D show changes in the display screen W in the processes of steps T3 to T8 in the second round, and FIGS. 11E and 11F show the third round. FIG. 11G and FIG. 11H show changes in the display screen W in the processes of steps T3 to T8 in the fourth round. This is a representation of the situation.
このようにステップT3〜T8の処理が繰り返されることにより、探査範囲はペン20の先端100aの位置に向かって徐々に絞られていき、N回繰り返された後には候補範囲の中心座標は、ほぼ先端100aの位置座標を指し示す値となっている。そのため、CPU212は、ステップT3〜T8の処理をN回繰り返して得られる最後の候補範囲の中心座標を、先端100aの初期座標(以下、ペン先初期座標と称す)と確定してコンピュータ30に指示する(ステップT9)。これにより、コンピュータ30は、最後の候補範囲の中心座標(つまりペン先初期座標)にカーソルパターンCPを移動させる(ステップT10)。なお、ステップT9及びT10は、本発明における先端位置確定処理に相当する。
By repeating the processes in steps T3 to T8 in this manner, the search range is gradually narrowed toward the position of the
以上に述べたキャリブレーション処理によって、ペン20の先端100aの位置と、カーソルパターンCPの中心部CP1の位置とを一致させることができる。なお、上記キャリブレーション処理中におけるコンピュータ30側の動作は、コンピュータ30に内蔵されたCPUがハードディスクに記憶されているプログラムを実行することにより実現されるものである。
By the calibration process described above, the position of the
上記キャリブレーション処理が終了すると、CPU212は、図6に示すステップS4の処理に移行する。図6のステップS4において、CPU212は、スイッチ203及び204のオン/オフ状態を示すデータに基づいて、ペンタッチが継続しているか否か(ペン先部材100が表示画面Wに継続して接触しているか否か)を判定し、「Yes」の場合、つまりペン20を接触させたまま書き込み入力が行われると推測される場合にはステップS5の書き込み処理を行う一方、「No」の場合、つまり書き込み入力は行われずにペン20の移動のみが行われると推測される場合にはステップS8のフローティング処理に移行する。
When the calibration process is finished, the
図12は、書き込み処理を表すフローチャートである。この書き込み処理において、まず、CPU212は、ペン20の先端100aがカーソルパターンCP以外の場所に位置していることを示すパターン外フラグを「0」にリセットする(ステップS51)。つまり、パターン外フラグが「0」の場合は、ペン20の先端100aがカーソルパターンCPの位置と一致していることを指す。
FIG. 12 is a flowchart showing the writing process. In this writing process, first, the
続いて、CPU212は、インタフェース回路211を介してX軸加速度データ及びY軸加速度データを取得し(ステップS52)、X軸加速度データ及びY軸加速度データが所定の閾値より大きいか否かを判定する(ステップS53)。CPU212は、このステップS53において、「Yes」の場合、つまりX軸加速度データ及びY軸加速度データが閾値より大きい場合(またはX軸加速度データとY軸加速度データの一方が閾値より大きい場合でも良い)、パターン外フラグを「1」にセットして書き込み処理を終了して、図6のステップS6に移行する(ステップS58)。
Subsequently, the
このようにX軸加速度データ及びY軸加速度データが閾値より大きい場合、またはX軸加速度データとY軸加速度データの一方が閾値より大きい場合は、ペン20の移動速度が非常に速く、ペン20の先端100aがカーソルパターンCPから外れてしまう可能性があるため、上記のようにパターン外フラグを「1」にセットした後、図6のステップS6に移行することにより、ステップS1からやり直す。ここで、ステップS6の処理は、パターン外フラグが「1」であればステップS1の処理に戻り、「0」であればステップS7に移行するものである。
As described above, when the X-axis acceleration data and the Y-axis acceleration data are larger than the threshold value, or when one of the X-axis acceleration data and the Y-axis acceleration data is larger than the threshold value, the moving speed of the
一方、上記ステップS53において、「No」の場合、CPU212は、インタフェース回路211を介して赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbを取得し、RAM214に記憶されている各色に対応するコード判定閾値と比較することにより、各色の明るさデータをコード変換する(ステップS54:色判定処理)。
On the other hand, if “No” in step S53, the
そして、CPU212は、ペン20の先端100aがカーソルパターンCPの中心部CP1の内部に位置しているか否かを確認するために、ステップS54で得られるG(緑)に対応するコードが「11」であるか否かを判定する(ステップS55:中心部判定処理)。このステップS55において、「Yes」の場合、つまりG(緑)に対応するコードが「11」の場合、図13(a)に示すように、ペン20の先端100aがカーソルパターンCPの中心部CP1の内部に位置していると判断されるため、書き込み処理を終了して、図6のステップS6に移行する。なお、この時点でのパターン外フラグは「0」のままであるので、図6のステップS6の後、ステップS7に移行する。
Then, the
一方、上記ステップS55において、「No」の場合には、ペン20の先端100aはカーソルパターンCPの周辺部CP2における方位検出領域DS1〜DS16のいずれかに位置していると考えられる。そのため、CPU212は、ステップS55において、「No」の場合に、R(赤)及びB(青)に対応するコードからペン20の先端100aが方位検出領域DS1〜DS16のどれに位置しているかを確認することにより、カーソルパターンCPの移動方位を決定する(ステップS56:方位探索処理)。例えば、R(赤)に対応するコードが「00」、B(青)に対応するコードが「11」の場合、図13(b)に示すように、ペン20の先端100aは方位検出領域DS3に位置しているため、カーソルパターンCPの移動方位は2/8×π(rad)と決定される。
On the other hand, in the above step S55, in the case of “No”, it is considered that the
そして、CPU212は、上記のように決定した移動方位に向かってカーソルパターンCPを移動させるようにコンピュータ30に指示する(ステップS57)。これにより、コンピュータ30は、投射画面W上においてカーソルパターンCPの移動を開始する。
Then, the
以上のような書き込み処理が終了すると、CPU212は、図6に示すステップS6の処理に移行する。書き込み処理のステップS57からステップS6に移行した場合、パターン外フラグは「0」のままであるので、図6のステップS6の後、ステップS7に移行する。このステップS7において、CPU212は、スイッチ203及び204のオン/オフ状態を示すデータに基づいて、ペンタッチが継続しているか否かを判定し、「Yes」の場合、つまり書き込み入力が継続中である場合には、ステップS5の処理に戻り、図12に示すステップS51〜S57の処理を繰り返す。
When the writing process as described above is completed, the
これにより、図12のステップS55で、ペン20の先端100aの位置とカーソルパターンCPの中心部CP1の位置とが一致していると判定されるまで、つまり図13(c)の状態になるまでカーソルパターンCPは2/8×π(rad)の方位に移動し、その結果、図13(d)に示すように、カーソルパターンCPの移動開始点P1と移動終了点P2の間の軌跡上に線を描くことができる。
Thus, until it is determined in step S55 in FIG. 12 that the position of the
一方、CPU212は、上記ステップS7において、「No」の場合、つまり書き込み入力は行われずにペン20の移動のみが行われると推測される場合にはステップS8のフローティング処理に移行する。このステップS8のフローティング処理では、上述したステップS5と同様の処理が行われる。また、ステップS9の処理はステップS6と同様であり、ステップS10の処理はステップS7と同様である。
On the other hand, in the case of “No” in step S7, that is, when it is estimated that only the movement of the
つまり、ステップS8に移行した時点では、ステップS5〜S7によって線の書き込みが終了した後、またはステップS3の初期位置検出処理後にペンタッチが外れている状態となっており、ペン20の先端100aを投射画面Wから浮かせて、次の書き込み開始位置まで移動している状態であると推測できるため、ステップS8〜S10においてステップS5〜S7と同様の処理を行うことにより、カーソルパターンCPをペン20の先端100aの動きに追従して移動させることができる。仮に、ペン20の移動速度が速く、カーソルパターンCPから外れるような場合には、図12のステップS53によって、ペン20の加速度が閾値より大きいことが検出されるため、カーソルパターンCPの移動を中止してステップS1の処理からやり直せば良い。
In other words, when the process proceeds to step S8, the pen touch is released after the line writing is completed in steps S5 to S7 or after the initial position detection process in step S3, and the
以上説明したように、本実施形態における入力システムによれば、従来のようなペン20の位置を検出するための専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
As described above, according to the input system in the present embodiment, a dedicated position detection device for detecting the position of the
また、ペン20に0次元センサを用いたので、ペン20の方向を意識することなく使用することができる。また、カーソルパターンCPにおける各方位検出領域のコード設定手法として、グレイコードを採用しているため、ペン20の先端100aがカーソルパターン内の2つの方位検出領域に跨って位置し、不安定なコードを得た場合であっても、隣接する方位検出領域以外のコードが検出されることはないため、カーソルパターンCPの移動方向が作業者Kが意図したものとは全く異なることはなく、意図しない方向に移動することを回避することができる。また、ペン20に加速度センサを内蔵し、ペン20の動きが速くてカーソルパターンCPが追従できない場合には、カーソルパターンCPの動きを停止することにより、カーソルパターンCPが意図しない位置に移動してしまうことを防止することができる。
Further, since the 0-dimensional sensor is used for the
〔第2実施形態〕
次に、第2実施形態における入力システムについて説明する。なお、第2実施形態における入力システムは、第1実施形態と比較してコード判定閾値の設定手法とキャリブレーション処理の内容が異なるだけであるので、以下では、第2実施形態におけるコード判定 閾値の設定手法とキャリブレーション処理に着目して説明する。
[Second Embodiment]
Next, an input system according to the second embodiment will be described. The input system according to the second embodiment is different from the first embodiment only in the code determination threshold setting method and the content of the calibration process. Therefore, the code determination threshold in the second embodiment will be described below. Description will be made by focusing on the setting method and the calibration process.
(1)コード判定閾値の設定手法
第1実施形態では、カーソルパターンCPの各方位検出領域DS1〜DS16における各色は4段階のコードによって設定されているため、図8に示すように、各色毎に3つのコード判定閾値を決定した。これらのコード判定閾値は、図6に示す書き込み処理やフローティング処理などに必要であるため、第2実施形態でも同様に決定する必要がある。これに加えて、第2実施形態では、キャリブレーション処理専用のコード判定閾値(以下、キャリブ専用コード判定閾値と称す)を決定する。
(1) Code Determination Threshold Setting Method In the first embodiment, each color in each direction detection region DS1 to DS16 of the cursor pattern CP is set by four stages of codes, so that as shown in FIG. Three code determination thresholds were determined. Since these code determination threshold values are necessary for the writing process and the floating process shown in FIG. 6, it is necessary to determine them similarly in the second embodiment. In addition, in the second embodiment, a code determination threshold dedicated to calibration processing (hereinafter referred to as a calibration code determination threshold) is determined.
具体的には、図14に示すように、各色を1ビットのコード、つまり「0」と「1」の2段階のコードで設定するとし、各色毎に1つのキャリブ専用コード判定閾値を決定する。この場合、各色の検出レベル(明るさ)から「0」か「1」かを判定すれば良いので、R(赤)、G(緑)、B(青)に対応するキャリブ専用コード判定閾値Vrct、Vgct、Vbctは下記(4)〜(6)式で表される。
Vrct=Vrb+(Vrp−Vrb)/2 ・・・・(4)
Vgct=Vgb+(Vgp−Vgb)/2 ・・・・(5)
Vbct=Vbb+(Vbp−Vbb)/2 ・・・・(6)
Specifically, as shown in FIG. 14, each color is set by a 1-bit code, that is, a two-stage code of “0” and “1”, and one calibrated code determination threshold value is determined for each color. . In this case, since it is only necessary to determine whether each color is at a detection level (brightness) of “0” or “1”, the dedicated code determination threshold Vrct for R (red), G (green), and B (blue) is used. , Vgct and Vbct are represented by the following formulas (4) to (6).
Vrct = Vrb + (Vrp−Vrb) / 2 (4)
Vgct = Vgb + (Vgp−Vgb) / 2 (5)
Vbct = Vbb + (Vbp-Vbb) / 2 (6)
(2)キャリブレーション処理
図15は、第2実施形態におけるキャリブレーション処理を表すフローチャートである。また、図16は、キャリブレーション処理中における表示画面Wの変化の様子を表したものである。図17は、図16において、投射画面Wに表示される8つの領域Wa〜Whに割り当てられた各色のコード(1ビットコード)を表すものである。
(2) Calibration Process FIG. 15 is a flowchart showing the calibration process in the second embodiment. FIG. 16 shows how the display screen W changes during the calibration process. FIG. 17 shows the codes (1-bit codes) of the respective colors assigned to the eight areas Wa to Wh displayed on the projection screen W in FIG.
図15に示すように、まず、CPU212は、ペン先位置を探査するための分解能を8のM乗として設定し、その設定値Mを送信部24を介してコンピュータ30に送信する(ステップU1)。ここで、Mの値は、投射画面Wの大きさと、カーソルパターンCPの中心部CP1の大きさとの関係から決定する。例えば、投射画面Wの対角が40インチ、中心部CP1の直径が5mmであるとすると、40×25.4/5=203.2となるため、82<203.2<83であることから、M=3に設定する。なお、このMの値は、事前に既知の値であるためコンピュータ30のハードディスク等に予め記憶しておいても良い。
As shown in FIG. 15, first, the
続いて、CPU212は、投射画面Wの全体を探査範囲として設定する(ステップU2)。以下では、第1実施形態と同様に、投射画面Wにおいて、ペン20の先端100aの存在を調べる領域を探査範囲と定義し、探査範囲に先端100aが存在した場合には、その範囲を候補範囲と定義する。
Subsequently, the
そして、CPU212は、探査範囲、つまり投射画面Wの全体を縦方向にWa〜Whの領域に8分割して表示するようにコンピュータ30に指示する(ステップU3)。コンピュータ30は、上記のようにぺン20から指示を受けると、図16(a)に示すように、その探査範囲、つまり投射画面Wの全体が縦方向にWa〜Whの領域に8分割されて表示されるようにプロジェクタ10を制御する。ここで、各領域Wa〜Whの色は、図17に示すコードに対応する色となっている。
Then, the
次に、CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbを現在の先端100aの位置における各色の明るさデータとして取得する(ステップU4)。そして、CPU212は、探査範囲、つまり投射画面Wの全体を横方向にWa〜Whの領域に8分割して表示するようにコンピュータ30に指示する(ステップU5)。
Next, the
コンピュータ30は、上記指示を受けると、図16(b)に示すように、探査範囲、つまり投射画面Wの全体が横方向にWa〜Whの領域に8分割されて表示されるようにプロジェクタ10を制御する。CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbを現在の先端100aの位置における各色の明るさデータとして取得する(ステップU6)。
When the
ここで、CPU212は、ステップU4及びU6で取得した各色の明るさデータ(検出レベル)を、キャリブ専用コード判定閾値Vrct、Vgct、Vbctに基づいてコード変換する。つまり、検出レベルがキャリブ専用コード判定閾値より低ければコード「0」、高ければコード「1」とする。そして、CPU212は、ステップU4で取得した各色の検出レベルに対応するコードと、ステップU6で取得した各色の検出レベルに対応するコードとが一致する領域を、図17の表を基にWa〜Whの中から探索する。
Here, the
このように、縦分割して得られるコードと横分割して得られるコードとが一致した領域がわかると、その領域が縦分割の場合と横分割の場合とで交差する領域にペン20の先端100aが存在すると推測される。そこで、CPU212は、そのような交差領域を候補範囲として設定し(ステップU7)、さらに、現在の候補範囲を新たな探査範囲として設定して、コンピュータ30に指示する(ステップU8)。つまり、図16(a)(b)に示すように、領域Wgにペン20の先端100aが存在しているとすると、図16(c)に示すように、領域Wgの交差領域が新たな探査範囲として再設定される。
As described above, when an area where the code obtained by vertical division and the code obtained by horizontal division coincide is found, the tip of the
以降、上述したステップU3〜U8の処理がM回繰り返される。例えば、図16(c)(d)は、2巡目のステップU3〜U8の処理における表示画面Wの変化の様子を表したものである。このようにステップU3〜U8の処理が繰り返されることにより、探査範囲はペン20の先端100aの位置に向かって徐々に絞られていき、M回繰り返された後には候補範囲の中心座標は、ほぼ先端100aの位置座標を指し示す値となっている。
Thereafter, the processes in steps U3 to U8 described above are repeated M times. For example, FIGS. 16C and 16D show changes in the display screen W in the process of steps U3 to U8 in the second round. By repeating the processing of steps U3 to U8 in this way, the search range is gradually narrowed toward the position of the
そのため、CPU212は、ステップU3〜U8の処理をM回繰り返して得られる最後の候補範囲の中心座標を、先端100aの初期座標(ペン先初期座標)とするようにコンピュータ30に指示する(ステップU9)。これにより、コンピュータ30は、最後の候補範囲の中心座標(つまりペン先初期座標)にカーソルパターンCPを移動させる(ステップU10)。
Therefore, the
上述した第2実施形態のキャリブレーション処理によって、ペン20の先端100aの位置と、カーソルパターンCPの中心部CP1の位置とを一致させることができる。なお、上記キャリブレーション処理中におけるコンピュータ30側の動作は、コンピュータ30に内蔵されたCPUがハードディスクに記憶されているプログラムを実行することにより実現されるものである。
By the calibration process of the second embodiment described above, the position of the
以上のような第2実施形態における入力システムによると、第1実施形態と比べてキャリブレーション処理の時間を短縮することができ、システム全体の動作速度の向上を図ることができる。 According to the input system in the second embodiment as described above, the calibration processing time can be shortened as compared with the first embodiment, and the operation speed of the entire system can be improved.
〔第3実施形態〕
次に、第3実施形態における入力システムについて説明する。図18は、第3実施形態における入力システムの構成概略図である。なお、図18において、図1(第1実施形態)と同様の構成要素には同一符号を付して説明を省略する。この図18に示すように、第3実施形態における入力システムでは、プロジェクタ50及び信号分配切替器60が追加されており、プロジェクタ50は通信ケーブル61を介して信号分配切替器60と接続され、プロジェクタ10は通信ケーブル62を介して信号分配切替器60と接続され、コンピュータ30は通信ケーブル63を介して信号分配切替器60と接続されている。
[Third Embodiment]
Next, an input system in the third embodiment will be described. FIG. 18 is a schematic configuration diagram of an input system according to the third embodiment. In FIG. 18, the same components as those in FIG. 1 (first embodiment) are denoted by the same reference numerals, and description thereof is omitted. As shown in FIG. 18, in the input system according to the third embodiment, a
プロジェクタ50は、プロジェクタ10とは異なる方向から同一の投射領域に画像を投射できるように設置されており、信号分配切替器60によってコンピュータ30の映像信号をプロジェクタ10及びプロジェクタ50に供給して同時に投射画面Wを表示し、または、信号分配切替器60によって映像信号をプロジェクタ10またはプロジェクタ50の一方に選択的に供給することにより、一方のプロジェクタのみで投射画面Wを表示することが可能な構成となっている。
The
図19に、作業者Kから見た投射画面Wの様子を示す。プロジェクタ10からの投射画面にはペン20と作業者Kの手によって影71が生じる。また、同様に、プロジェクタ50からの投射画面にはペン20と作業者Kの手によって影72が生じる。このように、作業者Kが右手でペン20を操作する場合には、影71は作業の妨げになりにくいが、影72は作業の妨げとなる。また、投射画面Wの位置によっては、プロジェクタ50からの投射画面の方が好ましい場合もある。
FIG. 19 shows a state of the projection screen W viewed from the worker K. A
このように、作業の状況によって好ましいプロジェクタが異なるため、信号分配切替器60を操作し、好ましいプロジェクタからの投射画面に切り替えることにより、作業効率の向上を図ることができる。また、2台のプロジェクタから常に同時に投射しておくことにより、影が生じにくい状況にすることも可能である。
Thus, since a preferable projector changes with work conditions, the operation efficiency can be improved by operating the signal
以上、本発明の第1〜第3実施形態について説明したが、本発明はこれらに限定されず、以下のような変形例が考えられる。
(1)上記実施形態では、表示装置としてプロジェクタ(投射型表示装置)用いた入力システムについて例示したが、表示装置としては液晶ディスプレイ等のフラットパネルディスプレイを用いても良い。つまり、この場合、フラットパネルディスプレイの表示画面にペン20を接触させることになる。
As mentioned above, although 1st-3rd embodiment of this invention was described, this invention is not limited to these, The following modifications can be considered.
(1) In the above embodiment, an input system using a projector (projection display device) as a display device has been illustrated. However, a flat panel display such as a liquid crystal display may be used as the display device. That is, in this case, the
(2)上記実施形態では、ペン20とコンピュータ30との通信を無線通信とした場合を例示したが、ケーブル等で接続して有線通信としても良い。また、入力装置としてペン20を例示したが、必ずしもペン形状をしている必要はなく、作業者Kによって操作し易く、表示画面に接触可能な先端部を設けることができれば、どのような形状の物でも良い。
(2) In the above embodiment, the case where the communication between the
(3)上記実施形態では、カーソルパターンCPの中心部CP1及び周辺部CP2ともに円形としたが、ペン20の先端100aを検出可能であればどのような形状としても良い。また、周辺部CP2の各方位検出領域を16個としたが、さらに正確な先端100aの移動方位検出を行いたい場合には、方位検出領域の数を増やしても良い。
(3) In the above embodiment, the center portion CP1 and the peripheral portion CP2 of the cursor pattern CP are both circular, but any shape may be used as long as the
(4)上記第1実施形態のキャリブレーション処理において、探査範囲を白と黒に2分割したが、2の領域の明るさに明確な違いがあれば、白、黒以外の色で2分割しても良い。また、2分割する方向は横方向でも縦方向でもどちらでも良い。一方、上記第2実施形態のキャリブレーション処理において、探査範囲を8分割したが、さらに精度良くペン20の先端100aの初期位置を検出したい場合には分割数を増やしても良い。
(4) In the calibration process of the first embodiment, the search range is divided into two parts, white and black. If there is a clear difference in the brightness of the two areas, the search area is divided into two parts with colors other than white and black. May be. Further, the direction of dividing into two may be either the horizontal direction or the vertical direction. On the other hand, in the calibration process of the second embodiment, the search range is divided into eight. However, if it is desired to detect the initial position of the
(5)上記第3実施形態では、プロジェクタを2台設けた場合を例示したが、さらに複数のプロジェクタを設けても良い。 (5) In the third embodiment, the case where two projectors are provided is illustrated, but a plurality of projectors may be further provided.
10、50…プロジェクタ(表示装置)、20…ペン(入力装置)、30…コンピュータ、40…通信ケーブル、21…先端部、22…処理回路(処理部)、23…動き検出部(加速度検出部)、24…送信部、25…電源部、CP…カーソルパターン、CP1…中心部、CP2…周辺部、DS1〜DS16…方位検出領域、DK…作業机、K…作業者
DESCRIPTION OF
Claims (17)
前記画像を表示する表示装置と、
前記表示装置の表示画面に接触可能な先端部と、該先端部への入射光を検出する光検出部と、該光検出部の検出結果を基に所定の処理を行う処理部と、前記画像生成装置との通信を行う送信部と、を備える移動操作可能な入力装置と、
から構成され、
前記入力装置における前記処理部は、前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする入力システム。 An image generating device for generating an image;
A display device for displaying the image;
A tip portion that can contact the display screen of the display device, a light detection portion that detects light incident on the tip portion, a processing portion that performs predetermined processing based on a detection result of the light detection portion, and the image A transmission unit that communicates with the generation device, and an input device capable of moving operation,
Consisting of
The input system, wherein the processing unit in the input device performs position detection processing of the tip portion in cooperation with image generation processing by the image generation device based on a detection result of the light detection unit.
表示画面全体を探査範囲として初期設定する初期設定処理と、
前記画像生成装置に対して、表示画面上の探査範囲を異なる明るさで2分割表示するように指示する第1の分割処理と、
前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、
前記画像生成装置に対して、前記第1の分割処理で2分割表示している2領域の明るさを反転させるように指示する第2の分割処理と、
前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、
前記第1の検出結果と第2の検出結果を基に、2分割された2領域の内、検出レベルが高い方の領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、
前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理と、
を実行することを特徴とする請求項2または3に記載の入力システム。 The processing unit of the input device, in the calibration process,
An initial setting process that initially sets the entire display screen as the search range;
A first division process for instructing the image generation apparatus to divide the search range on the display screen into two parts with different brightness;
A first light detection acquisition process for acquiring, as a first detection result, a detection result of the light detection unit after the first division process;
A second division process instructing the image generation apparatus to invert the brightness of the two areas displayed in two divisions in the first division process;
A second light detection acquisition process for acquiring a detection result of the light detection unit after the second division process as a second detection result;
Based on the first detection result and the second detection result, of the two areas divided into two, the area with the higher detection level is set as a candidate area where the tip is located, and the candidate area is newly searched. An exploration range setting process to be reset as a range;
After resetting the search range, a series of processing from the first division process to the search range setting process is repeated a predetermined number of times, and finally the center coordinates of the candidate range obtained are determined as the position of the tip portion. Tip position determination processing for instructing the image generation apparatus to move the cursor pattern to the determined position of the tip portion;
The input system according to claim 2, wherein the input system is executed.
表示画面全体を探査範囲として初期設定する初期設定処理と、
前記画像生成装置に対して、表示画面上の探査範囲を異なる色で縦方向に、または横方向に複数分割して表示するように指示する第1の分割処理と、
前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、
前記画像生成装置に対して、前記第1の分割処理とは異なる方向に複数分割して表示するように指示する第2の分割処理と、
前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、
前記第1の検出結果と第2の検出結果を基に、縦方向と横方向とで色が一致する分割領域の交差領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、
前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理と、
を実行することを特徴とする請求項2または3に記載の入力システム。 The processing unit of the input device, in the calibration process,
An initial setting process that initially sets the entire display screen as the search range;
A first division process for instructing the image generation device to display the search range on the display screen in different colors in the vertical direction or in the horizontal direction;
A first light detection acquisition process for acquiring, as a first detection result, a detection result of the light detection unit after the first division process;
A second division process for instructing the image generating apparatus to display a plurality of divisions in a direction different from the first division process;
A second light detection acquisition process for acquiring a detection result of the light detection unit after the second division process as a second detection result;
Based on the first detection result and the second detection result, an intersection region of divided regions whose colors match in the vertical direction and the horizontal direction is set as a candidate range where the tip is located, and the candidate range is newly searched. An exploration range setting process to be reset as a range;
After resetting the search range, a series of processing from the first division process to the search range setting process is repeated a predetermined number of times, and finally the center coordinates of the candidate range obtained are determined as the position of the tip portion. Tip position determination processing for instructing the image generation apparatus to move the cursor pattern to the determined position of the tip portion;
The input system according to claim 2, wherein the input system is executed.
前記処理部は、前記位置検出処理によって前記先端部の位置と前記カーソルパターンの位置とが一致した後、前記接触検出部の検出結果が接触有りを示している場合には、前記先端部の移動に応じた書き込み処理を実行し、前記接触検出部の検出結果が接触無しを示している場合には、前記先端部の移動に追従して前記カーソルパターンを移動させるフローティング処理を実行することを特徴とする請求項2〜5のいずれか一項に記載の入力システム。 The input device includes a contact detection unit that detects whether or not the tip portion contacts the display screen.
The processing unit moves the tip when the detection result of the contact detection unit indicates that there is a contact after the position of the tip matches the position of the cursor pattern by the position detection process. When the detection result of the contact detection unit indicates that there is no contact, a floating process for moving the cursor pattern following the movement of the tip is executed. The input system according to any one of claims 2 to 5.
前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記光検出部の検出結果を基に色判定を行うことにより、前記先端部が前記カーソルパターン内のどの方位検出領域に存在しているか判定し、前記先端部が存在していると判定された方位検出領域に対応する方位に向かって前記カーソルパターンを移動させるように前記画像生成装置に指示する一方、書き込み処理の場合には加えてカーソルパターンの移動軌跡上に線を描くように指示することを特徴とする請求項6記載の入力システム。 The cursor pattern includes a central portion to which a dedicated color is assigned and a peripheral portion that includes the central portion and is assigned another color, and the peripheral portion is divided according to the direction and assigned different colors. A pattern in which a plurality of orientation detection areas are formed,
In the writing process or the floating process, the processing unit of the input device performs a color determination based on the detection result of the light detection unit, so that the azimuth detection region in the cursor pattern is present in any direction detection region. And instructing the image generation apparatus to move the cursor pattern toward the direction corresponding to the direction detection area where it is determined that the tip portion is present. The input system according to claim 6, further instructing to draw a line on the movement trace of the cursor pattern.
前記光検出部の検出結果を基に色判定を行う色判定処理と、
前記色判定処理によって判定された色と前記カーソルパターンにおける中心部の色とが一致するか否かを判定し、一致している場合には前記接触検出部の検出結果が接触有りを示しているか否かの判定処理を再実行する中心部判定処理と、
前記中心部判定処理において一致していないと判定された場合に、前記色判定処理によって判定された色と同一の色の方位検出領域を前記先端部が存在する方位検出領域として探索する方位探索処理と、
を実行することを特徴とする請求項7記載の入力システム。 The processing unit of the input device, in the writing process or the floating process,
Color determination processing for performing color determination based on the detection result of the light detection unit;
It is determined whether or not the color determined by the color determination process matches the color of the center portion of the cursor pattern. If they match, does the detection result of the contact detection unit indicate presence of contact? A center determination process for re-execution of the determination process;
An orientation search process for searching for an orientation detection area having the same color as the color determined by the color determination process as an orientation detection area in which the tip portion exists when it is determined in the center determination process that they do not match When,
The input system according to claim 7, wherein:
前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、
前記加速度検出部の加速度検出結果に基づいて入力装置がカーソルパターンから前記先端部が外れてしまう程の速度で移動したか否かを判定し、否の場合には前記光検出部の検出結果に基づく色判定を行う一方、カーソルパターンから前記先端部が外れてしまう程の速度で移動したと判定した場合には前記位置検出処理を最初からやり直すことを特徴とする請求項7または8に記載の入力システム。 The input device includes an acceleration detection unit that detects acceleration generated in the input device;
The processing unit of the input device, in the writing process or the floating process,
Based on the acceleration detection result of the acceleration detection unit, it is determined whether or not the input device has moved at such a speed that the tip portion is removed from the cursor pattern. If not, the detection result of the light detection unit is determined. 9. The position detection process according to claim 7 or 8, wherein the position detection process is restarted from the beginning when it is determined that the tip portion has moved at such a speed that the tip portion is deviated from the cursor pattern while performing color determination based on the color pattern. Input system.
前記画像生成装置に対して表示画面を黒表示するように指示する黒表示処理と、
前記黒表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、黒検出結果として取得する黒レベル取得処理と、
前記画像生成装置に対して表示画面を白表示するように指示する白表示処理と、
前記白表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、白検出結果として取得する白レベル取得処理と、
前記黒検出結果及び白検出結果に基づいて赤色、緑色、青色に対応する前記コード判定閾値を設定する設定処理と、
を実行することを特徴とする請求項12記載の入力システム。 The processing unit of the input device, in the threshold setting process,
Black display processing for instructing the image generation device to display the display screen in black;
Black level acquisition processing for acquiring each detection result corresponding to red, green, and blue of the light detection unit after the black display as a black detection result;
White display processing for instructing the image generation device to display a display screen in white;
A white level acquisition process for acquiring each detection result corresponding to red, green, and blue of the light detection unit as a white detection result after the white display;
A setting process for setting the code determination threshold corresponding to red, green, and blue based on the black detection result and the white detection result;
The input system according to claim 12, wherein:
各投射型表示装置によって各方向から同一の投射領域に画面を同時に表示させるか、または選択的にある投射型表示装置だけで画面を表示させることを特徴とする請求項1〜13のいずれか一項に記載の入力システム。 A plurality of projection type display devices as the display device,
The screen is simultaneously displayed in the same projection area from each direction by each projection display device, or the screen is selectively displayed only by a certain projection display device. The input system described in the section.
移動操作可能な入力装置に設けられた、前記表示装置の表示画面に接触可能な先端部への入射光の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出を行うことを特徴とする入力方法。 The image generated by the image generation device is displayed on the display device,
The position of the tip portion in cooperation with the image generation processing by the image generation device based on the detection result of the incident light on the tip portion provided on the input device capable of moving operation and touching the display screen of the display device An input method characterized by performing detection.
該先端部への入射光を検出する光検出部と、
該光検出部の検出結果を基に所定の処理を行う処理部と、
画像生成装置との通信を行う送信部と、を備え、
前記処理部は、前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする入力装置。 A tip that can contact the display screen of the display device;
A light detection unit for detecting light incident on the tip;
A processing unit that performs predetermined processing based on a detection result of the light detection unit;
A transmission unit that communicates with the image generation device,
The input unit, wherein the processing unit performs position detection processing of the tip portion in cooperation with image generation processing by the image generation device based on a detection result of the light detection unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008286710A JP2010113598A (en) | 2008-11-07 | 2008-11-07 | Input system, input method, input device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008286710A JP2010113598A (en) | 2008-11-07 | 2008-11-07 | Input system, input method, input device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010113598A true JP2010113598A (en) | 2010-05-20 |
Family
ID=42302102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008286710A Pending JP2010113598A (en) | 2008-11-07 | 2008-11-07 | Input system, input method, input device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010113598A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139614A (en) * | 2008-12-10 | 2010-06-24 | Nikon Corp | Screen |
JP2010266714A (en) * | 2009-05-15 | 2010-11-25 | Seiko Epson Corp | Video processor, video display device and video processing method |
JP2012150640A (en) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | Position detecting system and position detecting method |
JP2014098728A (en) * | 2012-11-13 | 2014-05-29 | Casio Comput Co Ltd | Electronic signboard device and projection method |
US8872763B2 (en) | 2011-01-19 | 2014-10-28 | Seiko Epson Corporation | Position detecting system and position detecting method |
WO2016157920A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017016027A (en) * | 2015-07-03 | 2017-01-19 | カシオ計算機株式会社 | Projection system, projection controller, projection control method and program |
US9606637B2 (en) | 2013-04-04 | 2017-03-28 | Funai Electric Co., Ltd. | Projector and electronic device having projector function |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59194276A (en) * | 1983-04-18 | 1984-11-05 | Matsushita Graphic Commun Syst Inc | Input device of drawn picture |
JP2000020237A (en) * | 1998-06-30 | 2000-01-21 | Sanyo Electric Co Ltd | Pen position detecting device in plasma display and electronic board using plasma display |
WO2001048589A1 (en) * | 1999-12-28 | 2001-07-05 | Fujitsu Limited | Pen sensor coordinate narrowing method and device therefor |
-
2008
- 2008-11-07 JP JP2008286710A patent/JP2010113598A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS59194276A (en) * | 1983-04-18 | 1984-11-05 | Matsushita Graphic Commun Syst Inc | Input device of drawn picture |
JP2000020237A (en) * | 1998-06-30 | 2000-01-21 | Sanyo Electric Co Ltd | Pen position detecting device in plasma display and electronic board using plasma display |
WO2001048589A1 (en) * | 1999-12-28 | 2001-07-05 | Fujitsu Limited | Pen sensor coordinate narrowing method and device therefor |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010139614A (en) * | 2008-12-10 | 2010-06-24 | Nikon Corp | Screen |
JP2010266714A (en) * | 2009-05-15 | 2010-11-25 | Seiko Epson Corp | Video processor, video display device and video processing method |
JP2012150640A (en) * | 2011-01-19 | 2012-08-09 | Seiko Epson Corp | Position detecting system and position detecting method |
US8872763B2 (en) | 2011-01-19 | 2014-10-28 | Seiko Epson Corporation | Position detecting system and position detecting method |
JP2014098728A (en) * | 2012-11-13 | 2014-05-29 | Casio Comput Co Ltd | Electronic signboard device and projection method |
US9606637B2 (en) | 2013-04-04 | 2017-03-28 | Funai Electric Co., Ltd. | Projector and electronic device having projector function |
WO2016157920A1 (en) * | 2015-03-31 | 2016-10-06 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2017016027A (en) * | 2015-07-03 | 2017-01-19 | カシオ計算機株式会社 | Projection system, projection controller, projection control method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2010113598A (en) | Input system, input method, input device and program | |
US20110242054A1 (en) | Projection system with touch-sensitive projection image | |
US9594455B2 (en) | Projector and control method | |
US10268284B2 (en) | Image display system | |
US9898996B2 (en) | Display apparatus and display control method | |
JP4710734B2 (en) | Pointing device, pointing position detection method, and program | |
JP6422118B2 (en) | Display system, information processing apparatus, and display method | |
US20160004337A1 (en) | Projector device, interactive system, and interactive control method | |
JP2014081807A (en) | Touch panel input device, control method therefor and program | |
US20150160738A1 (en) | Keyboard projection system with image subtraction | |
JP2002140164A (en) | Coordinate input device, its control method and program therefor | |
JP6253128B2 (en) | Display system, input device, display device, and display method | |
JP2018132799A (en) | Electronic blackboard system, electronic pen, display device and electronic pen position detection method | |
EP3037936B1 (en) | Image projection apparatus, and system employing interactive input-output capability | |
CN104765233A (en) | Screen visible-light-track tracking projection system | |
US9778763B2 (en) | Image projection apparatus, and system employing interactive input-output capability | |
JP2012043227A (en) | Optical touch panel device and optical touch panel | |
JPH0340861B2 (en) | ||
JP5413315B2 (en) | Information processing system and display processing program | |
US9170685B2 (en) | Object location determination | |
TWI602092B (en) | Calibration of an input device to a display using the input device | |
JP2010211637A (en) | Projection type input/output system and its program | |
JP2017009664A (en) | Image projection device, and interactive type input/output system | |
TW201512947A (en) | Optical touch system and control method | |
JP2018156305A (en) | Touch panel system, method for controlling touch panel system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110617 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20110620 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20120126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120720 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130122 |