JP2010113598A - Input system, input method, input device and program - Google Patents

Input system, input method, input device and program Download PDF

Info

Publication number
JP2010113598A
JP2010113598A JP2008286710A JP2008286710A JP2010113598A JP 2010113598 A JP2010113598 A JP 2010113598A JP 2008286710 A JP2008286710 A JP 2008286710A JP 2008286710 A JP2008286710 A JP 2008286710A JP 2010113598 A JP2010113598 A JP 2010113598A
Authority
JP
Japan
Prior art keywords
detection
tip
detection result
processing
image generation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008286710A
Other languages
Japanese (ja)
Inventor
Kunio Komeno
邦夫 米野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008286710A priority Critical patent/JP2010113598A/en
Publication of JP2010113598A publication Critical patent/JP2010113598A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an input system not needing a dedicated position detection device for detecting a position of an input device on a display screen, and not needing to calibrate coordinates of the detected position and a display image. <P>SOLUTION: The input system includes: an image generation device generating an image; a display device displaying the image; and the input device capable of being movement-operated, having a tip part capable of coming in contact with the display screen of the display device, a photodetection part detecting incident light onto the tip part, a processing part performing prescribed processing based on a detection result of the photodetection part, and a transmission part communicating with the image generation device. The processing part in the input device performs position detection processing of the tip part while cooperating with image generation processing by the image generation device based on the detection result of the photodetection part. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、入力システム、入力方法、入力装置及びプログラムに関する。  The present invention relates to an input system, an input method, an input device, and a program.

従来から、プロジェクタを用いてパソコンの画面を投射し、その投射画面上に表示されているカーソルに対するペン等のポインティングデバイス(入力装置の一形態)の動きを検出して、そのペンの動きに応じて投射画面上でカーソルを移動させることにより、情報の入力を行うことが可能な入力システムが知られている。また、その他の入力システムとして、画面を投射するスクリーン自体に、抵抗膜方式や表面弾性波方式、誘導方式等によるポインティングデバイスの動き検出機能を備えた専用の板面を使用するシステムも提案されている。   Conventionally, a personal computer screen is projected using a projector, the movement of a pointing device (a form of input device) such as a pen with respect to the cursor displayed on the projection screen is detected, and the movement of the pen is detected. There is known an input system capable of inputting information by moving a cursor on a projection screen. As another input system, a system using a dedicated plate surface with a motion detection function of a pointing device by a resistive film method, a surface acoustic wave method, a guidance method, or the like is proposed for the screen itself that projects the screen. Yes.

このようにスクリーン自体にポインティングデバイスの動き検出機能を備える方式では、このスクリーンをホワイトボードに類似する構成とし、移動用のキャスター等が設けられる場合も多いが、大きく重いため持ち歩くことは困難であり、使用する場面は限られていた。これに対し、比較的小型化を図ることが可能な入力システムが下記特許文献1及び2に開示されている。   In this way, the screen itself has a pointing device motion detection function, and this screen has a configuration similar to that of a whiteboard. In many cases, a moving caster is provided, but it is large and heavy, so it is difficult to carry around. The scene to use was limited. On the other hand, input systems that can be made relatively small are disclosed in Patent Documents 1 and 2 below.

下記特許文献1に開示された入力システム(電子黒板システム)は、ペンに赤外線及び超音波の発信部を設ける一方、画面が投射されるホワイトボード上の所定位置に赤外線受信部及び2つの超音波受信部からなる受信ユニットを設け、ペンから発信される赤外線を赤外線受信部で受信してから超音波を2つの超音波受信部で受信する時間を測定し、その時間測定結果と音速とを基に2つの超音波受信部とペンとの距離を算出し、三角測量の原理からペンの位置(座標)を検出するものである。   In the input system (electronic blackboard system) disclosed in Patent Document 1 below, a pen is provided with an infrared and ultrasonic wave transmitting unit, while an infrared receiving unit and two ultrasonic waves are provided at a predetermined position on a whiteboard on which a screen is projected. A receiving unit comprising a receiving unit is provided, and after receiving infrared rays transmitted from the pen by the infrared receiving unit, the time for receiving the ultrasonic waves by the two ultrasonic receiving units is measured, and based on the time measurement result and the sound velocity. The distance between the two ultrasonic receivers and the pen is calculated, and the position (coordinates) of the pen is detected from the principle of triangulation.

下記特許文献2に開示された入力システム(投射像記憶システム)は、プロジェクタでホワイトボードに投射した画面にマーカペンで文字等を記入し、投射画面と記入された文字とをカメラで撮影して得られる合成像を記憶するものである。
特開2005−128611号公報 特開2001−312001号公報
The input system (projected image storage system) disclosed in Patent Document 2 below is obtained by writing characters with a marker pen on a screen projected on a whiteboard by a projector, and photographing the projected screen and the written characters with a camera. The composite image to be stored is stored.
JP 2005-128611 A JP 2001-312001 A

上記特許文献1のシステムでは、ペンと受信ユニットからなる座標検出装置と、プロジェクタ等の投射装置とが別の装置であるため、検出座標と投射画像の座標の校正が必要となる。特許文献1には、このような座標の校正手法として、2つの超音波受信部のそれぞれに発光素子を取り付け、この発光素子とホワイトボード上に投射されたテストパターンとをカメラによって撮影し、その撮影画像を基に発光素子と投射画像との位置関係を取得することにより、自動的に座標の校正を行うことが記載されている。しかしながら、この手法によると、校正だけのために専用の発光素子やカメラを設ける必要があり、装置コストの増加を招く。   In the system disclosed in Patent Document 1, a coordinate detection device including a pen and a reception unit and a projection device such as a projector are separate devices, and thus calibration of detection coordinates and projection image coordinates is required. In Patent Literature 1, as such a coordinate calibration method, a light emitting element is attached to each of the two ultrasonic receiving units, and the light emitting element and a test pattern projected on the whiteboard are photographed by a camera. It describes that the coordinates are automatically calibrated by acquiring the positional relationship between the light emitting element and the projected image based on the photographed image. However, according to this method, it is necessary to provide a dedicated light-emitting element or camera only for calibration, resulting in an increase in apparatus cost.

また、一般的な校正手法として、プロジェクタから予め決められた校正パターンを投射し、その投射画面上で指定された場所をペンで順次指し示すという手法が挙げられるが、システムの使用前にこの校正作業を必ず行う必要があり、ユーザに負担を強いることになる。さらに、特許文献1のシステムでは、超音波の分解能の制約から、座標検出精度を上げるには2つの超音波受信部間の距離間隔を広くしなければならず、受信ユニットの大型化を招くという問題がある。   Also, as a general calibration method, there is a method of projecting a predetermined calibration pattern from a projector and sequentially pointing a designated place on the projection screen with a pen, but this calibration work is performed before using the system. Must be performed, which imposes a burden on the user. Furthermore, in the system of Patent Document 1, due to restrictions on the resolution of ultrasonic waves, in order to increase the coordinate detection accuracy, the distance interval between the two ultrasonic reception units must be widened, resulting in an increase in the size of the reception unit. There's a problem.

上記特許文献2のシステムでは、パソコン側のカーソルを制御することができない。また、一般的な公知の手法として、ペン先に赤外線または特定の色を発光する機能を設け、ペン先をその発光波長に対応する光学フィルタを介して撮影し、その撮影画像を基にペン先の位置を検出することでカーソルを制御する手法が挙げられる。しかしながら、この手法を採用しても、専用のカメラを用意する必要があり、また、プロジェクタとカメラは独立した装置であるため、投射画像と撮影画像との位置関係を校正する必要が生じる。   In the system disclosed in Patent Document 2, the cursor on the personal computer side cannot be controlled. In addition, as a general known technique, the pen tip is provided with a function of emitting infrared light or a specific color, the pen tip is photographed through an optical filter corresponding to the emission wavelength, and the pen tip is based on the photographed image. A method for controlling the cursor by detecting the position of the position is given. However, even if this method is adopted, it is necessary to prepare a dedicated camera, and since the projector and the camera are independent devices, it is necessary to calibrate the positional relationship between the projected image and the captured image.

本発明は、上述した事情に鑑みてなされたものであり、表示画面上における入力装置の位置を検出するための専用の位置検出装置を必要とせず、表示画像と検出位置の座標を校正する必要のない入力システム、入力方法、入力装置及びプログラムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and does not require a dedicated position detection device for detecting the position of the input device on the display screen, and it is necessary to calibrate the coordinates of the display image and the detection position. It is an object of the present invention to provide an input system, an input method, an input device, and a program that are free from problems.

上記目的を達成するために、本発明に係る入力システムは、画像を生成する画像生成装置と、前記画像を表示する表示装置と、前記表示装置の表示画面に接触可能な先端部と、該先端部への入射光を検出する光検出部と、該光検出部の検出結果を基に所定の処理を行う処理部と、前記画像生成装置との通信を行う送信部と、を備える移動操作可能な入力装置とから構成され、前記入力装置における前記処理部は前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする。
このような特徴を有する入力システムによれば、入力装置内に設けられた光検出部の検出結果を基に画像生成装置による画像生成処理と協同しながら入力装置の先端部の位置検出処理を行うため、従来のような入力装置の位置を検出するための専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
In order to achieve the above object, an input system according to the present invention includes an image generation device that generates an image, a display device that displays the image, a tip portion that can contact a display screen of the display device, and the tip A light detection unit that detects incident light on the unit, a processing unit that performs a predetermined process based on a detection result of the light detection unit, and a transmission unit that communicates with the image generation device An input device, and the processing unit in the input device performs position detection processing of the tip portion in cooperation with image generation processing by the image generation device based on a detection result of the light detection unit. And
According to the input system having such characteristics, the position detection process of the tip of the input device is performed in cooperation with the image generation process by the image generation device based on the detection result of the light detection unit provided in the input device. Therefore, there is no need for a dedicated position detection device for detecting the position of the input device as in the prior art, so there is no need to calibrate the coordinates of the display image and the detection position, improving the usability and maintainability of the system, The overall size can be reduced and the apparatus cost can be reduced.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記位置検出処理において、前記光検出部の検出結果を基に前記表示画面に表示しているカーソルパターン上に前記先端部が位置しているか否かを判定し、否の場合に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置を探査するためのキャリブレーション処理を行うことにより、前記先端部の位置を確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示することが好ましい。
入力装置の先端部を表示画面に接触させた場合に、先端部がカーソルパターン上に位置していれば、問題なくカーソルパターンの位置が先端部の位置であると判定することができる。しかしながら、先端部がカーソルパターン上に位置していない場合には、画像生成装置との協同によるキャリブレーション処理によって先端部の位置を確定することによって、カーソルパターンの位置と先端部の位置とを一致させることができる。
In the input system described above, the processing unit of the input device may be configured such that, in the position detection process, the tip is positioned on a cursor pattern displayed on the display screen based on a detection result of the light detection unit. And determining the position of the tip by performing a calibration process for exploring the position of the tip while cooperating with the image generation processing by the image generation device. Preferably, the image generation apparatus is instructed to move the cursor pattern to the determined tip position.
When the tip of the input device is brought into contact with the display screen, if the tip is positioned on the cursor pattern, it can be determined that the position of the cursor pattern is the position of the tip without any problem. However, if the tip is not positioned on the cursor pattern, the position of the tip matches the position of the tip by determining the position of the tip through calibration processing in cooperation with the image generation device. Can be made.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記位置検出処理において、前記表示画面に表示しているカーソルパターンを点滅させるように前記画像生成装置に指示し、前記光検出部の検出結果を基に前記点滅の有無を確認することにより、前記カーソルパターン上に前記先端部が位置しているか否かを判定することが好ましい。
これにより、簡単にカーソルパターン上に先端部が位置しているか否かを判定することができる。
In the input system described above, the processing unit of the input device instructs the image generation device to blink the cursor pattern displayed on the display screen in the position detection processing, and the light detection unit It is preferable to determine whether or not the tip portion is located on the cursor pattern by confirming the presence or absence of the blinking based on the detection result.
Thereby, it is possible to easily determine whether or not the tip is positioned on the cursor pattern.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記キャリブレーション処理において、表示画面全体を探査範囲として初期設定する初期設定処理と、前記画像生成装置に対して、表示画面上の探査範囲を異なる明るさで2分割表示するように指示する第1の分割処理と、前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、前記画像生成装置に対して、前記第1の分割処理で2分割表示している2領域の明るさを反転させるように指示する第2の分割処理と、前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、前記第1の検出結果と第2の検出結果を基に、2分割された2領域の内、検出レベルが高い方の領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理とを実行することが好ましい。
このようなキャリブレーション処理を行うことにより、高精度に先端部の位置を検出することができる。
Further, in the input system described above, the processing unit of the input device may perform an initial setting process in which the entire display screen is initially set as a search range in the calibration process, and a search on the display screen for the image generation device. A first division process for instructing the range to be divided into two parts with different brightness, and a first light detection for obtaining a detection result of the light detection unit after the first division process as a first detection result An acquisition process; a second division process for instructing the image generating apparatus to invert the brightness of the two areas displayed in two divisions in the first division process; and the second division process A second light detection acquisition process for acquiring a detection result of the light detection unit later as a second detection result, and two regions divided into two based on the first detection result and the second detection result The region with the higher detection level Is set as a candidate range in which the tip is located, and a search range setting process for resetting the candidate range as a new search range, and after the reset of the search range, a predetermined number of times from the first divided process to the search range The center coordinate of the candidate range finally obtained by repeating a series of processes up to the setting process is determined as the position of the tip, and the cursor pattern is placed at the determined position of the tip with respect to the image generation device. It is preferable to execute a tip position determination process instructing to move.
By performing such calibration processing, the position of the tip can be detected with high accuracy.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記キャリブレーション処理において、表示画面全体を探査範囲として初期設定する初期設定処理と、前記画像生成装置に対して、表示画面上の探査範囲を異なる色で縦方向に、または横方向に複数分割して表示するように指示する第1の分割処理と、前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、前記画像生成装置に対して、前記第1の分割処理とは異なる方向に複数分割して表示するように指示する第2の分割処理と、前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、前記第1の検出結果と第2の検出結果を基に、縦方向と横方向とで色が一致する分割領域の交差領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理とを実行することが好ましい。
このようなキャリブレーション処理を行うことにより、高精度に先端部の位置を検出することができると共に、先に述べたキャリブレーション処理よりも短時間で先端部の位置を確定することができる。
Further, in the input system described above, the processing unit of the input device may perform an initial setting process in which the entire display screen is initially set as a search range in the calibration process, and a search on the display screen for the image generation device. A first division process for instructing to display a range divided into a plurality of colors in the vertical direction or the horizontal direction, and a first detection result of the light detection unit after the first division process; A first light detection acquisition process acquired as a result, a second division process that instructs the image generation apparatus to divide and display a plurality of images in a direction different from the first division process, Based on the second light detection acquisition process for acquiring the detection result of the light detection unit after the second division process as a second detection result, and the vertical direction based on the first detection result and the second detection result And the color match in the horizontal direction A search range setting process in which a crossing region of a split region is set as a candidate range in which the tip is located, and the candidate range is reset as a new search range; and after the reset of the search range, the first division The center coordinate of the candidate range that is finally obtained by repeating a series of processing from processing to the search range setting processing is determined as the position of the tip, and the position of the determined tip is determined with respect to the image generation device It is preferable to execute tip position determination processing instructing to move the cursor pattern.
By performing such a calibration process, the position of the tip can be detected with high accuracy, and the position of the tip can be determined in a shorter time than the calibration process described above.

また、上述した入力システムにおいて、前記入力装置は、前記先端部が前記表示画面に接触したか否かを検出する接触検出部を備え、前記処理部は、前記位置検出処理によって前記先端部の位置と前記カーソルパターンの位置とが一致した後、前記接触検出部の検出結果が接触有りを示している場合には、前記先端部の移動に応じた書き込み処理を実行し、前記接触検出部の検出結果が接触無しを示している場合には、前記先端部の移動に追従して前記カーソルパターンを移動させるフローティング処理を実行することが好ましい。
このように位置検出処理によって前記先端部の位置と前記カーソルパターンの位置とが一致した後、先端部が表示画面に接触している場合には、作業者は書き込み入力を行おうとしていると推測され、また、先端部が接触していない場合には、作業者は単に入力装置の移動を行おうとしていると推測されるため、上記のように先端部が表示画面に接触している場合には書き込み処理を実行し、また、先端部が接触していない場合にはフローティング処理を実行することにより、作業者の意図に応じた処理を行うことができる。
Further, in the input system described above, the input device includes a contact detection unit that detects whether or not the distal end portion has contacted the display screen, and the processing unit detects the position of the distal end portion by the position detection process. If the detection result of the contact detection unit indicates that there is a contact after the position of the cursor pattern coincides with the position of the cursor pattern, a writing process is executed according to the movement of the tip part to detect the contact detection unit When the result indicates no contact, it is preferable to execute a floating process for moving the cursor pattern following the movement of the tip.
After the position of the tip and the position of the cursor pattern are matched by the position detection processing in this way, if the tip is in contact with the display screen, it is assumed that the operator is about to input In addition, when the tip is not in contact, it is assumed that the operator is simply going to move the input device. Therefore, when the tip is in contact with the display screen as described above, Performs a writing process, and when the tip is not in contact, performs a floating process, thereby performing a process according to the operator's intention.

また、上述した入力システムにおいて、前記カーソルパターンは、専用色が割り当てられた中心部と該中心部を内包し他の色が割り当てられた周辺部とからなり、該周辺部には方位に対応して区分され且つ異なる色が割り当てられた複数の方位検出領域が形成されたパターンであって、前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記光検出部の検出結果を基に色判定を行うことにより、前記先端部が前記カーソルパターン内のどの方位検出領域に存在しているか判定し、前記先端部が存在していると判定された方位検出領域に対応する方位に向かって前記カーソルパターンを移動させるように前記画像生成装置に指示する一方、書き込み処理の場合には加えてカーソルパターンの移動軌跡上に線を描くように指示することが好ましい。
上記のような構成のカーソルパターンを用いることにより、入力装置の先端部の移動に応じてカーソルパターンの追従移動、及び線の書き込みを行うことができる。
In the input system described above, the cursor pattern includes a central portion to which a dedicated color is assigned and a peripheral portion that includes the central portion and is assigned another color, and the peripheral portion corresponds to an orientation. A pattern in which a plurality of orientation detection regions to which different colors are assigned are formed, wherein the processing unit of the input device is based on a detection result of the light detection unit in the writing process or the floating process. By performing color determination, it is determined in which azimuth detection region in the cursor pattern the tip portion is present, and the direction corresponding to the azimuth detection region in which the tip portion is determined to be present is determined. The image generation apparatus is instructed to move the cursor pattern, while in the case of writing processing, a line is added on the movement locus of the cursor pattern. It is preferable to instruct the memorial service.
By using the cursor pattern having the above configuration, the cursor pattern can be moved and the line can be written in accordance with the movement of the tip of the input device.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記光検出部の検出結果を基に色判定を行う色判定処理と、前記色判定処理によって判定された色と前記カーソルパターンにおける中心部の色とが一致するか否かを判定し、一致している場合には前記接触検出部の検出結果が接触有りを示しているか否かの判定処理を再実行する中心部判定処理と、前記中心部判定処理において一致していないと判定された場合に、前記色判定処理によって判定された色と同一の色の方位検出領域を前記先端部が存在する方位検出領域として探索する方位探索処理とを実行することが好ましい。
これにより、精度良く入力装置の先端部の移動方位を知ることができ、正確にカーソルパターンの追従移動、及び線の書き込みを行うことができる。
In the input system described above, the processing unit of the input device is determined by the color determination process in which color determination is performed based on the detection result of the light detection unit in the writing process or the floating process, and the color determination process. It is determined whether or not the determined color matches the color of the center portion of the cursor pattern, and if they match, a determination process is performed to determine whether or not the detection result of the contact detection unit indicates the presence of contact. When it is determined that the center determination process to be re-executed and the center determination process do not match, the tip portion has an orientation detection area of the same color as the color determined by the color determination process It is preferable to execute a direction search process for searching as a direction detection region.
Thereby, it is possible to know the moving direction of the tip of the input device with high accuracy, and to accurately follow the cursor pattern and write a line.

また、上述した入力システムにおいて、前記入力装置は、自己に発生する加速度を検出する加速度検出部を備え、前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記加速度検出部の加速度検出結果に基づいて入力装置がカーソルパターンから前記先端部が外れてしまう程の速度で移動したか否かを判定し、否の場合には前記光検出部の検出結果に基づく色判定を行う一方、カーソルパターンから前記先端部が外れてしまう程の速度で移動したと判定した場合には前記位置検出処理を最初からやり直すことが好ましい。
このように、入力装置がカーソルパターンから前記先端部が外れてしまう程の速度で移動した場合にはカーソルパターンの追従移動は困難であるため、位置検出処理の最初からやり直すことにより、継続的にシステムを使用することができる。また、この場合、カーソルパターンは停止するため、カーソルパターンが意図しない位置に移動してしまうことを防止することができる。
In the input system described above, the input device includes an acceleration detection unit that detects an acceleration generated by the input device, and the processing unit of the input device performs acceleration of the acceleration detection unit in the writing process or the floating process. Based on the detection result, it is determined whether or not the input device has moved at such a speed as to move the tip from the cursor pattern. If not, color determination based on the detection result of the light detection unit is performed. When it is determined that the tip has moved at such a speed that the tip portion is removed from the cursor pattern, it is preferable to repeat the position detection process from the beginning.
In this way, when the input device moves at a speed at which the tip part is removed from the cursor pattern, it is difficult to follow the cursor pattern. The system can be used. In this case, since the cursor pattern stops, it is possible to prevent the cursor pattern from moving to an unintended position.

また、上述した入力システムにおいて、前記カーソルパターンの中心部及び周辺部における各方位検出領域の色は、赤色、緑色、青色の任意の組み合わせによって表現されており、赤色、緑色、青色のそれぞれの明るさは2ビットのコードで設定されていることが好ましい。
これにより、簡単且つ確実に入力装置の位置検出及びカーソルパターンの追従移動を行うことができる。
In the input system described above, the color of each azimuth detection area at the center and the periphery of the cursor pattern is expressed by any combination of red, green, and blue, and the brightness of each of red, green, and blue The length is preferably set by a 2-bit code.
Thereby, it is possible to easily and reliably detect the position of the input device and follow the cursor pattern.

また、上述した入力システムにおいて、前記カーソルパターンにおける各方位検出領域のコード設定手法として、グレイコードを採用していることが好ましい。
これにより、入力装置の先端部がカーソルパターン内の2つの方位検出領域に跨って位置し、不安定なコードを得た場合であっても、隣接する方位検出領域以外のコードが検出されることはないため、カーソルパターンの移動方向が作業者が意図したものとは全く異なることはなく、意図しない方向に移動することを回避することができる。
In the input system described above, it is preferable to employ a gray code as a code setting method for each direction detection area in the cursor pattern.
As a result, even when the leading end of the input device is located across two azimuth detection areas in the cursor pattern and an unstable code is obtained, codes other than the adjacent azimuth detection areas are detected. Therefore, the movement direction of the cursor pattern is not completely different from that intended by the operator, and movement in an unintended direction can be avoided.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記位置検出処理の始めに、前記カーソルパターンの中心部及び周辺部における各方位検出領域毎に設定されたコードを、前記光検出部の検出結果を基に判定するためのコード判定閾値を設定する閾値設定処理を実行することが好ましい。
このようなコード判定閾値を設定することにより、光検出部の検出結果から正確にカーソルパターンの各領域の色に対応するコードを判定することができる。
Further, in the input system described above, the processing unit of the input device may include a code set for each azimuth detection region at the center and the periphery of the cursor pattern at the beginning of the position detection process. It is preferable to execute a threshold setting process for setting a code determination threshold for determination based on the detection result.
By setting such a code determination threshold, it is possible to accurately determine a code corresponding to the color of each area of the cursor pattern from the detection result of the light detection unit.

また、上述した入力システムにおいて、前記入力装置の処理部は、前記閾値設定処理において、前記画像生成装置に対して表示画面を黒表示するように指示する黒表示処理と、前記黒表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、黒検出結果として取得する黒レベル取得処理と、前記画像生成装置に対して表示画面を白表示するように指示する白表示処理と、前記白表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、白検出結果として取得する白レベル取得処理と、前記黒検出結果及び白検出結果に基づいて赤色、緑色、青色に対応する前記コード判定閾値を設定する設定処理とを実行することが好ましい。
このような閾値設定処理を行うことで、より精度の良いコード判定閾値を得ることができる。
In the input system described above, the processing unit of the input device may include a black display process for instructing the image generation apparatus to display a display screen in black in the threshold setting process, and the light after the black display. A black level acquisition process for acquiring each detection result corresponding to red, green, and blue of the detection unit as a black detection result; and a white display process for instructing the image generation device to display the display screen in white. , After the white display, white level acquisition processing for acquiring detection results corresponding to red, green, and blue of the light detection unit as white detection results, and red, green based on the black detection results and white detection results It is preferable to execute setting processing for setting the code determination threshold value corresponding to blue.
By performing such a threshold setting process, a more accurate code determination threshold can be obtained.

また、上述した入力システムにおいて、前記表示装置として投射型表示装置を複数備え、各投射型表示装置によって各方向から同一の投射領域に画面を同時に表示させるか、または選択的にある投射型表示装置だけで画面を表示させることが好ましい。
このような構成とすることにより、入力装置を手で操作する場合に生じる影の影響を減らすことができ、作業効率の向上を図ることができる。
Further, in the input system described above, a plurality of projection display devices are provided as the display device, and each projection type display device simultaneously displays a screen in the same projection area from each direction, or is selectively provided. It is preferable to display the screen only.
With such a configuration, it is possible to reduce the influence of shadows generated when the input device is operated by hand, and to improve work efficiency.

また、本発明に係る入力方法は、画像生成装置によって生成した画像を表示装置によって表示し、移動操作可能な入力装置に設けられた、前記表示装置の表示画面に接触可能な先端部への入射光の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出を行うことを特徴とする。
このような特徴を有する入力方法によると、従来のような入力装置の位置を検出するための専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
In addition, the input method according to the present invention displays an image generated by the image generation device on the display device, and is incident on a tip portion provided on the input device capable of moving operation and touching the display screen of the display device. The position of the tip portion is detected in cooperation with image generation processing by the image generation device based on a light detection result.
According to the input method having such a feature, there is no need for a dedicated position detecting device for detecting the position of the input device as in the prior art, and therefore it is not necessary to calibrate the coordinates of the display image and the detected position, and the system Can improve usability and maintainability, reduce the overall system size, and reduce device costs.

また、本発明に係る入力装置は、表示装置の表示画面に接触可能な先端部と、該先端部への入射光を検出する光検出部と、該光検出部の検出結果を基に所定の処理を行う処理部と、画像生成装置との通信を行う送信部と、を備え、前記処理部は、前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする。
このような特徴を有する入力装置によると、従来のような専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、入力システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
Further, the input device according to the present invention includes a tip portion that can contact the display screen of the display device, a light detection portion that detects incident light on the tip portion, and a predetermined result based on a detection result of the light detection portion. A processing unit that performs processing, and a transmission unit that performs communication with the image generation device, and the processing unit cooperates with the image generation processing by the image generation device based on the detection result of the light detection unit. A tip position detection process is performed.
According to the input device having such a feature, there is no need for a dedicated position detection device as in the prior art, so it is not necessary to calibrate the coordinates of the display image and the detection position, improving the usability and maintainability of the input system, The entire system can be reduced in size and the apparatus cost can be reduced.

また、本発明に係るプログラムは、入力装置に設けられた先端部への入射光を検出する光検出部の検出結果を基に、画像生成装置による画像生成処理と協同しながら前記先端部の位置検出機能をコンピュータに実現させることを特徴とする。
このような特徴を有するプログラムによると、従来のような専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、入力システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。
Further, the program according to the present invention is based on the detection result of the light detection unit that detects the incident light on the tip provided in the input device, and the position of the tip is cooperated with the image generation processing by the image generation device. A detection function is realized by a computer.
According to the program having such features, there is no need for a dedicated position detection device as in the prior art, so that it is not necessary to calibrate the coordinates of the display image and the detection position, and the input system is improved in usability and maintainability. The overall size can be reduced and the apparatus cost can be reduced.

以下、本発明の一実施形態について図面を参照しながら説明する。
〔第1実施形態〕
まず、本発明に係る入力システムの第1実施形態について説明する。図1は、第1実施形態における入力システムの構成概略図である。この図1に示すように、本入力システムは、プロジェクタ(表示装置)10、ペン(入力装置)20、コンピュータ(画像生成装置)30及び通信ケーブル40とから概略構成されている。また、図1において、符号DKは作業机、符号Kは作業者である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
First, a first embodiment of an input system according to the present invention will be described. FIG. 1 is a schematic configuration diagram of an input system according to the first embodiment. As shown in FIG. 1, this input system is schematically configured from a projector (display device) 10, a pen (input device) 20, a computer (image generation device) 30, and a communication cable 40. Moreover, in FIG. 1, the code | symbol DK is a working desk and the code | symbol K is an operator.

プロジェクタ10は、作業机DK上において所定の高さに設置されており、通信ケーブル40を介して接続されたコンピュータ20から入力される映像信号に応じた画像を、作業机DKの上面に設けられたスクリーンに投射表示する。ペン20は、プロジェクタ10によって作業机DKに投射された画面(投射画面W)上において、作業者Kの手によって操作されるポインティングデバイスであり、その操作に応じて得られる各種情報を基に所定の処理を行い、その処理結果を送信信号としてコンピュータ30に無線送信する機能を備えている。  The projector 10 is installed at a predetermined height on the work desk DK, and an image corresponding to a video signal input from the computer 20 connected via the communication cable 40 is provided on the upper surface of the work desk DK. Projected on the screen. The pen 20 is a pointing device that is operated by the hand of the worker K on the screen (projection screen W) projected onto the work desk DK by the projector 10, and is predetermined based on various information obtained in accordance with the operation. And a function of wirelessly transmitting the processing result to the computer 30 as a transmission signal.

コンピュータ30は、作業机DK上の所定位置に配置されたPC(Personal Computer)であり、ペン20から送信される送信信号を受信するための無線通信カード31を備えている。このコンピュータ30は、表示すべき画像を表す映像信号を生成してプロジェクタ10に出力する一方、ペン20から無線通信カード31を介して受信した信号に基づいてペン20の位置を把握し、ペン20の位置に応じて投射画面Wに表示しているカーソルの位置制御を行う。なお、コンピュータ30は、不図示のCPU(Central Processing Unit)やハードディスク等を内蔵しており、CPUによってハードディスクに記憶されているプログラムを実行することにより、上記のカーソルの位置制御等の各種処理を行っている。  The computer 30 is a PC (Personal Computer) disposed at a predetermined position on the work desk DK, and includes a wireless communication card 31 for receiving a transmission signal transmitted from the pen 20. The computer 30 generates a video signal representing an image to be displayed and outputs it to the projector 10, while grasping the position of the pen 20 based on the signal received from the pen 20 via the wireless communication card 31. The position of the cursor displayed on the projection screen W is controlled according to the position. The computer 30 includes a CPU (Central Processing Unit) (not shown), a hard disk, and the like, and executes various programs such as the above-described cursor position control by executing a program stored in the hard disk by the CPU. Is going.

図2は、ペン20の構成概略図である。この図2に示すように、ペン20は、ペン先に相当する先端部21と、先端部21と一体的に接合された円筒部材の内部に配置された処理回路(処理部)22、動き検出部(加速度検出部)23、送信部24及び電源部25とから構成されている。  FIG. 2 is a schematic configuration diagram of the pen 20. As shown in FIG. 2, the pen 20 includes a tip portion 21 corresponding to a pen tip, a processing circuit (processing portion) 22 disposed inside a cylindrical member integrally joined to the tip portion 21, and motion detection. Unit (acceleration detection unit) 23, transmission unit 24, and power supply unit 25.

図3は、先端部21の詳細図である。図3において、ペン先部材100は、透明な樹脂で構成されていると共に、その先端100aの表面には微細な光学的散乱構造が形成されており、外部から照射された光が先端100aの表面で散乱されて一部の光が内部に入り、ペン先部材100の全体が導光部材として機能して反対側に光を伝達する。ペン先部材100の先端100aを除く側面には、外部からの光が入射しないように塗装が施された塗料部100bが設けられている。  FIG. 3 is a detailed view of the tip 21. In FIG. 3, the pen tip member 100 is made of a transparent resin, and a fine optical scattering structure is formed on the surface of the tip 100 a, and the light irradiated from the outside is the surface of the tip 100 a. As a result, the pen tip member 100 functions as a light guide member and transmits light to the opposite side. On the side surface excluding the tip 100a of the nib member 100, a paint part 100b is provided so that light from the outside does not enter.

ペン先部材100における先端100aの反対側の端部は透明な平坦形状となっており、その端部にはカラーセンサ101が受光面と端部とが対向するように接着されている。カラーセンサ101は、R(赤)、G(緑)、B(青)の各色に対応するカラーフィルタと、各カラーフィルタに対応して設けられた3つのフォトダイオードとを備えており、ペン先部材100を介して入射される外部光の各色R、G、B毎の明るさに応じた信号を出力する構成となっている。なお、この出力信号は、後述する先端部21に設けられた前置回路200に出力される(図4参照)。  The end of the pen tip member 100 opposite to the tip 100a has a transparent flat shape, and the color sensor 101 is bonded to the end so that the light receiving surface and the end face each other. The color sensor 101 includes a color filter corresponding to each color of R (red), G (green), and B (blue), and three photodiodes provided corresponding to each color filter. It is configured to output a signal corresponding to the brightness of each color R, G, B of the external light incident through the member 100. This output signal is output to a pre-circuit 200 provided at the distal end portion 21 described later (see FIG. 4).

また、カラーセンサ101の受光面とは反対側の面には接点102が設けられており、ペン先部材100の把持部材103との間にはバネ104が設けられており、また、把持部材103側には接点102と対向して接点105が設けられている。従って、ペン先部材100の先端に、軸方向に平行な力が加わると、ペン先部材100が軸方向に摺動し、バネ104が圧縮されて、カラーセンサ101の接点102と把持部材103の接点105とが接触する(電気的に接続される)。このような接点102と105は、後述するスイッチ(接触検出部)203として処理回路22に接続されている(図4参照)。  In addition, a contact 102 is provided on the surface opposite to the light receiving surface of the color sensor 101, a spring 104 is provided between the grip member 103 of the pen tip member 100, and the grip member 103. A contact 105 is provided on the side facing the contact 102. Accordingly, when a force parallel to the axial direction is applied to the tip of the nib member 100, the nib member 100 slides in the axial direction, the spring 104 is compressed, and the contact 102 of the color sensor 101 and the gripping member 103 are compressed. The contact 105 comes into contact (electrically connected). Such contacts 102 and 105 are connected to the processing circuit 22 as a switch (contact detection unit) 203 described later (see FIG. 4).

ペン先部材100の中央付近には、周面を取り巻くように電極106が設けられており、また、把持部材103の先端部には、開口部を取り巻くように電極107が設けられている。さらに、把持部材103における開口部の内側には、ペン先部材100を取り巻くように支持部108が設けられており、ペン先部材100をわずかな間隙で支持する構成となっている。ペン先部材100の先端に、軸方向に平行な力が印加された場合には、上述のようにペン先部材100が軸方向に摺動するが、軸方向と直交する方向に力が印加された場合には、支持部108を支点として電極106と107とが接触する。このような電極106と107は、後述するスイッチ(接触検出部)204として処理回路22に接続されている(図4参照)。  An electrode 106 is provided near the center of the nib member 100 so as to surround the peripheral surface, and an electrode 107 is provided at the tip of the gripping member 103 so as to surround the opening. Further, a support portion 108 is provided inside the opening of the gripping member 103 so as to surround the pen tip member 100, and the pen tip member 100 is supported with a slight gap. When a force parallel to the axial direction is applied to the tip of the nib member 100, the nib member 100 slides in the axial direction as described above, but the force is applied in a direction orthogonal to the axial direction. In this case, the electrodes 106 and 107 are in contact with each other with the support portion 108 as a fulcrum. Such electrodes 106 and 107 are connected to the processing circuit 22 as a switch (contact detection unit) 204 described later (see FIG. 4).

作業者Kがペン20を手に持って投射画面W上で文字の書き込み操作や、所定の指示操作を行う場合、ペン20におけるペン先部材100の先端100aがスクリーン表面に接触するため、ペン先部材100には斜め方向の力が印加されて、接点102と105とが接触、または電極106と107とが接触、若しくは両方が接触することにより、いわゆるペンタッチを検出することができる。  When the operator K holds the pen 20 in his hand and performs a character writing operation or a predetermined instruction operation on the projection screen W, the tip 100a of the pen tip member 100 of the pen 20 contacts the screen surface. A so-called pen touch can be detected when a force in an oblique direction is applied to the member 100 and the contacts 102 and 105 contact, the electrodes 106 and 107 contact, or both contact.

図4は、ペン20の信号処理系の回路ブロック図である。この図4に示すように、先端部21に設けられた前置回路200は、R(赤)、G(緑)、B(青)の各色に対応するカラーフィルタ110R、110G、110Bと、各カラーフィルタに対応して設けられた3つのフォトダイオード111R、111G、111Bとを備えたカラーセンサ101と、各色に対応するオペアンプ201R、201G、201Bと、負帰還抵抗202R、202G、202Bと、接点102と105からなるスイッチ203と、電極106と107からなるスイッチ204とから構成されている。なお、カラーセンサ101と、オペアンプ201R、201G、201Bと、負帰還抵抗202R、202G、202Bとは、本発明における光検出部に相当する。  FIG. 4 is a circuit block diagram of the signal processing system of the pen 20. As shown in FIG. 4, the pre-circuit 200 provided at the tip 21 includes color filters 110R, 110G, and 110B corresponding to R (red), G (green), and B (blue) colors, A color sensor 101 including three photodiodes 111R, 111G, and 111B provided corresponding to the color filter, operational amplifiers 201R, 201G, and 201B corresponding to each color, negative feedback resistors 202R, 202G, and 202B, and contacts The switch 203 includes 102 and 105, and the switch 204 includes electrodes 106 and 107. The color sensor 101, the operational amplifiers 201R, 201G, and 201B, and the negative feedback resistors 202R, 202G, and 202B correspond to the light detection unit in the present invention.

フォトダイオード111Rの出力はオペアンプ201Rの反転入力端子と接続されており、オペアンプ201Rはフォトダイオード111Rによって受光された赤色光の明るさに応じた電圧を処理回路22のA/Dコンバータ210Rに出力する。フォトダイオード111Gの出力はオペアンプ201Gの反転入力端子と接続されており、オペアンプ201Gはフォトダイオード111Gによって受光された緑色光の明るさに応じた電圧を処理回路22のA/Dコンバータ210Gに出力する。フォトダイオード111Bの出力はオペアンプ201Bの反転入力端子と接続されており、オペアンプ201Bはフォトダイオード111Bによって受光された青色光の明るさに応じた電圧を処理回路22のA/Dコンバータ210Bに出力する。スイッチ203の両端(つまり接点102と105)、及びスイッチ204の両端(つまり電極106と107)は、処理回路22のインタフェース回路211と接続されている。  The output of the photodiode 111R is connected to the inverting input terminal of the operational amplifier 201R, and the operational amplifier 201R outputs a voltage corresponding to the brightness of the red light received by the photodiode 111R to the A / D converter 210R of the processing circuit 22. . The output of the photodiode 111G is connected to the inverting input terminal of the operational amplifier 201G, and the operational amplifier 201G outputs a voltage corresponding to the brightness of the green light received by the photodiode 111G to the A / D converter 210G of the processing circuit 22. . The output of the photodiode 111B is connected to the inverting input terminal of the operational amplifier 201B, and the operational amplifier 201B outputs a voltage corresponding to the brightness of the blue light received by the photodiode 111B to the A / D converter 210B of the processing circuit 22. . Both ends of the switch 203 (that is, the contacts 102 and 105) and both ends of the switch 204 (that is, the electrodes 106 and 107) are connected to the interface circuit 211 of the processing circuit 22.

処理回路22は、各色に対応するA/Dコンバータ210R、210G、210Bと、インタフェース回路211と、CPU212と、RAM(Random Access Memory)213と、 ROM(Read Only Memory)214、バス215とから構成されている。  The processing circuit 22 includes A / D converters 210R, 210G, and 210B corresponding to each color, an interface circuit 211, a CPU 212, a RAM (Random Access Memory) 213, a ROM (Read Only Memory) 214, and a bus 215. Has been.

A/Dコンバータ210Rは、オペアンプ201Rの出力電圧をデジタルデータ(赤色明るさデータ)に変換してインタフェース回路211に出力する。A/Dコンバータ210Gは、オペアンプ201Gの出力電圧をデジタルデータ(緑色明るさデータ)に変換してインタフェース回路211に出力する。A/Dコンバータ210Bは、オペアンプ201Bの出力電圧をデジタルデータ(青色明るさデータ)に変換してインタフェース回路211に出力する。  The A / D converter 210R converts the output voltage of the operational amplifier 201R into digital data (red brightness data) and outputs the digital data to the interface circuit 211. The A / D converter 210G converts the output voltage of the operational amplifier 201G into digital data (green brightness data) and outputs the digital data to the interface circuit 211. The A / D converter 210B converts the output voltage of the operational amplifier 201B into digital data (blue brightness data) and outputs the digital data to the interface circuit 211.

インタフェース回路211は、A/Dコンバータ210R、210G、210Bから入力される各色の明るさデータと、スイッチ203、204のオン/オフ状態を示すデータと、後述する動き検出部23から入力されるX軸加速度データ及びY軸加速度データとを、バス215を介してCPU212に出力する。  The interface circuit 211 receives brightness data of each color input from the A / D converters 210R, 210G, and 210B, data indicating the on / off states of the switches 203 and 204, and X input from the motion detection unit 23 described later. The axis acceleration data and the Y axis acceleration data are output to the CPU 212 via the bus 215.

CPU212は、バス215を介してインタフェース回路211、RAM213、ROM214、及び後述する送信部24のインタフェース回路230と接続されている。このCPU212は、ROM214に記憶されているプログラムを実行することにより、インタフェース回路211から得られる各種データに基づいて所定の処理を行い、その処理結果を送信データとし、送信部24を介してコンピュータ30に送信する。  The CPU 212 is connected to the interface circuit 211, the RAM 213, the ROM 214, and the interface circuit 230 of the transmission unit 24 described later via the bus 215. The CPU 212 executes predetermined processing based on various data obtained from the interface circuit 211 by executing a program stored in the ROM 214, and uses the processing result as transmission data. Send to.

RAM213は、CPU212が各種の演算処理を行う際にデータの一時保存先として用いられるワーキングメモリである。ROM214は、CPU212が実行するプログラムやその他の演算処理に必要なデータを予め記憶している不揮発性メモリである。  The RAM 213 is a working memory used as a temporary storage destination of data when the CPU 212 performs various arithmetic processes. The ROM 214 is a non-volatile memory that stores in advance a program executed by the CPU 212 and other data necessary for arithmetic processing.

動き検出部23は、X加速度センサ220、Y加速度センサ221、A/Dコンバータ222及びA/Dコンバータ223から構成されている。ここで、ペン20の長手方向と垂直な平面内において、互いに直交するX軸及びY軸を想定する。X加速度センサ220は、上記X軸方向に生じる加速度を検出し、その検出結果を示す加速度信号をA/Dコンバータ222に出力する。Y加速度センサ221は、上記Y軸方向に生じる加速度を検出し、その検出結果を示す加速度信号をA/Dコンバータ223に出力する。  The motion detection unit 23 includes an X acceleration sensor 220, a Y acceleration sensor 221, an A / D converter 222, and an A / D converter 223. Here, an X axis and a Y axis that are orthogonal to each other in a plane perpendicular to the longitudinal direction of the pen 20 are assumed. The X acceleration sensor 220 detects the acceleration generated in the X-axis direction and outputs an acceleration signal indicating the detection result to the A / D converter 222. The Y acceleration sensor 221 detects the acceleration generated in the Y-axis direction, and outputs an acceleration signal indicating the detection result to the A / D converter 223.

A/Dコンバータ222は、X加速度センサ220から入力される加速度信号をデジタルデータ(X軸加速度データ)に変換してインタフェース回路211に出力する。A/Dコンバータ223は、Y加速度センサ221から入力される加速度信号をデジタルデータ(Y軸加速度データ)に変換してインタフェース回路211に出力する。
このような動き検出部23によって、ペン20が動くことにより生じる加速度を検出することができる。
The A / D converter 222 converts the acceleration signal input from the X acceleration sensor 220 into digital data (X-axis acceleration data) and outputs the digital data to the interface circuit 211. The A / D converter 223 converts the acceleration signal input from the Y acceleration sensor 221 into digital data (Y-axis acceleration data) and outputs the digital data to the interface circuit 211.
By such a motion detection unit 23, it is possible to detect acceleration caused by movement of the pen 20.

送信部24は、インタフェース回路230、変調回路231、増幅回路232及びアンテナ233から構成されている。インタフェース回路230は、処理回路22から入力される送信データを変調回路231に出力する。変調回路231は、インタフェース回路230から入力される送信データの変調処理を行うことにより、RF周波数帯の送信信号を生成して増幅回路232に出力する。増幅回路232は、変調回路231から入力される送信信号を増幅し、増幅後の送信信号をアンテナ233を介してコンピュータ30(無線通信カード31)に送信する。
なお、図4では、図示していないが、電源部25は、前置回路200、処理回路22、動き検出部23及び送信部24に電源電圧を供給するものである。
The transmission unit 24 includes an interface circuit 230, a modulation circuit 231, an amplification circuit 232, and an antenna 233. The interface circuit 230 outputs the transmission data input from the processing circuit 22 to the modulation circuit 231. The modulation circuit 231 generates a transmission signal in the RF frequency band by performing a modulation process on transmission data input from the interface circuit 230 and outputs the transmission signal to the amplification circuit 232. The amplifier circuit 232 amplifies the transmission signal input from the modulation circuit 231 and transmits the amplified transmission signal to the computer 30 (wireless communication card 31) via the antenna 233.
Although not shown in FIG. 4, the power supply unit 25 supplies a power supply voltage to the pre-circuit 200, the processing circuit 22, the motion detection unit 23, and the transmission unit 24.

以上のように構成されたペン20においては、作業者Kによる操作に応じて、ペンタッチの有無と、現在のペン先位置における各色光の明るさと、X軸及びY軸方向の加速度とが情報として得られることになり、各種情報を基にした処理が行われて、その処理結果がコンピュータ30に送信されることになる。  In the pen 20 configured as described above, the presence or absence of a pen touch, the brightness of each color light at the current pen tip position, and the acceleration in the X-axis and Y-axis directions are used as information according to the operation by the operator K. As a result, processing based on various information is performed, and the processing result is transmitted to the computer 30.

続いて、図5を参照して、コンピュータ30のカーソルとしてプロジェクタ10から投射されるカーソルパターンについて説明する。なお、本実施形態におけるカーソルは、一般的にマウスやキーボード等で操作するカーソルとはそのパターンが異なるが、ポインタとしての役割を担うという点では同じである。  Next, a cursor pattern projected from the projector 10 as a cursor of the computer 30 will be described with reference to FIG. The cursor in this embodiment is generally different in pattern from a cursor operated with a mouse or a keyboard, but is the same in that it plays a role as a pointer.

図5(a)に、本実施形態におけるカーソルパターンCPの一例を示す。この図5に示すように、カーソルパターンCPは、円形の中心部CP1と、該中心部CP1を内包する同心円の周辺部CP2とからなり、この周辺部CP2には中心点からの方位に対応して区分された複数(本実施形態では16個)の方位検出領域DS1〜DS16が形成されている。ここで、図中に示すようなXY座標系を想定し、左回りを正の方向とすると、例えば、方位検出領域DS1はX軸に対して0/8×π(rad)=0(rad)の方位に対応し、方位検出領域DS2は1/8×π(rad)の方位に対応している。  FIG. 5A shows an example of the cursor pattern CP in the present embodiment. As shown in FIG. 5, the cursor pattern CP includes a circular center portion CP1 and a concentric peripheral portion CP2 including the central portion CP1, and the peripheral portion CP2 corresponds to an orientation from the center point. A plurality (16 in this embodiment) of azimuth detection areas DS1 to DS16 are formed. Here, assuming an XY coordinate system as shown in the figure and assuming that the counterclockwise direction is a positive direction, for example, the direction detection region DS1 is 0/8 × π (rad) = 0 (rad) with respect to the X axis. The azimuth detection area DS2 corresponds to an azimuth of 1/8 × π (rad).

他も同様に、方位検出領域DS3は2/8×π(rad)、方位検出領域DS4は3/8×π(rad)、方位検出領域DS5は4/8×π(rad)、方位検出領域DS6は5/8×π(rad)、方位検出領域DS7は6/8×π(rad)、方位検出領域DS8は7/8×π(rad)、方位検出領域DS9は8/8×π(rad)、方位検出領域DS10は9/8×π(rad)、方位検出領域DS11は10/8×π(rad)、方位検出領域DS12は11/8×π(rad)、方位検出領域DS13は12/8×π(rad)、方位検出領域DS14は13/8×π(rad)、方位検出領域DS15は14/8×π(rad)、方位検出領域DS16は15/8×π(rad)の方位に対応している。  Similarly, the direction detection area DS3 is 2/8 × π (rad), the direction detection area DS4 is 3/8 × π (rad), the direction detection area DS5 is 4/8 × π (rad), the direction detection area DS6 is 5/8 × π (rad), the direction detection region DS7 is 6/8 × π (rad), the direction detection region DS8 is 7/8 × π (rad), and the direction detection region DS9 is 8/8 × π ( rad), the direction detection region DS10 is 9/8 × π (rad), the direction detection region DS11 is 10/8 × π (rad), the direction detection region DS12 is 11/8 × π (rad), and the direction detection region DS13 is 12/8 × π (rad), the direction detection region DS14 is 13/8 × π (rad), the direction detection region DS15 is 14/8 × π (rad), and the direction detection region DS16 is 15/8 × π (rad) It corresponds to the direction.

図5(b)は、カーソルパターンCPの中心部CP1と、周辺部CP2における各方位検出領域DS1〜DS16に割り当てられた各色R、G、Bのレベル(明るさ)を示すコードを表している。この図に示すように、各色毎のレベルを2ビットで示し、「00」、「01」、「10」、「11」の4段階のレベルを表現可能としている。ここでは、「00」を黒表示(投射光の無い状態)、「11」を最大の明るさに対応させている。中心部CP1では、G(緑)を「11」に、R(赤)及びB(青)を「00」に設定している。各方位検出領域DS1〜DS16では、Gのみ「01」で固定しているが、R及びBは順次異なるコードが設定されている。このコードの設定手法としては、グレイコードを採用しており、隣接する部分では1ビットしか変化しないように設定している。  FIG. 5B shows a code indicating the level (brightness) of each color R, G, B assigned to each of the orientation detection regions DS1 to DS16 in the central portion CP1 of the cursor pattern CP and the peripheral portion CP2. . As shown in this figure, the level for each color is indicated by 2 bits, and four levels of “00”, “01”, “10”, and “11” can be expressed. Here, “00” corresponds to black display (no projection light), and “11” corresponds to the maximum brightness. In the central portion CP1, G (green) is set to “11”, and R (red) and B (blue) are set to “00”. In each of the azimuth detection areas DS1 to DS16, only G is fixed at “01”, but different codes are sequentially set for R and B. As a code setting method, a gray code is adopted, and setting is performed so that only one bit changes in an adjacent portion.

次に、上記のように構成された入力システムの動作について説明する。ここで、表示画面W上には、上述したカーソルパターンCPを含む所定の画像が表示されているものとする。図6は、ペン20の動作(位置検出処理)を表すフローチャートである。この図に示す動作は、ペン20におけるCPU212がROM214に記憶されているプログラムを実行することによって実現されるものである。  Next, the operation of the input system configured as described above will be described. Here, it is assumed that a predetermined image including the cursor pattern CP described above is displayed on the display screen W. FIG. 6 is a flowchart showing the operation (position detection process) of the pen 20. The operation shown in this figure is realized by the CPU 212 in the pen 20 executing a program stored in the ROM 214.

まず、ステップS1において、ペン20のCPU212は、スイッチ203及び204のオン/オフ状態を示すデータに基づいて、ペンタッチが行われたか否か(ペン先部材100が表示画面Wに接触したか否か)を判定し、「Yes」の場合(ペンタッチが行われた場合)にステップS2の信号レベル補正処理(閾値設定処理)を行う。  First, in step S1, the CPU 212 of the pen 20 determines whether or not a pen touch has been performed based on data indicating the on / off states of the switches 203 and 204 (whether or not the pen tip member 100 has touched the display screen W). In the case of “Yes” (when pen touch is performed), the signal level correction process (threshold setting process) in step S2 is performed.

図7に、信号レベル補正処理を表すフローチャートを示す。この図7に示すように、信号レベル補正処理において、まず、CPU212は、送信部24を介してコンピュータ30に表示画面W1の全体を黒表示にするように指示する(ステップS21:黒表示処理)。そして、CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータをVrb、緑色明るさデータをVgb、青色明るさデータをVbbとしてRAM213に記憶する(ステップS22:黒レベル取得処理)。これらVrb、Vgb、Vbbの値は、プロジェクタ10からの投射光が周囲に反射した光や照明光などのペン位置検出時には不要な明るさを示すものである。  FIG. 7 is a flowchart showing the signal level correction process. As shown in FIG. 7, in the signal level correction process, first, the CPU 212 instructs the computer 30 to display the entire display screen W1 in black via the transmission unit 24 (step S21: black display process). . The CPU 212 stores the red brightness data obtained through the interface circuit 211 at this time as Vrb, the green brightness data as Vgb, and the blue brightness data as Vbb in the RAM 213 (step S22: black level acquisition process). These values of Vrb, Vgb, and Vbb indicate brightness that is unnecessary when pen position is detected such as light reflected from the projector 10 and light reflected from the surroundings.

続いて、CPU212は、送信部24を介してコンピュータ30に表示画面W1の全体を白表示にするように指示し(ステップS23:白表示処理)、この時にインタフェース回路211を介して得られる赤色明るさデータをVrp、緑色明るさデータをVgp、青色明るさデータをVbpとしてRAM213に記憶する(ステップS24:白レベル取得処理)。これらVrp、Vgp、Vbpの値は、ペン位置検出時の最大の明るさを示すものである。つまり、ペン20によって検出される各色毎の明るさは、赤色ではVrb〜Vrpの範囲、緑色ではVgb〜Vgpの範囲、青色ではVbb〜Vbpの範囲に含まれることになる。  Subsequently, the CPU 212 instructs the computer 30 via the transmitting unit 24 to display the entire display screen W1 in white (step S23: white display processing), and the red brightness obtained through the interface circuit 211 at this time. Is stored in the RAM 213 as Vrp, green brightness data as Vgp, and blue brightness data as Vbp (step S24: white level acquisition processing). These values of Vrp, Vgp, and Vbp indicate the maximum brightness when the pen position is detected. That is, the brightness for each color detected by the pen 20 is included in the range of Vrb to Vrp for red, Vgb to Vgp for green, and Vbb to Vbp for blue.

続いて、CPU212は、図8に示すように、各色の検出レベル(各色の明るさデータの値)から、カーソルパターンCPの方位検出領域DS1〜DS16に割り当てられたコード「00」〜「11」を判定するためのコード判定閾値を設定してRAM213に記憶する(ステップS25:設定処理)。  Subsequently, as shown in FIG. 8, the CPU 212 determines the codes “00” to “11” assigned to the direction detection areas DS1 to DS16 of the cursor pattern CP from the detection level of each color (value of brightness data of each color). Is set and stored in the RAM 213 (step S25: setting process).

ここで、図5で説明したように、各方位検出領域DS1〜DS16における各色は4段階のコードによって設定されているため、図8に示すように、3つのコード判定閾値を設定する。具体的には、光出力に対応した検出レベルはほぼ線形になるため、コード判定閾値も検出レベルを等分して決定すれば良い。例えば、R(赤)に着目すると、3つのコード判定閾値Vrt1、Vrt2、Vrt3は下記(1)〜(3)式で表される。
Vrt1=Vrb+(Vrp−Vrb)/4 ・・・・(1)
Vrt2=Vrb+(Vrp−Vrb)/4・2 ・・・・(2)
Vrt3=Vrb+(Vrp−Vrb)/4・3 ・・・・(3)
G(緑)、B(青)についても同様にコード判定閾値を求めることができる。
なお、プロジェクタ10の内部で階調特性を非線形に加工している場合などには、光出力と検出レベルとの関係も非線形となるが、各コード判定閾値はそれぞれの特性を考慮して決定すれば良い。
Here, as described with reference to FIG. 5, each color in each of the azimuth detection areas DS1 to DS16 is set by four stages of codes, so three code determination thresholds are set as shown in FIG. Specifically, since the detection level corresponding to the light output is almost linear, the code determination threshold value may be determined by equally dividing the detection level. For example, focusing on R (red), the three code determination thresholds Vrt1, Vrt2, and Vrt3 are expressed by the following equations (1) to (3).
Vrt1 = Vrb + (Vrp−Vrb) / 4 (1)
Vrt2 = Vrb + (Vrp-Vrb) /4.2 (2)
Vrt3 = Vrb + (Vrp-Vrb) /4.3 (3)
Similarly, the code determination threshold can be obtained for G (green) and B (blue).
When the gradation characteristics are processed nonlinearly inside the projector 10, the relationship between the light output and the detection level is also nonlinear, but each code determination threshold is determined in consideration of the respective characteristics. It ’s fine.

CPU212は、上記のような信号レベル補正処理が終了すると、図6に示すステップS3の初期位置検出処理を行う。図9に、初期位置検出処理を表すフローチャートを示す。この図に示すように、初期位置検出処理において、まず、CPU212は、送信部24を介してコンピュータ30に対し、カーソルパターンCPの中心部CP1を緑色の最大明るさで点滅表示するように指示する(ステップS31)。  When the signal level correction process as described above is completed, the CPU 212 performs an initial position detection process in step S3 shown in FIG. FIG. 9 is a flowchart showing the initial position detection process. As shown in this figure, in the initial position detection process, first, the CPU 212 instructs the computer 30 via the transmission unit 24 to blink and display the central portion CP1 of the cursor pattern CP with the maximum brightness of green. (Step S31).

そして、CPU212は、この時にインタフェース回路211を介して得られる緑色明るさデータ(緑色の検出レベル)Vgが、上記のように決定したコード「11」に対応する緑色のコード判定閾値Vgt3を基準として繰り返し変化するかを確認することにより、中心部CP1の点滅を検出したか否かを判定する(ステップS32)。CPU212は、このステップS32において、「Yes」の場合、つまりペン20の先端位置がカーソルパターンCPの中心部CP1の位置と一致している場合には、初期位置検出処理を終了して図6に示すステップS4の処理に移行し、「No」の場合、つまりペン20の先端がカーソルパターンCPとは別の位置に存在する場合には、ステップS33のキャリブレーション処理を行う。  Then, the CPU 212 uses the green code determination threshold value Vgt3 corresponding to the code “11” determined as described above for the green brightness data (green detection level) Vg obtained through the interface circuit 211 at this time as a reference. It is determined whether or not blinking of the central portion CP1 is detected by confirming whether or not the change is repeated (step S32). In this step S32, if “Yes”, that is, if the tip position of the pen 20 coincides with the position of the central portion CP1 of the cursor pattern CP, the CPU 212 ends the initial position detection process and returns to FIG. In the case of “No”, that is, when the tip of the pen 20 exists at a position different from the cursor pattern CP, the calibration process of step S33 is performed.

このキャリブレーション処理とは、ペン20の先端100aが投射画面W上でカーソルパターンCPと離れた位置でペンタッチした場合に、先端100aの位置を探査して、カーソルパターンCPの中心部CP1を先端100aの位置に移動させるための処理である。図10は、キャリブレーション処理を表すフローチャートである。また、図11は、キャリブレーション処理中における表示画面Wの変化の様子を表したものである。以下、これら図10及び図11を参照して、キャリブレーション処理について説明する。  In this calibration process, when the tip 100a of the pen 20 is pen-touched on the projection screen W at a position away from the cursor pattern CP, the position of the tip 100a is searched and the center portion CP1 of the cursor pattern CP is moved to the tip 100a. It is a process for moving to position. FIG. 10 is a flowchart showing the calibration process. FIG. 11 shows how the display screen W changes during the calibration process. Hereinafter, the calibration process will be described with reference to FIGS. 10 and 11.

図10に示すように、キャリブレーション処理において、まず、CPU212は、ペン先位置を探査するための分解能を2のN乗として設定し、その設定値を送信部24を介してコンピュータ30に送信する(ステップT1)。ここで、Nの値は、投射画面Wの大きさと、カーソルパターンCPの中心部CP1の大きさとの関係から決定する。例えば、投射画面Wの対角が40インチ、中心部CP1の直径が5mmであるとすると、40×25.4/5=203.2となるため、2<203.2<2であることから、N=8に設定する。なお、このNの値は、事前に既知の値であるためコンピュータ30のハードディスク等に予め記憶しておいても良い。 As shown in FIG. 10, in the calibration process, first, the CPU 212 sets the resolution for searching for the pen tip position as the Nth power of 2, and transmits the set value to the computer 30 via the transmission unit 24. (Step T1). Here, the value of N is determined from the relationship between the size of the projection screen W and the size of the central portion CP1 of the cursor pattern CP. For example, if the diagonal of the projection screen W is 40 inches and the diameter of the central portion CP1 is 5 mm, 40 × 25.4 / 5 = 203.2, and therefore 2 7 <203.2 <2 8 Therefore, N = 8 is set. Since the value of N is a known value in advance, it may be stored in advance in the hard disk of the computer 30 or the like.

続いて、CPU212は、投射画面Wの全体を探査範囲として設定する(ステップT2:初期設定処理)。以下では、投射画面Wにおいて、ペン20の先端100aの存在を調べる領域を探査範囲と定義し、探査範囲に先端100aが存在した場合には、その範囲を候補範囲と定義する。  Subsequently, the CPU 212 sets the entire projection screen W as the search range (step T2: initial setting process). Hereinafter, on the projection screen W, an area for checking the presence of the tip 100a of the pen 20 is defined as a search range, and when the tip 100a exists in the search range, the range is defined as a candidate range.

そして、CPU212は、探査範囲、つまり投射画面Wの全体を白領域と黒領域とに横方向に2分割して表示するようにコンピュータ30に指示する(ステップT3:第1の分割処理)。これにより、コンピュータ30は、図11(a)に示すように、探査範囲、つまり投射画面Wの全体が白領域と黒領域とに横方向に2分割されて表示されるようにプロジェクタ10を制御する。  Then, the CPU 212 instructs the computer 30 to display the entire search range, that is, the entire projection screen W, in the white area and the black area in the horizontal direction (step T3: first division process). As a result, the computer 30 controls the projector 10 so that the search range, that is, the entire projection screen W, is divided into the white area and the black area in the horizontal direction as shown in FIG. To do.

次に、CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbのいずれか、または任意の組み合わせを現在の先端100aの位置における明るさデータV1として取得する(ステップT4:第1の光検出取得処理)。  Next, the CPU 212 uses any one or any combination of the red brightness data Vr, the green brightness data Vg, the blue brightness data Vb obtained through the interface circuit 211 at this time, and the brightness at the current position of the tip 100a. Data V1 (step T4: first light detection acquisition process).

そして、CPU212は、探査範囲の白領域と黒領域とを反転して表示するようにコンピュータ30に指示する(ステップT5:第2の分割処理)。これにより、コンピュータ30は、図11(b)に示すように、探査範囲の白領域と黒領域とを反転して表示するようにプロジェクタ10を制御する。CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbのいずれか、または任意の組み合わせを現在の先端100aの位置における明るさデータV2として取得する(ステップT6:第2の光検出取得処理)。  Then, the CPU 212 instructs the computer 30 to invert and display the white area and the black area in the search range (step T5: second division process). As a result, the computer 30 controls the projector 10 so as to invert and display the white area and the black area in the search range, as shown in FIG. The CPU 212 uses any one or any combination of the red brightness data Vr, the green brightness data Vg, the blue brightness data Vb obtained through the interface circuit 211 at this time, or the brightness data V2 at the current position of the tip 100a. (Step T6: second light detection acquisition process).

ここで、CPU212は、ステップT4で取得した明るさデータV1とステップT6で取得した明るさデータV2とを比較し、明るさが高い方(つまり白領域)にペン20の先端100aが存在すると推測されるため、明るさが高い方の領域を候補範囲として設定し(ステップT7)、さらに、現在の候補範囲を新たな探査範囲として再設定して、コンピュータ30に指示する(ステップT8)。つまり、図11に示すように、投射画面Wの右下部分にペン20の先端100aが存在しているとすると、図11(a)に示す白領域が新たな探査範囲として再設定される。なお、ステップT7及びT8は、本発明における探査範囲設定処理に相当する。  Here, the CPU 212 compares the brightness data V1 acquired in step T4 with the brightness data V2 acquired in step T6, and estimates that the tip 100a of the pen 20 exists in the higher brightness (that is, the white area). Therefore, the area with higher brightness is set as a candidate range (step T7), and the current candidate range is reset as a new search range, and the computer 30 is instructed (step T8). That is, as shown in FIG. 11, if the tip 100a of the pen 20 is present in the lower right portion of the projection screen W, the white area shown in FIG. 11A is reset as a new search range. Steps T7 and T8 correspond to the search range setting process in the present invention.

以降、上述したステップT3〜T8の処理がN回繰り返される。例えば、図11(c)(d)は、2巡目のステップT3〜T8の処理における表示画面Wの変化の様子を表したものであり、図11(e)(f)は、3巡目のステップT3〜T8の処理における表示画面Wの変化の様子を表したものであり、また、図11(g)(h)は、4巡目のステップT3〜T8の処理における表示画面Wの変化の様子を表したものである。  Thereafter, the processes in steps T3 to T8 described above are repeated N times. For example, FIGS. 11C and 11D show changes in the display screen W in the processes of steps T3 to T8 in the second round, and FIGS. 11E and 11F show the third round. FIG. 11G and FIG. 11H show changes in the display screen W in the processes of steps T3 to T8 in the fourth round. This is a representation of the situation.

このようにステップT3〜T8の処理が繰り返されることにより、探査範囲はペン20の先端100aの位置に向かって徐々に絞られていき、N回繰り返された後には候補範囲の中心座標は、ほぼ先端100aの位置座標を指し示す値となっている。そのため、CPU212は、ステップT3〜T8の処理をN回繰り返して得られる最後の候補範囲の中心座標を、先端100aの初期座標(以下、ペン先初期座標と称す)と確定してコンピュータ30に指示する(ステップT9)。これにより、コンピュータ30は、最後の候補範囲の中心座標(つまりペン先初期座標)にカーソルパターンCPを移動させる(ステップT10)。なお、ステップT9及びT10は、本発明における先端位置確定処理に相当する。  By repeating the processes in steps T3 to T8 in this manner, the search range is gradually narrowed toward the position of the tip 100a of the pen 20, and after being repeated N times, the center coordinates of the candidate range are almost equal. The value indicates the position coordinate of the tip 100a. Therefore, the CPU 212 determines the center coordinates of the last candidate range obtained by repeating the processes of steps T3 to T8 N times as the initial coordinates of the tip 100a (hereinafter referred to as pen nib initial coordinates) and instructs the computer 30. (Step T9). Thereby, the computer 30 moves the cursor pattern CP to the center coordinates (that is, the pen tip initial coordinates) of the last candidate range (step T10). Steps T9 and T10 correspond to the tip position determination process in the present invention.

以上に述べたキャリブレーション処理によって、ペン20の先端100aの位置と、カーソルパターンCPの中心部CP1の位置とを一致させることができる。なお、上記キャリブレーション処理中におけるコンピュータ30側の動作は、コンピュータ30に内蔵されたCPUがハードディスクに記憶されているプログラムを実行することにより実現されるものである。  By the calibration process described above, the position of the tip 100a of the pen 20 and the position of the center portion CP1 of the cursor pattern CP can be matched. The operation on the computer 30 side during the calibration process is realized by a CPU built in the computer 30 executing a program stored in the hard disk.

上記キャリブレーション処理が終了すると、CPU212は、図6に示すステップS4の処理に移行する。図6のステップS4において、CPU212は、スイッチ203及び204のオン/オフ状態を示すデータに基づいて、ペンタッチが継続しているか否か(ペン先部材100が表示画面Wに継続して接触しているか否か)を判定し、「Yes」の場合、つまりペン20を接触させたまま書き込み入力が行われると推測される場合にはステップS5の書き込み処理を行う一方、「No」の場合、つまり書き込み入力は行われずにペン20の移動のみが行われると推測される場合にはステップS8のフローティング処理に移行する。  When the calibration process is finished, the CPU 212 proceeds to the process of step S4 shown in FIG. In step S4 of FIG. 6, the CPU 212 determines whether or not the pen touch is continued based on the data indicating the on / off states of the switches 203 and 204 (the pen tip member 100 continues to contact the display screen W). In the case of “Yes”, that is, when it is estimated that the writing input is performed with the pen 20 kept in contact, the writing process of step S5 is performed, while in the case of “No”, that is, When it is estimated that only the movement of the pen 20 is performed without performing the writing input, the process proceeds to the floating process in step S8.

図12は、書き込み処理を表すフローチャートである。この書き込み処理において、まず、CPU212は、ペン20の先端100aがカーソルパターンCP以外の場所に位置していることを示すパターン外フラグを「0」にリセットする(ステップS51)。つまり、パターン外フラグが「0」の場合は、ペン20の先端100aがカーソルパターンCPの位置と一致していることを指す。  FIG. 12 is a flowchart showing the writing process. In this writing process, first, the CPU 212 resets an out-of-pattern flag indicating that the tip 100a of the pen 20 is located at a place other than the cursor pattern CP to “0” (step S51). That is, when the out-of-pattern flag is “0”, it indicates that the tip 100a of the pen 20 matches the position of the cursor pattern CP.

続いて、CPU212は、インタフェース回路211を介してX軸加速度データ及びY軸加速度データを取得し(ステップS52)、X軸加速度データ及びY軸加速度データが所定の閾値より大きいか否かを判定する(ステップS53)。CPU212は、このステップS53において、「Yes」の場合、つまりX軸加速度データ及びY軸加速度データが閾値より大きい場合(またはX軸加速度データとY軸加速度データの一方が閾値より大きい場合でも良い)、パターン外フラグを「1」にセットして書き込み処理を終了して、図6のステップS6に移行する(ステップS58)。  Subsequently, the CPU 212 acquires X-axis acceleration data and Y-axis acceleration data via the interface circuit 211 (step S52), and determines whether the X-axis acceleration data and the Y-axis acceleration data are greater than a predetermined threshold value. (Step S53). In step S53, the CPU 212 determines “Yes”, that is, if the X-axis acceleration data and the Y-axis acceleration data are larger than the threshold value (or one of the X-axis acceleration data and the Y-axis acceleration data may be larger than the threshold value). Then, the out-of-pattern flag is set to “1” to end the writing process, and the process proceeds to step S6 in FIG. 6 (step S58).

このようにX軸加速度データ及びY軸加速度データが閾値より大きい場合、またはX軸加速度データとY軸加速度データの一方が閾値より大きい場合は、ペン20の移動速度が非常に速く、ペン20の先端100aがカーソルパターンCPから外れてしまう可能性があるため、上記のようにパターン外フラグを「1」にセットした後、図6のステップS6に移行することにより、ステップS1からやり直す。ここで、ステップS6の処理は、パターン外フラグが「1」であればステップS1の処理に戻り、「0」であればステップS7に移行するものである。  As described above, when the X-axis acceleration data and the Y-axis acceleration data are larger than the threshold value, or when one of the X-axis acceleration data and the Y-axis acceleration data is larger than the threshold value, the moving speed of the pen 20 is very fast. Since there is a possibility that the tip 100a may deviate from the cursor pattern CP, after setting the non-pattern flag to “1” as described above, the process proceeds from step S1 to step S6 in FIG. Here, the process of step S6 returns to the process of step S1 if the out-of-pattern flag is “1”, and moves to step S7 if it is “0”.

一方、上記ステップS53において、「No」の場合、CPU212は、インタフェース回路211を介して赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbを取得し、RAM214に記憶されている各色に対応するコード判定閾値と比較することにより、各色の明るさデータをコード変換する(ステップS54:色判定処理)。  On the other hand, if “No” in step S53, the CPU 212 acquires the red brightness data Vr, the green brightness data Vg, and the blue brightness data Vb via the interface circuit 211, and stores each color stored in the RAM 214. The brightness data of each color is converted into a code (step S54: color determination process).

そして、CPU212は、ペン20の先端100aがカーソルパターンCPの中心部CP1の内部に位置しているか否かを確認するために、ステップS54で得られるG(緑)に対応するコードが「11」であるか否かを判定する(ステップS55:中心部判定処理)。このステップS55において、「Yes」の場合、つまりG(緑)に対応するコードが「11」の場合、図13(a)に示すように、ペン20の先端100aがカーソルパターンCPの中心部CP1の内部に位置していると判断されるため、書き込み処理を終了して、図6のステップS6に移行する。なお、この時点でのパターン外フラグは「0」のままであるので、図6のステップS6の後、ステップS7に移行する。  Then, the CPU 212 confirms whether or not the tip 100a of the pen 20 is located inside the center portion CP1 of the cursor pattern CP, and the code corresponding to G (green) obtained in step S54 is “11”. Is determined (step S55: center portion determination processing). In this step S55, in the case of “Yes”, that is, in the case where the code corresponding to G (green) is “11”, as shown in FIG. 13A, the tip 100a of the pen 20 is centered CP1 of the cursor pattern CP. Therefore, the writing process is terminated, and the process proceeds to step S6 in FIG. Note that since the out-of-pattern flag at this time remains “0”, the process proceeds to step S7 after step S6 in FIG.

一方、上記ステップS55において、「No」の場合には、ペン20の先端100aはカーソルパターンCPの周辺部CP2における方位検出領域DS1〜DS16のいずれかに位置していると考えられる。そのため、CPU212は、ステップS55において、「No」の場合に、R(赤)及びB(青)に対応するコードからペン20の先端100aが方位検出領域DS1〜DS16のどれに位置しているかを確認することにより、カーソルパターンCPの移動方位を決定する(ステップS56:方位探索処理)。例えば、R(赤)に対応するコードが「00」、B(青)に対応するコードが「11」の場合、図13(b)に示すように、ペン20の先端100aは方位検出領域DS3に位置しているため、カーソルパターンCPの移動方位は2/8×π(rad)と決定される。  On the other hand, in the above step S55, in the case of “No”, it is considered that the tip 100a of the pen 20 is located in any one of the direction detection areas DS1 to DS16 in the peripheral portion CP2 of the cursor pattern CP. Therefore, in the case of “No” in step S55, the CPU 212 determines in which of the direction detection areas DS1 to DS16 the tip 100a of the pen 20 is located from the code corresponding to R (red) and B (blue). By confirming, the moving direction of the cursor pattern CP is determined (step S56: direction searching process). For example, when the code corresponding to R (red) is “00” and the code corresponding to B (blue) is “11”, as shown in FIG. 13B, the tip 100a of the pen 20 is in the direction detection region DS3. Therefore, the moving direction of the cursor pattern CP is determined to be 2/8 × π (rad).

そして、CPU212は、上記のように決定した移動方位に向かってカーソルパターンCPを移動させるようにコンピュータ30に指示する(ステップS57)。これにより、コンピュータ30は、投射画面W上においてカーソルパターンCPの移動を開始する。  Then, the CPU 212 instructs the computer 30 to move the cursor pattern CP toward the moving direction determined as described above (step S57). Thereby, the computer 30 starts to move the cursor pattern CP on the projection screen W.

以上のような書き込み処理が終了すると、CPU212は、図6に示すステップS6の処理に移行する。書き込み処理のステップS57からステップS6に移行した場合、パターン外フラグは「0」のままであるので、図6のステップS6の後、ステップS7に移行する。このステップS7において、CPU212は、スイッチ203及び204のオン/オフ状態を示すデータに基づいて、ペンタッチが継続しているか否かを判定し、「Yes」の場合、つまり書き込み入力が継続中である場合には、ステップS5の処理に戻り、図12に示すステップS51〜S57の処理を繰り返す。  When the writing process as described above is completed, the CPU 212 proceeds to the process of step S6 shown in FIG. When the process proceeds from step S57 to step S6 of the writing process, the out-of-pattern flag remains “0”, and thus the process proceeds to step S7 after step S6 in FIG. In step S7, the CPU 212 determines whether or not the pen touch is continued based on the data indicating the on / off states of the switches 203 and 204. If “Yes”, that is, the writing input is continuing. In that case, the process returns to the process of step S5, and the processes of steps S51 to S57 shown in FIG. 12 are repeated.

これにより、図12のステップS55で、ペン20の先端100aの位置とカーソルパターンCPの中心部CP1の位置とが一致していると判定されるまで、つまり図13(c)の状態になるまでカーソルパターンCPは2/8×π(rad)の方位に移動し、その結果、図13(d)に示すように、カーソルパターンCPの移動開始点P1と移動終了点P2の間の軌跡上に線を描くことができる。  Thus, until it is determined in step S55 in FIG. 12 that the position of the tip 100a of the pen 20 matches the position of the center portion CP1 of the cursor pattern CP, that is, until the state of FIG. The cursor pattern CP moves in the direction of 2/8 × π (rad). As a result, as shown in FIG. 13D, the cursor pattern CP is on the locus between the movement start point P1 and the movement end point P2 of the cursor pattern CP. You can draw a line.

一方、CPU212は、上記ステップS7において、「No」の場合、つまり書き込み入力は行われずにペン20の移動のみが行われると推測される場合にはステップS8のフローティング処理に移行する。このステップS8のフローティング処理では、上述したステップS5と同様の処理が行われる。また、ステップS9の処理はステップS6と同様であり、ステップS10の処理はステップS7と同様である。  On the other hand, in the case of “No” in step S7, that is, when it is estimated that only the movement of the pen 20 is performed without writing input, the CPU 212 proceeds to the floating process of step S8. In the floating process in step S8, the same process as in step S5 described above is performed. Moreover, the process of step S9 is the same as that of step S6, and the process of step S10 is the same as that of step S7.

つまり、ステップS8に移行した時点では、ステップS5〜S7によって線の書き込みが終了した後、またはステップS3の初期位置検出処理後にペンタッチが外れている状態となっており、ペン20の先端100aを投射画面Wから浮かせて、次の書き込み開始位置まで移動している状態であると推測できるため、ステップS8〜S10においてステップS5〜S7と同様の処理を行うことにより、カーソルパターンCPをペン20の先端100aの動きに追従して移動させることができる。仮に、ペン20の移動速度が速く、カーソルパターンCPから外れるような場合には、図12のステップS53によって、ペン20の加速度が閾値より大きいことが検出されるため、カーソルパターンCPの移動を中止してステップS1の処理からやり直せば良い。  In other words, when the process proceeds to step S8, the pen touch is released after the line writing is completed in steps S5 to S7 or after the initial position detection process in step S3, and the tip 100a of the pen 20 is projected. Since it can be presumed that the screen has floated from the screen W and has moved to the next writing start position, the same processing as in steps S5 to S7 is performed in steps S8 to S10, whereby the cursor pattern CP is moved to the tip of the pen 20. It can be moved following the movement of 100a. If the movement speed of the pen 20 is fast and deviates from the cursor pattern CP, it is detected that the acceleration of the pen 20 is larger than the threshold value in step S53 in FIG. Then, it is sufficient to start again from the process of step S1.

以上説明したように、本実施形態における入力システムによれば、従来のようなペン20の位置を検出するための専用の位置検出装置を必要とせず、そのため表示画像と検出位置の座標を校正する必要がなくなり、システムの使い勝手やメンテナンス性の向上、システム全体の小型化、装置コストの削減を図ることができる。   As described above, according to the input system in the present embodiment, a dedicated position detection device for detecting the position of the pen 20 as in the prior art is not required, and therefore the coordinates of the display image and the detection position are calibrated. This eliminates the need to improve the usability and maintainability of the system, reduce the size of the entire system, and reduce the device cost.

また、ペン20に0次元センサを用いたので、ペン20の方向を意識することなく使用することができる。また、カーソルパターンCPにおける各方位検出領域のコード設定手法として、グレイコードを採用しているため、ペン20の先端100aがカーソルパターン内の2つの方位検出領域に跨って位置し、不安定なコードを得た場合であっても、隣接する方位検出領域以外のコードが検出されることはないため、カーソルパターンCPの移動方向が作業者Kが意図したものとは全く異なることはなく、意図しない方向に移動することを回避することができる。また、ペン20に加速度センサを内蔵し、ペン20の動きが速くてカーソルパターンCPが追従できない場合には、カーソルパターンCPの動きを停止することにより、カーソルパターンCPが意図しない位置に移動してしまうことを防止することができる。   Further, since the 0-dimensional sensor is used for the pen 20, it can be used without being aware of the direction of the pen 20. In addition, since the gray code is adopted as the code setting method for each direction detection area in the cursor pattern CP, the tip 100a of the pen 20 is located across the two direction detection areas in the cursor pattern, and the code is unstable. Even when the code is obtained, the code other than the adjacent azimuth detection area is not detected. Therefore, the moving direction of the cursor pattern CP is not completely different from that intended by the operator K and is not intended. Moving in the direction can be avoided. Further, when the pen 20 has an acceleration sensor built-in and the movement of the pen 20 is fast and the cursor pattern CP cannot follow, the cursor pattern CP moves to an unintended position by stopping the movement of the cursor pattern CP. Can be prevented.

〔第2実施形態〕
次に、第2実施形態における入力システムについて説明する。なお、第2実施形態における入力システムは、第1実施形態と比較してコード判定閾値の設定手法とキャリブレーション処理の内容が異なるだけであるので、以下では、第2実施形態におけるコード判定 閾値の設定手法とキャリブレーション処理に着目して説明する。
[Second Embodiment]
Next, an input system according to the second embodiment will be described. The input system according to the second embodiment is different from the first embodiment only in the code determination threshold setting method and the content of the calibration process. Therefore, the code determination threshold in the second embodiment will be described below. Description will be made by focusing on the setting method and the calibration process.

(1)コード判定閾値の設定手法
第1実施形態では、カーソルパターンCPの各方位検出領域DS1〜DS16における各色は4段階のコードによって設定されているため、図8に示すように、各色毎に3つのコード判定閾値を決定した。これらのコード判定閾値は、図6に示す書き込み処理やフローティング処理などに必要であるため、第2実施形態でも同様に決定する必要がある。これに加えて、第2実施形態では、キャリブレーション処理専用のコード判定閾値(以下、キャリブ専用コード判定閾値と称す)を決定する。
(1) Code Determination Threshold Setting Method In the first embodiment, each color in each direction detection region DS1 to DS16 of the cursor pattern CP is set by four stages of codes, so that as shown in FIG. Three code determination thresholds were determined. Since these code determination threshold values are necessary for the writing process and the floating process shown in FIG. 6, it is necessary to determine them similarly in the second embodiment. In addition, in the second embodiment, a code determination threshold dedicated to calibration processing (hereinafter referred to as a calibration code determination threshold) is determined.

具体的には、図14に示すように、各色を1ビットのコード、つまり「0」と「1」の2段階のコードで設定するとし、各色毎に1つのキャリブ専用コード判定閾値を決定する。この場合、各色の検出レベル(明るさ)から「0」か「1」かを判定すれば良いので、R(赤)、G(緑)、B(青)に対応するキャリブ専用コード判定閾値Vrct、Vgct、Vbctは下記(4)〜(6)式で表される。
Vrct=Vrb+(Vrp−Vrb)/2 ・・・・(4)
Vgct=Vgb+(Vgp−Vgb)/2 ・・・・(5)
Vbct=Vbb+(Vbp−Vbb)/2 ・・・・(6)
Specifically, as shown in FIG. 14, each color is set by a 1-bit code, that is, a two-stage code of “0” and “1”, and one calibrated code determination threshold value is determined for each color. . In this case, since it is only necessary to determine whether each color is at a detection level (brightness) of “0” or “1”, the dedicated code determination threshold Vrct for R (red), G (green), and B (blue) is used. , Vgct and Vbct are represented by the following formulas (4) to (6).
Vrct = Vrb + (Vrp−Vrb) / 2 (4)
Vgct = Vgb + (Vgp−Vgb) / 2 (5)
Vbct = Vbb + (Vbp-Vbb) / 2 (6)

(2)キャリブレーション処理
図15は、第2実施形態におけるキャリブレーション処理を表すフローチャートである。また、図16は、キャリブレーション処理中における表示画面Wの変化の様子を表したものである。図17は、図16において、投射画面Wに表示される8つの領域Wa〜Whに割り当てられた各色のコード(1ビットコード)を表すものである。
(2) Calibration Process FIG. 15 is a flowchart showing the calibration process in the second embodiment. FIG. 16 shows how the display screen W changes during the calibration process. FIG. 17 shows the codes (1-bit codes) of the respective colors assigned to the eight areas Wa to Wh displayed on the projection screen W in FIG.

図15に示すように、まず、CPU212は、ペン先位置を探査するための分解能を8のM乗として設定し、その設定値Mを送信部24を介してコンピュータ30に送信する(ステップU1)。ここで、Mの値は、投射画面Wの大きさと、カーソルパターンCPの中心部CP1の大きさとの関係から決定する。例えば、投射画面Wの対角が40インチ、中心部CP1の直径が5mmであるとすると、40×25.4/5=203.2となるため、8<203.2<8であることから、M=3に設定する。なお、このMの値は、事前に既知の値であるためコンピュータ30のハードディスク等に予め記憶しておいても良い。 As shown in FIG. 15, first, the CPU 212 sets the resolution for searching for the pen tip position as 8 to the Mth power, and transmits the set value M to the computer 30 via the transmission unit 24 (step U1). . Here, the value of M is determined from the relationship between the size of the projection screen W and the size of the central portion CP1 of the cursor pattern CP. For example, a diagonal of 40 inches projection screen W, the diameter of the central portion CP1 is assumed to be 5 mm, for a 40 × 25.4 / 5 = 203.2, is 8 2 <203.2 <8 3 Therefore, M = 3 is set. Since the value of M is a known value in advance, it may be stored in advance in the hard disk of the computer 30 or the like.

続いて、CPU212は、投射画面Wの全体を探査範囲として設定する(ステップU2)。以下では、第1実施形態と同様に、投射画面Wにおいて、ペン20の先端100aの存在を調べる領域を探査範囲と定義し、探査範囲に先端100aが存在した場合には、その範囲を候補範囲と定義する。  Subsequently, the CPU 212 sets the entire projection screen W as the search range (step U2). In the following, as in the first embodiment, in the projection screen W, an area for checking the presence of the tip 100a of the pen 20 is defined as a search range, and when the tip 100a exists in the search range, the range is set as a candidate range. It is defined as

そして、CPU212は、探査範囲、つまり投射画面Wの全体を縦方向にWa〜Whの領域に8分割して表示するようにコンピュータ30に指示する(ステップU3)。コンピュータ30は、上記のようにぺン20から指示を受けると、図16(a)に示すように、その探査範囲、つまり投射画面Wの全体が縦方向にWa〜Whの領域に8分割されて表示されるようにプロジェクタ10を制御する。ここで、各領域Wa〜Whの色は、図17に示すコードに対応する色となっている。  Then, the CPU 212 instructs the computer 30 to display the entire search range, that is, the entire projection screen W, in the vertical direction, divided into eight areas Wa to Wh (step U3). When the computer 30 receives an instruction from the pen 20 as described above, as shown in FIG. 16A, the search range, that is, the entire projection screen W is vertically divided into eight areas Wa to Wh. The projector 10 is controlled so as to be displayed. Here, the colors of the areas Wa to Wh are colors corresponding to the codes shown in FIG.

次に、CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbを現在の先端100aの位置における各色の明るさデータとして取得する(ステップU4)。そして、CPU212は、探査範囲、つまり投射画面Wの全体を横方向にWa〜Whの領域に8分割して表示するようにコンピュータ30に指示する(ステップU5)。  Next, the CPU 212 acquires red brightness data Vr, green brightness data Vg, and blue brightness data Vb obtained through the interface circuit 211 at this time as brightness data of each color at the current position of the tip 100a ( Step U4). Then, the CPU 212 instructs the computer 30 to display the entire search range, that is, the entire projection screen W, divided into eight areas Wa to Wh in the horizontal direction (step U5).

コンピュータ30は、上記指示を受けると、図16(b)に示すように、探査範囲、つまり投射画面Wの全体が横方向にWa〜Whの領域に8分割されて表示されるようにプロジェクタ10を制御する。CPU212は、この時にインタフェース回路211を介して得られる赤色明るさデータVr、緑色明るさデータVg、青色明るさデータVbを現在の先端100aの位置における各色の明るさデータとして取得する(ステップU6)。  When the computer 30 receives the above instruction, as shown in FIG. 16B, the projector 10 is displayed so that the entire search range, that is, the entire projection screen W is divided into eight areas Wa to Wh in the horizontal direction. To control. The CPU 212 acquires the red brightness data Vr, green brightness data Vg, and blue brightness data Vb obtained through the interface circuit 211 at this time as brightness data of each color at the current position of the tip 100a (step U6). .

ここで、CPU212は、ステップU4及びU6で取得した各色の明るさデータ(検出レベル)を、キャリブ専用コード判定閾値Vrct、Vgct、Vbctに基づいてコード変換する。つまり、検出レベルがキャリブ専用コード判定閾値より低ければコード「0」、高ければコード「1」とする。そして、CPU212は、ステップU4で取得した各色の検出レベルに対応するコードと、ステップU6で取得した各色の検出レベルに対応するコードとが一致する領域を、図17の表を基にWa〜Whの中から探索する。  Here, the CPU 212 performs code conversion on the brightness data (detection level) of each color acquired in steps U4 and U6 based on the calibrated code determination thresholds Vrct, Vgct, and Vbct. That is, the code is “0” if the detection level is lower than the caribbean dedicated code determination threshold, and the code is “1” if it is higher. Then, the CPU 212 determines the areas where the code corresponding to the detection level of each color acquired in step U4 and the code corresponding to the detection level of each color acquired in step U6 coincide with each other based on the table of FIG. Search from within.

このように、縦分割して得られるコードと横分割して得られるコードとが一致した領域がわかると、その領域が縦分割の場合と横分割の場合とで交差する領域にペン20の先端100aが存在すると推測される。そこで、CPU212は、そのような交差領域を候補範囲として設定し(ステップU7)、さらに、現在の候補範囲を新たな探査範囲として設定して、コンピュータ30に指示する(ステップU8)。つまり、図16(a)(b)に示すように、領域Wgにペン20の先端100aが存在しているとすると、図16(c)に示すように、領域Wgの交差領域が新たな探査範囲として再設定される。  As described above, when an area where the code obtained by vertical division and the code obtained by horizontal division coincide is found, the tip of the pen 20 is located in an area where the area intersects in the case of vertical division and horizontal division. 100a is presumed to exist. Therefore, the CPU 212 sets such an intersection area as a candidate range (step U7), sets the current candidate range as a new search range, and instructs the computer 30 (step U8). That is, as shown in FIGS. 16 (a) and 16 (b), assuming that the tip 100a of the pen 20 is present in the region Wg, as shown in FIG. 16 (c), the intersecting region of the region Wg is newly explored. Reset as a range.

以降、上述したステップU3〜U8の処理がM回繰り返される。例えば、図16(c)(d)は、2巡目のステップU3〜U8の処理における表示画面Wの変化の様子を表したものである。このようにステップU3〜U8の処理が繰り返されることにより、探査範囲はペン20の先端100aの位置に向かって徐々に絞られていき、M回繰り返された後には候補範囲の中心座標は、ほぼ先端100aの位置座標を指し示す値となっている。  Thereafter, the processes in steps U3 to U8 described above are repeated M times. For example, FIGS. 16C and 16D show changes in the display screen W in the process of steps U3 to U8 in the second round. By repeating the processing of steps U3 to U8 in this way, the search range is gradually narrowed toward the position of the tip 100a of the pen 20, and after being repeated M times, the center coordinates of the candidate range are almost equal. The value indicates the position coordinate of the tip 100a.

そのため、CPU212は、ステップU3〜U8の処理をM回繰り返して得られる最後の候補範囲の中心座標を、先端100aの初期座標(ペン先初期座標)とするようにコンピュータ30に指示する(ステップU9)。これにより、コンピュータ30は、最後の候補範囲の中心座標(つまりペン先初期座標)にカーソルパターンCPを移動させる(ステップU10)。  Therefore, the CPU 212 instructs the computer 30 to set the center coordinates of the last candidate range obtained by repeating the processes in steps U3 to U8 M times as the initial coordinates (pen nib initial coordinates) of the tip 100a (step U9). ). Thereby, the computer 30 moves the cursor pattern CP to the center coordinates (that is, the pen tip initial coordinates) of the last candidate range (step U10).

上述した第2実施形態のキャリブレーション処理によって、ペン20の先端100aの位置と、カーソルパターンCPの中心部CP1の位置とを一致させることができる。なお、上記キャリブレーション処理中におけるコンピュータ30側の動作は、コンピュータ30に内蔵されたCPUがハードディスクに記憶されているプログラムを実行することにより実現されるものである。  By the calibration process of the second embodiment described above, the position of the tip 100a of the pen 20 and the position of the center portion CP1 of the cursor pattern CP can be matched. The operation on the computer 30 side during the calibration process is realized by a CPU built in the computer 30 executing a program stored in the hard disk.

以上のような第2実施形態における入力システムによると、第1実施形態と比べてキャリブレーション処理の時間を短縮することができ、システム全体の動作速度の向上を図ることができる。  According to the input system in the second embodiment as described above, the calibration processing time can be shortened as compared with the first embodiment, and the operation speed of the entire system can be improved.

〔第3実施形態〕
次に、第3実施形態における入力システムについて説明する。図18は、第3実施形態における入力システムの構成概略図である。なお、図18において、図1(第1実施形態)と同様の構成要素には同一符号を付して説明を省略する。この図18に示すように、第3実施形態における入力システムでは、プロジェクタ50及び信号分配切替器60が追加されており、プロジェクタ50は通信ケーブル61を介して信号分配切替器60と接続され、プロジェクタ10は通信ケーブル62を介して信号分配切替器60と接続され、コンピュータ30は通信ケーブル63を介して信号分配切替器60と接続されている。
[Third Embodiment]
Next, an input system in the third embodiment will be described. FIG. 18 is a schematic configuration diagram of an input system according to the third embodiment. In FIG. 18, the same components as those in FIG. 1 (first embodiment) are denoted by the same reference numerals, and description thereof is omitted. As shown in FIG. 18, in the input system according to the third embodiment, a projector 50 and a signal distribution switching device 60 are added. The projector 50 is connected to the signal distribution switching device 60 via a communication cable 61. 10 is connected to a signal distribution switcher 60 via a communication cable 62, and the computer 30 is connected to the signal distribution switcher 60 via a communication cable 63.

プロジェクタ50は、プロジェクタ10とは異なる方向から同一の投射領域に画像を投射できるように設置されており、信号分配切替器60によってコンピュータ30の映像信号をプロジェクタ10及びプロジェクタ50に供給して同時に投射画面Wを表示し、または、信号分配切替器60によって映像信号をプロジェクタ10またはプロジェクタ50の一方に選択的に供給することにより、一方のプロジェクタのみで投射画面Wを表示することが可能な構成となっている。   The projector 50 is installed so that an image can be projected in the same projection area from a direction different from that of the projector 10, and the video signal of the computer 30 is supplied to the projector 10 and the projector 50 by the signal distribution switching unit 60 and simultaneously projected. A configuration in which the screen W is displayed or the video signal is selectively supplied to one of the projector 10 and the projector 50 by the signal distribution switching unit 60, so that the projection screen W can be displayed only by one of the projectors. It has become.

図19に、作業者Kから見た投射画面Wの様子を示す。プロジェクタ10からの投射画面にはペン20と作業者Kの手によって影71が生じる。また、同様に、プロジェクタ50からの投射画面にはペン20と作業者Kの手によって影72が生じる。このように、作業者Kが右手でペン20を操作する場合には、影71は作業の妨げになりにくいが、影72は作業の妨げとなる。また、投射画面Wの位置によっては、プロジェクタ50からの投射画面の方が好ましい場合もある。   FIG. 19 shows a state of the projection screen W viewed from the worker K. A shadow 71 is generated on the projection screen from the projector 10 by the hand of the pen 20 and the operator K. Similarly, a shadow 72 is generated on the projection screen from the projector 50 by the hand of the pen 20 and the operator K. Thus, when the operator K operates the pen 20 with the right hand, the shadow 71 is unlikely to hinder the work, but the shadow 72 hinders the work. Depending on the position of the projection screen W, the projection screen from the projector 50 may be preferable.

このように、作業の状況によって好ましいプロジェクタが異なるため、信号分配切替器60を操作し、好ましいプロジェクタからの投射画面に切り替えることにより、作業効率の向上を図ることができる。また、2台のプロジェクタから常に同時に投射しておくことにより、影が生じにくい状況にすることも可能である。   Thus, since a preferable projector changes with work conditions, the operation efficiency can be improved by operating the signal distribution switching unit 60 and switching to a projection screen from a preferable projector. Further, by always projecting from two projectors at the same time, it is possible to make a situation in which a shadow is hardly generated.

以上、本発明の第1〜第3実施形態について説明したが、本発明はこれらに限定されず、以下のような変形例が考えられる。
(1)上記実施形態では、表示装置としてプロジェクタ(投射型表示装置)用いた入力システムについて例示したが、表示装置としては液晶ディスプレイ等のフラットパネルディスプレイを用いても良い。つまり、この場合、フラットパネルディスプレイの表示画面にペン20を接触させることになる。
As mentioned above, although 1st-3rd embodiment of this invention was described, this invention is not limited to these, The following modifications can be considered.
(1) In the above embodiment, an input system using a projector (projection display device) as a display device has been illustrated. However, a flat panel display such as a liquid crystal display may be used as the display device. That is, in this case, the pen 20 is brought into contact with the display screen of the flat panel display.

(2)上記実施形態では、ペン20とコンピュータ30との通信を無線通信とした場合を例示したが、ケーブル等で接続して有線通信としても良い。また、入力装置としてペン20を例示したが、必ずしもペン形状をしている必要はなく、作業者Kによって操作し易く、表示画面に接触可能な先端部を設けることができれば、どのような形状の物でも良い。 (2) In the above embodiment, the case where the communication between the pen 20 and the computer 30 is wireless communication is exemplified, but the communication may be performed by connecting with a cable or the like. Moreover, although the pen 20 is illustrated as an input device, it is not always necessary to have a pen shape, and any shape can be used as long as it can be easily operated by the operator K and can be provided with a tip that can contact the display screen. Goods are also acceptable.

(3)上記実施形態では、カーソルパターンCPの中心部CP1及び周辺部CP2ともに円形としたが、ペン20の先端100aを検出可能であればどのような形状としても良い。また、周辺部CP2の各方位検出領域を16個としたが、さらに正確な先端100aの移動方位検出を行いたい場合には、方位検出領域の数を増やしても良い。 (3) In the above embodiment, the center portion CP1 and the peripheral portion CP2 of the cursor pattern CP are both circular, but any shape may be used as long as the tip 100a of the pen 20 can be detected. Further, although the number of the azimuth detection areas of the peripheral portion CP2 is 16, the number of the azimuth detection areas may be increased if more accurate movement azimuth detection of the tip 100a is desired.

(4)上記第1実施形態のキャリブレーション処理において、探査範囲を白と黒に2分割したが、2の領域の明るさに明確な違いがあれば、白、黒以外の色で2分割しても良い。また、2分割する方向は横方向でも縦方向でもどちらでも良い。一方、上記第2実施形態のキャリブレーション処理において、探査範囲を8分割したが、さらに精度良くペン20の先端100aの初期位置を検出したい場合には分割数を増やしても良い。 (4) In the calibration process of the first embodiment, the search range is divided into two parts, white and black. If there is a clear difference in the brightness of the two areas, the search area is divided into two parts with colors other than white and black. May be. Further, the direction of dividing into two may be either the horizontal direction or the vertical direction. On the other hand, in the calibration process of the second embodiment, the search range is divided into eight. However, if it is desired to detect the initial position of the tip 100a of the pen 20 with higher accuracy, the number of divisions may be increased.

(5)上記第3実施形態では、プロジェクタを2台設けた場合を例示したが、さらに複数のプロジェクタを設けても良い。 (5) In the third embodiment, the case where two projectors are provided is illustrated, but a plurality of projectors may be further provided.

本発明の第1実施形態における入力システムの構成概略図である。1 is a schematic configuration diagram of an input system according to a first embodiment of the present invention. 第1実施形態におけるペン20の構成概略図である。It is a composition schematic diagram of pen 20 in a 1st embodiment. ペン20における先端部21の詳細説明図である。3 is a detailed explanatory diagram of a tip portion 21 in a pen 20. FIG. ペン20における信号処理系の回路ブロック図である。2 is a circuit block diagram of a signal processing system in a pen 20. FIG. 本入力システムにおけるカーソルパターンCPの詳細説明図である。It is detailed explanatory drawing of cursor pattern CP in this input system. ペン20の動作に関する第1フローチャートである。4 is a first flowchart regarding the operation of the pen 20. ペン20の動作に関する第2フローチャートである。5 is a second flowchart regarding the operation of the pen 20. コード判定閾値に関する詳細説明図である。It is detailed explanatory drawing regarding a code determination threshold value. ペン20の動作に関する第3フローチャートである。10 is a third flowchart regarding the operation of the pen 20. ペン20の動作に関する第4フローチャートである。10 is a fourth flowchart regarding the operation of the pen 20. ペン20の動作に関する第1説明図である。FIG. 6 is a first explanatory diagram regarding the operation of the pen 20. ペン20の動作に関する第5フローチャートである。10 is a fifth flowchart regarding the operation of the pen 20; ペン20の動作に関する第2説明図である。FIG. 9 is a second explanatory diagram regarding the operation of the pen 20. 第2実施形態におけるコード判定閾値に関する詳細説明図である。It is a detailed explanatory view regarding the code determination threshold in the second embodiment. 第2実施形態におけるキャリブレーション処理を示すフローチャートである。It is a flowchart which shows the calibration process in 2nd Embodiment. 第2実施形態におけるペン20の動作に関する第1説明図である。It is the 1st explanatory view about operation of pen 20 in a 2nd embodiment. 第2実施形態におけるペン20の動作に関する第2説明図である。It is the 2nd explanatory view about operation of pen 20 in a 2nd embodiment. 第3実施形態における表示システムの構成概略図である。It is a structure schematic of the display system in 3rd Embodiment. 第3実施形態における表示システムに関する補足説明図である。It is supplementary explanatory drawing regarding the display system in 3rd Embodiment.

符号の説明Explanation of symbols

10、50…プロジェクタ(表示装置)、20…ペン(入力装置)、30…コンピュータ、40…通信ケーブル、21…先端部、22…処理回路(処理部)、23…動き検出部(加速度検出部)、24…送信部、25…電源部、CP…カーソルパターン、CP1…中心部、CP2…周辺部、DS1〜DS16…方位検出領域、DK…作業机、K…作業者  DESCRIPTION OF SYMBOLS 10, 50 ... Projector (display device), 20 ... Pen (input device), 30 ... Computer, 40 ... Communication cable, 21 ... Tip part, 22 ... Processing circuit (processing part), 23 ... Motion detection part (acceleration detection part) ), 24 ... Transmitter, 25 ... Power supply, CP ... Cursor pattern, CP1 ... Center, CP2 ... Peripheral, DS1 to DS16 ... Direction detection area, DK ... Work desk, K ... Worker

Claims (17)

画像を生成する画像生成装置と、
前記画像を表示する表示装置と、
前記表示装置の表示画面に接触可能な先端部と、該先端部への入射光を検出する光検出部と、該光検出部の検出結果を基に所定の処理を行う処理部と、前記画像生成装置との通信を行う送信部と、を備える移動操作可能な入力装置と、
から構成され、
前記入力装置における前記処理部は、前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする入力システム。
An image generating device for generating an image;
A display device for displaying the image;
A tip portion that can contact the display screen of the display device, a light detection portion that detects light incident on the tip portion, a processing portion that performs predetermined processing based on a detection result of the light detection portion, and the image A transmission unit that communicates with the generation device, and an input device capable of moving operation,
Consisting of
The input system, wherein the processing unit in the input device performs position detection processing of the tip portion in cooperation with image generation processing by the image generation device based on a detection result of the light detection unit.
前記入力装置の処理部は、前記位置検出処理において、前記光検出部の検出結果を基に前記表示画面に表示しているカーソルパターン上に前記先端部が位置しているか否かを判定し、否の場合に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置を探査するためのキャリブレーション処理を行うことにより、前記先端部の位置を確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示することを特徴とする請求項1記載の入力システム。   In the position detection process, the processing unit of the input device determines whether or not the tip is positioned on the cursor pattern displayed on the display screen based on the detection result of the light detection unit, In the case of negative, by performing a calibration process for exploring the position of the tip part in cooperation with the image generation process by the image generation apparatus, the position of the tip part is determined, and the image generation apparatus The input system according to claim 1, wherein an instruction is given to move the cursor pattern to the determined position of the tip. 前記入力装置の処理部は、前記位置検出処理において、前記表示画面に表示しているカーソルパターンを点滅させるように前記画像生成装置に指示し、前記光検出部の検出結果を基に前記点滅の有無を確認することにより、前記カーソルパターン上に前記先端部が位置しているか否かを判定することを特徴とする請求項2記載の入力システム。   The processing unit of the input device instructs the image generation device to blink the cursor pattern displayed on the display screen in the position detection process, and the blinking based on the detection result of the light detection unit. The input system according to claim 2, wherein it is determined whether or not the tip portion is positioned on the cursor pattern by confirming presence or absence. 前記入力装置の処理部は、前記キャリブレーション処理において、
表示画面全体を探査範囲として初期設定する初期設定処理と、
前記画像生成装置に対して、表示画面上の探査範囲を異なる明るさで2分割表示するように指示する第1の分割処理と、
前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、
前記画像生成装置に対して、前記第1の分割処理で2分割表示している2領域の明るさを反転させるように指示する第2の分割処理と、
前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、
前記第1の検出結果と第2の検出結果を基に、2分割された2領域の内、検出レベルが高い方の領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、
前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理と、
を実行することを特徴とする請求項2または3に記載の入力システム。
The processing unit of the input device, in the calibration process,
An initial setting process that initially sets the entire display screen as the search range;
A first division process for instructing the image generation apparatus to divide the search range on the display screen into two parts with different brightness;
A first light detection acquisition process for acquiring, as a first detection result, a detection result of the light detection unit after the first division process;
A second division process instructing the image generation apparatus to invert the brightness of the two areas displayed in two divisions in the first division process;
A second light detection acquisition process for acquiring a detection result of the light detection unit after the second division process as a second detection result;
Based on the first detection result and the second detection result, of the two areas divided into two, the area with the higher detection level is set as a candidate area where the tip is located, and the candidate area is newly searched. An exploration range setting process to be reset as a range;
After resetting the search range, a series of processing from the first division process to the search range setting process is repeated a predetermined number of times, and finally the center coordinates of the candidate range obtained are determined as the position of the tip portion. Tip position determination processing for instructing the image generation apparatus to move the cursor pattern to the determined position of the tip portion;
The input system according to claim 2, wherein the input system is executed.
前記入力装置の処理部は、前記キャリブレーション処理において、
表示画面全体を探査範囲として初期設定する初期設定処理と、
前記画像生成装置に対して、表示画面上の探査範囲を異なる色で縦方向に、または横方向に複数分割して表示するように指示する第1の分割処理と、
前記第1の分割処理後の前記光検出部の検出結果を第1の検出結果として取得する第1の光検出取得処理と、
前記画像生成装置に対して、前記第1の分割処理とは異なる方向に複数分割して表示するように指示する第2の分割処理と、
前記第2の分割処理後の前記光検出部の検出結果を第2の検出結果として取得する第2の光検出取得処理と、
前記第1の検出結果と第2の検出結果を基に、縦方向と横方向とで色が一致する分割領域の交差領域を前記先端部が位置する候補範囲とし、該候補範囲を新たな探査範囲として再設定する探査範囲設定処理と、
前記探査範囲の再設定後、所定回数、前記第1の分割処理から前記探査範囲設定処理までの一連の処理を繰り返して最終的に得られる前記候補範囲の中心座標を前記先端部の位置として確定し、前記画像生成装置に対して前記確定した先端部の位置に前記カーソルパターンを移動させるように指示する先端位置確定処理と、
を実行することを特徴とする請求項2または3に記載の入力システム。
The processing unit of the input device, in the calibration process,
An initial setting process that initially sets the entire display screen as the search range;
A first division process for instructing the image generation device to display the search range on the display screen in different colors in the vertical direction or in the horizontal direction;
A first light detection acquisition process for acquiring, as a first detection result, a detection result of the light detection unit after the first division process;
A second division process for instructing the image generating apparatus to display a plurality of divisions in a direction different from the first division process;
A second light detection acquisition process for acquiring a detection result of the light detection unit after the second division process as a second detection result;
Based on the first detection result and the second detection result, an intersection region of divided regions whose colors match in the vertical direction and the horizontal direction is set as a candidate range where the tip is located, and the candidate range is newly searched. An exploration range setting process to be reset as a range;
After resetting the search range, a series of processing from the first division process to the search range setting process is repeated a predetermined number of times, and finally the center coordinates of the candidate range obtained are determined as the position of the tip portion. Tip position determination processing for instructing the image generation apparatus to move the cursor pattern to the determined position of the tip portion;
The input system according to claim 2, wherein the input system is executed.
前記入力装置は、前記先端部が前記表示画面に接触したか否かを検出する接触検出部を備え、
前記処理部は、前記位置検出処理によって前記先端部の位置と前記カーソルパターンの位置とが一致した後、前記接触検出部の検出結果が接触有りを示している場合には、前記先端部の移動に応じた書き込み処理を実行し、前記接触検出部の検出結果が接触無しを示している場合には、前記先端部の移動に追従して前記カーソルパターンを移動させるフローティング処理を実行することを特徴とする請求項2〜5のいずれか一項に記載の入力システム。
The input device includes a contact detection unit that detects whether or not the tip portion contacts the display screen.
The processing unit moves the tip when the detection result of the contact detection unit indicates that there is a contact after the position of the tip matches the position of the cursor pattern by the position detection process. When the detection result of the contact detection unit indicates that there is no contact, a floating process for moving the cursor pattern following the movement of the tip is executed. The input system according to any one of claims 2 to 5.
前記カーソルパターンは、専用色が割り当てられた中心部と該中心部を内包し他の色が割り当てられた周辺部とからなり、該周辺部には方位に対応して区分され且つ異なる色が割り当てられた複数の方位検出領域が形成されたパターンであって、
前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、前記光検出部の検出結果を基に色判定を行うことにより、前記先端部が前記カーソルパターン内のどの方位検出領域に存在しているか判定し、前記先端部が存在していると判定された方位検出領域に対応する方位に向かって前記カーソルパターンを移動させるように前記画像生成装置に指示する一方、書き込み処理の場合には加えてカーソルパターンの移動軌跡上に線を描くように指示することを特徴とする請求項6記載の入力システム。
The cursor pattern includes a central portion to which a dedicated color is assigned and a peripheral portion that includes the central portion and is assigned another color, and the peripheral portion is divided according to the direction and assigned different colors. A pattern in which a plurality of orientation detection areas are formed,
In the writing process or the floating process, the processing unit of the input device performs a color determination based on the detection result of the light detection unit, so that the azimuth detection region in the cursor pattern is present in any direction detection region. And instructing the image generation apparatus to move the cursor pattern toward the direction corresponding to the direction detection area where it is determined that the tip portion is present. The input system according to claim 6, further instructing to draw a line on the movement trace of the cursor pattern.
前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、
前記光検出部の検出結果を基に色判定を行う色判定処理と、
前記色判定処理によって判定された色と前記カーソルパターンにおける中心部の色とが一致するか否かを判定し、一致している場合には前記接触検出部の検出結果が接触有りを示しているか否かの判定処理を再実行する中心部判定処理と、
前記中心部判定処理において一致していないと判定された場合に、前記色判定処理によって判定された色と同一の色の方位検出領域を前記先端部が存在する方位検出領域として探索する方位探索処理と、
を実行することを特徴とする請求項7記載の入力システム。
The processing unit of the input device, in the writing process or the floating process,
Color determination processing for performing color determination based on the detection result of the light detection unit;
It is determined whether or not the color determined by the color determination process matches the color of the center portion of the cursor pattern. If they match, does the detection result of the contact detection unit indicate presence of contact? A center determination process for re-execution of the determination process;
An orientation search process for searching for an orientation detection area having the same color as the color determined by the color determination process as an orientation detection area in which the tip portion exists when it is determined in the center determination process that they do not match When,
The input system according to claim 7, wherein:
前記入力装置は、自己に発生する加速度を検出する加速度検出部を備え、
前記入力装置の処理部は、前記書き込み処理または前記フローティング処理において、
前記加速度検出部の加速度検出結果に基づいて入力装置がカーソルパターンから前記先端部が外れてしまう程の速度で移動したか否かを判定し、否の場合には前記光検出部の検出結果に基づく色判定を行う一方、カーソルパターンから前記先端部が外れてしまう程の速度で移動したと判定した場合には前記位置検出処理を最初からやり直すことを特徴とする請求項7または8に記載の入力システム。
The input device includes an acceleration detection unit that detects acceleration generated in the input device;
The processing unit of the input device, in the writing process or the floating process,
Based on the acceleration detection result of the acceleration detection unit, it is determined whether or not the input device has moved at such a speed that the tip portion is removed from the cursor pattern. If not, the detection result of the light detection unit is determined. 9. The position detection process according to claim 7 or 8, wherein the position detection process is restarted from the beginning when it is determined that the tip portion has moved at such a speed that the tip portion is deviated from the cursor pattern while performing color determination based on the color pattern. Input system.
前記カーソルパターンの中心部及び周辺部における各方位検出領域の色は、赤色、緑色、青色の任意の組み合わせによって表現されており、赤色、緑色、青色のそれぞれの明るさは2ビットのコードで設定されていることを特徴とする請求項7〜9のいずれか一項に記載の入力システム。   The color of each azimuth detection area in the center part and the peripheral part of the cursor pattern is expressed by an arbitrary combination of red, green, and blue, and the brightness of each of red, green, and blue is set by a 2-bit code. The input system according to any one of claims 7 to 9, wherein the input system is configured. 前記カーソルパターンにおける各方位検出領域のコード設定手法として、グレイコードを採用していることを特徴とする請求項10記載の入力システム。   The input system according to claim 10, wherein a gray code is adopted as a code setting method for each direction detection area in the cursor pattern. 前記入力装置の処理部は、前記位置検出処理の始めに、前記カーソルパターンの中心部及び周辺部における各方位検出領域毎に設定されたコードを、前記光検出部の検出結果を基に判定するためのコード判定閾値を設定する閾値設定処理を実行することを特徴とする請求項10または11に記載の入力システム。   The processing unit of the input device determines a code set for each azimuth detection area at the center and the periphery of the cursor pattern based on the detection result of the light detection unit at the beginning of the position detection process. The input system according to claim 10 or 11, wherein a threshold value setting process for setting a code determination threshold value is executed. 前記入力装置の処理部は、前記閾値設定処理において、
前記画像生成装置に対して表示画面を黒表示するように指示する黒表示処理と、
前記黒表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、黒検出結果として取得する黒レベル取得処理と、
前記画像生成装置に対して表示画面を白表示するように指示する白表示処理と、
前記白表示後に前記光検出部の赤色、緑色、青色に対応するそれぞれの検出結果を、白検出結果として取得する白レベル取得処理と、
前記黒検出結果及び白検出結果に基づいて赤色、緑色、青色に対応する前記コード判定閾値を設定する設定処理と、
を実行することを特徴とする請求項12記載の入力システム。
The processing unit of the input device, in the threshold setting process,
Black display processing for instructing the image generation device to display the display screen in black;
Black level acquisition processing for acquiring each detection result corresponding to red, green, and blue of the light detection unit after the black display as a black detection result;
White display processing for instructing the image generation device to display a display screen in white;
A white level acquisition process for acquiring each detection result corresponding to red, green, and blue of the light detection unit as a white detection result after the white display;
A setting process for setting the code determination threshold corresponding to red, green, and blue based on the black detection result and the white detection result;
The input system according to claim 12, wherein:
前記表示装置として投射型表示装置を複数備え、
各投射型表示装置によって各方向から同一の投射領域に画面を同時に表示させるか、または選択的にある投射型表示装置だけで画面を表示させることを特徴とする請求項1〜13のいずれか一項に記載の入力システム。
A plurality of projection type display devices as the display device,
The screen is simultaneously displayed in the same projection area from each direction by each projection display device, or the screen is selectively displayed only by a certain projection display device. The input system described in the section.
画像生成装置によって生成した画像を表示装置によって表示し、
移動操作可能な入力装置に設けられた、前記表示装置の表示画面に接触可能な先端部への入射光の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出を行うことを特徴とする入力方法。
The image generated by the image generation device is displayed on the display device,
The position of the tip portion in cooperation with the image generation processing by the image generation device based on the detection result of the incident light on the tip portion provided on the input device capable of moving operation and touching the display screen of the display device An input method characterized by performing detection.
表示装置の表示画面に接触可能な先端部と、
該先端部への入射光を検出する光検出部と、
該光検出部の検出結果を基に所定の処理を行う処理部と、
画像生成装置との通信を行う送信部と、を備え、
前記処理部は、前記光検出部の検出結果を基に前記画像生成装置による画像生成処理と協同しながら前記先端部の位置検出処理を行うことを特徴とする入力装置。
A tip that can contact the display screen of the display device;
A light detection unit for detecting light incident on the tip;
A processing unit that performs predetermined processing based on a detection result of the light detection unit;
A transmission unit that communicates with the image generation device,
The input unit, wherein the processing unit performs position detection processing of the tip portion in cooperation with image generation processing by the image generation device based on a detection result of the light detection unit.
入力装置に設けられた先端部への入射光を検出する光検出部の検出結果を基に、画像生成装置による画像生成処理と協同しながら前記先端部の位置検出機能をコンピュータに実現させることを特徴とするプログラム。   Based on the detection result of the light detection unit that detects light incident on the tip provided in the input device, the computer can realize the position detection function of the tip while cooperating with the image generation processing by the image generation device. A featured program.
JP2008286710A 2008-11-07 2008-11-07 Input system, input method, input device and program Pending JP2010113598A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008286710A JP2010113598A (en) 2008-11-07 2008-11-07 Input system, input method, input device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008286710A JP2010113598A (en) 2008-11-07 2008-11-07 Input system, input method, input device and program

Publications (1)

Publication Number Publication Date
JP2010113598A true JP2010113598A (en) 2010-05-20

Family

ID=42302102

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008286710A Pending JP2010113598A (en) 2008-11-07 2008-11-07 Input system, input method, input device and program

Country Status (1)

Country Link
JP (1) JP2010113598A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139614A (en) * 2008-12-10 2010-06-24 Nikon Corp Screen
JP2010266714A (en) * 2009-05-15 2010-11-25 Seiko Epson Corp Video processor, video display device and video processing method
JP2012150640A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Position detecting system and position detecting method
JP2014098728A (en) * 2012-11-13 2014-05-29 Casio Comput Co Ltd Electronic signboard device and projection method
US8872763B2 (en) 2011-01-19 2014-10-28 Seiko Epson Corporation Position detecting system and position detecting method
WO2016157920A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017016027A (en) * 2015-07-03 2017-01-19 カシオ計算機株式会社 Projection system, projection controller, projection control method and program
US9606637B2 (en) 2013-04-04 2017-03-28 Funai Electric Co., Ltd. Projector and electronic device having projector function

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59194276A (en) * 1983-04-18 1984-11-05 Matsushita Graphic Commun Syst Inc Input device of drawn picture
JP2000020237A (en) * 1998-06-30 2000-01-21 Sanyo Electric Co Ltd Pen position detecting device in plasma display and electronic board using plasma display
WO2001048589A1 (en) * 1999-12-28 2001-07-05 Fujitsu Limited Pen sensor coordinate narrowing method and device therefor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59194276A (en) * 1983-04-18 1984-11-05 Matsushita Graphic Commun Syst Inc Input device of drawn picture
JP2000020237A (en) * 1998-06-30 2000-01-21 Sanyo Electric Co Ltd Pen position detecting device in plasma display and electronic board using plasma display
WO2001048589A1 (en) * 1999-12-28 2001-07-05 Fujitsu Limited Pen sensor coordinate narrowing method and device therefor

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010139614A (en) * 2008-12-10 2010-06-24 Nikon Corp Screen
JP2010266714A (en) * 2009-05-15 2010-11-25 Seiko Epson Corp Video processor, video display device and video processing method
JP2012150640A (en) * 2011-01-19 2012-08-09 Seiko Epson Corp Position detecting system and position detecting method
US8872763B2 (en) 2011-01-19 2014-10-28 Seiko Epson Corporation Position detecting system and position detecting method
JP2014098728A (en) * 2012-11-13 2014-05-29 Casio Comput Co Ltd Electronic signboard device and projection method
US9606637B2 (en) 2013-04-04 2017-03-28 Funai Electric Co., Ltd. Projector and electronic device having projector function
WO2016157920A1 (en) * 2015-03-31 2016-10-06 ソニー株式会社 Information processing device, information processing method, and program
JP2017016027A (en) * 2015-07-03 2017-01-19 カシオ計算機株式会社 Projection system, projection controller, projection control method and program

Similar Documents

Publication Publication Date Title
JP2010113598A (en) Input system, input method, input device and program
US20110242054A1 (en) Projection system with touch-sensitive projection image
US9594455B2 (en) Projector and control method
US10268284B2 (en) Image display system
US9898996B2 (en) Display apparatus and display control method
JP4710734B2 (en) Pointing device, pointing position detection method, and program
JP6422118B2 (en) Display system, information processing apparatus, and display method
US20160004337A1 (en) Projector device, interactive system, and interactive control method
JP2014081807A (en) Touch panel input device, control method therefor and program
US20150160738A1 (en) Keyboard projection system with image subtraction
JP2002140164A (en) Coordinate input device, its control method and program therefor
JP6253128B2 (en) Display system, input device, display device, and display method
JP2018132799A (en) Electronic blackboard system, electronic pen, display device and electronic pen position detection method
EP3037936B1 (en) Image projection apparatus, and system employing interactive input-output capability
CN104765233A (en) Screen visible-light-track tracking projection system
US9778763B2 (en) Image projection apparatus, and system employing interactive input-output capability
JP2012043227A (en) Optical touch panel device and optical touch panel
JPH0340861B2 (en)
JP5413315B2 (en) Information processing system and display processing program
US9170685B2 (en) Object location determination
TWI602092B (en) Calibration of an input device to a display using the input device
JP2010211637A (en) Projection type input/output system and its program
JP2017009664A (en) Image projection device, and interactive type input/output system
TW201512947A (en) Optical touch system and control method
JP2018156305A (en) Touch panel system, method for controlling touch panel system, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20110620

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120720

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130122