JP2003241872A - Drawing processing method, program thereby, and storage medium storing its program - Google Patents

Drawing processing method, program thereby, and storage medium storing its program

Info

Publication number
JP2003241872A
JP2003241872A JP2002043633A JP2002043633A JP2003241872A JP 2003241872 A JP2003241872 A JP 2003241872A JP 2002043633 A JP2002043633 A JP 2002043633A JP 2002043633 A JP2002043633 A JP 2002043633A JP 2003241872 A JP2003241872 A JP 2003241872A
Authority
JP
Japan
Prior art keywords
area
point
processing method
light
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002043633A
Other languages
Japanese (ja)
Inventor
Hideo Hitai
英雄 比田井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2002043633A priority Critical patent/JP2003241872A/en
Publication of JP2003241872A publication Critical patent/JP2003241872A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a drawing processing method which allows a plurality of persons to use simultaneously one screen and perform different drawing processes, and when a plurality of persons use the screen simultaneously, prevent decrease of the drawing area by for example, eliminating necessity to display such as tool bars equipped with an indicator for switching drawing modes for the available number of persons. <P>SOLUTION: The drawing processing method performs drawing processes through detecting coordinates by a display device with a coordinate input function, performs concurrently different drawing processes in the plurality of drawing areas as instructed by making the specified coordinate simultaneously detectable in each of the plurality of drawing areas (e.g. A area and B area) generated by splitting the display screen, and also displays in a tool bar (26) of a common indicator area the indicator to perform instruction at least on a part of process contents among instructions on process contents in each of the plurality of drawing areas. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、座標入力機能付表
示装置を用いた電子黒板システムやパーソナルコンピュ
ータなどにおいて実現される描画技術に関し、特に、一
つの画面上の複数の描画領域で並行に異なった描画処理
をおこなうことができる描画技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a drawing technique realized in an electronic blackboard system using a display device with coordinate input function, a personal computer, or the like, and in particular, a plurality of drawing areas on one screen differ in parallel. The present invention relates to a drawing technique capable of performing a different drawing process.

【0002】[0002]

【従来の技術】従来より、電子黒板システムや一部のパ
ーソナルコンピュータなどでは、表示装置であり座標入
力装置である兼用装置として、後述するような座標入力
機能付表示装置を用いている。このような座標入力機能
付表示装置を用いたシステムでは、画面上の所望の位置
に指先などでタッチすることによりその位置を指示す
る。あるいは、指先などをタッチした状態で移動するこ
とにより線を引いたり、表示されている対象画像などを
移動(ドラッグ)させたりする。また、従来の座標入力
機能付表示装置を用いたシステムでは、同時に2点がタ
ッチされた場合、一般には、誤動作をするか、後からタ
ッチされたほうを無視するなどの処理を行っている。一
つの画面を複数の領域に分け、それぞれ異なった領域に
属する複数の点に同時にタッチし、それぞれのタッチに
応じた処理を並行に動作させるというようなことはおこ
なっていないし、複数の領域に分けることにより、同時
に指示された複数のタッチ座標を特定することもおこな
っていない。なお、前記した座標入力機能付表示装置の
座標入力/検出装置としては、以下のようなものが知ら
れている。一つの例では、回転多面鏡を介して光ビーム
を2つの光出射部から出射して座標入力面を走査し、ペ
ンの軸先に設けられた反射部材からの反射光を2つの受
光部により検出して、ペンの挿入位置を検出する(特開
昭57−211637号公報参照)。2つの受光部によ
り受光し、3角測量の原理を利用して指示された位置の
座標を算出するものである。なお、この座標入力/検出
装置における座標入力面は第1および第2の例の座標入
力/検出装置における座標入力面のような物理的な面で
はなく、光出射部から出射される光ビームによって形成
される面である。また、特開平9−91094号公報に
示された光学式の座標入力/検出装置では、座標入力面
の例えば下方左右の隅に光出射・受光部を設け、それぞ
れの光出射・受光部から出射方向(出射角度)を変えな
がら光ビームを出射して座標入力面を走査し、その光ビ
ームをパネルの上辺および左右辺に設けたコーナキュー
ブアレイ(光再帰性反射手段)で折り返させ(戻る方向
に反射させ)、それぞれの光出射・受光部により戻って
きた光ビームを検出する。これにより、指などで光ビー
ムが遮られる左右の光出射・受光部の走査角度を検出す
ることができ、3角測量の原理を利用して指示された位
置の座標を算出することができる。また、特開平11−
110116号公報に示された光学式の座標入力/検出
装置では、座標入力面の例えば上方左右の隅に光出射・
受光部を設け、それぞれの光出射・受光部から出射方向
(出射角度)を変えながら光ビームを出射して座標入力
面を走査し、その光ビームをパネルの下辺および左右辺
に設けた光再帰性反射手段で折り返させ(戻る方向に反
射させ)、それぞれの光出射・受光部により戻ってきた
光ビームを検出する。これにより、指などで光ビームが
遮られる左右の光出射・受光部の走査角度の光遮断範囲
を検出して指示された位置の座標を算出する。
2. Description of the Related Art Conventionally, in an electronic blackboard system and some personal computers, a display device with a coordinate input function, which will be described later, has been used as a dual-purpose device which is a display device and a coordinate input device. In a system using such a display device with a coordinate input function, a desired position on the screen is touched with a fingertip or the like to indicate the position. Alternatively, a line is drawn by moving while touching a fingertip or the like, or a displayed target image or the like is moved (drag). Further, in a system using a conventional display device with a coordinate input function, when two points are touched at the same time, generally, a process such as malfunctioning or ignoring the later touched one is performed. It is not possible to divide one screen into multiple areas, touch multiple points that belong to different areas at the same time, and operate the processes corresponding to each touch in parallel. Therefore, it is not possible to specify a plurality of touch coordinates that are simultaneously instructed. The following are known as the coordinate input / detection device of the display device with the coordinate input function described above. In one example, a light beam is emitted from two light emitting portions via a rotary polygon mirror to scan a coordinate input surface, and reflected light from a reflecting member provided at the tip of the pen is reflected by two light receiving portions. Then, the insertion position of the pen is detected (see Japanese Patent Laid-Open No. 57-211637). The light is received by two light receiving units, and the coordinates of the designated position are calculated using the principle of triangulation. The coordinate input surface of this coordinate input / detection device is not a physical surface like the coordinate input surface of the coordinate input / detection devices of the first and second examples, but is a light beam emitted from the light emitting portion. The surface to be formed. Further, in the optical coordinate input / detection device disclosed in Japanese Patent Application Laid-Open No. 9-91094, light emitting / receiving portions are provided in, for example, the lower left and right corners of the coordinate input surface, and the light emitting / receiving portions emit light. The light beam is emitted while changing the direction (emission angle), the coordinate input surface is scanned, and the light beam is turned back by the corner cube array (light retroreflecting means) provided on the upper and left and right sides of the panel (returning direction). The light beams returned by the respective light emitting / receiving units are detected. This makes it possible to detect the scanning angles of the left and right light emitting / receiving portions where the light beam is blocked by a finger or the like, and the coordinates of the designated position can be calculated using the principle of triangulation. In addition, JP-A-11-
In the optical coordinate input / detection device disclosed in Japanese Patent Laid-Open No. 110116, for example, light is emitted at the upper left and right corners of the coordinate input surface.
A light receiving part is provided, and a light beam is emitted while changing the emitting direction (emission angle) from each light emitting / receiving part to scan the coordinate input surface, and the light beam is provided on the bottom and left and right sides of the panel. The light reflecting / reflecting means folds back (reflects in the returning direction), and the light beams returned by the respective light emitting / receiving units are detected. As a result, the coordinates of the instructed position are calculated by detecting the light blocking range of the scanning angles of the left and right light emitting / receiving parts where the light beam is blocked by the finger or the like.

【0003】[0003]

【発明が解決しようとする課題】前記したように、従来
技術においては、一つの画面を複数の領域に分け、それ
ぞれ異なった領域に属する複数の点に同時にタッチし、
それぞれのタッチに応じた処理を並行に動作させるとい
うようなことは行っていないし、複数の領域に分けるこ
とにより、同時に指示された複数のタッチ座標を特定す
ることも行っていない。本発明の目的は、このような従
来技術の問題を解決することであり、一つの画面を複数
の人が同時に使用して、それぞれ別の描画処理をおこな
うようことにより、描画領域が少なくなるのを防ぐこと
ができる描画処理方法を提供することを目的とする。
As described above, in the prior art, one screen is divided into a plurality of areas, and a plurality of points belonging to different areas are simultaneously touched,
The processing corresponding to each touch is not operated in parallel, and the plurality of touch coordinates simultaneously instructed is not specified by dividing the processing into a plurality of areas. An object of the present invention is to solve such a problem of the related art, and a plurality of people simultaneously use one screen to perform different drawing processes, so that the drawing area is reduced. It is an object of the present invention to provide a drawing processing method capable of preventing the above.

【0004】[0004]

【課題を解決するための手段】前記の課題を解決するた
めに、請求項1記載の発明では、座標入力機能付表示装
置により座標を検出して描画処理をおこなう描画処理方
法において、表示画面を分割して生成した複数の描画領
域のそれぞれで同時に指示された座標を検出可能にし
て、指示に応じて前記複数の描画領域で並行に異なった
描画処理をおこなう構成にするとともに、前記複数の描
画領域のそれぞれにおける処理内容の指示のうち少なく
とも一部の処理内容の指示をおこなう表示子を共通の表
示子領域に表示する構成にしたことを特徴とする。ま
た、請求項2記載の発明では、請求項1記載の発明にお
いて、前記処理内容が描画モード切替処理である構成に
したことを特徴とする。また、請求項3記載の発明で
は、請求項1または請求項2記載の発明において、前記
表示子の属する表示子領域中の1点の座標と描画領域中
の1点の座標とが所定時間以上同時に検出された場合
に、描画領域から検出された1点の属する描画領域を対
象とする表示子を前記表示子領域に表示する構成にした
ことを特徴とする。また、請求項4記載の発明では、請
求項3記載の発明において、検出される2つの座標のそ
れぞれが前記所定時間以上持続して所定の誤差内の値で
ある場合に前記描画領域を対象とする表示子を前記表示
子領域に表示する構成にしたことを特徴とする。また、
請求項5記載の発明では、請求項1または請求項2記載
の発明において、前記表示子を用いておこなわれる指示
がどの描画領域を対象にしているかを示す領域表示表示
子を表示する構成にしたことを特徴とする。また、請求
項6記載の発明では、請求項5記載の発明において、前
記領域表示表示子が指示対象の描画領域を選択するため
の表示子でもある構成にしたことを特徴とする。また、
請求項7記載の発明では、情報処理装置上で実行される
プログラムにおいて、請求項1乃至請求項6のいずれか
1項に記載の描画処理方法に従ってプログラミングした
ことを特徴とする。また、請求項8記載の発明では、プ
ログラムを記憶した記憶媒体において、請求項7記載の
プログラムを記憶したことを特徴とする。
In order to solve the above-mentioned problems, in the invention according to claim 1, in a drawing processing method for detecting a coordinate by a display device with a coordinate input function and performing a drawing process, a display screen is displayed. Coordinates designated at the same time in each of a plurality of divided drawing areas can be detected, and different drawing processing is performed in parallel in the plurality of drawing areas according to the instruction. It is characterized in that at least a part of the instructions of the processing contents in each of the areas is displayed in a common indicator area. The invention according to claim 2 is characterized in that, in the invention according to claim 1, the processing content is a drawing mode switching processing. In the invention according to claim 3, in the invention according to claim 1 or 2, the coordinates of one point in the indicator area to which the indicator belongs and the coordinates of one point in the drawing area are equal to or more than a predetermined time. When detected at the same time, the display targeting the drawing area to which one point detected from the drawing area belongs is displayed in the display area. According to a fourth aspect of the present invention, in the third aspect of the present invention, the drawing area is targeted when each of the two detected coordinates has a value within a predetermined error for the predetermined time or more. The display element to be displayed is displayed in the display area. Also,
According to a fifth aspect of the invention, in the first or second aspect of the invention, an area display indicator indicating which drawing area the instruction given using the indicator is targeted is displayed. It is characterized by The invention according to claim 6 is characterized in that, in the invention according to claim 5, the area display indicator is also an indicator for selecting a drawing area to be instructed. Also,
The invention described in claim 7 is characterized in that the program executed on the information processing device is programmed according to the drawing processing method according to any one of claims 1 to 6. The invention according to claim 8 is characterized in that the program according to claim 7 is stored in a storage medium storing the program.

【0005】[0005]

【発明の実施の形態】以下、図面により本発明の実施の
形態を詳細に説明する。図1は本発明が実施される例え
ば電子黒板システムのシステム構成図である。図示した
ように、この実施例の電子黒板システムは、座標入力機
能付表示装置1と、例えばパーソナルコンピュータなど
により実現される制御装置2とから構成される。また、
前記座標入力機能付表示装置1は、指などで触れた画面
上の位置を指などで遮られた遮光方向を検出することに
より光学的に検出して制御装置2へ送る座標検出部と、
制御装置2から送られてきた画像データを表示する表示
部を備える。座標検出部は表示画面の解像度(例えばX
軸方向ドット数:1024、Y軸方向ドット数:76
8)に対応した表示画面上のX,Y座標を検知して、そ
の座標データを制御装置2へ送るものである。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a system configuration diagram of, for example, an electronic blackboard system in which the present invention is implemented. As shown in the figure, the electronic blackboard system of this embodiment includes a display device 1 with a coordinate input function and a control device 2 realized by, for example, a personal computer. Also,
The coordinate input function-equipped display device 1 optically detects a position on the screen touched by a finger or the like by a light-shielding direction interrupted by the finger or the like, and sends it to the control device 2.
A display unit for displaying the image data sent from the control device 2 is provided. The coordinate detection unit determines the resolution of the display screen (for example, X
Axial dots: 1024, Y-axis dots: 76
The X and Y coordinates on the display screen corresponding to 8) are detected and the coordinate data are sent to the control device 2.

【0006】以下、図2により、まず、座標入力機能付
き表示装置1の座標検出部について説明する。図2にお
いて、座標入力領域3は、4角形の形状をした、例えば
電子的に画像を表示するディスプレイ表面や、ペンなど
で書き込むホワイトボードである。このような座標入力
領域3上を光学的に不透明な利用者の手指、ペン、支持
棒など指示手段6で触れたとき、座標入力機能付き表示
装置1の座標検出部は、触れられた位置の座標を検出す
るものである。図2に示したように、座標入力領域3の
上方両端には受発光部5が装着されていて、その受発光
部5からは座標入力領域3のあらゆる方向に向けて光が
隙間なく照射されている。図2においては、このような
照射光をL1,L2,L3,…Lmの光ビームの束(プ
ローブ光)で示しているが、実際には、この照射光は、
点光源81から広がる座標入力面に平行な面に沿って進
行する扇形板状の光波である。また、座標入力領域3の
周辺部分には、再帰性反射部材4が再帰反射面を座標入
力領域3の中央に向けて装着されている。この再帰性反
射部材4は入射した光を入射角度によらずに同じ方向に
反射する特性をもった部材である。例えば受発光部5か
ら発した扇形板状の光波のうちある一つのビーム42に
注目すると、ビーム42は再帰性反射部材4によって反
射されて再び同じ光路を再帰反射光41として受発光部
5に向かって戻るように進行する。受発光部5には、後
に述べる受光手段が設置されているので、プローブ光L
1〜Lmのそれぞれに対して、その再帰光が受発光部5
に再帰したかどうかを判断することができる。いま、指
示手段6(例えば利用者の手)を図示の位置に触れた場
合について考える。このとき、プローブ光40は指示手
段6に遮られて再帰性反射部材4には到達しない。した
がって、プローブ光40の再帰光は受発光部5には到達
せず、プローブ光40に対応する再帰光が受光されない
ことを検出することにより、プローブ光40の延長線
(直線L)上に支持物体が挿入されたことを検出するこ
とができる。同様に、図2の右上方に設置された受発光
部5からもプローブ光を照射し、プローブ光43に対応
する再帰光が受光されないことを検出することにより、
プローブ光43の延長線(直線R)上に支持物体が挿入
されたことを検出することができる。このようにして、
直線Lおよび直線Rを求めることができれば、この交点
座標を演算することにより、指示手段6が挿入された座
標を得ることができるのである。
Hereinafter, referring to FIG. 2, the coordinate detecting section of the display device 1 with the coordinate input function will be described first. In FIG. 2, the coordinate input area 3 is a quadrangular shape, for example, a display surface for electronically displaying an image, or a whiteboard for writing with a pen or the like. When touching the coordinate input area 3 with the optically opaque user's finger, pen, support rod, or the like, the coordinate detecting unit of the display device with coordinate input function 1 detects the touched position. The coordinates are detected. As shown in FIG. 2, the light emitting / receiving sections 5 are mounted on both upper ends of the coordinate input area 3, and light is emitted from the light emitting / receiving section 5 in all directions of the coordinate input area 3 without any gap. ing. In FIG. 2, such irradiation light is shown as a bundle of light beams L1, L2, L3, ... Lm (probe light), but in reality, this irradiation light is
It is a fan-shaped light wave traveling from a point light source 81 along a plane parallel to the coordinate input plane. Further, a retroreflective member 4 is attached to the peripheral portion of the coordinate input area 3 with its retroreflective surface facing the center of the coordinate input area 3. The retroreflective member 4 is a member having a characteristic of reflecting incident light in the same direction regardless of the incident angle. For example, paying attention to one beam 42 of the fan-shaped plate-shaped light waves emitted from the light emitting / receiving unit 5, the beam 42 is reflected by the retroreflective member 4, and the same optical path is again reflected to the light emitting / receiving unit 5 as the retroreflected light 41. Proceed to return. Since the light receiving and emitting section 5 is provided with a light receiving means described later, the probe light L
For each of 1 to Lm, the recursive light is received and emitted by the light receiving and emitting unit
You can determine whether or not you have recurred to. Now, consider a case where the indicating means 6 (for example, the user's hand) touches the position shown in the figure. At this time, the probe light 40 is blocked by the indicating means 6 and does not reach the retroreflective member 4. Therefore, the retroreflected light of the probe light 40 does not reach the light emitting / receiving unit 5, and by detecting that the retroreflected light corresponding to the probe light 40 is not received, it is supported on the extension line (straight line L) of the probe light 40. It can be detected that an object has been inserted. Similarly, by irradiating the probe light from the light emitting / receiving unit 5 installed on the upper right side of FIG. 2 and detecting that the retroreflecting light corresponding to the probe light 43 is not received,
It is possible to detect that the support object is inserted on the extension line (straight line R) of the probe light 43. In this way
If the straight line L and the straight line R can be obtained, the coordinates in which the indicating means 6 is inserted can be obtained by calculating the coordinates of this intersection.

【0007】受発光部5の内部の構造の概略を図3に示
す。以下、図3により、受発光部5の構成と、プローブ
光L1からLmのうちどのプローブ光が遮断されたかを
検出する機構について説明する。なお、図3は図2に示
した受発光部5を座標入力領域3に垂直な方向から見た
図である。ここでは、簡単にするため、座標入力領域3
に平行な2次元平面で説明を行う。図示したように、こ
の受発光部5は、点光源81、集光レンズ51、および
受光素子50などを備えている。点光源81は、光源か
ら見て受光素子50と反対の方向に扇形に光を射出する
ものとする。点光源81から射出された扇形の光は、矢
印53、58、およびその他の方向へ進行するビームの
集合であると考える。このうち、矢印53の方向へ進行
したビームは再帰性反射部材4で反射されて、集光レン
ズ51を通り、受光素子50上の位置57に到達する。
また、矢印58に沿って進行したビームは再帰性反射部
材4で反射して受光素子50上の位置56に到達する。
このように、点光源81から発し、再帰性反射部材4で
反射され、同じ経路を戻ってきた光は、集光レンズ51
の作用によって、それぞれ受光素子50上のそれぞれ異
なる位置に到達するのである。したがって、ある位置に
指示手段6が挿入され、あるビームが遮断されると、そ
のビームに対応する受光素子50上の点に光が到達しな
くなる。よって、受光素子50上の光強度の分布を調べ
ることにより、どのビームが遮られたかを知ることがで
きるのである。
FIG. 3 shows an outline of the internal structure of the light emitting / receiving section 5. Hereinafter, the configuration of the light emitting / receiving unit 5 and a mechanism for detecting which of the probe lights L1 to Lm is blocked will be described with reference to FIG. 3 is a view of the light emitting / receiving unit 5 shown in FIG. 2 viewed from a direction perpendicular to the coordinate input area 3. Here, for simplicity, the coordinate input area 3
A two-dimensional plane parallel to is explained. As illustrated, the light emitting / receiving unit 5 includes a point light source 81, a condenser lens 51, a light receiving element 50, and the like. The point light source 81 emits light in a fan shape in a direction opposite to the light receiving element 50 when viewed from the light source. The fan-shaped light emitted from the point light source 81 is considered to be a set of beams traveling in the directions of the arrows 53 and 58 and other directions. Of these, the beam traveling in the direction of arrow 53 is reflected by the retroreflective member 4, passes through the condenser lens 51, and reaches the position 57 on the light receiving element 50.
The beam traveling along the arrow 58 is reflected by the retroreflective member 4 and reaches the position 56 on the light receiving element 50.
In this way, the light emitted from the point light source 81, reflected by the retroreflective member 4 and returning along the same path is collected by the condenser lens 51.
By the action of, the light beams reach different positions on the light receiving element 50. Therefore, when the pointing means 6 is inserted at a certain position and a certain beam is blocked, the light does not reach the point on the light receiving element 50 corresponding to that beam. Therefore, by examining the distribution of the light intensity on the light receiving element 50, it is possible to know which beam is blocked.

【0008】図4により、前記した動作をさらに詳しく
説明する。なお、図4において、受光素子50は集光レ
ンズ51の焦点面に設置されているものとする。このよ
うな構成で、点光源81から図4の右側に向けて発した
光は再帰性反射部材4によって反射され、同じ経路を戻
り、点光源81の位置に再び集光する。集光レンズ51
の中心は点光源位置と一致するように設置する。再帰性
反射部材4から戻った再帰光は集光レンズ51の中心を
通るので、レンズ後方(受光素子側)に対称の経路で進
行する。図4には、受光素子50上の位置に対応づけて
光強度分布を示しているが、図示したように、指示手段
6により光が遮られていない位置では、受光素子50上
の光強度分布はほぼ一定である。それに対して、指示手
段6により光が遮られている受光素子50上の位置Dn
は光強度の弱い領域(暗点)となる。この位置Dnは遮
られたビームの出射/入射角θnと対応しており、Dn
を検出することによりθnを知ることができる。つま
り、θnはDnの関数として、 θn=arctan(Dn/f) (式1) と表すことができる。ここで、特に図2左上方の受発光
部1におけるθnをθnL、DnをDnLと置き換え
る。さらに、図5において、受発光部1と座標入力領域
3との幾何学的な相対位置関係の変換gにより、指示手
段6を左上方の受発光部1から見た方向に当たる図示の
角θLは、(式1)で求められるDnLの関数として、 θL=g(θnL) ただし θnL=arctan(DnL/f) (式2) と表すことができる。同様に、図2右上方の受発光部1
についても(式2)のL記号をR記号に置き換えて、右
側の受発光部1と座標入力領域3との幾何学的な相対位
置関係の変換hにより、 θR=h(θnR) ただし θnR=arctan(DnR/f) (式3) と表すことができる。ここで、座標入力領域3上の、受
発光部1の取り付け間隔を図5に示したwとし、原点を
左上の角、原点から右方向をX軸正方向、原点から下方
向をY軸正方向とすれば、座標入力領域3上の指示手段
6で指示した点の座標(x,y)は次のように成る。 x=wtanθR/(tanθL+tanθR) (式4) y=wtanθL・tanθR/(tanθL+tanθR) (式5) このように、x,yは、DnL,DnRの関数として表
すことができる。つまり、左右の受発光部1内の受光素
子50上の暗点の位置DnL,DnRを検出し、受発光
部1の幾何学的配置を考慮することにより、指示手段6
で指示した点の座標を検出することができるのである。
The above operation will be described in more detail with reference to FIG. In FIG. 4, the light receiving element 50 is assumed to be installed on the focal plane of the condenser lens 51. With such a configuration, the light emitted from the point light source 81 toward the right side in FIG. 4 is reflected by the retroreflective member 4, returns along the same path, and is condensed again at the position of the point light source 81. Condenser lens 51
Set the center of the so that it coincides with the position of the point light source. Since the retroreflected light returning from the retroreflective member 4 passes through the center of the condenser lens 51, the retroreflected light travels in a symmetrical path behind the lens (on the light receiving element side). In FIG. 4, the light intensity distribution is shown in association with the position on the light receiving element 50, but as shown in the figure, the light intensity distribution on the light receiving element 50 at the position where the light is not blocked by the indicating means 6. Is almost constant. On the other hand, the position Dn on the light receiving element 50 where the light is blocked by the indicating means 6
Indicates a region where the light intensity is weak (dark spot). This position Dn corresponds to the outgoing / incident angle θn of the blocked beam, and Dn
Θn can be known by detecting. That is, θn can be expressed as θn = arctan (Dn / f) (Equation 1) as a function of Dn. Here, in particular, θn and Dn in the light emitting / receiving unit 1 at the upper left of FIG. 2 are replaced with θnL and DnL, respectively. Further, in FIG. 5, by the conversion g of the geometrical relative positional relationship between the light emitting / receiving unit 1 and the coordinate input area 3, the angle θL shown in FIG. , Θn = g (θnL), where θnL = arctan (DnL / f) (Equation 2). Similarly, the light emitting / receiving unit 1 at the upper right of FIG.
In the case of (Equation 2), the L symbol is replaced with the R symbol, and θR = h (θnR) where θnR = by the conversion h of the geometrical relative positional relationship between the light receiving / emitting unit 1 and the coordinate input region 3 on the right side. arctan (DnR / f) (Equation 3) Here, the mounting interval of the light emitting / receiving unit 1 on the coordinate input area 3 is w shown in FIG. 5, the origin is the upper left corner, the right direction from the origin is the X axis positive direction, and the downward direction is the Y axis positive direction. In terms of directions, the coordinates (x, y) of the point designated by the pointing means 6 on the coordinate input area 3 are as follows. x = wtan θR / (tan θL + tan θR) (Equation 4) y = wtan θL · tan θR / (tan θL + tan θR) (Equation 5) Thus, x and y can be expressed as a function of DnL and DnR. In other words, by detecting the positions DnL and DnR of the dark spots on the light receiving elements 50 in the left and right light receiving and emitting units 1 and considering the geometrical arrangement of the light receiving and emitting units 1, the instruction means 6 is provided.
The coordinates of the point designated by can be detected.

【0009】図6は、座標入力領域3に前記した光学系
を設置した例として、左右の受発光部1のうち一方をデ
ィスプレイ表面へ設置した実施例を示す。図6におい
て、座標入力領域3はディスプレイ面の断面を示してお
り、y軸の正方向を見たものである。また、同図におい
て、AおよびBは、説明のために、視点を変えて表示し
たものである。まず、受発光部1のうち発光手段につい
て説明する。この実施例では、光源83としてレーザー
ダイオードやピンポイントLEDなどスポットをある程
度絞ることが可能な光源を用いる。そのような光源83
からディスプレイ面(座標入力領域3)に垂直に発した
光はシリンドリカルレンズ84によってx方向のみ平行
光線となり、シリンドリカルレンズ84を出た後は、シ
リンドリカルレンズ84とは曲率の分布が直交する2枚
のシリンドリカルレンズ85、86により同図y方向に
対して集光される。同図A部分はこの様子を説明するた
めにシリンドリカルレンズ群の配置と集光状態を視点を
z軸に対して回転し、x方向から見たものである。この
シリンドリカルレンズ群の作用により、線状に集光した
領域がシリンドリカルレンズ86の後方に形成される。
ここに、y方向に狭くx方向に細長いスリット82を挿
入する。つまり、このスリット位置に線状の2次光源8
1を形成する。そして、2次光源81から発した光はハ
ーフミラー87で折り返され、ディスプレイ面の垂直方
向には広がらず、ディスプレイ面と平行方向には2次光
源81を中心に扇形状に広がりながらディスプレイ面に
沿って進行する。さらに、その光はディスプレイ周辺端
に設置してある再帰性反射部材4で反射し、同様の経路
でハーフミラー87方向(矢印C)へ戻る。そして、ハ
ーフミラー87を透過した光はディスプレイ面に平行に
進み、シリンドリカルレンズ51を通り受光素子50に
入射する。このとき、2次光源81とシリンドリカルレ
ンズ51はハーフミラー87に対して共役な位置関係に
ある。したがって、2次光源81は図4に示した光源8
1に対応し、シリンドリカルレンズ51は図4に示した
レンズ51に対応する。また、図6のB部分は受光側の
シリンドリカルレンズ51と受光素子50を視点を変え
てz軸方向から見たものであり、同様に、図4に示した
レンズ51と受光素子50に対応する。
FIG. 6 shows an example in which one of the left and right light emitting / receiving sections 1 is installed on the display surface as an example of installing the above-mentioned optical system in the coordinate input area 3. In FIG. 6, the coordinate input area 3 shows a cross section of the display surface, and is viewed in the positive direction of the y-axis. Further, in the figure, A and B are displayed with different viewpoints for the sake of explanation. First, the light emitting means of the light emitting / receiving unit 1 will be described. In this embodiment, a light source such as a laser diode or a pinpoint LED capable of narrowing the spot to some extent is used as the light source 83. Such a light source 83
Light emitted perpendicularly to the display surface (coordinate input area 3) from the lens is converted into parallel rays only in the x direction by the cylindrical lens 84, and after exiting the cylindrical lens 84, the curvature distribution is orthogonal to that of the cylindrical lens 84. The light is focused by the cylindrical lenses 85 and 86 in the y direction in FIG. In order to explain this situation, part A in the figure shows the arrangement and condensing state of the cylindrical lens group as viewed from the x direction by rotating the viewpoint about the z axis. Due to the action of this cylindrical lens group, a linearly condensed region is formed behind the cylindrical lens 86.
Here, a slit 82 narrow in the y direction and elongated in the x direction is inserted. That is, the linear secondary light source 8 is located at this slit position.
1 is formed. Then, the light emitted from the secondary light source 81 is reflected by the half mirror 87, does not spread in the direction perpendicular to the display surface, and spreads in a fan shape around the secondary light source 81 in the direction parallel to the display surface while spreading on the display surface. Proceed along. Further, the light is reflected by the retroreflective member 4 installed at the peripheral edge of the display, and returns to the half mirror 87 direction (arrow C) along the same path. Then, the light transmitted through the half mirror 87 travels in parallel to the display surface, passes through the cylindrical lens 51, and enters the light receiving element 50. At this time, the secondary light source 81 and the cylindrical lens 51 have a conjugate positional relationship with the half mirror 87. Therefore, the secondary light source 81 is the light source 8 shown in FIG.
1 and the cylindrical lens 51 corresponds to the lens 51 shown in FIG. 6B is a view of the light-receiving side cylindrical lens 51 and the light-receiving element 50 seen from the z-axis direction with the viewpoint changed, and similarly corresponds to the lens 51 and the light-receiving element 50 shown in FIG. .

【0010】次に、前記したような座標検出部を用いた
場合で、2点検知の実施例を説明する。図7において、
L1およびL2を検知対象の2点とする。このL1,L
2のディップ幅(遮光幅)WL1,WL2は、光源(左
上)からの距離がL1の方がL2より小であるので、W
L1>WL2となる。右側の光源からの場合も同様なこ
とが成り立つ。この実施例では、このような関係を用い
る。まず、ディスプレイ面に、図示の例ではY軸に平行
に所望のX座標位置に設定した直線状の境界線上の2点
のディップ幅とtanθとの関係を導くキャリブレーシ
ョンを行う。図8において、前記境界線X上の2点、X
A,XBにタッチすることにより、XAにおけるディッ
プ幅WXA、XBにおけるディップ幅WXB、およびt
anθLXA,tanθLXB,tanθRXA,ta
nθRXBを検出して、前記境界線上でのtanθと、
ディップ幅の関係を算出しておくことにより、複数の座
標が同時に指示された際の境界線上のディップ幅を算出
し、そのディップ幅と複数の各タッチ点における遮光幅
とを後述するように比較して前記複数の座標を算出する
のである。
Next, an example of two-point detection using the above-mentioned coordinate detecting section will be described. In FIG.
Let L1 and L2 be two points to be detected. This L1, L
For the dip widths (light-shielding widths) WL1 and WL2 of 2, the distance L1 from the light source (upper left) is smaller than L2.
L1> WL2. The same holds true from the right light source. In this embodiment, such a relationship is used. First, on the display surface, in the illustrated example, calibration is performed to derive the relationship between tan θ and the dip width of two points on a linear boundary line set at a desired X coordinate position parallel to the Y axis. In FIG. 8, two points on the boundary line X, X
By touching A and XB, dip width WXA in XA, dip width WXB in XB, and t
anθLXA, tanθLXB, tanθRXA, ta
nθRXB is detected, and tan θ on the boundary line,
By calculating the relationship between dip widths, the dip width on the boundary line when multiple coordinates are specified at the same time is calculated, and the dip width and the light-shielding width at each touch point are compared as described below. Then, the plurality of coordinates are calculated.

【0011】次に、前記境界線Xの左側のA点(X1,
Y1)と右側のB点(X2,Y2)の同時検出を行う。
以下、図9に従って、この同時検出について説明する。
まず、前記各点に関して、 左側の光源で検出するA点の角度をθL1、ディップ幅
をWAL 左側の光源で検出するB点の角度をθL2、ディップ幅
をWBL 右側の光源で検出するA点の角度をθR1、ディップ幅
をWAR 右側の光源で検出するB点の角度をθR2、ディップ幅
をWBR とする。また、前記のようにして既に算出されている境
界線上でのtanθとディップ幅との関係から、 角度θL1のプローブ光と境界線Xとの交点におけるデ
ィップ幅WxθL1 角度θL2のプローブ光と境界線Xとの交点におけるデ
ィップ幅WxθL2 角度θR1のプローブ光と境界線Xとの交点におけるデ
ィップ幅WxθR1 角度θR2のプローブ光と境界線Xとの交点におけるデ
ィップ幅WxθR2 を算出する。次に、WALとWxθL1を比較する。そ
のとき、 WAL>WxθL1のときはA点は境界線Xの左側 (1) WAL<WxθL1のときはA点は境界線Xの右側 (2) に位置すると判定する。同様に、WBLとWxθL2を
比較する。そのとき、 WBL>WxθL2のときはB点は境界線Xの左側 (3) WBL<WxθL2のときはB点は境界線Xの右側 (4) に位置すると判定する。続いて、WARとWxθR1を
比較して、 WAR>WxθR1のときはA点は境界線の右側 (5) WAR<WxθR1のときはA点は境界線の左側 (6) に位置すると判定する。さらに、WBRとWxθR2を
比較して、 WBR>WxθR2のときはB点は境界線の右側 (7) WBR<WxθR2のときはB点は境界線の左側 (8) に位置すると判定する。
Next, point A (X1, on the left side of the boundary line X
Simultaneous detection of Y1) and point B (X2, Y2) on the right side is performed.
The simultaneous detection will be described below with reference to FIG.
First, regarding each of the above points, the angle of point A detected by the left light source is θL1, the dip width is WAL, the angle of point B detected by the left light source is θL2, and the dip width is WBL of the point A detected by the right light source. The angle is θR1, the dip width is WAR, the angle of the point B detected by the light source on the right side is θR2, and the dip width is WBR. In addition, from the relationship between tan θ and the dip width on the boundary line already calculated as described above, the dip width WxθL1 at the intersection of the probe light with the angle θL1 and the boundary line X and the probe line with the angle θL2 and the boundary line X. The dip width WxθL2 at the intersection point with and the dip width WxθR1 at the intersection point between the probe light with the angle θR1 and the boundary line X is calculated. Next, WAL and WxθL1 are compared. At that time, when WAL> WxθL1, point A is on the left side of boundary line X (1) When WAL <WxθL1, point A is on the right side of boundary line X (2). Similarly, WBL and WxθL2 are compared. At that time, when WBL> WxθL2, the point B is on the left side of the boundary line X (3). When WBL <WxθL2, the point B is on the right side of the boundary line X (4). Subsequently, WAR and WxθR1 are compared. When WAR> WxθR1, point A is on the right side of the boundary line (5). When WAR <WxθR1, point A is on the left side of the boundary line (6). Further, by comparing WBR and WxθR2, it is determined that the point B is located on the right side of the boundary line when WBR> WxθR2 (7) and the point B is located on the left side (8) of the boundary line when WBR <WxθR2.

【0012】A点とB点がそれぞれ境界線Xの左右の別
の側に位置するとした場合には、左側の光源での検出つ
いては、(1)の条件と(4)の条件が同時に成り立
ち、(2)の条件と(3)の条件が同時に成り立つ。ま
た、右側の光源での検出については、(5)の条件と
(8)の条件が同時に成り立ち、(6)の条件と(7)
の条件が同時に成り立つ。このような条件が同時に成り
立たない場合は、境界線Xの片側にA点、B点が同時に
検出されたか、2点同時にタッチしていない場合とみな
す。遮光方向は左右2本あり、その交点は図9から明ら
かなように4点あるが、A点(X1,Y1)およびB点
(X2,Y2)について前記の条件が成り立つ場合、そ
の座標は、 A点のX1=WtanθR1/(tanθL1+tanθR1) Y1=WtanθL1tanθR1/(tanθL1+tanθR1) B点のX2=WtanθR2/(tanθL2+tanθR2) Y2=WtanθL2tanθR2/(tanθL2+tanθR2) となる。次に、前記した2点検知と同様な方法で3点を
検知する例を説明する。3点検知の場合、図9のL1,
L2,L3のディップ幅WL1,WL2,WL3は、光
源からの距離がL1<L2<L3であるので、WL1<
WL2<WL3となる。右側の光源からの場合も同様な
ことが成り立つ。この実施例では、このような関係を用
いる。3点検知の場合も、2点検知と同様にキャリブレ
ーションを行い、まず、2本の境界線上のX1、X2の
ディップ幅とtanθとの関係を求める。図11におい
て、その境界線X1上の2点XA1,XB1、X2上の
2点XA2,XB2をタッチすることにより、それぞれ
4点の角度とディップ幅を検出し、その境界線上でのt
anθとディップ幅の関係を算出するのである。
If the points A and B are located on the left and right sides of the boundary line X, the conditions (1) and (4) are satisfied at the same time for the detection by the light source on the left side. The condition (2) and the condition (3) are satisfied at the same time. Regarding the detection by the light source on the right side, the condition (5) and the condition (8) are satisfied at the same time, and the condition (6) and the condition (7) are satisfied.
The conditions of are satisfied at the same time. When such conditions are not satisfied at the same time, it is considered that points A and B are detected on one side of the boundary line X at the same time, or two points are not touched at the same time. There are two light-shielding directions on the left and right, and there are four intersections as is clear from FIG. 9. However, when the above conditions are satisfied for point A (X1, Y1) and point B (X2, Y2), the coordinates are X1 of point A = Wtan θR1 / (tan θL1 + tan θR1) Y1 = Wtan θL1 tan θR1 / (tan θL1 + tan θR1) X2 of point B = Wtan θR2 / (tan θL2 + tan θR2) Y2 = Wtan θL2tan θR2 / tan θR2 (tan θR2 / tan 2R2tan θR2). Next, an example in which three points are detected by a method similar to the above-described two-point detection will be described. In the case of three-point detection, L1 in FIG.
With respect to the dip widths WL1, WL2 and WL3 of L2 and L3, since the distance from the light source is L1 <L2 <L3, WL1 <
WL2 <WL3. The same holds true from the right light source. In this embodiment, such a relationship is used. Also in the case of three-point detection, calibration is performed in the same manner as in the two-point detection, and first, the relationship between the dip width of X1 and X2 on the two boundary lines and tan θ is obtained. In FIG. 11, by touching two points XA1, XB1, and two points XA2, XB2 on the boundary line X1, the angles and dip widths of four points are respectively detected, and t on the boundary line is detected.
The relationship between an θ and the dip width is calculated.

【0013】次に、図12に従って、境界線X1の左側
のA点(X1,Y1)、境界線X1とX2の間のB点
(X2,Y2)、境界線X2の右側のC点(X3,Y
3)の同時検出を行う場合を説明する。まず、このよう
な点に関して、 左側の光源で検出するA点の角度をθL1、ディップ幅
をWAL 左側の光源で検出するB点の角度をθL2、ディップ幅
をWBL 左側の光源で検出するC点の角度をθL3、ディップ幅
をWCL 右側の光源で検出するA点の角度をθR1、ディップ幅
をWAR 右側の光源で検出するB点の角度をθR2、ディップ幅
をWBR 右側の光源で検出するC点の角度をθR3、ディップ幅
をWCR とする。また、前記のようにして既に算出されている境
界線上でのtanθとディップ幅との関係から、 角度θL1のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θL1 角度θL1のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θL1 角度θL2のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θL2 角度θL2のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θL2 角度θL3のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θL3 角度θL3のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θL3 角度θR1のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θR1 角度θR1のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θR1 角度θR2のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θR2 角度θR2のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θR2 角度θR3のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θR3 角度θR3のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θR3 を算出する。このとき、それぞれのディップ幅は、 WALは、WX1θL1<WAL WARは、WX2θR1>WAR WBLは、WX1θL2>WBL>WX2θL2 WBRは、WX1θR2<WBL<WX2θR2 WCLは、WX2θL3>WCL WCRは、WX2θR3<WCR が成り立つ。つまり、A点,B点,C点ともに、境界線
X1,X2に対してタッチ範囲に制約を加えているの
で、3点同時検出が可能となる。
Next, according to FIG. 12, a point A (X1, Y1) on the left side of the boundary line X1, a point B (X2, Y2) between the boundary lines X1 and X2, and a point C (X3) on the right side of the boundary line X2. , Y
A case where the simultaneous detection of 3) is performed will be described. First, regarding such points, the angle of point A detected by the left light source is θL1, the dip width is WAL, the angle of point B detected by the left light source is θL2, and the dip width is WBL the point C detected by the left light source. Is θL3, the dip width is WCL, the angle of the A point detected by the right light source is θR1, the dip width is WAR, the angle of the B point detected by the right light source is θR2, and the dip width is WBR the C detected by the right light source C Let θR3 be the angle of the point and WCR be the dip width. Further, from the relationship between tan θ and the dip width on the boundary line already calculated as described above, the dip width at the intersection of the probe light with the angle θL1 and the boundary line X1 is WX1θL1 with the probe light with the angle θL1 The dip width at the intersection with the line X2 is WX2θL1 The dip width at the intersection between the probe light having the angle θL2 and the boundary line X1 is WX1θL2 The dip width at the intersection with the probe light having the angle θL2 is WX2θL2 The angle θL3 The dip width at the intersection of the probe light and the boundary line X1 is WX1θL3 The dip width at the intersection of the probe light at the angle θL3 and the boundary line X2 is the dip width at the intersection of the probe light at the WX2θL3 angle θR1 and the boundary line X1. WX1θR1 The dip width at the intersection of the probe light with the angle θR1 and the boundary line X2 is defined as the boundary with the probe light with the WX2θR1 angle θR2. The dip width at the intersection with the line X1 is WX1θR2. The dip width at the intersection between the probe light with the angle θR2 and the boundary line X2 is WX2θR2 The dip width at the intersection with the boundary line X1 is WX1θR3 With the angle θR3 WX2θR3 is calculated as the dip width at the intersection of the probe light and the boundary line X2. At this time, the dip widths are as follows: WAL, WX1θL1 <WAL WAR, WX2θR1> WAR WBL, WX1θL2>WBL> WX2θL2 WBR, WX1θR2 <WBL <WX2θR2 WCL, WX2θR3> WX, WX2WCR, WX2WCR. It holds. That is, since the touch range is restricted with respect to the boundary lines X1 and X2 at all of the points A, B, and C, simultaneous detection of three points is possible.

【0014】この方法によって求められたA点,B点,
C点の座標は次のとおりである。 A点のX座標:X1=WtanθR1/(tanθL1+tanθR1) Y座標:Y1=WtanθL1・tanθR1/(tanθL1+tan θR1) B点のX座標:X2=WtanθR2/(tanθL2+tanθR2) Y座標:Y2=WtanθL2・tanθR2/(tanθL2+tan θR2) C点のX座標:X3=WtanθR3/(tanθL3+tanθR3) Y座標:Y3=WtanθL3・tanθR3/(tanθL3+tan θR3) N点を同時に検出する場合も同様にN−1本の所望の境
界線を設けて、境界線で区切られた各領域内で1点ずつ
の検出であれば可能である。なお、以上説明した2点検
知および3点検知においては、境界線はY軸に平行(縦
方向)としたが、2つの光源を縦方向に並べた場合(左
端または右端に並べる)には、境界線はX軸に平行(横
方向)になる。
A point, B point obtained by this method,
The coordinates of point C are as follows. X coordinate of point A: X1 = Wtan θR1 / (tan θL1 + tan θR1) Y coordinate: Y1 = Wtan θL1 · tan θR1 / (tan θL1 + tan θR1) X coordinate of point B: X2 = Wtan θR2 / (tan θL2 + tan θR2 = tan θR2 = tan θR2 = Tan θR2 = Ytan θR2 = Ytan θR2 = Ytan θR2 = Ytan θR2 = Ytan θR2 θR2) X coordinate of point C: X3 = Wtan θR3 / (tan θL3 + tan θR3) Y coordinate: Y3 = Wtan θL3 · tan θR3 / (tan θL3 + tan θR3) Similarly, when simultaneously detecting N points, N−1 desired boundary lines are provided. It is possible to detect one point at a time within each area separated by the boundary line. In the two-point detection and the three-point detection described above, the boundary line is parallel to the Y axis (longitudinal direction), but when two light sources are arranged in the longitudinal direction (arranged at the left end or the right end), The boundary line is parallel to the X axis (horizontal direction).

【0015】次に、図13により、前記した2点検知と
同様な方法で4点を検知する例を説明する。図13にお
いて、その4点は、Y軸に平行に所望のX座標位置に設
定した直線状の境界線X、X軸に平行に所望のY座標位
置に設定した直線状の境界線Yを基準にして、左下側の
A点(X1,Y1)、右下側のB点(X2,Y2)、左
上側のC点(X3,Y3)、右上側のD点(X4,Y
4)である。なお、4点検知の場合も、2点検知と同様
に最初にキャリブレーションをおこなっておく。また、
前記4点に関して、 左側の光源で検出するA点の角度をθL1、ディップ幅
をWAL 左側の光源で検出するB点の角度をθL2、ディップ幅
をWBL 左側の光源で検出するC点の角度をθL3、ディップ幅
をWCL 左側の光源で検出するD点の角度をθL4、ディップ幅
をWDL 右側の光源で検出するA点の角度をθR1、ディップ幅
はWAR 右側の光源で検出するB点の角度をθR2、ディップ幅
はWBR 右側の光源で検出するC点の角度をθR3、ディップ幅
はWCR 右側の光源で検出するD点の角度をθR4、ディップ幅
はWDR とする。また、 角度θL1のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL1 角度θL2のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL2 角度θL3のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL3 角度θL4のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL4 角度θR1のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR1 角度θR2のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR2 角度θR3のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR3 角度θR4のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR4 とする。
Next, referring to FIG. 13, an example in which four points are detected by a method similar to the above-described two-point detection will be described. In FIG. 13, the four points are based on a linear boundary line X set at a desired X coordinate position parallel to the Y axis and a linear boundary line Y set at a desired Y coordinate position parallel to the X axis. , The lower left side point A (X1, Y1), the lower right side point B (X2, Y2), the upper left side point C (X3, Y3), and the upper right side point D (X4, Y1).
4). In the case of four-point detection, the calibration is first performed as in the two-point detection. Also,
Regarding the four points, the angle of point A detected by the left light source is θL1, the dip width is WAL, the angle of point B detected by the left light source is θL2, and the dip width is WBL the angle of point C detected by the left light source. θL3, dip width WCL The angle of point D detected by the left light source is θL4, dip width is WDL the angle of point A detected by the right light source is θR1, and dip width is the angle of point B detected by the right light source. Is θR2, the dip width is θR3, the angle of the point C detected by the WBR right light source, the dip width is WCR, the angle of the D point detected by the right light source is θR4, and the dip width is WDR. Further, the dip width at the intersection of the probe light of the angle θL1 and the boundary line X is WxθL1 is the dip width at the intersection of the boundary light X of the probe light of the angle θL2 and the dip width at the intersection of the probe light of the angle θL3 and the boundary line X. The width of the probe beam with the width WxθL3 angle θL4 and the boundary line X is the dip width of the probe beam with the width WxθL4 angle θR1 and the boundary line X. The dip width is the intersection of the probe light with the width WxθR1 angle θR2 and the boundary line X. The dip width is WxθR2 and the dip width at the intersection of the probe line of the angle θR3 and the boundary line X is WxθR3. The dip width at the intersection of the probe light of the angle θR4 and the boundary line X is WxθR4.

【0016】 次に、WALとWxθL1を比較して、 WAL>WxθL1のときはA点は境界線Xの左側 (11) WAL<WxθL1のときはA点は境界線Xの右側 (12) に位置すると判定する。WBLとWxθL2を比較して、 WBL>WxθL2のときはB点は境界線Xの左側 (13) WBL<WxθL2のときはB点は境界線Xの右側 (14) に位置すると判定する。WCLとWxθL3を比較して、 WCL>WxθL3のときはC点は境界線Xの左側 (15) WCL<WxθL3のときはC点は境界線Xの右側 (16) に位置すると判定する。WBLとWxθL4を比較して、 WDL>WxθL4のときはD点は境界線Xの左側 (17) WDL<WxθL4のときはD点は境界線Xの右側 (18) に位置すると判定する。WARとWxθR1を比較して、 WAR>WxθR1のときはA点は境界線Xの右側 (19) WAR<WxθR1のときはA点は境界線Xの左側 (20) に位置すると判定する。WBRとWxθR2を比較して、 WBR>WxθR2のときはB点は境界線Xの右側 (21) WBR<WxθR2のときはB点は境界線Xの左側 (22) に位置すると判定する。WCRとWxθR3を比較して、 WCR>WxθR3のときはC点は境界線Xの右側 (23) WCR<WxθR3のときはC点は境界線Xの左側 (24) に位置すると判定する。WDRとWxθR4を比較して、 WDR>WxθR4のときはD点は境界線Xの右側 (25) WDR<WxθR4のときはD点は境界線Xの左側 (26) に位置すると判定する。[0016]   Next, compare WAL and WxθL1,     When WAL> WxθL1, point A is on the left side of boundary line X (11)     When WAL <WxθL1, point A is on the right side of boundary line X (12) It is determined to be located at. Compare WBL and WxθL2,     When WBL> WxθL2, point B is on the left side of boundary line X (13)     When WBL <WxθL2, point B is on the right side of boundary line X (14) It is determined to be located at. Compare WCL and WxθL3,     When WCL> WxθL3, point C is to the left of boundary line X (15)     When WCL <WxθL3, point C is to the right of boundary line X (16) It is determined to be located at. Compare WBL and WxθL4,     When WDL> WxθL4, point D is on the left side of boundary line X (17)     When WDL <WxθL4, point D is to the right of boundary line X (18) It is determined to be located at. Compare WAR and WxθR1,     When WAR> WxθR1, point A is to the right of boundary line X (19)     When WAR <WxθR1, point A is on the left side of boundary line X (20) It is determined to be located at. Compare WBR and WxθR2,     When WBR> WxθR2, point B is on the right side of boundary line X (21)     When WBR <WxθR2, point B is on the left side of the boundary line X (22) It is determined to be located at. Compare WCR and WxθR3,     When WCR> WxθR3, point C is on the right side of boundary line X (23)     When WCR <WxθR3, point C is on the left side of boundary line X (24) It is determined to be located at. Compare WDR and WxθR4,     When WDR> WxθR4, point D is to the right of boundary line X (25)     When WDR <WxθR4, point D is on the left side of boundary line X (26) It is determined to be located at.

【0017】また、 角度θL1のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL1 角度θL2のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL2 角度θL3のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL3 角度θL4のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL4 角度θR1のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR1 角度θR2のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR2 角度θR3のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR3 角度θR4のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR4 とする。そして、WALとWYθL1を比較し、図13
に示したように光源が下側にあることから、 WAL>WYθL1のときはA点は境界線Yの下側 (27) WAL<WYθL1のときはA点は境界線Yの上側 (28) に位置すると判定する。WBLとWYθL2を比較して、 WBL>WYθL2のときはB点は境界線Yの下側 (29) WBL<WYθL2のときはB点は境界線Yの上側 (30) に位置すると判定する。WCLとWYθL3を比較して、 WCL>WYθL3のときはC点は境界線Yの下側 (31) WCL<WYθL3のときはC点は境界線Yの上側 (32) に位置すると判定する。WDLとWYθL4を比較して、 WDL>WYθL4のときはD点は境界線Yの下側 (33) WDL<WYθL4のときはD点は境界線Yの上側 (34) に位置すると判定する。WARとWYθR1を比較して、 WAR>WYθR1のときはA点は境界線Yの下側 (35) WAR<WYθR1のときはA点は境界線Yの上側 (36) に位置すると判定する。WBRとWYθR2を比較して、 WBR>WYθR2のときはB点は境界線Yの下側 (37) WBR<WYθR2のときはB点は境界線Yの上側 (38) に位置すると判定する。WCRとWYθR3を比較して、 WCR>WYθR3のときはC点は境界線Yの下側 (39) WCR<WYθR3のときはC点は境界線Yの上側 (40) に位置すると判定する。WDRとWYθR4を比較して、 WDR>WYθR4のときはD点は境界線Yの下側 (41) WDR<WYθR4のときはD点は境界線Yの上側 (42) に位置すると判定する。
Further, the dip width at the intersection of the probe light of the angle θL1 and the boundary line Y is WYθL1 and the dip width at the intersection of the boundary line Y of the probe light of WYθL2 and the boundary line Y is WYθL2. The dip width at the intersection is WYθL3 and the dip width at the intersection between the probe light with the angle θL4 and the boundary line Y is WYθL4. The dip width at the intersection point of WYθR2 and the boundary line Y is WYθR2 and the dip width at the intersection point of the boundary line Y is WYθR3. Then, WAL and WYθL1 are compared, and FIG.
Since the light source is on the lower side as shown in, the point A is on the lower side of the boundary line Y when WAL> WYθL1 (27). The point A is on the upper side of the boundary line Y (28) when WAL <WYθL1. Determined to be located. By comparing WBL and WYθL2, it is determined that the point B is below the boundary line Y (29) when WBL> WYθL2 and the point B is above the boundary line Y (30) when WBL <WYθL2. By comparing WCL and WYθL3, it is determined that the point C is located below the boundary line Y when WCL> WYθL3 (31), and the point C is located above the boundary line Y (32) when WCL <WYθL3. By comparing WDL and WYθL4, it is determined that the point D is below the boundary line Y when WDL> WYθL4 (33) and the point D is above the boundary line Y (34) when WDL <WYθL4. By comparing WAR and WYθR1, it is determined that when WAR> WYθR1, point A is below the boundary line Y (35), and when WAR <WYθR1, point A is above the boundary line Y (36). By comparing WBR and WYθR2, it is determined that the point B is below the boundary line Y (37) when WBR> WYθR2, and the point B is above the boundary line Y (38) when WBR <WYθR2. By comparing WCR and WYθR3, it is determined that the point C is located below the boundary line Y when WCR> WYθR3 (39) and the point C is located above the boundary line Y (40) when WCR <WYθR3. By comparing WDR and WYθR4, it is determined that the point D is below the boundary line Y when WDR> WYθR4 (41) and the point D is above the boundary line Y (42) when WDR <WYθR4.

【0018】前記したように、A点(X1,Y1)は左
下側の領域、B点(X2,Y2)は右下側の領域、C点
(X3,Y3)は左上側の領域、D点(X4,Y4)は
右上側の領域の点であるので、下記の条件が同時に成り
立つ。下記の条件が成り立たない場合は、4点が前記領
域の点でないか、4点同時にタッチしていない場合とみ
なす。A点は(11)、(20)、(27)、(35)
が同時に成り立つ。B点は(14)、(21)、(2
9)、(37)が同時に成り立つ。C点は(15)、
(24)、(32)、(40)が同時に成り立つ。D点
は(18)、(25)、(34)、(42)が同時に成
り立つ。前記した条件が成り立つ場合、A点(X1,Y
1)、B点(X2,Y2)、C点(X3,Y3)、D点
(X4,Y4)の座標は、 A点のX1=WtanθR1/(tanθL1+tanθR1) Y1=WtanθL1tanθR1/(tanθL1+tanθR1) B点のX2=WtanθR2/(tanθL2+tanθR2) Y2=WtanθL2tanθR2/(tanθL2+tanθR2) C点のX3=WtanθR3/(tanθL3+tanθR3) Y3=WtanθL3tanθR3/(tanθL3+tanθR3) D点のX4=WtanθR4/(tanθL4+tanθR4) Y4=WtanθL4tanθR4/(tanθL4+tanθR4) となる。以上、一つの画面を複数の領域に分割してそれ
ぞれの領域にひとつづつ(但し、タッチしない領域があ
ってもよい)同時に複数点にタッチされてもそれぞれの
点の座標を識別できることを説明したが、次に、複数の
人が同時に使用したとき、例えば描画のモード切替など
をおこなったりするための複数の表示子(アイコン)が
属する表示子領域であるツールバーなどを使用可能人数
分表示しなくてもよいようにして、描画領域が少なくな
ってしまうのを防ぐことができる描画処理について説明
する。
As described above, point A (X1, Y1) is the lower left area, point B (X2, Y2) is the lower right area, point C (X3, Y3) is the upper left area, and point D is Since (X4, Y4) is a point in the upper right area, the following conditions are satisfied at the same time. If the following conditions are not satisfied, it is considered that 4 points are not points in the area or that 4 points are not touched at the same time. Point A is (11), (20), (27), (35)
At the same time. Point B is (14), (21), (2
9) and (37) are simultaneously established. C point is (15),
(24), (32), and (40) are simultaneously established. At the point D, (18), (25), (34), and (42) are simultaneously established. If the above conditions are satisfied, point A (X1, Y
1), B point (X2, Y2), C point (X3, Y3), and D point (X4, Y4) have the following coordinates: X1 of point A = Wtan θR1 / (tan θL1 + tan θR1) Y1 = Wtan θL1 tan θR1 / (tan θL1 + tan θR1) a X2 = WtanθR2 / (tanθL2 + tanθR2) Y2 = WtanθL2tanθR2 / (tanθL2 + tanθR2) point C X3 = WtanθR3 / (tanθL3 + tanθR3) Y3 = WtanθL3tanθR3 / (tanθL3 + tanθR3) point D X4 = WtanθR4 / (tanθL4 + tanθR4) Y4 = WtanθL4tanθR4 / (tanθL4 + tanθR4) . As described above, it has been explained that one screen is divided into a plurality of areas, and one area is provided for each area (however, there may be areas that are not touched), and the coordinates of each point can be identified even if a plurality of points are touched at the same time. However, next time, when multiple people use it at the same time, the toolbar, which is the indicator area to which multiple indicators (icons) belong, for switching the drawing mode, etc., is not displayed for the number of usable persons. A description will be given of a drawing process capable of preventing the drawing area from becoming small.

【0019】図14に、図1に示した制御装置2のハー
ドウェア構成と座標入力機能付表示装置1を示す。図示
したように、制御装置2は、バス19を介して接続され
ている各回路ブロック全体の制御を司るCPU11、読
み出し専用メモリ(ROM)12、プログラムやデータ
を一時的に記憶するRAM13、前記プログラムやデー
タを保存しておくハードディスク装置(HDD)14、
着脱可能な記憶媒体などから画像データなどを入力した
りする記憶媒体駆動装置15、キーボードやマウスなど
を有して利用者からの指示を受け付ける操作装置16、
および通信装置17などを備えている。なお、座標入力
機能付表示装置1の画面には、表示子領域であるツール
バーをはじめ、画像処理の動作に必要な各種情報などが
表示される。また、ハードディスク装置(HDD)14
には、画像ファイル、その画像ファイルの各ページに関
するツールバーファイルなども原ファイルへのリンク情
報とともに所定の領域に保存される。また、記憶媒体駆
動装置15は、光ディスク装置やフレキシブルディスク
装置を有して、画像データのほかにプログラム、各種デ
ータ、ツールバー設定データなどを読み書きすることが
できる。また、通信装置17はモデム、ターミナルアダ
プタ、通信制御部などから構成され、公衆回線を介して
インターネット上のWebサーバや他の情報処理装置な
どと画像ファイルやプログラムなど各種情報を送受信す
る。図15は、前記したようなハードウェアとプログラ
ムからなる描画処理システムの構成ブロック図である。
図示したように、この描画処理システムは、座標入力部
21、ファイル制御部22、画像生成部23、表示制御
部24などを備える。なお、図示したような各機能モジ
ュ―ルを構成する各プログラムは、通常、CD−RO
M、DVDまたはフレキシブルディスクなど着脱可能な
記録媒体に記憶させ、市場に流通させることができる。
FIG. 14 shows the hardware configuration of the control device 2 shown in FIG. 1 and the display device 1 with a coordinate input function. As shown in the figure, the control device 2 includes a CPU 11 that controls the entire circuit blocks connected via a bus 19, a read-only memory (ROM) 12, a RAM 13 that temporarily stores programs and data, and the program. Hard disk device (HDD) 14 for storing data and data,
A storage medium driving device 15 for inputting image data and the like from a removable storage medium, an operating device 16 having a keyboard, a mouse and the like for receiving instructions from a user,
And a communication device 17 and the like. In addition, on the screen of the display device with coordinate input function 1, various information necessary for the operation of image processing is displayed in addition to a toolbar which is a display area. In addition, a hard disk device (HDD) 14
The image file, a toolbar file for each page of the image file, and the like are also stored in a predetermined area together with link information to the original file. Further, the storage medium driving device 15 has an optical disk device or a flexible disk device, and can read and write programs, various data, toolbar setting data, etc. in addition to image data. The communication device 17 is composed of a modem, a terminal adapter, a communication control unit, and the like, and transmits / receives various information such as image files and programs to / from a Web server on the Internet or another information processing device via a public line. FIG. 15 is a configuration block diagram of a drawing processing system including the above hardware and a program.
As illustrated, this drawing processing system includes a coordinate input unit 21, a file control unit 22, an image generation unit 23, a display control unit 24, and the like. It should be noted that each program constituting each function module as shown in the figure is usually a CD-RO.
It can be stored in a removable recording medium such as an M, a DVD or a flexible disk and distributed in the market.

【0020】図16に、ツールバー操作に係わる動作フ
ローを描画領域が2つに分割されている場合で示す。以
下、図16に従って、図15に示した各部の動作を説明
する。まず、座標入力部21が利用者により指示された
(タッチされた)座標入力機能付表示装置1の画面上の
点の座標を特定(検出)する(S1)。そして、その座
標が、同時に2つであり、それぞれ図17に示した境界
線Yより上の領域(複数の表示子を含むツールバー領
域)と下の領域(描画領域)の座標であるならば(S2
でYes、S3でYes)、ファイル制御部22はその
ことを認識して、タイマ25をスタートさせる。こうし
て、前記したタッチ状態(前記2つの座標がそれぞれ所
定の誤差範囲内で検出されている状態)が所定時間以上
持続したならば、そのとき設定されているツールバー2
6の操作対象がそのとき入力された一方の座標が属する
描画領域か否かを判定し(S4)、そうでないならば
(S4でNo)、タッチされた描画領域に該当するツー
ルバー画像データをハードディスク装置14から取り込
み、RAM13に格納(記憶)する。さらに、ファイル
制御部22はそのツールバー画像データを画像生成部2
3へ送り、画像生成部23において表示用画像データを
作成する。そして、作成した表示用画像データを表示制
御部24へ送り、表示内容を切り替える(S5)。
FIG. 16 shows the operation flow relating to the toolbar operation when the drawing area is divided into two. The operation of each unit shown in FIG. 15 will be described below with reference to FIG. First, the coordinate input unit 21 identifies (detects) the coordinates of a point on the screen of the display device with coordinate input function 1 (touched) by the user (S1). If the coordinates are two at the same time and are the coordinates of the area (toolbar area including a plurality of indicators) and the area (drawing area) below the boundary line Y shown in FIG. 17, respectively ( S2
Yes in S3 and Yes in S3), the file control unit 22 recognizes this and starts the timer 25. In this way, if the above-mentioned touch state (state in which the two coordinates are detected within the predetermined error range) continues for a predetermined time or longer, the toolbar 2 set at that time is set.
It is determined whether the operation target of 6 is the drawing area to which one of the coordinates input at that time belongs (S4). If not (No in S4), the toolbar image data corresponding to the touched drawing area is stored in the hard disk. It is fetched from the device 14 and stored (stored) in the RAM 13. Further, the file control unit 22 transfers the toolbar image data to the image generation unit 2
3, and the image generator 23 creates display image data. Then, the created display image data is sent to the display control unit 24, and the display content is switched (S5).

【0021】図18に、ツールバー26の一例を示す。
図示したように、この例では、描画モード切替用の複数
の表示子や、描画像の一部を消すための消しゴム表示子
などをツールバー26内に並べて表示させている。な
お、前記において、ツールバー26内の表示子を用いて
おこなわれる指示がどの描画領域を対象にしているかを
表示する構成も可能である。その一例を図19に示す。
(a)図は、対象となっている描画領域を示す表示子で
あるチェックボックス(請求項5記載の領域表示表示
子)27をツールバー26内の右端(左端でもよい)に
表示した例である。また、(b)図は、描画領域を4つ
に分割した場合、それぞれの描画領域が接する場所にチ
ェックボックス27を表示した例である。図示したよう
に、チェックボックス27は各描画領域に対応してこの
例では4つの部分領域に区切られており、(a)図およ
び(b)図において、変更(処理)可能な描画領域に対
応した部分領域を例えばブリンク表示するか、他の部分
領域と異なる色で表示するのである。また、本発明の他
の実施例では、ツールバー26内の1点と描画領域の1
点とに同時にタッチする代わりに、ツールバー26内の
特定の一つの表示子にタッチするだけで対象描画領域の
処理内容を変えることができる。これを実現するため
に、この実施例では、(a)図および(b)図に示した
前記チェックボックス27内のいずれかの部分領域にタ
ッチしたとき、対象描画領域をその部分領域に対応した
描画領域にする。
FIG. 18 shows an example of the toolbar 26.
As shown in the figure, in this example, a plurality of indicators for switching drawing modes, an eraser indicator for erasing a part of the drawn image, and the like are displayed side by side in the toolbar 26. Note that, in the above, it is also possible to display which drawing area the instruction given using the indicator in the toolbar 26 is targeted. An example thereof is shown in FIG.
FIG. 7A is an example in which a check box (area display indicator according to claim 5) 27, which is an indicator showing a target drawing area, is displayed at the right end (or the left end) in the toolbar 26. . Further, FIG. 9B is an example in which when the drawing area is divided into four, the check boxes 27 are displayed at the positions where the drawing areas are in contact with each other. As shown in the figure, the check box 27 is divided into four partial areas in this example corresponding to each drawing area, and corresponds to a drawing area that can be changed (processed) in FIGS. The partial area is displayed in a blinking manner, or is displayed in a color different from that of other partial areas. Further, in another embodiment of the present invention, one point in the toolbar 26 and one in the drawing area
Instead of touching points and points at the same time, it is possible to change the processing content of the target drawing area simply by touching one specific indicator in the toolbar 26. In order to realize this, in this embodiment, when any partial area in the check box 27 shown in FIGS. (A) and (b) is touched, the target drawing area corresponds to that partial area. Make it a drawing area.

【0022】以上、図15に示したシステム構成の場合
で本発明の実施例を説明したが、説明したような描画処
理方法に従ってプログラミングしたプログラムを例えば
着脱可能な記憶媒体に記憶し、その記憶媒体をこれまで
本発明によった描画処理をおこなえなかったパーソナル
コンピュータなど情報処理装置に装着することにより、
また、そのようなプログラムをネットワークを介してそ
のような情報処理装置へ転送することにより、その情報
処理装置においても本発明によった描画処理をおこなう
ことができる。
Although the embodiment of the present invention has been described above in the case of the system configuration shown in FIG. 15, a program programmed according to the drawing processing method as described above is stored in, for example, a removable storage medium, and the storage medium is stored. By installing the above into an information processing device such as a personal computer that has not been able to perform the drawing process according to the present invention,
Further, by transferring such a program to such an information processing apparatus via a network, the drawing processing according to the present invention can be performed in the information processing apparatus as well.

【0023】[0023]

【発明の効果】以上説明したように、本発明によれば、
請求項1記載の発明では、座標入力機能付表示装置によ
り座標を検出して描画処理をおこなう場合に、画面を分
割して生成した複数の描画領域で並行に異なった描画処
理をおこなうことができ、且つ、その複数の描画領域の
それぞれにおける処理内容の指示のうち少なくとも一部
の処理内容の指示をおこなう表示子が共通の表示子領域
に表示されるので、表示子領域を描画領域の数分表示し
なくてもよくなり、したがって、描画領域が少なくなる
のを防ぐことができる。また、請求項2記載の発明で
は、請求項1記載の発明において、表示子により指示す
る処理内容を描画モード切替処理としたので、描画モー
ド切替処理のための表示子領域を描画領域の数分表示し
なくてもよくなり、したがって、そのような表示子領域
のために描画領域が少なくなるのを防ぐことができる。
また、請求項3記載の発明では、請求項1または請求項
2記載の発明において、表示子の属する表示子領域中の
1点の座標と描画領域中の1点の座標とが所定時間以上
同時に検出された場合に、描画領域から検出された1点
の属する描画領域を対象とする表示子が表示子領域に表
示されるので、切替のための表示子を設けることなく、
各描画領域を対象として処理内容の指示をおこなう表示
子を共通の表示子領域に切替表示することができる。ま
た、請求項4記載の発明では、請求項3記載の発明にお
いて、検出される2つの座標のそれぞれが所定時間以上
持続して所定の誤差内の値である場合に指示された描画
領域を対象とする表示子が表示子領域に表示されるの
で、うっかり2点同時にタッチして表示子領域の表示子
が意図に反して切り替えられてしまうのを防ぐことがで
きる。
As described above, according to the present invention,
According to the first aspect of the present invention, when the coordinates are detected by the display device with the coordinate input function and the drawing process is performed, different drawing processes can be performed in parallel in a plurality of drawing regions generated by dividing the screen. In addition, since the indicators that perform at least a part of the processing content instructions in each of the plurality of drawing areas are displayed in the common display area, the display areas are equal to the number of drawing areas. It is not necessary to display it, and thus it is possible to prevent the drawing area from decreasing. Further, in the invention according to claim 2, in the invention according to claim 1, since the processing content instructed by the display element is the drawing mode switching processing, the display area for the drawing mode switching processing is equal to the number of drawing areas. It is not necessary to display, and therefore, it is possible to prevent the drawing area from being reduced due to such a display area.
In the invention according to claim 3, in the invention according to claim 1 or 2, the coordinates of one point in the indicator area to which the indicator belongs and the coordinates of one point in the drawing area are simultaneously for a predetermined time or more. When it is detected, an indicator targeting the drawing area to which one point detected from the drawing area belongs is displayed in the indicator area, so that an indicator for switching is not provided,
It is possible to switch and display the indicators for instructing the processing contents for each drawing area in the common indicator area. Further, in the invention according to claim 4, in the invention according to claim 3, the designated drawing area is targeted when each of the two detected coordinates has a value within a predetermined error for a predetermined time or more. Since the indicator to be displayed is displayed in the indicator area, it is possible to prevent the indicator in the indicator area from being accidentally switched by accidentally touching two points at the same time.

【0024】また、請求項5記載の発明では、請求項1
または請求項2記載の発明において、表示子を用いてお
こなわれる指示がどの描画領域を対象にしているかを示
す領域表示表示子が表示されるので、表示子領域の表示
内容を切り替える必要があるか否かが容易にわかる。ま
た、請求項6記載の発明では、請求項5記載の発明にお
いて、領域表示表示子が指示対象の描画領域を選択する
ための表示子でもあるので、2点同時タッチをおこなわ
ずに表示子領域の表示内容を切り替えることができる。
また、請求項7記載の発明では、請求項1乃至請求項6
のいずれか1項に記載の描画処理方法に従ってプログラ
ミングしたプログラムを情報処理装置上で実行させるこ
とができるので、請求項1乃至請求項6のいずれか1項
に記載の発明の効果を情報処理装置を用いて得ることが
できる。また、請求項8記載の発明では、請求項7記載
のプログラムを着脱可能な記憶媒体に記憶することがで
きるので、その記憶媒体をこれまで請求項1乃至請求項
6のいずれか1項に記載の発明によった描画処理をおこ
なえなかったパーソナルコンピュータなど情報処理装置
に装着することにより、その情報処理装置においても請
求項1乃至請求項6のいずれか1項に記載の発明の効果
を得ることができる。
According to the invention of claim 5, claim 1
Alternatively, in the invention according to claim 2, since an area display indicator indicating which drawing area the instruction given using the indicator is targeted is displayed, is it necessary to switch the display content of the indicator area? You can easily tell whether or not it is. In the invention according to claim 6, in the invention according to claim 5, since the area display indicator is also an indicator for selecting a drawing area to be instructed, the indicator area can be displayed without performing simultaneous two-point touch. The display content of can be switched.
In the invention according to claim 7, claims 1 to 6 are provided.
Since the program programmed according to the drawing processing method according to any one of claims 1 to 6 can be executed on the information processing apparatus, the effect of the invention according to any one of claims 1 to 6 can be obtained. Can be obtained by using. In the invention described in claim 8, since the program according to claim 7 can be stored in a removable storage medium, the storage medium is described in any one of claims 1 to 6 so far. The effect of the invention according to any one of claims 1 to 6 can be obtained in an information processing device by mounting the same on an information processing device such as a personal computer that has not been able to perform the drawing process according to the invention. You can

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明が実施されるシステムの一例である電子
黒板システムのシステム構成図である。
FIG. 1 is a system configuration diagram of an electronic blackboard system which is an example of a system in which the present invention is implemented.

【図2】本発明に係わる座標検出方法の説明図である。FIG. 2 is an explanatory diagram of a coordinate detection method according to the present invention.

【図3】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 3 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図4】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 4 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図5】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 5 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図6】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 6 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図7】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 7 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図8】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 8 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図9】本発明に係わる座標検出方法の他の説明図であ
る。
FIG. 9 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図10】本発明に係わる座標検出方法の他の説明図で
ある。
FIG. 10 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図11】本発明に係わる座標検出方法の他の説明図で
ある。
FIG. 11 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図12】本発明に係わる座標検出方法の他の説明図で
ある。
FIG. 12 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図13】本発明に係わる座標検出方法の他の説明図で
ある。
FIG. 13 is another explanatory diagram of the coordinate detecting method according to the present invention.

【図14】本発明が実施されるシステムのハードウェア
構成図である。
FIG. 14 is a hardware configuration diagram of a system in which the present invention is implemented.

【図15】本発明の一実施例を示す描画処理システム要
部の構成ブロック図である。
FIG. 15 is a configuration block diagram of a main part of a drawing processing system showing an embodiment of the present invention.

【図16】本発明の一実施例を示す描画処理方法の動作
フロー図である。
FIG. 16 is an operation flow diagram of the drawing processing method according to the embodiment of the present invention.

【図17】本発明の一実施例を示す描画処理方法の説明
図である。
FIG. 17 is an explanatory diagram of a drawing processing method according to an embodiment of the present invention.

【図18】本発明の一実施例を示す描画処理方法の他の
説明図である。
FIG. 18 is another explanatory diagram of the drawing processing method according to the embodiment of the present invention.

【図19】本発明の他の実施例を示す描画処理方法の説
明図である。
FIG. 19 is an explanatory diagram of a drawing processing method according to another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 座標入力機能付表示装置、2 制御装置、3 座標
入力領域、4 再帰性反射部材、5 受発光部、11
CPU、14 ハードディスク装置、21 座標入力
部、22 ファイル制御部、23 画像生成部、24
表示制御部、25タイマ、26 ツールバー、27 チ
ェックボックス、50 受光素子、51集光レンズ、8
1 点光源
1 display device with coordinate input function, 2 control device, 3 coordinate input area, 4 retroreflective member, 5 light emitting / receiving unit, 11
CPU, 14 hard disk device, 21 coordinate input unit, 22 file control unit, 23 image generation unit, 24
Display control unit, 25 timer, 26 toolbar, 27 check box, 50 light receiving element, 51 condenser lens, 8
1 point light source

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06F 3/033 G06F 3/033 360P G06T 11/80 G06T 11/80 E Fターム(参考) 5B050 AA06 AA10 BA18 BA20 CA02 CA07 DA09 FA02 FA08 FA09 FA13 5B068 AA05 AA15 AA22 BB20 CC01 5B087 AA09 AA10 AE02 CC33 CC34 DD09 5E501 AA01 AA16 BA05 BA13 CB05 CB06 ─────────────────────────────────────────────────── ─── Continuation of front page (51) Int.Cl. 7 Identification code FI theme code (reference) G06F 3/033 G06F 3/033 360P G06T 11/80 G06T 11/80 EF term (reference) 5B050 AA06 AA10 BA18 BA20 CA02 CA07 DA09 FA02 FA08 FA09 FA13 5B068 AA05 AA15 AA22 BB20 CC01 5B087 AA09 AA10 AE02 CC33 CC34 DD09 5E501 AA01 AA16 BA05 BA13 CB05 CB06

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 座標入力機能付表示装置により座標を検
出して描画処理をおこなう描画処理方法において、表示
画面を分割して生成した複数の描画領域のそれぞれで同
時に指示された座標を検出可能にして、指示に応じて前
記複数の描画領域で並行に異なった描画処理をおこなう
構成にするとともに、前記複数の描画領域のそれぞれに
おける処理内容の指示のうち少なくとも一部の処理内容
の指示をおこなう表示子を共通の表示子領域に表示する
ことを特徴とする描画処理方法。
1. A drawing processing method for detecting a coordinate by a display device with a coordinate input function and performing a drawing process, wherein coordinates designated at the same time can be detected in each of a plurality of drawing regions generated by dividing a display screen. And a configuration in which different drawing processes are performed in parallel in the plurality of drawing regions according to an instruction, and at least a part of the processing contents in each of the plurality of drawing regions is instructed to be displayed. A drawing processing method characterized by displaying children in a common display child area.
【請求項2】 請求項1記載の描画処理方法において、
前記処理内容が描画モード切替処理であることを特徴と
する描画処理方法。
2. The drawing processing method according to claim 1,
A drawing processing method, wherein the processing content is drawing mode switching processing.
【請求項3】 請求項1または請求項2記載の描画処理
方法において、前記表示子の属する表示子領域中の1点
の座標と描画領域中の1点の座標とが所定時間以上同時
に検出された場合に、描画領域から検出された1点の属
する描画領域を対象とする表示子を前記表示子領域に表
示することを特徴とする描画処理方法。
3. The drawing processing method according to claim 1, wherein the coordinates of one point in the indicator area to which the indicator belongs and the coordinates of one point in the drawing area are simultaneously detected for a predetermined time or more. In this case, the drawing processing method is characterized in that a display targeting the drawing area to which one point detected from the drawing area belongs is displayed in the display area.
【請求項4】 請求項3記載の描画処理方法において、
検出される2つの座標のそれぞれが前記所定時間以上持
続して所定の誤差内の値である場合に前記描画領域を対
象とする表示子を前記表示子領域に表示することを特徴
とする描画処理方法。
4. The drawing processing method according to claim 3,
A drawing process for displaying an indicator targeting the drawing area in the indicator area when each of the two detected coordinates has a value within a predetermined error for more than the predetermined time. Method.
【請求項5】 請求項1または請求項2記載の描画処理
方法において、前記表示子を用いておこなわれる指示
が、どの描画領域を対象にしているかを示す領域表示表
示子を表示することを特徴とする描画処理方法。
5. The drawing processing method according to claim 1, wherein an area display indicator indicating which drawing area is targeted by the instruction given using the indicator is displayed. The drawing processing method.
【請求項6】 請求項5記載の描画処理方法において、
前記領域表示表示子が指示対象の描画領域を選択するた
めの表示子でもあることを特徴とする描画処理方法。
6. The drawing processing method according to claim 5,
A drawing processing method, wherein the area display indicator is also an indicator for selecting a drawing area to be instructed.
【請求項7】 情報処理装置上で実行されるプログラム
において、請求項1乃至請求項6のいずれか1項に記載
の描画処理方法に従ってプログラミングしたことを特徴
とするプログラム。
7. A program executed on an information processing device, which is programmed according to the drawing processing method according to any one of claims 1 to 6.
【請求項8】 プログラムを記憶した記憶媒体におい
て、請求項7記載のプログラムを記憶したことを特徴と
する記憶媒体。
8. A storage medium storing a program, wherein the program according to claim 7 is stored.
JP2002043633A 2002-02-20 2002-02-20 Drawing processing method, program thereby, and storage medium storing its program Pending JP2003241872A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002043633A JP2003241872A (en) 2002-02-20 2002-02-20 Drawing processing method, program thereby, and storage medium storing its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002043633A JP2003241872A (en) 2002-02-20 2002-02-20 Drawing processing method, program thereby, and storage medium storing its program

Publications (1)

Publication Number Publication Date
JP2003241872A true JP2003241872A (en) 2003-08-29

Family

ID=27783350

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002043633A Pending JP2003241872A (en) 2002-02-20 2002-02-20 Drawing processing method, program thereby, and storage medium storing its program

Country Status (1)

Country Link
JP (1) JP2003241872A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009146434A (en) * 2003-09-16 2009-07-02 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
JP2010257300A (en) * 2009-04-27 2010-11-11 Hitachi Software Eng Co Ltd Electronic board system and program
WO2011086600A1 (en) * 2010-01-15 2011-07-21 パイオニア株式会社 Information-processing device and method thereof
JP2012142033A (en) * 2005-03-04 2012-07-26 Apple Inc Multi-functional hand-held device
JP2013011997A (en) * 2011-06-28 2013-01-17 Sharp Corp Display system
JP2013538381A (en) * 2010-07-06 2013-10-10 アマラル レゼンデ マルセロ Digital whiteboard system
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
WO2014050161A1 (en) * 2012-09-27 2014-04-03 株式会社日立ソリューションズ Electronic board system, optical unit device, and program
US9047009B2 (en) 2005-03-04 2015-06-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US9189150B2 (en) 2012-06-15 2015-11-17 Ricoh Company, Ltd. Information processing device, information processing method, and computer-readable medium that determine an area of a display screen to which an input operation belongs
US9785258B2 (en) 2003-09-02 2017-10-10 Apple Inc. Ambidextrous mouse
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9983742B2 (en) 2002-07-01 2018-05-29 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
US10474251B2 (en) 2003-09-02 2019-11-12 Apple Inc. Ambidextrous mouse
US10156914B2 (en) 2003-09-02 2018-12-18 Apple Inc. Ambidextrous mouse
US9785258B2 (en) 2003-09-02 2017-10-10 Apple Inc. Ambidextrous mouse
JP2009146434A (en) * 2003-09-16 2009-07-02 Smart Technologies Ulc Gesture recognition method and touch system incorporating the same
US11360509B2 (en) 2005-03-04 2022-06-14 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
JP2012142033A (en) * 2005-03-04 2012-07-26 Apple Inc Multi-functional hand-held device
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US10921941B2 (en) 2005-03-04 2021-02-16 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US10386980B2 (en) 2005-03-04 2019-08-20 Apple Inc. Electronic device having display and surrounding touch sensitive surfaces for user interface and control
US9047009B2 (en) 2005-03-04 2015-06-02 Apple Inc. Electronic device having display and surrounding touch sensitive bezel for user interface and control
JP2010257300A (en) * 2009-04-27 2010-11-11 Hitachi Software Eng Co Ltd Electronic board system and program
US9600037B2 (en) 2009-08-17 2017-03-21 Apple Inc. Housing as an I/O device
US8654524B2 (en) 2009-08-17 2014-02-18 Apple Inc. Housing as an I/O device
US10248221B2 (en) 2009-08-17 2019-04-02 Apple Inc. Housing as an I/O device
US10739868B2 (en) 2009-08-17 2020-08-11 Apple Inc. Housing as an I/O device
US11644865B2 (en) 2009-08-17 2023-05-09 Apple Inc. Housing as an I/O device
JP5368585B2 (en) * 2010-01-15 2013-12-18 パイオニア株式会社 Information processing apparatus, method thereof, and display apparatus
WO2011086600A1 (en) * 2010-01-15 2011-07-21 パイオニア株式会社 Information-processing device and method thereof
KR20140017479A (en) * 2010-07-06 2014-02-11 마르셀로 아마랄 헤젠지 Digital whiteboard system
JP2013538381A (en) * 2010-07-06 2013-10-10 アマラル レゼンデ マルセロ Digital whiteboard system
JP2013011997A (en) * 2011-06-28 2013-01-17 Sharp Corp Display system
US9189150B2 (en) 2012-06-15 2015-11-17 Ricoh Company, Ltd. Information processing device, information processing method, and computer-readable medium that determine an area of a display screen to which an input operation belongs
WO2014050161A1 (en) * 2012-09-27 2014-04-03 株式会社日立ソリューションズ Electronic board system, optical unit device, and program

Similar Documents

Publication Publication Date Title
JP6201519B2 (en) Coordinate detection apparatus, coordinate detection method, and electronic information board system
US7176904B2 (en) Information input/output apparatus, information input/output control method, and computer product
JP2003241872A (en) Drawing processing method, program thereby, and storage medium storing its program
KR20030038732A (en) Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device
JP2001282457A (en) Coordinate input system, control method of coordinate input system and computer readable recording medium in which a program to make computer execute the method is recorded
US20110216041A1 (en) Touch panel and touch position detection method of touch panel
JP2014197384A (en) Stylus, and optical touch panel device
JP2007206935A (en) Coordinate detection system, coordinate detection device, coordinate detection method and touch pen
JP2013210956A (en) Display device
JPH08147091A (en) Plural-point input touch panel and coordinate calculating method therefor
JP2003202957A (en) Coordinate detecting method, program by its method and storage medium with its program stored therein
JP4560224B2 (en) Information input device, information input / output system, program, and storage medium
JP4335468B2 (en) Information input / output system, information control method, program, and recording medium
JP2004185495A (en) Coordinate input device, display device and method and program for inputting coordinate
JP4615178B2 (en) Information input / output system, program, and storage medium
JP2002268807A (en) Coordinate input device, program for performing coordinate input function and recording medium with the program recorded
JP3161486U (en) Pointer input device
JP2004199181A (en) Coordinate input device, display device, coordinate input method and program
TWI552056B (en) Optical touch system
JP4320101B2 (en) Light blocking detection device and information display system
JP2003122494A (en) Device and method for coordinate input/detection
JP4603183B2 (en) Information input / output system, display control method, storage medium, and program
JP2001084108A (en) Device for inputting and detecting and displaying coordinate
JP2001318759A (en) Coordinate input/detection device, electronic blackboard system, coordinate detection method and storage medium
JP4256555B2 (en) Coordinate input / detection device, electronic blackboard system, coordinate position detection method, and storage medium