JPH07230352A - Touch position detecting device and touch instruction processor - Google Patents

Touch position detecting device and touch instruction processor

Info

Publication number
JPH07230352A
JPH07230352A JP22020594A JP22020594A JPH07230352A JP H07230352 A JPH07230352 A JP H07230352A JP 22020594 A JP22020594 A JP 22020594A JP 22020594 A JP22020594 A JP 22020594A JP H07230352 A JPH07230352 A JP H07230352A
Authority
JP
Japan
Prior art keywords
touch position
touch
positions
instruction
wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP22020594A
Other languages
Japanese (ja)
Inventor
Toshio Kamimura
俊夫 上村
Michihiro Mese
道弘 目瀬
Yoshihiko Kunimori
義彦 國森
Shigeto Osuji
成人 大條
Shunichi Ito
俊一 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP22020594A priority Critical patent/JPH07230352A/en
Publication of JPH07230352A publication Critical patent/JPH07230352A/en
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE:To provide a touch position detecting device which can detect each touch position when plural positions are touched at a time and also can improve its durability. CONSTITUTION:The waves are sent from the blanching filter groups 12x and 12y via the wave transmitters 11x and 11y, and the wave receivers 14x and 14y receive the pulse-shaped signal waves W2x and W2y via the wave collector groups (x) and (y). These received signal waves are sent to the touch position/ press detecting parts 23x and 23y where it is detected which one of signal waves received by the wave collectors 13x and 13y is attenuated based on the attenuating positions and levels of both waves W2x and W2y. Receiving this detection result, a detecting part 24 which detects plural positions touched at a time detects the touch positions Ta(X2, Y2) and Tb(X5, Y5) based on the X detecting positions X2 and X5 and the Y detecting positions Y2 and Y5 and their press points Pa and Pb when two positions, for example, are touched.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、指や掌やペンなどを用
いてタッチされた位置を検出するタッチ位置検出装置に
関し、特に、同時に複数のタッチが行われたときに、個
々のタッチ位置を検出することができるタッチ位置検出
装置およびこれを用いたタッチ指示処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a touch position detecting device for detecting a position touched by using a finger, a palm, a pen, or the like, and particularly, when a plurality of touches are made at the same time, individual touch positions are detected. The present invention relates to a touch position detection device that can detect a touch position and a touch instruction processing device that uses the touch position detection device.

【0002】[0002]

【従来の技術】近年、情報処理装置は、小型軽量化が進
められており、タブレットとディスプレイとを一体化し
た入出力一体型情報処理装置の開発が盛んに行われてい
る。
2. Description of the Related Art In recent years, information processing apparatuses have been reduced in size and weight, and an input / output integrated information processing apparatus in which a tablet and a display are integrated has been actively developed.

【0003】タッチ位置検出装置の一種であるタブレッ
トに関して、指で複数の位置がタッチされているとき
に、この複数のタッチ位置を検出する技術として、特開
平3−77119号公報記載のものがある。これは、複
数の位置がタッチされているときはそれらの位置の重心
位置のみを出力できるアナログ方式タッチパネルにおい
て、第1番目のタッチがされたままの状態でかつ第1番
目のタッチの開始から時間的に遅れて第2番目のタッチ
が開始されるという条件のもとに、第1番目のタッチの
みがされているときに、第1番目のタッチ位置をまず検
出する。次に第1番目のタッチがされたままの状態でか
つ第1番目のタッチの開始から時間的に遅れて第2番目
のタッチが開始されたときに、第1番目のタッチ位置と
第2番目のタッチ位置の重心位置を検出する。第1番目
のタッチ位置と重心位置より、第2番目のタッチ位置を
検出するものである。
Regarding a tablet which is a kind of touch position detecting device, there is a technique described in Japanese Patent Laid-Open No. 3-77119 as a technique for detecting a plurality of touch positions when a plurality of positions are touched by a finger. . This is the time from the start of the first touch in the state where the first touch is kept in the analog touch panel that can output only the barycentric position of those positions when multiple positions are touched. Under the condition that the second touch is started after a delay, the first touch position is first detected when only the first touch is made. Next, when the second touch is started with the first touch still being made and with a time delay from the start of the first touch, the first touch position and the second touch position The center of gravity position of the touch position of is detected. The second touch position is detected from the first touch position and the center of gravity position.

【0004】[0004]

【発明が解決しようとする課題】上記タブレットは、複
数のタッチが同時に開始されると位置が不明になるの
で、1つずつ順次タッチしていく必要がある。例えば、
シフトキーを使うときのように、異なる2点、例えば、
a点、b点の2つの指示が必要な場合、a点、b点を同
時にタッチすることが不可能であり、a点をタッチした
後、b点をタッチする(1つずつ順次タッチしていく)
必要がある。このため同時にタッチできる場合に比べて
操作性が悪いという問題がある。
Since the position of the tablet becomes unknown when a plurality of touches are simultaneously started, it is necessary to sequentially touch the tablets one by one. For example,
Two different things, like when using the shift key, eg
When two instructions, point a and point b, are required, it is impossible to touch point a and point b at the same time. After touching point a, touch point b (touch each one in turn). Go)
There is a need. Therefore, there is a problem that the operability is poor as compared with the case where the touches can be performed simultaneously.

【0005】これに対して、同時に複数の位置がタッチ
されてもこれらの位置を検知できるタブレットとして、
デジタル方式のタッチパネルがある。このタッチパネル
の構造は、薄い透明電極を片面全体に縞状にコーティン
グした2枚の透明シートを、電極の方向が交差し、かつ
電極が向かいあうように重ねたものである。ただし、こ
れだけでは、電極が常時接触してしまうので、電極を離
すための例えば格子形状のスペーサを介して、重ねるよ
うにする。そして、ユーザがシートを押したときだけ電
極が接触するようにする。タッチパネル上のX/Y軸の
センシングライン(電極)としては、100本以上あ
る。
On the other hand, as a tablet that can detect a plurality of positions even if a plurality of positions are touched at the same time,
There is a digital touch panel. The structure of this touch panel is formed by stacking two transparent sheets each having a thin transparent electrode coated on one side in a striped pattern so that the directions of the electrodes intersect and the electrodes face each other. However, since the electrodes are always in contact with each other only with this, the electrodes are overlapped with each other, for example, via a spacer having a lattice shape for separating the electrodes. Then, the electrodes are brought into contact only when the user pushes the sheet. There are 100 or more X / Y axis sensing lines (electrodes) on the touch panel.

【0006】このタッチパネルは、電極が繰返し接触を
することにより、摩耗を生じ、接触不良を起こしやす
い。従って、耐久性が悪いという問題がある。
[0006] This touch panel is liable to wear due to repeated contact of the electrodes, resulting in poor contact. Therefore, there is a problem of poor durability.

【0007】ところで、同時にタッチされた、複数のタ
ッチ位置により、編集範囲を指定する技術として、特開
平1ー142969号公報に記載のものがある。これ
は、上記のデジタル方式のタッチパネルを用いたもので
あり、透明タッチパネル上で指定された2点を4角形の
対角線の両端と解釈する。そして、この4角形を編集ブ
ロックとすることにより、編集ブロックを指定すること
ができる。こうして、透明タッチパネルによる編集ブロ
ックの指定が容易になるのものである。
By the way, as a technique for designating an editing range by a plurality of touched positions touched at the same time, there is a technique described in Japanese Patent Laid-Open No. 1-142969. This uses the above digital touch panel, and interprets two points designated on the transparent touch panel as both ends of a diagonal line of a quadrangle. Then, the edit block can be designated by using this quadrangle as the edit block. Thus, the designation of the edit block by the transparent touch panel becomes easy.

【0008】さらに、複数位置を同時に押圧して命令を
入力する技術として、特開平4ー322322号公報に
記載のものがある。これは、上記のデジタル方式のタッ
チパネルを用いたものである。スイッチパネル上の複数
の押圧位置が同時に押圧された場合、これを認識し、押
圧位置の数により決まる命令を実行するようにしたもの
で、操作時にスイッチパネルを肉眼で認識せずに、確実
な操作を行うことができるものである。この公報では、
スイッチパネル上で1つの押圧位置のみを受付け、さら
に、この押圧位置の移動も検出し、その移動方向により
決まる命令を実行する技術も開示されている。この技術
によっても、操作時にスイッチパネルを肉眼で認識せず
に、確実な操作を行うことができる。
Further, as a technique for simultaneously pressing a plurality of positions to input a command, there is a technique described in Japanese Patent Laid-Open No. 4-322322. This uses the digital touch panel described above. When multiple pressing positions on the switch panel are pressed at the same time, this is recognized and a command determined by the number of pressing positions is executed. It can be operated. In this publication,
A technique is also disclosed in which only one pressing position is received on the switch panel, the movement of the pressing position is detected, and a command determined by the moving direction is executed. This technique also enables reliable operation without recognizing the switch panel with the naked eye during operation.

【0009】しかし、これらの技術は、デジタル方式の
タッチパネルを用いているため、耐久性に問題がある。
また、同時にタッチされた複数のタッチ位置を移動させ
て、指示し、その指示に応じた処理を行うことについて
は、なんら述べられていない。
However, since these techniques use a digital type touch panel, there is a problem in durability.
Further, there is no description about moving a plurality of touch positions touched at the same time, giving an instruction, and performing a process according to the instruction.

【0010】本発明の第1の目的は、指や掌やペンなど
により、順次のみならず、同時に行われる複数のタッチ
の位置を検出でき、しかも耐久性のあるタッチ位置検出
装置を提供することにある。
A first object of the present invention is to provide a durable touch position detecting device which can detect the positions of a plurality of touches which are performed not only sequentially but at the same time by a finger, a palm, a pen or the like. It is in.

【0011】本発明の第2の目的は、指や掌やペンなど
により、順次のみならず、同時に行われる複数のタッチ
の位置を検出して、タッチ位置に応じた処理を行えると
ともに、しかも耐久性のあるタッチ指示処理装置を提供
することにある。
A second object of the present invention is to detect the positions of a plurality of touches that are performed not only sequentially but simultaneously with a finger, a palm, a pen, etc., and perform processing according to the touched positions. The object of the present invention is to provide a touch instruction processing device having a property.

【0012】本発明の第3の目的は、指や掌やペンなど
により、順次のみならず、同時に行われる複数のタッチ
位置の移動を検出し、この移動指示に従って、表示装置
上に表示された表示対象物を移動させて表示することが
できるとともに、しかも耐久性のあるタッチ指示処理装
置を提供することにある。
A third object of the present invention is to detect movements of a plurality of touch positions which are performed not only sequentially but at the same time by a finger, a palm, a pen or the like, and displayed on a display device according to the movement instruction. An object of the present invention is to provide a touch instruction processing device that is capable of moving and displaying a display object and that is also durable.

【0013】[0013]

【課題を解決するための手段】上記第1の目的を達成す
るために、接触物の接触位置をタッチ位置として、2次
元で上記タッチ位置を検出するタッチ位置検出装置にお
いて、それぞれ1次元方向のタッチ位置を検出し、検出
信号を出力するタッチ位置検出手段を複数有し、かつ、
同時に複数の位置がタッチされたときに得られる、該タ
ッチの数より多い複数の候補位置のうちから、個々のタ
ッチ位置を判定する同時複数タッチ位置判定手段を有
し、上記タッチ位置検出手段の各々は、タッチにより変
化する検出信号に基づいて、タッチ位置の検出を行い、
上記同時複数タッチ位置判定手段は、同時に複数の位置
がタッチされたときに得られる、該タッチの数より多い
複数の候補位置のうち、その位置が有する、上記タッチ
位置検出手段の一方の検出信号から抽出される、位置に
依存しない少なくとも1つのタッチの特徴量と他方のタ
ッチ位置検出手段の検出信号から抽出される、位置に依
存しない少なくとも1つのタッチの特徴量とが一致する
ものを選択することにより、個々のタッチ位置を判定す
ることとしたものである。
In order to achieve the first object, in a touch position detecting device for detecting the touch position two-dimensionally with the contact position of a contact object as a touch position, the touch position detecting device detects the touch position in each one-dimensional direction. A plurality of touch position detecting means for detecting a touch position and outputting a detection signal, and
A plurality of candidate positions, which are obtained when a plurality of positions are touched at the same time, are selected from a plurality of candidate positions that are larger than the number of touches. Each detects the touch position based on the detection signal that changes due to touch,
The simultaneous plural touch position determination means has one of the detection signals of the touch position detection means, which is obtained from a plurality of candidate positions larger than the number of touches, which is obtained when a plurality of positions are touched at the same time. A characteristic value of at least one touch that does not depend on the position and a characteristic value of at least one touch that does not depend on the position that is extracted from the detection signal of the other touch position detection unit are selected. By doing so, each touch position is determined.

【0014】また、上記第2の目的を達成するために、
上記のタッチ位置検出装置と、タッチ位置に応じた情報
処理を行う情報処理装置とを有することとしたものであ
る。
In order to achieve the above second object,
The above-described touch position detection device and an information processing device that performs information processing according to the touch position are included.

【0015】さらに、上記第3の目的を達成するため
に、表示対象物を表示する表示装置と、上記表示対象物
が表示されている上記表示装置の表示面上での、同時か
つ複数である、接触物の接触位置をタッチ位置として、
2次元で上記タッチ位置を時系列に検出するタッチ位置
検出装置と、上記時系列で検出された複数のタッチ位置
を、上記表示対象物に対する移動を指示するタッチ位置
指示とし、このタッチ位置指示に基づいて、上記表示対
象物の移動を行い、移動後の上記表示対象物を上記表示
装置に表示させる制御手段とを有し、上記タッチ位置検
出装置は、それぞれ1次元方向のタッチ位置を検出し、
検出信号を出力するタッチ位置検出手段を複数有し、か
つ、同時に複数の位置がタッチされたときに得られる、
該タッチの数より多い複数の候補位置のうちから、個々
のタッチ位置を判定する同時複数タッチ位置判定手段を
有し、上記タッチ位置検出手段の各々は、タッチにより
変化する検出信号に基づいて、タッチ位置の検出を行
い、上記同時複数タッチ位置判定手段は、同時に複数の
位置がタッチされたときに得られる、該タッチの数より
多い複数の候補位置のうち、その位置が有する、上記タ
ッチ位置検出手段の一方の検出信号から抽出される、位
置に依存しない少なくとも1つのタッチの特徴量と他方
のタッチ位置検出手段の検出信号から抽出される、位置
に依存しない少なくとも1つのタッチの特徴量とが一致
するものを選択することにより、個々のタッチ位置を判
定することとしたものである。
Further, in order to achieve the third object, a plurality of display devices for displaying a display object and a plurality of display devices at the same time on the display surface of the display device on which the display object is displayed are provided. , The contact position of the contact object is the touch position,
A touch position detection device that detects the touch position in a two-dimensional manner in time series, and a plurality of touch positions detected in the time series are used as a touch position instruction for instructing movement of the display object. The touch position detecting device detects the touch position in the one-dimensional direction, and a control unit that causes the display device to display the moved display target on the display device. ,
Having a plurality of touch position detecting means for outputting a detection signal, and obtained when a plurality of positions are touched at the same time,
From a plurality of candidate positions larger than the number of touches, a simultaneous multiple touch position determination means for determining individual touch positions is provided, and each of the touch position detection means is based on a detection signal that changes with a touch, The touch position detection means detects the touch position, and the simultaneous plural-touch position determination means has a plurality of candidate positions, which are obtained when a plurality of positions are touched at the same time, which are larger than the number of the touches. At least one touch feature amount that does not depend on the position, which is extracted from one detection signal of the detection unit, and at least one touch feature amount that does not depend on the position, that is extracted from the detection signal of the other touch position detection unit. The touch positions are determined by selecting the ones that match.

【0016】[0016]

【作用】上記タッチ位置検出装置により、指や掌やペン
などの同時複数タッチ位置検出を実現できる。このた
め、a点、b点の2つを同時に指示する必要がある場
合、a点、b点を同時にタッチすることが可能となり、
操作性が向上する。しかも、従来は、薄い透明電極を全
面にコーティングした2枚の透明シートを重ねたものを
タッチしていたのに対して、本発明では、この様な電極
はないため、摩耗による接触不良は生ぜず、耐久性が向
上する。
With the touch position detecting device described above, it is possible to simultaneously detect a plurality of touch positions of fingers, palms, pens and the like. Therefore, when it is necessary to simultaneously instruct two points a and b, it is possible to touch points a and b at the same time.
Operability is improved. Moreover, in the past, a touch was made by stacking two transparent sheets each having a thin transparent electrode coated on the entire surface. On the other hand, in the present invention, such an electrode does not exist, so that contact failure due to wear occurs. The durability is improved.

【0017】上記タッチ指示処理装置により、同時に行
われる複数のタッチの位置を検出して、タッチ位置に応
じた処理を行えるとともに、しかも耐久性のあるタッチ
指示処理装置を提供できる。
With the touch instruction processing device, it is possible to provide a touch instruction processing device which detects the positions of a plurality of touches simultaneously performed and can perform processing according to the touch positions and which is durable.

【0018】また、指や掌やペンなどにより、順次のみ
ならず、同時に行われる複数のタッチ位置を検出してそ
の位置を表示し、複数のタッチ位置指示による移動指示
に伴って、表示装置上に表示された表示対象物を移動さ
せて表示することができるとともに、しかも耐久性のあ
るタッチ指示処理装置を提供することができる。
Further, a plurality of touch positions, which are performed not only sequentially but at the same time, are detected by a finger, a palm, a pen, or the like, and the positions are displayed, and a movement instruction by a plurality of touch position instructions is displayed on the display device. It is possible to provide a touch instruction processing device that is capable of moving and displaying the display object displayed on the touch instruction processing device and that is durable.

【0019】[0019]

【実施例】以下、本発明に係る、同時に複数のタッチ位
置の検出ができるタッチ位置検出装置の3つの実施例
を、最初に説明する。この実施例を、同時に2箇所がタ
ッチされて、その2つのタッチ位置を検出する場合につ
いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS First, three embodiments of a touch position detecting device according to the present invention capable of simultaneously detecting a plurality of touch positions will be described. In this embodiment, a case where two places are touched at the same time and the two touch positions are detected will be described.

【0020】本発明の第1の実施例の表面弾性波方式タ
ッチプレート(タッチパネル)を用いた同時複数タッチ
位置検出装置を、図1〜3により説明する。
A simultaneous multiple touch position detecting device using a surface acoustic wave type touch plate (touch panel) according to the first embodiment of the present invention will be described with reference to FIGS.

【0021】図1により、同時複数タッチ位置検出装置
の構成について説明する。
The configuration of the simultaneous plural touch position detecting device will be described with reference to FIG.

【0022】図1は、同時複数タッチ位置検出装置のシ
ステム概略構成を示す。
FIG. 1 shows a schematic system configuration of a simultaneous plural touch position detecting device.

【0023】本装置は、指などがタッチする表面弾性波
方式のタッチプレート1と、タッチ位置検出部2とを有
する。Ta、Tbは指などで同時にタッチされている2
つの位置を示す。また、11x、11yはX、Y位置検
出用の送波器、12x、12yはX、Y位置検出用の分
波器群、13x、13yはX、Y位置検出用の集波器
群、14x、14yはX、Y位置検出用の受波器であ
る。
The present apparatus has a surface acoustic wave type touch plate 1 which is touched by a finger and the like, and a touch position detecting section 2. Ta and Tb are touched simultaneously with fingers 2
Indicates one position. Further, 11x and 11y are wave transmitters for X and Y position detection, 12x and 12y are demultiplexer groups for X and Y position detection, 13x and 13y are concentrator groups for X and Y position detection, and 14x. , 14y are wave receivers for detecting the X and Y positions.

【0024】ここで、図に示したように、送波器11
x、11y、分波器群12x、12y、集波器群13
x、13y、受波器14x、14yは、タッチプレート
1のタッチ面上の角や辺に設置する。また、21x、2
1yはX、Y位置検出用送波器の送波を制御する送波器
制御部、22x、22yはX、Y位置検出用受波器の受
波を制御する受波器制御部、23x、23yはX、Y位
置検出用のタッチ位置/押圧検出部、24は同時複数タ
ッチ位置判定部、25は外部とタッチ位置や制御コマン
ドなどのやり取りを行う外部インタフェース部である。
Here, as shown in FIG.
x, 11y, demultiplexer group 12x, 12y, concentrator group 13
The x, 13y and the wave receivers 14x, 14y are installed at the corners or sides of the touch surface of the touch plate 1. Also, 21x, 2
1y is a wave transmitter control unit that controls the wave transmission of the X, Y position detection wave transmitter, 22x, 22y is a wave receiver control unit that controls the wave reception of the X, Y position detection wave receiver, 23x, Reference numeral 23y is a touch position / press detection unit for detecting X and Y positions, 24 is a simultaneous plural touch position determination unit, and 25 is an external interface unit for exchanging touch positions and control commands with the outside.

【0025】外形寸法は横約230ミリ、縦約156ミ
リ、分波器12の間隔は約1.5ミリ、分波器12の数
は横約120個、縦約70個である。
The outer dimensions are about 230 mm in width and about 156 mm in length, the spacing between the demultiplexers 12 is about 1.5 mm, and the number of the demultiplexers 12 is about 120 in width and about 70 in length.

【0026】つぎに、タッチパネル1について説明す
る。本タッチパネル1は、弾性表面波(SAW)を用い
たものである。すなわち、タッチパネル1上のタッチ位
置の検出はパネル1をタッチする物体(指、スタイラ
ス)によってSAWのエネルギーが吸収されあるいはS
AWエネルギーが不在となる現象を利用している。
Next, the touch panel 1 will be described. The touch panel 1 uses surface acoustic waves (SAW). That is, when detecting the touch position on the touch panel 1, the SAW energy is absorbed by the object (finger, stylus) touching the panel 1 or S
It utilizes the phenomenon that AW energy is absent.

【0027】タッチパネル1は、ディスプレイパネル
(すなわちCRT,LCD,EL,ガスプラズマその
他)の表面に適合するような円筒状、球面状あるいは平
面状のガラス1(汎用板ガラス、厚み約3mm、透過率
92%)と、ガラス1の四辺に底融点ガラス粉末(Fr
it)で反射アレイ(分波器群12、集波器群13。約
1.5mm間隔に設けられている)を印刷加工し、各ア
レイの端に各一個、計四個の送波器11、受波器14を
接着したものである。
The touch panel 1 is a cylindrical, spherical or flat glass 1 (general-purpose plate glass, thickness about 3 mm, transmittance 92) that fits the surface of a display panel (that is, CRT, LCD, EL, gas plasma, etc.). %) And the bottom melting point glass powder (Fr
It) prints the reflection array (branching filter group 12, concentrator group 13, provided at intervals of about 1.5 mm), and one wave transmitter 11 at each end of each array, for a total of four wave transmitters 11 The wave receiver 14 is bonded.

【0028】送波器11、受波器14の構造を図19に
示す。図19は、送波器11等をガラス15に取付けた
状態を示す。送波器11等は、圧電素子111とプリズ
ム112とからなる。
The structures of the wave transmitter 11 and the wave receiver 14 are shown in FIG. FIG. 19 shows a state in which the wave transmitter 11 and the like are attached to the glass 15. The wave transmitter 11 and the like include a piezoelectric element 111 and a prism 112.

【0029】弾性表面波は、数学的には不均質な縦波
(L波)と横波(S波)の組合せとして表される。数M
Hz領域の周波数を有するものが用いられる。表面波を
発生させる最も効率的で便利な方法は縦形波のモード変
換によるものである。この現象は、圧電素子111によ
り、第1の固体112に発生させた縦波を第2の固体
(ガラス15)との接合面113に投射するとき、その
入射角度α114を適切にし、縦波エネルギが界面で全
部反射され、屈折によって第2固体内部にはエネルギが
入らない状態にすれば、弾性表面波のみが、第2の固体
に発生する。
Surface acoustic waves are represented mathematically as a combination of inhomogeneous longitudinal waves (L waves) and transverse waves (S waves). Number M
Those having a frequency in the Hz region are used. The most efficient and convenient way to generate surface waves is by mode conversion of longitudinal waves. This phenomenon is that when the longitudinal wave generated by the piezoelectric element 111 on the first solid 112 is projected on the joint surface 113 with the second solid (glass 15), the incident angle α114 is made appropriate and the longitudinal wave energy is increased. Is completely reflected at the interface and no energy enters the second solid by refraction, only surface acoustic waves are generated in the second solid.

【0030】ガラス1面上に表面波が最も効率よく発生
するプリズム112の角度は、次式で表わされる。
The angle of the prism 112 at which the surface wave is most efficiently generated on the surface of the glass 1 is represented by the following equation.

【0031】VL=VSsinα ここで、VL:プリズム112中の縦波の速度、VS:表
面波の速度である。したがって、表面波を得るためにプ
リズム112としては、VL<VSとなるような物質を選
ぶ必要がある。通常、ガラス15上で表面波を生成させ
るに必要な速度を有する物質として選ばれるのは、アク
リル樹脂である。
V L = V S sin α Here, V L is the velocity of the longitudinal wave in the prism 112, and V S is the velocity of the surface wave. Therefore, in order to obtain the surface wave, it is necessary to select a material that satisfies V L <V S for the prism 112. Acrylic resin is usually selected as the material having the velocity required to generate surface waves on the glass 15.

【0032】なお、表面波は、曲面に沿って伝播でき
る。曲面半径が波長に比べて大きければ、減衰量および
速度にほとんど変化がない。
The surface wave can propagate along the curved surface. If the radius of the curved surface is larger than the wavelength, there is almost no change in the attenuation amount and the velocity.

【0033】つぎに、タッチ位置検出部2の構成につい
て述べる。
Next, the configuration of the touch position detecting section 2 will be described.

【0034】送波器制御部21x,yは、5.53MH
zのRF信号を生成し、増幅するパルス波増幅器と、送
波器11xと、送波器11yへの出力のタイミングが重
ならないように、外部インターフェース部25からクロ
ック信号26を受けて、出力のタイミングを調整して、
数μsの幅の信号(パルス波と呼ぶ)として出力するタ
イミング回路とを有する。送波器11xと、送波器11
yへの出力のタイミングが重なることを防ぐ以外に、送
波器11x,yからそれぞれ出力されたパルス波同士が
それぞれ受波器14x,yで重なることも防ぐ必要があ
る。そこで、パルス波は、受波器14x,yにおいて、
数msごとに送波器制御部21x,yから出力される。
例えば、時刻0に送波器制御部21xからパルス波を出
力し、時刻0.5msに送波器制御部21yからパルス
波を出力し、時刻1.5msに送波器制御部21xから
次のパルス波を出力し、時刻2.0msに送波器制御部
21yから次のパルス波を出力する。
The transmitter control units 21x and 21x are 5.53 MH.
The clock signal 26 is received from the external interface unit 25 so that the output timings of the pulse wave amplifier that generates and amplifies the RF signal of z, the wave transmitter 11x, and the wave transmitter 11y do not overlap. Adjust the timing,
And a timing circuit that outputs a signal having a width of several μs (called a pulse wave). Wave transmitter 11x and wave transmitter 11
In addition to preventing the output timings to y from overlapping, it is necessary to prevent the pulse waves output from the wave transmitters 11x and y from overlapping at the wave receivers 14x and y, respectively. Then, the pulse wave is received at the receivers 14x, y,
The signal is output from the transmitter control units 21x and 21 every several ms.
For example, the wave transmitter control unit 21x outputs a pulse wave at time 0, the wave transmitter control unit 21y outputs a pulse wave at time 0.5 ms, and the wave transmitter control unit 21x outputs the following pulse wave at time 1.5 ms. A pulse wave is output, and the next pulse wave is output from the transmitter control unit 21y at time 2.0 ms.

【0035】受波器制御部22x,yは、受波器14
x,yから受取ったRF信号を強めるためのRF増幅器
と、増幅された信号の包絡線を求めるためのAM検出器
と、AM検出器の出力信号を増幅するAGC(Auto
Gain Control)付き増幅器とからなる。
The wave receiver control units 22x and y are provided in the wave receiver 14
An RF amplifier for strengthening the RF signal received from x, y, an AM detector for obtaining the envelope of the amplified signal, and an AGC (Auto) for amplifying the output signal of the AM detector.
An amplifier with a Gain Control).

【0036】AM検出器は、受信した信号に含まれてい
る高周波成分を除去するためのものである。AGC付き
増幅器は、受信した信号の最初の部分に含まれている信
号を基準信号として、AGC増幅を行う。基準信号は、
図1の経路16,17を通ることとする。この経路1
6,17がある場所が、タッチされると、基準信号が減
衰してしまい、基準信号として使えなくなる。このた
め、経路16,17の位置は、タッチパネルの周辺部と
し、露出しないようにする。
The AM detector is for removing high frequency components contained in the received signal. The amplifier with AGC performs AGC amplification using the signal included in the first part of the received signal as a reference signal. The reference signal is
It is assumed that the routes 16 and 17 shown in FIG. This route 1
When the place where there are 6 and 17 is touched, the reference signal is attenuated and cannot be used as the reference signal. Therefore, the positions of the paths 16 and 17 are set to the peripheral portion of the touch panel so as not to be exposed.

【0037】タッチ位置/押圧検出部23x,yは、A
GC付き周波数帯域増幅器から送られてきたアナログ波
形を30ms(この時間は、タッチ位置/押圧検出部2
3x,yの処理に要する時間から決まる)ごとに、デジ
タル波形に変換するアナログ/デジタル変換器と、得ら
れたデジタル波形を、記憶されているタッチがなかった
時のディジタル波形(参照波形)と比較し、タッチの有
無の確認とタッチ位置を決定するためのコンパレータ
と、参照波形を記憶するためのメモリ(ROM)とを有
する。比較の対象となる、変換により得られた波形およ
び参照波形は、図2のt1,t2,t3,t4の基準時
刻(振幅が基準振幅レベルLの半分のレベルにまで大き
くなった時刻)から、振幅が基準振幅レベルLの半分の
レベルにまで低下した時刻までについて、X座標は、約
90ポイント、Y座標は、約140ポイントについての
データからなる。なお、図2のt1,t2,t3,t4
は、タッチ位置のX座標値またはY座標値に比例してい
る。
The touch position / press detection section 23x, y is A
The analog waveform sent from the frequency band amplifier with GC is 30 ms (for this time, the touch position / press detection unit 2
3x, y) (determined by the time required for processing 3x, y), and an analog / digital converter that converts it into a digital waveform, and the obtained digital waveform as a digital waveform (reference waveform) when there is no stored touch. It has a comparator for comparing and confirming presence / absence of touch and determining a touch position, and a memory (ROM) for storing a reference waveform. The waveforms obtained by the conversion and the reference waveforms to be compared are from the reference time of t1, t2, t3, and t4 in FIG. 2 (the time when the amplitude is increased to half the reference amplitude level L), The X coordinate is about 90 points and the Y coordinate is about 140 points until the time when the amplitude is reduced to the half of the reference amplitude level L. Note that t1, t2, t3, t4 in FIG.
Is proportional to the X coordinate value or the Y coordinate value of the touch position.

【0038】次に、タッチパネル1の動作について述べ
る。タッチ位置のX,Y座標の検出は、パネル1をタッ
チする物体(指、スタイラス)によって超音波エネルギ
が吸収される現象を利用して行われる。X軸とY軸各1
対の発信用の送波器11と受信用の受波器14(計4
個)およびガラス15周辺に印刷された反射アレイ1
2,13(フリットを融着したもの)の働きにより、超
音波エネルギがガラス15面を伝わり、そして受信され
る。
Next, the operation of the touch panel 1 will be described. The detection of the X and Y coordinates of the touch position is performed by utilizing the phenomenon that ultrasonic energy is absorbed by an object (finger, stylus) touching the panel 1. X-axis and Y-axis 1 each
A pair of transmitter 11 for transmitting and receiver 14 for receiving (total 4
Individual) and a reflective array 1 printed around the glass 15
Ultrasonic energy is transmitted through the surface of the glass 15 and received by the action of Nos. 2 and 13 (melted frit).

【0039】タッチパネル1に指が触れると、その接触
点で超音波が吸収される。その減衰した信号がキャッチ
され、X,Y座標が計算される。図2に信号波形を示
す。図2Aには、X座標を検知するための信号が示され
ており、図2Bには、Y座標を検知するための信号が示
されている。
When the touch panel 1 is touched by a finger, ultrasonic waves are absorbed at the contact point. The attenuated signal is caught and the X, Y coordinates are calculated. FIG. 2 shows the signal waveform. FIG. 2A shows a signal for detecting the X coordinate, and FIG. 2B shows a signal for detecting the Y coordinate.

【0040】圧電素子111は、小さなアクリル樹脂製
のプリズム112の上に取付けられ、さらに、プリズム
112がガラス1表面にエポキシ樹脂で接着されてい
る。タッチ位置検出部2内の送波器制御部21にある水
晶発振器によって、5.53MHzで、出力時間が数μ
sの電気的振動が圧電素子111に与えられると、アク
リル製プリズム112中に縦波(バルク波)が発生す
る。プリズム112の形状と、取付け角度を適切に保つ
ことにより、プリズム112とガラス15の境界面11
3でパルク波が表面波に変換され、反射アレイ12,1
3上を伝播する。
The piezoelectric element 111 is mounted on a small prism 112 made of acrylic resin, and the prism 112 is further adhered to the surface of the glass 1 with epoxy resin. The crystal oscillator in the transmitter control unit 21 in the touch position detection unit 2 is 5.53 MHz, and the output time is several μ.
When the electric vibration of s is applied to the piezoelectric element 111, a longitudinal wave (bulk wave) is generated in the acrylic prism 112. By properly maintaining the shape of the prism 112 and the mounting angle, the boundary surface 11 between the prism 112 and the glass 15
Parc waves are converted into surface waves at 3 and the reflection arrays 12, 1
Propagate on 3.

【0041】反射アレイ12,13は、約0.05mm
高さのフリットをガラス15表面上に印刷し溶融させた
ものである。反射アレイ12,13および送波器11、
受波器14は幅約12mmであり、CRTなどのベゼル
(bezel)の背後に外部から見えないように配置さ
れる。
The reflection arrays 12 and 13 are about 0.05 mm.
A frit having a height is printed on the surface of the glass 15 and melted. The reflection arrays 12 and 13 and the wave transmitter 11,
The wave receiver 14 has a width of about 12 mm and is arranged behind the bezel of a CRT or the like so as not to be seen from the outside.

【0042】X軸の送波器11xから発生した表面波W
1xが反射アレイ(分波器群)12xを進むと、45°
で平行に配列された反射アレイ12xの一つ一つが少量
のエネルギを反射する。W1xを図2に示す。W1x
は、送波器11xから出力された直後の信号波形を示
す。反射された表面波W2xはガラス1を横切り、パネ
ル他端にあるもう一つの反射アレイ(受波器群)13x
でふたたび反射される。反射された表面波W3xは、ガ
ラス1の下右端にある受波器14xへと送られる。受波
器14xに入力される直前の波形W3xを図2Aに示
す。受波器14xは、表面波エネルギを電気信号に再変
換する。図2Aに示す数μsの長さの信号W1xは、受
波器14xへ到達するときには、時間的に引き伸ばされ
た長い信号W3xとなって戻ってくる。パネル1をタッ
チすると、その場所でエネルギが吸収され、タッチ位置
に1対1に対応する時間で受信波形W3xに窪みができ
る。図2Aのt1,t2が図1のTa,Tbに対応す
る。
Surface wave W generated from the X-axis transmitter 11x
When 1x goes through the reflection array (demultiplexer group) 12x, 45 °
Each of the reflection arrays 12x arranged in parallel with each other reflects a small amount of energy. W1x is shown in FIG. W1x
Shows the signal waveform immediately after being output from the transmitter 11x. The reflected surface wave W2x traverses the glass 1 and another reflection array (receiver group) 13x at the other end of the panel.
Is reflected again. The reflected surface wave W3x is sent to the wave receiver 14x at the lower right end of the glass 1. The waveform W3x immediately before being input to the wave receiver 14x is shown in FIG. 2A. The wave receiver 14x reconverts the surface wave energy into an electric signal. When the signal W1x having a length of several μs shown in FIG. 2A arrives at the wave receiver 14x, it returns as a long signal W3x elongated in time. When the panel 1 is touched, energy is absorbed at that location, and a depression is formed in the reception waveform W3x at a time corresponding to the touch position on a one-to-one basis. 2A corresponds to Ta and Tb in FIG.

【0043】Y軸の送波器11yから発生した表面波W
1yが反射アレイ(分波器群)12yを進むと、45°
で平行に配列された反射アレイ12yの一つ一つが少量
のエネルギを反射する。W1yを図2に示す。W1y
は、送波器11yから出力された直後の信号波形を示
す。反射された表面波W2yはガラス1を横切り、パネ
ル他端にあるもう一つの反射アレイ(受波器群)13y
でふたたび反射される。反射された表面波W3yは、ガ
ラス1の下右端にある受波器14yへと送られる。受波
器14yに入力される直前の波形W3yを図2Bに示
す。受波器14yは、表面波エネルギを電気信号に再変
換する。図2Bに示す数μsの長さの信号W1yは、受
波器14yへ到達するときには、時間的に引き伸ばされ
た長い信号W3yとなって戻ってくる。パネル1をタッ
チすると、その場所でエネルギが吸収され、タッチ位置
に1対1に対応する時間で受信波形W3yに窪みができ
る。図2Bのt3,t4が図1のTa,Tbに対応す
る。
Surface wave W generated from the Y-axis transmitter 11y
When 1y goes through the reflection array (demultiplexer group) 12y, 45 °
Each of the reflection arrays 12y arranged in parallel with each other reflects a small amount of energy. W1y is shown in FIG. W1y
Shows the signal waveform immediately after being output from the transmitter 11y. The reflected surface wave W2y traverses the glass 1 and another reflection array (receiver group) 13y at the other end of the panel.
Is reflected again. The reflected surface wave W3y is sent to the wave receiver 14y at the lower right end of the glass 1. The waveform W3y immediately before being input to the wave receiver 14y is shown in FIG. 2B. The wave receiver 14y reconverts the surface wave energy into an electric signal. When the signal W1y having a length of several μs shown in FIG. 2B reaches the receiver 14y, the signal W1y returns as a long signal W3y extended in time. When the panel 1 is touched, energy is absorbed at that location, and a depression is formed in the reception waveform W3y at a time corresponding to the touch position on a one-to-one basis. 2B corresponds to Ta and Tb in FIG.

【0044】このように、タッチパネル1のある場所を
通る波は、送波器11x、および送波器11yから特定
の距離にあるタッチ位置Ta,TbをX座標またはY座
標に応じた時間で通過する。この時間を、タッチ位置検
出部2内のタッチ位置/押圧検出部23において、タッ
チが無いときの信号波形と比較することにより、求め
る。そして、タッチ位置を計算する。以上の動作は、表
面波の干渉による誤差を避けるために、X,Y交互に行
なわれる。信号波形におけるくぼみ(図2のPa,P
b)の深さをZ座標として、X,Y,Z座標値がセット
になって36ms毎に、タッチ位置/押圧検出部23か
ら同時複数タッチ位置判定部24に出力される。
As described above, a wave passing through a place on the touch panel 1 passes through the touch positions Ta and Tb at a specific distance from the wave transmitter 11x and the wave transmitter 11y at a time corresponding to the X coordinate or the Y coordinate. To do. This time is obtained by comparing with the signal waveform when there is no touch in the touch position / press detection unit 23 in the touch position detection unit 2. Then, the touch position is calculated. The above operation is performed alternately in X and Y in order to avoid an error due to surface wave interference. Dimples in the signal waveform (Pa, P in FIG. 2
Using the depth of b) as the Z coordinate, the X, Y, and Z coordinate values are set and output from the touch position / press detection unit 23 to the simultaneous plural touch position determination unit 24 every 36 ms.

【0045】Z座標値については、音波の吸収度合が接
触面積(すなわち指、あるいは他の柔軟な物質では圧力
の関数となる)に比例することを利用して、タッチの圧
力すなわちZ軸の値が測定される。
For the Z-coordinate value, the pressure of the touch, that is, the value of the Z-axis, is used by taking advantage of the fact that the degree of absorption of sound waves is proportional to the contact area (that is, a function of pressure on a finger or other flexible substance). Is measured.

【0046】つぎに、タッチ位置検出部2の動作につい
て述べる。送波器制御部21x,yから出力されたパル
ス波は、タッチパネル1において、タッチ位置に応じて
減衰した信号として、受波器制御22x,yに入力され
る。受波器制御部22x,yにおいて、図2に示す信号
の包絡線が求められる。
Next, the operation of the touch position detector 2 will be described. The pulse wave output from the wave transmitter control unit 21x, y is input to the wave receiver control 22x, y as a signal attenuated according to the touch position on the touch panel 1. In the receiver control units 22x and 22y, the envelope of the signal shown in FIG. 2 is obtained.

【0047】タッチ位置/押圧検出部23x,yのコン
パレータは、タッチパネル1からの信号とROMにある
参照波形とを比較する。
The comparators of the touch position / press detection units 23x and 23x compare the signal from the touch panel 1 with the reference waveform in the ROM.

【0048】タッチがあるかどうかを調べるために、コ
ンパレータでは、受波器制御部22x,yからの信号が
チェックされる。タッチの有無は、タッチの有無を決定
するための閾値レベル(通常は、タッチが無いときの参
照波形の振幅の10%)を越える受信振幅の減衰があっ
たかどうかで決める。そして、減衰のあった位置をX,
Y軸上のタッチ位置とする。
In order to check whether or not there is a touch, the comparator checks the signals from the receiver control units 22x, 22y. The presence / absence of a touch is determined by whether or not there has been attenuation of the received amplitude exceeding a threshold level for determining the presence / absence of a touch (usually 10% of the amplitude of the reference waveform when there is no touch). Then, the position where there is attenuation is X,
The touch position on the Y-axis.

【0049】X,Y軸座標が確定すると、Z座標も決定
される。Z座標は、減衰が確認された位置における、信
号の減衰量(Pa,Pb)で決定される。なお、減衰量
はタッチ場所における接触面積に依存する。柔らかい物
質、たとえば、指などの場合、ガラス1と指との接触面
積は、ガラス1を指で押す圧力に比例する。従って、信
号の減衰量(Pa,Pb)は、押圧を表すと考えられる
ので、以下では、Pa,Pbを押圧とも呼ぶ。なお、Z
座標は16段階で表わされる。
When the X and Y axis coordinates are determined, the Z coordinate is also determined. The Z coordinate is determined by the attenuation amount (Pa, Pb) of the signal at the position where the attenuation is confirmed. The amount of attenuation depends on the contact area at the touch location. In the case of a soft material such as a finger, the contact area between the glass 1 and the finger is proportional to the pressure with which the glass 1 is pressed by the finger. Therefore, since the signal attenuation amounts (Pa, Pb) are considered to represent pressing, Pa and Pb are also referred to as pressing below. In addition, Z
Coordinates are expressed in 16 steps.

【0050】なお、参照波形は、タッチパネル1の表面
の経時変化を考慮するために、周期的に、タッチが無い
ときに得られた、タッチパネル1からの信号波形に更新
される。パネル1の表面の汚れが、検出されたときにも
タッチパネル1からの信号波形に更新される。パネルに
汚れがあるかどうかは、一定(たとえば2.5s)時間
停止しているタッチがあるかどうか、あるいは一定時間
以上存在する2個以上の同時タッチがあるかどうかで判
断する。
The reference waveform is periodically updated to the signal waveform from the touch panel 1 obtained when there is no touch in order to take into consideration the change over time of the surface of the touch panel 1. When the dirt on the surface of the panel 1 is detected, the signal waveform from the touch panel 1 is updated. Whether or not the panel is dirty is determined by whether or not there is a touch that has been stopped for a fixed time (for example, 2.5 s), or whether there are two or more simultaneous touches that exist for a fixed time or longer.

【0051】つぎに、同時複数タッチ位置判定部24の
動作について述べる。図1に示すタッチ位置Ta、Tb
をそれぞれ通過する信号波W2xとW2yは、そのタッ
チ押圧Pa、Pbに応じ減衰する。したがって、受波器
14x、14yはタッチ位置Ta、Tbと、そのタッチ
押圧Pa、Pbに応じ減衰した信号波を受信することに
なる。図3は、同時複数タッチ位置判定部24の処理結
果を示す。
Next, the operation of the simultaneous plural touch position determination section 24 will be described. Touch positions Ta and Tb shown in FIG.
The signal waves W2x and W2y that pass through the respective points attenuate according to the touch pressures Pa and Pb. Therefore, the wave receivers 14x and 14y receive the signal waves attenuated according to the touch positions Ta and Tb and the touch pressures Pa and Pb. FIG. 3 shows a processing result of the simultaneous multiple touch position determination unit 24.

【0052】図に示すように、信号波の減衰している位
置及び減衰レベルから、X位置X1に押圧Pa、X位置
X2に押圧Pbを、Y位置Y1に押圧Pa、Y位置Y2
に押圧Pbを検出したという信号を受けた同時複数タッ
チ位置判定部24は、X検出位置X1、X2、Y検出位
置Y1、Y2とその押圧Pa、Pbの組合せ判定によ
り、タッチ位置Ta(X1,Y1)とタッチ位置Tb
(X1,Y1)を検出する。具体的には、可能な4つの
候補位置から、X位置における押圧のレベル(Z座標)
と等しいY位置における押圧のレベルを有する組合せを
見つけることである。これにより、X位置におけるタッ
チ位置(タッチの中心位置)とY位置におけるタッチ位
置との対応付けが行え、タッチ位置(X,Y)を検出で
きる。
As shown in the figure, the X position X1 is pressed by Pa, the X position X2 is pressed by Pb, the Y position Y1 is pressed by Pa, and the Y position Y2 is determined based on the attenuation position and attenuation level of the signal wave.
The simultaneous plural touch position determination unit 24, which receives the signal that the pressure Pb is detected on the touch position Ta (X1, X2), determines the combination of the X detection positions X1, X2, Y detection positions Y1, Y2 and the pressures Pa, Pb. Y1) and touch position Tb
(X1, Y1) is detected. Specifically, from the four possible candidate positions, the pressing level at the X position (Z coordinate)
Is to find a combination with a level of pressure at the Y position equal to. Accordingly, the touch position at the X position (center position of touch) and the touch position at the Y position can be associated with each other, and the touch position (X, Y) can be detected.

【0053】検出されたタッチ位置の座標値は、同時に
タッチされた位置の個数とともに、外部インタフェース
部25を介して、信号線27により外部に送られる。外
部との通信は、RS−232C等で行われる。
The detected coordinate value of the touched position is sent to the outside by the signal line 27 through the external interface section 25 together with the number of the touched positions at the same time. Communication with the outside is performed by RS-232C or the like.

【0054】本実施例では、X、Yタッチ位置X1、X
2、Y1、Y2と、それぞれの位置における押圧Pa、
Pbとの組合せ判定による同時複数タッチ検出を説明し
たが、タッチ位置と押圧との組合せに限るものではな
い。組合せとしては、タッチ位置と他の1つ以上の組合
せ要素との組合せがある。例えば、タッチ位置とタッチ
された面積との組合せ、および、タッチ位置と押圧と面
積との組合せが考えられる。ここで、面積とは、図2に
おけるHa,Hbを直径とする円の面積をいう。
In this embodiment, X, Y touch positions X1, X
2, Y1, Y2 and the pressure Pa at each position,
The simultaneous multiple touch detection by the combination determination with Pb has been described, but it is not limited to the combination of the touch position and the pressing. The combination includes a combination of the touch position and one or more other combination elements. For example, a combination of the touch position and the touched area, and a combination of the touch position, the pressing force, and the area can be considered. Here, the area means the area of a circle having a diameter of Ha and Hb in FIG.

【0055】本実施例によれば、指や掌やペンなどによ
る同時に複数のタッチが行われたときの位置検出を実現
できるので、タッチ位置検出装置の機能を向上できる。
According to this embodiment, it is possible to realize the position detection when a plurality of touches are simultaneously made with a finger, a palm, a pen or the like, so that the function of the touch position detecting device can be improved.

【0056】また、本実施例によれば、タッチプレート
1を透明なガラスで実現できるので、タッチプレートと
表示手段とを一体化したときに前述の従来装置で生じる
画質劣化を防止できる。従来の感圧方式のタッチプレー
トの構造は、薄い透明電極を全面にコーティングした2
枚の透明シートを重ねたものである。このため、透明電
極はある程度透明度があるが、表面弾性波方式のタッチ
プレートのガラスに比べると透明度が劣る。したがっ
て、タッチプレートと表示手段とを一体化したときに、
感圧方式の表示は表面弾性波方式に比べ見ずらい。
Further, according to this embodiment, since the touch plate 1 can be realized by the transparent glass, it is possible to prevent the image quality deterioration which occurs in the above-mentioned conventional device when the touch plate and the display means are integrated. The structure of the conventional pressure-sensitive touch plate has a thin transparent electrode coated on the entire surface.
It is a stack of transparent sheets. Therefore, the transparent electrode has a certain degree of transparency, but is inferior in transparency to the glass of the surface acoustic wave type touch plate. Therefore, when the touch plate and the display means are integrated,
The pressure-sensitive display is harder to see than the surface acoustic wave method.

【0057】また、従来のデジタル方式は、制御線の数
が膨大になるという欠点がある。具体的には、感圧方式
のセンサプレートの構成は、センサプレート上のX/Y
軸のセンシングラインがそのままセンサプレートの制御
線となる。このため、640×480の中精細の表示マ
トリックスの10分の1程度のセンシングラインマトリ
ックスを実現する場合においても、制御線数が112本
と膨大になる。
Further, the conventional digital system has a drawback that the number of control lines becomes huge. Specifically, the structure of the pressure-sensitive sensor plate is X / Y on the sensor plate.
The sensing line of the axis becomes the control line of the sensor plate as it is. Therefore, even when a sensing line matrix that is about 1/10 of a 640 × 480 medium-definition display matrix is realized, the number of control lines is as large as 112.

【0058】これに対し、表面弾性体波方式の制御線
は、X/Y軸の送/受波器用が各々2本ずつの計8本で
よい。具体的には、表面弾性波方式のセンサプレートの
構成は、センサプレート上のX/Y軸のセンシングライ
ンがそのままセンサプレートの制御線となるのではな
く、送波器の出す信号波を分波器により分割することで
センシングラインを作り、また、集波器によりセンシン
グラインを1つにまとめてから、受波器で受けるので、
センシングラインマトリックスに依存することなく、X
/Y軸の送/受波器用が各々2本ずつの計8本でよい。
On the other hand, the surface acoustic wave type control lines may be eight in total, two for the X / Y axis transmitter / receiver. Specifically, in the structure of the surface acoustic wave type sensor plate, the X / Y axis sensing lines on the sensor plate do not directly serve as the control lines of the sensor plate, but the signal waves emitted by the wave transmitter are demultiplexed. Since the sensing line is created by dividing it with a receiver, and the sensing line is combined into one by a wave collector, it is received by the receiver.
X independent of the sensing line matrix
A total of eight for the Y-axis transmitter / receiver and two for the Y-axis transmitter / receiver.

【0059】本装置は、傷等にも強い。タッチパネル上
の引っかき傷や、異物もパネルの汚れとして処理され、
新しい参照波形がタッチ位置/押圧検出部に取込まれる
からである。
This device is also resistant to scratches and the like. Scratches and foreign matter on the touch panel are also treated as stains on the panel,
This is because a new reference waveform is captured by the touch position / press detection unit.

【0060】本装置の優れている点をまとめると以下の
ようになる。 (1) 透明性に優れる。 (2) ガラス素材で丈夫である。 (3) 脆弱な導電性膜やフィルムを使用していない。 (4) タッチパネルの構造が簡単なため、ディスプレ
イに簡単に取り付けられる。 (5) タッチパネルは曲面が可能であるため、ディス
プレイに直接取り付け出来る。 (6) ノングレア処理も可能である。 (7) パネル製造原価が低い。
The advantages of this device can be summarized as follows. (1) Excellent transparency. (2) The glass material is durable. (3) No brittle conductive film or film is used. (4) Since the structure of the touch panel is simple, it can be easily attached to the display. (5) Since the touch panel can be curved, it can be attached directly to the display. (6) Non-glare processing is also possible. (7) Panel manufacturing cost is low.

【0061】本発明の第2の実施例の2次元光センサア
レイ方式タッチプレートを用いた同時複数タッチ位置検
出装置を、図4〜6により説明する。
A simultaneous multiple touch position detecting device using the two-dimensional photosensor array type touch plate of the second embodiment of the present invention will be described with reference to FIGS.

【0062】図4により、同時複数タッチ位置検出装置
の構成について説明する。
The structure of the simultaneous plural touch position detecting device will be described with reference to FIG.

【0063】図4は、同時複数タッチ位置検出装置のシ
ステム構成を示す。
FIG. 4 shows a system configuration of the simultaneous multiple touch position detecting device.

【0064】図において、3は指などがタッチする2次
元光センサアレイ方式のタッチプレート、4はタッチ位
置検出部である。Tc、Tdは指などで同時にタッチさ
れている2つの位置を示す。また、35は、ガラスであ
り、31x、31yは、発光ダイオードからなる、X、
Y位置検出用の発光器群、32x、32yは、光を検出
するためのホトダイオード、ホトトランジスタ、または
光導電セルからなる、X、Y位置検出用の受光器群であ
る。ここで、図に示したように、発光器群31x、31
y、受光器群32x、32yは、タッチプレート3のタ
ッチ面上の辺に、対応する発光器31x,yと受光器3
2x,yの光軸が一致するように設置する。また、41
x、41yはX、Y位置検出用発光器31x,yの発光
を制御する発光器制御部、42x、42yはX、Y位置
検出用受光器32x,yからの電気信号を受信して、そ
の信号を増幅する受光器制御部、43x、43yはX、
Y位置検出用のタッチ位置/幅検出部、44は同時複数
タッチ位置判定部、45は外部とタッチ位置や制御コマ
ンドなどのやり取りを行う外部インタフェース部であ
る。
In the figure, 3 is a two-dimensional photosensor array type touch plate which is touched by a finger or the like, and 4 is a touch position detecting portion. Tc and Td indicate two positions that are simultaneously touched with a finger or the like. Further, 35 is glass, 31x and 31y are light emitting diodes, X,
The Y-position detecting light emitter groups 32x and 32y are X- and Y-position detecting light receiver groups, each of which includes a photodiode for detecting light, a phototransistor, or a photoconductive cell. Here, as shown in the figure, the light emitter groups 31x, 31
y and the photoreceiver groups 32x and 32y are provided on the side of the touch surface of the touch plate 3 corresponding to the photoemitters 31x and y and the photoreceiver 3
It is installed so that the optical axes of 2x and y coincide with each other. Also, 41
x and 41y are light emitter control units that control the light emission of the X and Y position detecting light emitters 31x and y, and 42x and 42y receive electric signals from the X and Y position detecting light receivers 32x and y, and The photoreceiver control unit for amplifying the signal, 43x and 43y are X,
A touch position / width detection unit for Y position detection, 44 is a simultaneous plural touch position determination unit, and 45 is an external interface unit for exchanging touch positions and control commands with the outside.

【0065】発光器制御部41xは、発光器群31xの
各々と個別に接続されており、発光器群31xの各々を
個別に発光させることができる。発光器制御部41y
も、発光器群31yの各々と個別に接続されており、発
光器群31yの各々を個別に発光させることができる。
受光器制御部42xは、受光器群32xの各々と個別に
接続されており、受光器群32xが受光し、電気信号に
変換した信号の各々を個別に受信できる。受光器制御部
42yも、受光器群32yの各々と個別に接続されてお
り、受光器群32yが受光し、電気信号に変換した信号
の各々を個別に受信できる。
The light-emitter control section 41x is individually connected to each of the light-emitter groups 31x, and can individually cause each of the light-emitter groups 31x to emit light. Light emitter control unit 41y
Is also individually connected to each of the light emitter groups 31y, and each of the light emitter groups 31y can emit light individually.
The light receiver control unit 42x is individually connected to each of the light receiver groups 32x, and can individually receive each of the signals received by the light receiver group 32x and converted into an electric signal. The photoreceiver control unit 42y is also individually connected to each of the photoreceiver groups 32y, and can individually receive each of the signals received by the photoreceiver group 32y and converted into electric signals.

【0066】発光器制御部41xと発光器制御部41y
は、外部インタフェース部45からのクロック信号46
に基づき、発光器群31xと発光器群31yとが交互に
発光を行うように、発光器群31xと発光器群31yと
制御する。こうして、受光器群32xと受光器群32y
とが混信をしないようにする。さらに、発光器制御部4
1xは、受光器群32xの各々の間で混信が生じないよ
うに、発光器群31xの各々を順次発光させる。発光器
制御部41yも同様な制御を行っている。
Light emitter control section 41x and light emitter control section 41y
Is a clock signal 46 from the external interface unit 45.
Based on the above, the light emitter group 31x and the light emitter group 31y are controlled so that the light emitter group 31x and the light emitter group 31y alternately emit light. Thus, the photoreceiver group 32x and the photoreceiver group 32y
Don't interfere with. Further, the light emitter control unit 4
1x sequentially causes each of the light emitter groups 31x to emit light so that interference does not occur between each of the light receiver groups 32x. The light emitter control unit 41y also performs similar control.

【0067】受光器制御部42xと受光器制御部42y
は、外部インタフェース部45からのクロック信号46
に基づき、発光器群31xと発光器群31yの各々の発
光タイミングにあわせて、受光器群32xと受光器群3
2yの各々に対応する発光器群31xと発光器群31y
の各々が発光しているときにのみ、受光器群32xと受
光器群32yの各々からの信号を取り込む。こうして、
受光器群32xと受光器群32yとの混信、および受光
器群32xと受光器群32yの各々の間での混信が生じ
ないようにする。
Optical receiver control section 42x and optical receiver control section 42y
Is a clock signal 46 from the external interface unit 45.
Based on the above, the light receiver group 32x and the light receiver group 3 are matched with the light emission timings of the light emitter group 31x and the light emitter group 31y.
Light emitter group 31x and light emitter group 31y corresponding to each of 2y
The signals from the photoreceiver group 32x and the photoreceiver group 32y are taken in only when each of them emits light. Thus
Interference between the light receiver group 32x and the light receiver group 32y and interference between the light receiver group 32x and the light receiver group 32y are prevented.

【0068】図5により、受光器群32x,yにより受
光される光の状態について説明する。
The state of light received by the photoreceiver groups 32x, 32 will be described with reference to FIG.

【0069】図5は、受光器群32x,yにより受光さ
れる光の状態を示す。図5では、例えば、X1の位置に
ある受光器32xに入る光が遮蔽されたときは、受光器
32の間隔hに相当する幅hの領域で光が遮蔽されたと
している。
FIG. 5 shows the state of the light received by the photoreceiver group 32x, y. In FIG. 5, for example, when the light entering the light receiver 32x at the position X1 is shielded, the light is shielded in a region having a width h corresponding to the interval h between the light receivers 32.

【0070】図に示したように、発光器31x1〜5
31y1〜5 のおのおのが発光する信号光Lx1〜5 、L
1〜5 を、対向する受光器32x1〜5 、32y1〜5
のおのおのが受光する。
As shown in the figure, the light emitters 31 x 1 to 5 ,
31y 1 to 5 signal lights Lx 1 to 5 , L respectively
y 1 to 5 are opposed to the light receivers 32x 1 to 5 and 32y 1 to 5
Each receives light.

【0071】ここで、タッチ位置Tc、Tdをそれぞれ
通過する信号光Lx1〜3 、Ly1〜3 、及び、Lx5
Ly5 は、遮光される。したがって、受光器32x
1〜5 、32y1〜5 はタッチ位置Tc、Tdと、そのタ
ッチ幅Wc、Wdに応じ遮光された信号光を受光するこ
とになる。
Here, the signal lights Lx 1 to 3 , Ly 1 to 3 , and Lx 5 and Ly 5 passing through the touch positions Tc and Td, respectively, are shielded. Therefore, the light receiver 32x
1 to 5 and 32y 1 to 5 receive the signal light shielded according to the touch positions Tc and Td and the touch widths Wc and Wd.

【0072】図6により、タッチ位置検出部4の処理の
流れを説明する。
The processing flow of the touch position detector 4 will be described with reference to FIG.

【0073】図6は、タッチ位置検出部4の各部の処理
結果を示す。
FIG. 6 shows the processing result of each part of the touch position detecting section 4.

【0074】図に示したように、受光器31x1〜5
31y1〜5 が受信した信号光Lx1〜5 、Ly1〜5
受けたタッチ位置/幅検出部43x、43yは、それぞ
れ、受光器31x1〜5 、31y1〜5 からの信号によ
り、遮光されている受光器31x1〜5 、31y1〜5
どれであるかを判断する。その結果、位置X2に幅W
c、位置X5に押幅Wdを有する物体を検知する。位置
Y2に幅Wc、位置Y5に幅Wdを有する物体を検知す
る。幅は、(連続して遮光されている受光器31の数)
×hとして求める。位置X2は、幅Wcから、位置X5
は幅Wdから、位置Y2は幅Wcから、位置Y5は幅W
dから、それぞれの幅の中心に存在する受光器31の位
置として求める。偶数個の受光器31が遮光されている
場合は、中心位置にある2つの受光器31の中間の位置
として求める。
As shown in the figure, the light receivers 31x 1-5 ,
Signal light Lx 1 to 5 which 31y 1 to 5 receives the touch position received a Ly 1 to 5 / width detecting section 43x, 43y, respectively, the light receiver 31x 1 to 5, a signal from 31y 1 to 5, photodetector 31x 1 to 5, which is shielded from light, to determine whether 31y 1 to 5 is which. As a result, the width W at the position X2
c, the object having the pressing width Wd at the position X5 is detected. An object having a width Wc at the position Y2 and a width Wd at the position Y5 is detected. The width is (the number of light receivers 31 that are continuously shielded from light)
Calculate as xh. The position X2 is from the width Wc to the position X5.
Is from the width Wd, the position Y2 is from the width Wc, and the position Y5 is from the width W.
From d, it is determined as the position of the light receiver 31 existing at the center of each width. When the even number of the light receivers 31 are shielded from light, the position is determined as an intermediate position between the two light receivers 31 at the center position.

【0075】幅および位置の情報を受けた同時複数タッ
チ位置判定部44は、X検出位置X2、X5、Y検出位
置Y2、Y5とその幅Wc、Wdの組合せ判定により、
タッチ位置Tc(X2,Y2)、タッチ位置Td(X
5,Y5)を検出する。具体的には、可能な4つの候補
位置((X2,Y2),(X2,Y5),(X5,Y
2),(X5,X5))から、X位置におけるタッチ幅
と等しいY位置におけるタッチ幅を有する組合せを見つ
ける。この条件を満たすものとして、(X2,Y2),
(X5,X5)の2つが選ばれる。こうして、X位置に
おけるタッチ位置(タッチの中心位置)とY位置におけ
るタッチ位置との対応付けが行え、タッチ位置(X,
Y)を検出できる。
The simultaneous plural touch position determination unit 44, which has received the width and position information, determines the combination of the X detection positions X2, X5, Y detection positions Y2, Y5 and the widths Wc, Wd.
Touch position Tc (X2, Y2), touch position Td (X
5, Y5) is detected. Specifically, four possible candidate positions ((X2, Y2), (X2, Y5), (X5, Y
2), (X5, X5)) find a combination that has a touch width at the Y position equal to the touch width at the X position. Assuming that this condition is satisfied, (X2, Y2),
Two of (X5, X5) are selected. In this way, the touch position at the X position (center position of the touch) and the touch position at the Y position can be associated with each other, and the touch position (X,
Y) can be detected.

【0076】本実施例では、発光器群31および受光器
群32の各々は順次、時分割で動作させることとした
が、これに限られるものではなく、発光器群31の各々
にレンズを装着し、出射する光を細いビームの平行光と
すれば、受光器群32の間での混信が防げる。このた
め、発光器群31および受光器群32の各々を時分割で
動作させる必要はなく、同時に動作させることができ
る。この結果、発光器制御部41および受光器制御部4
2において、時分割制御の回路が不要となるため、発光
器制御部41および受光器制御部42の構成を簡略化す
ることができる。
In this embodiment, each of the light emitter group 31 and the light receiver group 32 is sequentially operated in a time-division manner. However, the present invention is not limited to this, and a lens is attached to each light emitter group 31. However, if the emitted light is a parallel light of a narrow beam, interference between the light receiver groups 32 can be prevented. Therefore, it is not necessary to operate each of the light emitter group 31 and the light receiver group 32 in a time division manner, and they can be operated simultaneously. As a result, the light emitter control unit 41 and the light receiver control unit 4
In 2, the time-division control circuit is not required, so that the configurations of the light-emitter control unit 41 and the light-receiver control unit 42 can be simplified.

【0077】また、本実施例では、発光素子および受光
素子の数が5つである、5×5のマトリックスにおける
同時複数タッチ位置検出を説明したが、マトリックスの
構成はこれに限るものではない。具体的な製品として
は、例えば外形寸法が横約230ミリ、縦約156ミ
リ、発光器の間隔が約3ミリ、発光器と受光器の数が、
横に約60個、縦に約35個の物も考えられる。
Further, in the present embodiment, the simultaneous multiple touch position detection in the 5 × 5 matrix in which the number of the light emitting elements and the light receiving elements is five has been described, but the configuration of the matrix is not limited to this. As a specific product, for example, the external dimensions are about 230 mm in width, about 156 mm in length, the distance between the light emitters is about 3 mm, and the number of light emitters and light receivers is
Approximately 60 objects horizontally and 35 objects vertically are also conceivable.

【0078】本実施例によれば、指や掌やペンなどによ
る、同時に複数のタッチが行われたときのタッチ位置検
出が可能であるので、タッチ位置検出装置の機能を向上
できる。
According to this embodiment, it is possible to detect the touch position when a plurality of touches are made at the same time with a finger, a palm, a pen or the like, so that the function of the touch position detecting device can be improved.

【0079】また、本実施例によれば、タッチプレート
3を内側が空いた額縁形状で実現できるので、タッチプ
レートと表示手段とを一体化したときに従来装置で生じ
る画質劣化を防止できる。従来の感圧方式のタッチプレ
ートの構造は、薄い透明電極を全面にコーティングした
2枚の透明シートを重ねたものである。このため、透明
電極はある程度透明度があるが、額縁だけで内側に光を
妨げる物が何もない2次元光センサアレイ方式のタッチ
プレートに比べると透明度が劣る。したがって、タッチ
プレートと表示手段とを一体化したときに、感圧方式の
表示は2次元光センサアレイ方式に比べ見ずらい。
Further, according to this embodiment, since the touch plate 3 can be realized in the shape of a frame with an empty inside, it is possible to prevent the deterioration of image quality which would occur in the conventional device when the touch plate and the display means are integrated. The structure of the conventional pressure-sensitive touch plate is a stack of two transparent sheets coated with thin transparent electrodes. For this reason, although the transparent electrode has a certain degree of transparency, it is inferior in transparency to a touch plate of a two-dimensional photosensor array method in which there is nothing inside the frame that blocks light. Therefore, when the touch plate and the display unit are integrated, the pressure-sensitive display is harder to see than the two-dimensional photosensor array method.

【0080】本発明の第3の実施例の2次元映像カメラ
方式タッチプレートを用いた同時複数タッチ位置検出装
置を、図7、8により説明する。
A simultaneous multiple-touch position detecting device using a two-dimensional video camera type touch plate according to a third embodiment of the present invention will be described with reference to FIGS.

【0081】図7により、同時複数タッチ位置検出装置
の構成について説明する。
The configuration of the simultaneous plural touch position detecting device will be described with reference to FIG.

【0082】図7は、同時複数タッチ位置検出装置のシ
ステム概略構成を示す。
FIG. 7 shows a schematic system configuration of a simultaneous multiple touch position detecting device.

【0083】図において、5は指などがタッチする2次
元映像カメラ方式のタッチプレート、6はタッチ位置検
出部である。Te、Tfは指などで同時にタッチしてい
る2つの位置を示す。また、52は、ガラスである。5
1x、51yはX、Y位置検出用のビデオカメラであ
る。カメラ51xは、X方向の範囲を撮影し、カメラ5
1yは、Y方向の範囲を撮影する。ここで、図に示した
ように、カメラ51x、51yはタッチプレート5のタ
ッチ面上の辺に設置する。53x,yは、カメラ51
x,yに対向して設けられた高さHの衝立である。衝立
53x,yは、衝立53x,yの後方がカメラ51x,
yにより撮影されないようにすることにより、タッチ位
置/幅検出部62x,yがタッチ位置/幅を検出すると
きに、指の位置等を検出しやすくするために、設けられ
たものである。衝立53x,yのカメラ51x,yに対
向する面は、指の位置が認識しやすいように指とのコン
トラストを高くするために、白色になっている。
In the figure, reference numeral 5 is a touch plate of a two-dimensional video camera type touched by a finger or the like, and 6 is a touch position detecting portion. Te and Tf indicate two positions that are simultaneously touched with a finger or the like. Reference numeral 52 is glass. 5
1x and 51y are video cameras for detecting X and Y positions. The camera 51x photographs the range in the X direction, and the camera 5x
1y captures a range in the Y direction. Here, as shown in the figure, the cameras 51x and 51y are installed on the sides of the touch plate 5 on the touch surface. 53x and y are cameras 51
It is a partition having a height H provided so as to face x and y. The partition 53x, y is a camera 51x, behind the partition 53x, y.
This is provided in order to make it easy to detect the position of the finger or the like when the touch position / width detection unit 62x, 62 detects the touch position / width by not capturing an image by y. The surface of the partition 53x, y facing the camera 51x, y is white in order to increase the contrast with the finger so that the position of the finger can be easily recognized.

【0084】また、61x、61yはX、Y位置検出用
カメラの撮像を制御するカメラ制御部、62x、62y
はX、Y位置検出用のタッチ位置/幅検出部、63は同
時複数タッチ位置判定部、64は外部とタッチ位置や制
御コマンドなどのやり取りを行う外部インタフェース部
である。
Reference numerals 61x and 61y denote camera control units 62x and 62y for controlling image pickup by the X and Y position detecting cameras.
Is a touch position / width detection unit for X and Y position detection, 63 is a simultaneous plural touch position determination unit, and 64 is an external interface unit for exchanging touch positions and control commands with the outside.

【0085】カメラ制御部61は、3フレームごとに、
1フレーム分のカメラ51からの映像信号を画素ごとに
デジタル信号に変換して、RAMに格納し、格納したデ
ータをタッチ位置/幅検出部62x,yに出力する。
The camera control unit 61, every three frames,
A video signal from the camera 51 for one frame is converted into a digital signal for each pixel, stored in the RAM, and the stored data is output to the touch position / width detection units 62x, y.

【0086】図8により、カメラ51x、51yの撮像
した映像の処理方法について説明する。
A method of processing the video imaged by the cameras 51x and 51y will be described with reference to FIG.

【0087】図8は、カメラ51x、51yの撮像した
映像を示す。
FIG. 8 shows an image taken by the cameras 51x and 51y.

【0088】図に示したように、タッチ位置Te、Tf
にそれぞれ指が存在する。したがって、カメラ51x、
51yは、それぞれ、2本の指を映像Vx、Vy(高さ
Hの映像)として撮像することになる。カメラの撮影す
る映像全体は、映像Vx、Vyよりも高さ方向にさらに
高いものであるが、タッチ位置/幅検出部62x,y
は、カメラ制御部61x,yから図に示す映像Vx,V
yの部分のみの画素データを受け取る。
As shown in the figure, the touch positions Te, Tf
Each has a finger. Therefore, the camera 51x,
51y respectively images two fingers as images Vx and Vy (images of height H). Although the entire video image captured by the camera is higher in the height direction than the video images Vx and Vy, the touch position / width detection unit 62x, y
Is an image Vx, V shown in the figure from the camera control unit 61x, y.
The pixel data of only the y portion is received.

【0089】カメラ51x、51yが撮像した映像V
x、Vyを受けたタッチ位置/幅検出部62x、62y
は、それぞれ、その指の位置及び幅から、位置X1に幅
We、位置X2に押幅Wfを、位置Y1に幅We、位置
Y2に幅Weを検出する。このために、タッチ位置/幅
検出部62x、62yは、カメラ制御部61x,yから
の画素データのうち、ガラス52面からの高さがh(一
定値である)の位置にある走査線上の画素データから指
を認識する。認識は、この走査線上の画素データの明度
を調べ、背景の白色よりも閾値だけ、明るさが低下して
いる画素が、指を表す画素であるとする。この画素の連
続している数から、指の幅を求める。幅の中心の位置か
ら指のある位置のX,Y座標を決定する。
Video V taken by the cameras 51x and 51y
Touch position / width detectors 62x and 62y that have received x and Vy
Detects the width We at position X1, the pressing width Wf at position X2, the width We at position Y1, and the width We at position Y2 from the position and width of the finger, respectively. For this reason, the touch position / width detection units 62x and 62y are on the scanning line at a position where the height from the glass 52 surface is h (a constant value) in the pixel data from the camera control units 61x and y. Recognize a finger from pixel data. For recognition, the brightness of the pixel data on this scanning line is checked, and it is assumed that the pixel whose brightness is lower than the white color of the background by a threshold value is the pixel representing the finger. The width of the finger is obtained from the number of consecutive pixels. The X and Y coordinates of the position where the finger is located are determined from the center position of the width.

【0090】指の位置の座標値と幅の情報を受けた同時
複数タッチ位置判定部63は、第2の実施例と同様にし
て、X検出位置X1、X2、Y検出位置Y1、Y2とそ
の幅We、Wfの組合せ判定により、タッチ位置Te
(X1,Y1)、タッチ位置Tf(X1,Y2)を検出
する。
The simultaneous plural touch position determination section 63 which has received the coordinate value and the width information of the finger position detects the X detection positions X1, X2, Y detection positions Y1, Y2 and the same as in the second embodiment. The touch position Te is determined by the combination determination of the widths We and Wf.
(X1, Y1) and touch position Tf (X1, Y2) are detected.

【0091】本実施例では、X、Yタッチ位置X1、X
2、Y1、Y2と、それぞれの位置における幅We、W
fとの組合せ判定による同時複数タッチ検出を説明した
が、タッチ位置と幅との組合せに限るものではない。指
の形状、色を考慮して判定してもよい。
In this embodiment, X, Y touch positions X1, X
2, Y1, Y2 and the widths We, W at the respective positions
The simultaneous multiple touch detection based on the combination determination with f has been described, but the present invention is not limited to the combination of the touch position and the width. The determination may be made in consideration of the shape and color of the finger.

【0092】また、カメラ51x、51yの設置位置を
タッチプレート5のタッチ面上の辺の任意の位置で説明
したが、この位置に限るものではない。タッチプレート
5の辺からはなれた位置としてもよい。
Further, although the installation positions of the cameras 51x and 51y have been described as arbitrary positions on the side of the touch surface of the touch plate 5, the positions are not limited to this. The position may be separated from the side of the touch plate 5.

【0093】また、カメラ制御部61は、焦点距離を順
次変える指示をカメラ51に送り、焦点距離ごとに撮影
をカメラ51に行わせてもよい。この時は、指の幅およ
び位置を決定する差異に、焦点距離の情報を考慮して、
走査線上の画素の位置を指の位置に変換することができ
る。
Further, the camera control section 61 may send an instruction to the camera 51 to sequentially change the focal length, and cause the camera 51 to perform photographing for each focal length. At this time, in consideration of the information of the focal length in the difference that determines the width and position of the finger,
The position of the pixel on the scan line can be converted into the position of the finger.

【0094】なお、カメラとしては、通常のビデオカメ
ラを用いることが可能であるが、カメラをできるだけ横
長で、カメラの高さ方向の長さが小さい薄型のカメラに
することが、タッチパネル全体の小型化のためには、好
ましい。
Although a normal video camera can be used as the camera, it is possible to reduce the size of the entire touch panel by using a thin camera that is as long as possible in the horizontal direction and has a small length in the height direction of the camera. It is preferable for conversion.

【0095】本実施例によれば、指や掌やペンなどの同
時複数タッチ位置検出を実現できるので、タッチ位置検
出装置の機能を向上できる。
According to the present embodiment, it is possible to simultaneously detect a plurality of touched positions of fingers, palms, pens, etc., so that the function of the touched position detecting device can be improved.

【0096】また、本実施例によれば、タッチプレート
5を内側が空いた額縁形状で実現できるので、表示一体
化における画質劣化を防止できる。
Further, according to the present embodiment, the touch plate 5 can be realized in the shape of a frame in which the inside is vacant, so that it is possible to prevent the deterioration of the image quality in the integrated display.

【0097】以上述べてきた第1〜第3の3つの同時複
数タッチ位置検出装置の実施例においては、同時に2箇
所をタッチしたときに、2つのタッチ位置を検出する方
法について説明したが、同時に3箇所以上をタッチする
ときも同様である。また、同時に複数の位置をタッチす
るための道具については、指の場合について述べてきた
が、指や掌やペン等でももちろんよい。指や掌やペンな
どの複数種類の道具を混用してもよい。
In the embodiments of the first to third three simultaneous plural touch position detecting devices described above, the method of detecting two touch positions when touching two places at the same time has been described. The same applies when touching three or more locations. As for the tool for touching a plurality of positions at the same time, the case of a finger has been described, but a finger, a palm, a pen or the like may be used. Multiple types of tools such as fingers, palms and pens may be mixed.

【0098】以下、本発明の第4の実施例である同時複
数タッチ指示処理装置を説明する。
A simultaneous multiple touch instruction processing device according to a fourth embodiment of the present invention will be described below.

【0099】まず、図9により、表面弾性波方式タッチ
プレートを用いた同時複数タッチ位置検出装置を表示装
置と一体化した同時複数タッチ指示処理装置について説
明する。
First, a simultaneous plural touch instruction processing device in which a simultaneous plural touch position detecting device using a surface acoustic wave type touch plate is integrated with a display device will be described with reference to FIG.

【0100】図9は、同時複数タッチ指示処理装置の構
成を示す。
FIG. 9 shows the configuration of the simultaneous multiple touch instruction processing device.

【0101】図において、7は表面弾性波方式タッチプ
レートを用いた同時複数タッチ位置検出装置、8は液晶
ディスプレイを用いた表示装置、9は情報処理装置、1
0は、スピーカである。同時複数タッチ位置検出装置7
は、情報処理装置9に対して、検出したタッチ位置の個
数とタッチ位置のX,Y座標を出力する。また、91は
情報処理を行うMPU、92は、後述するワープロ、ピ
アノ、サッカー、終了処理等の処理を行うための情報処
理プログラムを格納する、ROMであるメモリ、94
は、RAMであるメモリ、93は、音声出力部、96
は、インタフェース部、95は、バスである。ここで、
図に示したように、同時複数タッチ位置検出装置8と表
示装置9は一体化されている。スピーカ10は、MPU
91の指示を受けて音声出力部93が出力する信号によ
り、警告音や音楽を出力する。
In the figure, 7 is a simultaneous plural touch position detecting device using a surface acoustic wave type touch plate, 8 is a display device using a liquid crystal display, 9 is an information processing device, and 1 is a display device.
0 is a speaker. Simultaneous multiple touch position detection device 7
Outputs the number of detected touch positions and the X and Y coordinates of the touch positions to the information processing device 9. Further, 91 is an MPU for performing information processing, 92 is a memory that is a ROM for storing an information processing program for performing processing such as word processing, piano, soccer, and ending processing described later, 94
Is a memory which is a RAM, 93 is a voice output unit, 96
Is an interface unit, and 95 is a bus. here,
As shown in the figure, the simultaneous multiple touch position detection device 8 and the display device 9 are integrated. The speaker 10 is an MPU
A warning sound or music is output by a signal output from the audio output unit 93 in response to the instruction from 91.

【0102】以下説明する本発明の第4の実施例におい
ては、電源をオンすると、図20に示すメニュー画面が
表示され、ワープロ、ピアノ(仮想ピアノ)、サッカ
ー、終了のいずれかを選択することができる。図20
は、本発明に係る同時複数タッチ位置検出装置7と一体
化した表示装置8に表示される。画面をタッチすること
により、選択することができる。
In the fourth embodiment of the present invention described below, when the power is turned on, the menu screen shown in FIG. 20 is displayed, and one of word processor, piano (virtual piano), soccer, and end can be selected. You can Figure 20
Is displayed on the display device 8 integrated with the simultaneous multiple touch position detection device 7 according to the present invention. It can be selected by touching the screen.

【0103】そして、選択された各処理においては、同
時複数タッチ位置検出装置8から得られる、同時にタッ
チされた複数のタッチ位置情報を受けたMPU91が、
メモリ92、94内に格納した情報処理プログラムに従
って、同時複数タッチ操作に対応した情報処理を行う。
Then, in each of the selected processes, the MPU 91 which has received a plurality of simultaneously touched touch position information obtained from the simultaneous plural touch position detecting device 8
According to the information processing program stored in the memories 92 and 94, information processing corresponding to simultaneous multiple touch operations is performed.

【0104】本発明の第4の実施例の内、仮想キーボー
ドを用いたワープロの情報処理を、図10〜12により
説明する。以下では、文章の入力または編集を行う場合
の情報処理について述べる。本処理では、図9の同時複
数タッチ指示処理装置をワープロとして用いている。こ
のワープロでは、表示装置に仮想キーボードが表示され
ており、この仮想キーボードに対して入力編集操作を行
うことができ、情報処理装置9は、この操作に従って、
文章の入力、編集処理を行うものである。
Information processing of the word processor using the virtual keyboard in the fourth embodiment of the present invention will be described with reference to FIGS. In the following, information processing when inputting or editing a sentence will be described. In this process, the simultaneous multiple touch instruction processing device of FIG. 9 is used as a word processor. In this word processor, a virtual keyboard is displayed on the display device, and an input / edit operation can be performed on this virtual keyboard, and the information processing device 9 follows this operation.
It is for inputting and editing text.

【0105】図10により、同時複数タッチ位置検出装
置7と一体化した表示装置8における情報処理用表示画
面を説明する。
An information processing display screen in the display device 8 integrated with the simultaneous plural touch position detection device 7 will be described with reference to FIG.

【0106】図10は、仮想キーボードを用いたワープ
ロにおける表示画面を示す。この画面を表示するために
は、ユーザは、情報処理装置の電源をいれた後に表示さ
れる図20のメニュー画面において、メニューの1つと
して表示されているワープロを選択することにより、図
10の画面の仮想キーボードおよび文章が表示される。
FIG. 10 shows a display screen in a word processor using a virtual keyboard. In order to display this screen, the user selects the word processor displayed as one of the menus in the menu screen of FIG. 20 displayed after turning on the power of the information processing device. The screen virtual keyboard and text are displayed.

【0107】図において、811は仮想キーボード、8
12は文章である。仮想キーボード811を表示する領
域と文章812を表示する領域は、図のように決められ
ている。タッチ位置検出装置7が出力するタッチ位置の
うちこれらの領域に入るかどうかの情報が後述のように
必要なため、メモリ92は、これらの領域をタッチ位置
検出装置7の座標系で表したテーブル923を有する。
図10は、文章812の入力がすでにいくらかされてい
る状態を示す。
In the figure, 811 is a virtual keyboard, and 8
12 is a sentence. The area for displaying the virtual keyboard 811 and the area for displaying the sentence 812 are determined as shown in the figure. Since information about whether the touch position output from the touch position detection device 7 falls within these areas is necessary as described later, the memory 92 stores a table representing these areas in the coordinate system of the touch position detection device 7. 923.
FIG. 10 shows a state in which the sentence 812 has already been input.

【0108】仮想キーボード上でタッチが行われると、
そのタッチ位置は、仮想キーボード811のキーを情報
処理装置内で識別するためのキーコードに変換される。
図9のメモリ92は、この変換のための、タッチ位置と
キーコードとの対応テーブル921を有する。仮想キー
ボード811上のキーは、ある大きさで表示されている
ため、タッチ位置はその大きさに応じた幅を持ってお
り、上記テーブル921は、タッチ位置としてキーコー
ドに対応させて、キーコードごとに許容される幅の情報
も有する。さらに、メモリ92は、このキーコードを、
文字または記号を情報処理装置内で識別するための文字
キーコードに変換するための、タッチ位置と文字キーコ
ードとの対応テーブル922をも有する。また、仮想キ
ーボード811上のシフトキーと文字キーが同時に押さ
れていたときに、文字コードをシフト文字キーコードに
変換するためのテーブル924を有する。
When a touch is made on the virtual keyboard,
The touch position is converted into a key code for identifying the key of the virtual keyboard 811 in the information processing device.
The memory 92 of FIG. 9 has a correspondence table 921 of touch positions and key codes for this conversion. Since the keys on the virtual keyboard 811 are displayed in a certain size, the touch position has a width according to the size, and the table 921 corresponds to the key code as the touch position, It also has information on the allowable width for each. Further, the memory 92 stores the key code
It also has a correspondence table 922 of touch positions and character key codes for converting characters or symbols into character key codes for identifying in the information processing apparatus. Further, it has a table 924 for converting a character code into a shift character key code when the shift key and the character key on the virtual keyboard 811 are simultaneously pressed.

【0109】メモリ92は、文章812上でタッチが行
われると、そのタッチ位置を文章812の文字位置に変
換するための、タッチ位置と文字指示位置との対応テー
ブル925を有する。文章812の文字位置とは、表示
されている文章812における行番号及びカラム番号で
あり、何行目の何カラム目の文字であるかを示すもので
ある。文章812の1文字は、ある大きさで表示されて
いるため、タッチ位置はその大きさに応じた幅を持って
おり、上記テーブル925は、許容される幅の情報も有
する。
The memory 92 has a correspondence table 925 of the touch position and the character pointing position for converting the touch position into the character position of the text 812 when the text 812 is touched. The character position of the sentence 812 is a line number and a column number in the displayed sentence 812, and indicates which line and column the character is. Since one character of the sentence 812 is displayed in a certain size, the touch position has a width corresponding to the size, and the table 925 also has information on the allowable width.

【0110】図11により、仮想キーボード811を用
いた文章入力のための情報処理の流れを説明する。
The flow of information processing for text input using the virtual keyboard 811 will be described with reference to FIG.

【0111】図11は、上記文章入力のための情報処理
のうち、仮想キーボード811のシフトキーのある位置
がタッチされたかどうかを検知して、処理をする部分の
フローを示す。以下では、情報処理装置の電源がオンに
なり、メニューが表示され、メニュー内のワープロが選
択されたとする。
FIG. 11 shows a flow of a part of the information processing for inputting a sentence, which detects whether or not a position of the shift key of the virtual keyboard 811 is touched and performs the processing. In the following, it is assumed that the information processing apparatus is powered on, the menu is displayed, and the word processor in the menu is selected.

【0112】ステップ1101:MPU9は、メニュー
内のワープロが選択されたため、表示装置8に、仮想キ
ーボード811を表示する。
Step 1101: Since the word processor in the menu is selected, the MPU 9 displays the virtual keyboard 811 on the display device 8.

【0113】ステップ1102:MPU9は、同時複数
タッチ位置検出装置7から、1または2以上のタッチ位
置を取得する。
Step 1102: The MPU 9 acquires one or two or more touch positions from the simultaneous plural touch position detecting device 7.

【0114】ステップ1103:MPU9は、これらの
タッチ位置が仮想キーボード811上であるか否かをテ
ーブル923により判定し、仮想キーボード811上の
場合ステップ1104に進み、そうでない場合は処理を
終了する。
Step 1103: The MPU 9 judges from the table 923 whether or not these touch positions are on the virtual keyboard 811, and if it is on the virtual keyboard 811, proceeds to step 1104, and if not, terminates the processing.

【0115】ステップ1104:MPU9は、取得した
タッチ位置を、テーブル921により仮想キーボード8
11のキーコードに変換する。この時に、タッチ位置が
仮想キーボード811上のいずれのキーの位置にも該当
しない場合は、タッチ位置がキー以外の部分にあるた
め、ステップ1102に進み、再度タッチ位置の取得を
行う。
Step 1104: The MPU 9 uses the table 921 to set the acquired touch position to the virtual keyboard 8
Convert to 11 key code. At this time, if the touched position does not correspond to the position of any key on the virtual keyboard 811, the touched position is in a portion other than the key, and therefore the process proceeds to step 1102 and the touched position is acquired again.

【0116】ステップ1105:MPU9は、テーブル
922によりキーコードから、文字キーコードを取得す
る。
Step 1105: The MPU 9 acquires the character key code from the key code by the table 922.

【0117】ステップ1106:MPU9は、複数のタ
ッチ位置を取得した場合に、複数のキーコードの中に、
シフトキーに対応したシフトキーコードがあるか否かを
判定し、シフトキーコードがある場合はステップ110
7に進み、そうでない場合はステップ1108に進む。
Step 1106: When the MPU 9 acquires a plurality of touch positions, the
It is determined whether or not there is a shift key code corresponding to the shift key, and if there is a shift key code, step 110
7. If not, proceed to step 1108.

【0118】ステップ1107:MPU9は、文字コー
ドをテーブル924によりシフト文字キーコードに変換
する。
Step 1107: The MPU 9 converts the character code into a shift character key code according to the table 924.

【0119】ステップ1108:MPU9は、文字キー
コードまたは、シフト文字キーコードを表示装置8に出
力する。表示装置は、文章812の文章の最後の位置8
121に文字キーコードまたはシフト文字キーコードで
指定された文字を表示する。
Step 1108: The MPU 9 outputs the character key code or the shift character key code to the display device 8. The display device displays the last position 8 of the sentence of the sentence 812.
At 121, the character designated by the character key code or the shift character key code is displayed.

【0120】図11の処理につづいて行われる、文章8
12の領域でタッチが行われたかどうかを判断する処理
およびタッチが行われたと判断したときの処理の流れ
を、図12により説明する。
Sentence 8 which follows the processing of FIG.
A process of determining whether or not a touch has been performed in the area 12 and a flow of a process when determining that a touch has been performed will be described with reference to FIG.

【0121】図12は、文章812の領域でのタッチに
関する処理のフローを示す。この処理は、文章812上
で、ワープロにおける複写、移動及び削除などの編集操
作の対象範囲が指定されたとき、例えば、複数文字の削
除を行う場合、削除対象の複数文字が指定されたとき
に、削除のための範囲指定が行われたかどうかを判定
し、範囲指定が行われているときは、範囲を判定して、
次の段階の処理(この場合は削除処理)にこの範囲を送
るための処理である。なお、タッチ位置は、図11のス
テップ1101ですでに入手されているため、タッチ位
置を入手するステップは、図12にはない。
FIG. 12 shows a flow of processing relating to a touch in the area of the sentence 812. This process is performed when a target range of an editing operation such as copying, moving and deleting in a word processor is specified on the sentence 812, for example, when a plurality of characters are deleted, when a plurality of characters to be deleted are specified. , It is judged whether the range is specified for deletion. If the range is specified, the range is judged,
This is a process for sending this range to the process of the next stage (delete process in this case). Note that the touch position has already been acquired in step 1101 of FIG. 11, so the step of acquiring the touch position is not included in FIG.

【0122】ステップ1201:取得した1または2以
上のタッチ位置のすべてがが文章812上であるか否か
をテーブル923により判定し、文章812上の場合ス
テップ1202に進み、そうでない場合は処理を終了す
る。
Step 1201: It is judged by the table 923 whether all of the acquired one or two or more touch positions are on the sentence 812. If it is on the sentence 812, the process proceeds to step 1202, otherwise, the process is performed. finish.

【0123】ステップ1202:タッチ位置を、テーブ
ル925により、文章812の文字位置に変換する。
Step 1202: The touch position is converted into the character position of the sentence 812 by the table 925.

【0124】ステップ1203:タッチ位置検出装置7
から複数の文字位置が送られており、それらがいずれも
文章812の領域である場合は、文字位置が2つ以上
(すなわち、文章812上の複数の位置でタッチがされ
ている)であるので、ステップ1204に進み、そうで
ない場合は処理を終了する。
Step 1203: Touch position detecting device 7
If a plurality of character positions are sent from, and all of them are in the area of the sentence 812, there are two or more character positions (that is, a plurality of positions on the sentence 812 are touched). The process proceeds to step 1204, and if not, the process ends.

【0125】ステップ1204:2つ以上の文字位置で
囲まれる範囲の複数文字を決定し、処理を終了する。
Step 1204: A plurality of characters within a range enclosed by two or more character positions are determined, and the process is ended.

【0126】本処理では、仮想キーボード811のシフ
トキー併用処理について説明したが、シフトキーに限る
ものではない。他のキー、例えば、コントロールキー併
用処理についても適用できる。また、文章812の範囲
指定処理について説明したが、文章に限るものではな
い。図形を対象にすることも可能である。
In this processing, the shift key combined processing of the virtual keyboard 811 has been described, but it is not limited to the shift key. The present invention can also be applied to other keys, for example, control key combined processing. Further, the range designation processing of the sentence 812 has been described, but the present invention is not limited to the sentence. It is also possible to target a figure.

【0127】また、本処理では、ワープロとしての情報
処理、たとえば、削除処理の詳細については説明しなか
ったが、公知の技術で実現できる。
Further, in this processing, the details of the information processing as a word processor, for example, the deletion processing has not been described, but it can be realized by a known technique.

【0128】本処理によれば、指や掌やペンで行われた
同時複数タッチ操作による指示を処理できるので、タッ
チ指示処理装置の操作性を向上できる。ここで、同時複
数タッチ操作による指示とは、例えば、図10の文字キ
ーとシフトキーとの組合せにより、入力文字を大文字あ
るいは小文字として指示することをいう。本装置は、単
一のキーにより行われる指示ももちろん処理できる。
According to this processing, since instructions by simultaneous multiple touch operations performed with fingers, palms or pens can be processed, the operability of the touch instruction processing device can be improved. Here, the instruction by the simultaneous multi-touch operation means, for example, an instruction of the input character as an uppercase letter or a lowercase letter by a combination of the character key and the shift key in FIG. 10. The device is, of course, also able to process instructions given by a single key.

【0129】また、本処理によれば、文章812の範囲
指定などの操作において複数操作を必要とするものを1
度の操作で実現できるので、仮想キーボード811を用
いたワープロにおいて、操作性を向上できる。
In addition, according to the present processing, if the operation such as the range designation of the sentence 812 requires a plurality of operations,
Since it can be realized with a single operation, the operability can be improved in a word processor using the virtual keyboard 811.

【0130】次に、仮想ピアノを用いたピアノの演奏
を、図13、図14により説明する。本処理では、図9
の同時複数タッチ指示処理装置をピアノとして用いてい
る。この処理では、表示装置に仮想ピアノ821と楽譜
822とが表示されており、楽譜822に従い、仮想ピ
アノ821をタッチ操作することで、仮想ピアノに対し
て演奏操作を行うことができる。情報処理装置9は、こ
の操作に従って、音声出力部93を介してスピーカに音
信号を送る。
Next, the performance of the piano using the virtual piano will be described with reference to FIGS. In this processing, as shown in FIG.
The simultaneous multiple touch instruction processing device of is used as a piano. In this process, the virtual piano 821 and the musical score 822 are displayed on the display device, and the virtual piano 821 can be touch-operated according to the musical score 822 to perform a performance operation on the virtual piano. In accordance with this operation, the information processing device 9 sends a sound signal to the speaker via the audio output unit 93.

【0131】図13により、同時複数タッチ位置検出装
置7と一体化した表示装置8における情報処理用表示画
面を説明する。
An information processing display screen in the display device 8 integrated with the simultaneous plural touch position detection device 7 will be described with reference to FIG.

【0132】図13は、仮想ピアノを用いたピアノの演
奏における表示画面を示す。この画面を表示するために
は、ユーザは、情報処理装置の電源をいれた後に表示さ
れるメニュー画面において、メニューの1つとして表示
されているピアノを選択することにより、図13の画面
の仮想ピアノおよび楽譜等が表示される。
FIG. 13 shows a display screen in playing a piano using a virtual piano. In order to display this screen, the user selects the piano displayed as one of the menus on the menu screen displayed after turning on the power of the information processing apparatus, and the virtual screen of FIG. 13 is displayed. Piano, score, etc. are displayed.

【0133】図において、821は仮想ピアノを表示す
る領域、822は楽譜を表示する領域、823は演奏終
了のための入力を受付ける領域である。タッチ位置検出
装置7が出力するタッチ位置が、これらの領域に入るか
どうかの情報が後述のように必要なため、メモリ92
は、これらの領域をタッチ位置検出装置7の座標系で表
したテーブル923を有する。
In the figure, 821 is an area for displaying a virtual piano, 822 is an area for displaying a musical score, and 823 is an area for receiving an input for ending the performance. Since the information on whether the touch position output by the touch position detecting device 7 falls within these areas is required as described later, the memory 92
Has a table 923 that represents these areas in the coordinate system of the touch position detection device 7.

【0134】仮想ピアノ821上でタッチが行われると
きに、そのタッチ位置は、仮想ピアノ821の鍵盤を情
報処理装置内で識別するためのキーコードに変換され
る。図7のメモリ92は、この変換をする際に使用す
る、タッチ位置とキーコードとの対応テーブル926を
有する。キーコードには、演奏終了を示す位置823に
対応したものもある。仮想ピアノ921上の鍵盤は、あ
る大きさで表示されているため、タッチ位置はその大き
さに応じた幅を持っており、上記テーブル926は、キ
ーコードに対応させて、キーコードごとに許容される幅
の情報も有する。さらに、メモリ92は、このキーコー
ドを、音信号に変換するために、音声出力部93が使用
する、音信号生成情報とキーコードとの対応テーブル9
27をも有する。
When a touch is made on the virtual piano 821, the touched position is converted into a key code for identifying the keyboard of the virtual piano 821 in the information processing apparatus. The memory 92 of FIG. 7 has a correspondence table 926 of touch positions and key codes used when performing this conversion. Some key codes correspond to the position 823 indicating the end of performance. Since the keyboard on the virtual piano 921 is displayed in a certain size, the touch position has a width corresponding to the size, and the table 926 corresponds to the key code and allows each key code. It also has information about the width to be processed. Further, the memory 92 uses the correspondence table 9 between the sound signal generation information and the key code, which is used by the audio output unit 93 to convert the key code into the sound signal.
Also has 27.

【0135】図14により、仮想ピアノ821に関する
情報処理の流れを説明する。
The flow of information processing regarding the virtual piano 821 will be described with reference to FIG.

【0136】図14は、仮想ピアノ821の多重音演奏
処理のフローを示す。以下では、情報処理装置の電源が
オンになり、メニューが表示され、メニュー内のピアノ
が選択されたとする。
FIG. 14 shows a flow of a multi-tone performance process of the virtual piano 821. In the following, it is assumed that the information processing apparatus is powered on, the menu is displayed, and the piano in the menu is selected.

【0137】ステップ1401:MPU9は、メニュー
内のピアノが選択されたため、表示装置8に、仮想ピア
ノ821を表示する。
Step 1401: Since the piano in the menu has been selected, the MPU 9 displays the virtual piano 821 on the display device 8.

【0138】ステップ1402:MPU9は、同時複数
タッチ位置検出装置7から、1つもしくは複数のタッチ
位置を取得する。
Step 1402: The MPU 9 acquires one or a plurality of touch positions from the simultaneous plural touch position detecting device 7.

【0139】ステップ1403:MPU9は、少なくと
も1つのタッチ位置が仮想ピアノ821上であるか否か
をテーブル925により判定し、仮想ピアノ821上の
場合ステップ1404に進み、そうでない場合はステッ
プ1406に進む。
Step 1403: The MPU 9 judges from the table 925 whether or not at least one touch position is on the virtual piano 821. If it is on the virtual piano 821, the procedure proceeds to step 1404, and if not, the procedure proceeds to step 1406. .

【0140】ステップ1404:MPU9は、1つもし
くは複数のタッチ位置を、テーブル926により、それ
ぞれのタッチ位置に対応した、仮想ピアノ821のキー
コードに変換する。
Step 1404: The MPU 9 converts one or a plurality of touch positions into a key code of the virtual piano 821 corresponding to each touch position by using the table 926.

【0141】ステップ1405:MPU9は、1つもし
くは複数のキーコードを音声出力部93に出力する。音
声出力部93は、キーコードに対応した音を生成するた
めに、キーコードに対応した音信号生成情報をテーブル
927により入手し、1つもしくは複数の音を合成した
音信号を生成する。生成した音信号をスピーカ10に同
時に出力し、スピーカ10からタッチ位置に応じた1つ
もしくは複数の音が出力される。次に、ステップ140
2に進む。音信号生成情報としては、MIDI(Mus
ical Insirument Digital I
nterface)に従ったデータでもよい。
Step 1405: The MPU 9 outputs one or a plurality of key codes to the voice output section 93. The voice output unit 93 obtains the sound signal generation information corresponding to the key code from the table 927 in order to generate the sound corresponding to the key code, and generates a sound signal in which one or a plurality of sounds are synthesized. The generated sound signals are simultaneously output to the speaker 10, and the speaker 10 outputs one or a plurality of sounds according to the touch position. Then, step 140
Go to 2. As the sound signal generation information, MIDI (Mus
ical Instrument Digital I
data may be used.

【0142】ステップ1406:タッチ位置が演奏終了
を示す位置823であるかどうかを判定し、終了を示す
位置である場合は、処理を終了し、そうでない場合は、
ステップ1402に進む。
Step 1406: It is judged whether or not the touch position is the position 823 indicating the end of the performance. If the touch position is the position indicating the end, the process is terminated.
Proceed to step 1402.

【0143】上記の処理において、処理が終了したとき
は、図20のメニュー画面の表示に戻る。
When the processing is completed in the above processing, the display returns to the menu screen shown in FIG.

【0144】本処理では、1つの仮想ピアノ821につ
いて説明したが、1つに限るものではなく、複数の仮想
ピアノであってもよく、その場合は、連弾が可能であ
る。また、ピアノ以外の楽器にも適用できるものであ
る。
In this processing, one virtual piano 821 has been described, but the number of virtual pianos is not limited to one, and a plurality of virtual pianos may be used, and in this case, continuous shots are possible. It can also be applied to musical instruments other than pianos.

【0145】本処理によれば、指や掌やペンなどの同時
複数タッチ操作における組合せや個々の指示を処理を実
現できるので、タッチ指示処理装置の操作性を向上でき
る。また、本処理によれば、仮想ピアノ821の多重音
演奏を実現できるので、仮想ピアノ821を用いたピア
ノの演奏の情報処理の操作性を向上できる。
According to this process, it is possible to realize a combination or individual instructions in simultaneous multiple touch operations with fingers, palms, pens, etc., so that the operability of the touch instruction processing device can be improved. Further, according to this processing, since a multi-tone performance of the virtual piano 821 can be realized, the operability of information processing of the performance of the piano using the virtual piano 821 can be improved.

【0146】次に、仮想ボタンを用いた対戦型サッカー
ゲームを、図15、図16により説明する。ここで、仮
想ボタンを用いた対戦型サッカーゲームとは、仮想ボタ
ンをタッチ操作することで、サッカーフィールド上で行
うゲームである。
Next, a competitive soccer game using virtual buttons will be described with reference to FIGS. Here, the competitive soccer game using virtual buttons is a game played on the soccer field by touching the virtual buttons.

【0147】本処理では、図9の同時複数タッチ指示処
理装置をテレビゲームとして用いている。この処理で
は、表示装置8にサッカーフィールド832、複数の選
手839,840、これらの選手にキック/ドリブル等
をさせるための仮想ボタン8311,8312,833
1,8332,8341,8342,8351,835
2が表示されており、この仮想ボタンに対してユーザ
は、操作を行う。情報処理装置9は、この操作に従っ
て、選手839,840にキック/ドリブル等をさせ
て、ゲームを進めるものである。
In this process, the simultaneous multiple touch instruction processing device of FIG. 9 is used as a video game. In this process, the display device 8 has a soccer field 832, a plurality of players 839, 840, and virtual buttons 8311, 8312, 833 for making these players kick / dribble.
1, 8332, 8341, 8342, 8351, 835
2 is displayed, and the user operates this virtual button. In accordance with this operation, the information processing apparatus 9 causes the players 839 and 840 to kick / dribble and the like to proceed with the game.

【0148】図15により、同時複数タッチ位置検出装
置7と一体化した表示装置8における表示画面を説明す
る。この画面を表示するためには、ユーザは、情報処理
装置の電源をいれた後に表示されるメニュー画面におい
て、メニューの1つとして表示されているサッカーを選
択することにより、図15の画面が表示される。
The display screen of the display device 8 integrated with the simultaneous plural touch position detection device 7 will be described with reference to FIG. In order to display this screen, the user selects the soccer displayed as one of the menus in the menu screen displayed after turning on the power of the information processing device, and the screen of FIG. 15 is displayed. To be done.

【0149】図15は、仮想ボタンを用いた対戦型サッ
カーゲームの画面を示す。図において、832はサッカ
ーフィールド、836は、ゴールエリア、838は、ペ
ナルティエリアライン、837は、ハーフウエイライ
ン、841は、ボールである。
FIG. 15 shows a screen of a competitive soccer game using virtual buttons. In the figure, 832 is a soccer field, 836 is a goal area, 838 is a penalty area line, 837 is a halfway line, and 841 is a ball.

【0150】8311,8312は、ゲームを開始させ
るためのスタートボタンである。ゲーム中にスタートボ
タン8311,8312がタッチされると、ゲームが終
了する。
Reference numerals 8311 and 8312 denote start buttons for starting the game. When the start buttons 8311 and 8312 are touched during the game, the game ends.

【0151】以下で述べるボタンについては、付されて
いるナンバーの下1桁が1のボタンは、手前側チームの
選手839を操作するためのボタンであり、ナンバーの
下1桁が2のボタンは、向う側側チームの選手840を
操作するためのボタンである。
Regarding the buttons described below, the button whose last digit of the attached number is 1 is a button for operating the player 839 of the front team, and the button whose last digit of the number is 2 is , Buttons for operating the players 840 of the opposite team.

【0152】8331,8332は、キックまたはスロ
ーイングをするためのボタンである。このボタン833
1,8332がタッチされたときに、キックをするかス
ローイングをするかは、MPU9がゲームの進行状況か
ら判断する。
Reference numerals 8331 and 8332 are buttons for kicking or throwing. This button 833
The MPU 9 determines from the progress of the game whether to kick or throw when 1,8332 is touched.

【0153】8341,8342は、ヘッディングまた
はドリブルをするためのボタンである。このボタン83
41,8342がタッチされたときに、ヘッディングを
するかドリブルをするかは、MPU9が飛んできたボー
ルが選手839,840に当たった高さ(MPU9が演
算により決定する)から判断する。
Reference numerals 8341 and 8342 are buttons for heading or dribbling. This button 83
Whether the heading or the dribbling is performed when 41, 8342 is touched is determined based on the height at which the ball that the MPU 9 flies over hits the players 839, 840 (determined by the calculation by the MPU 9).

【0154】8351,8352は、キック、スローイ
ング、ヘッディング、ドリブル時に、前後左右、いずれ
の方向にボールを操作するかを指示するためのボタンで
あり、4つの方向が指示することができ、その方向は矢
印で表示されている。すなわち、8351a,8352
aは、前方方向、8351b,8352bは、右方向、
8351c,8352cは、後方、8351d,835
2dは、左方向である。2つの方向が同時にタッチされ
たときは、中間の方向を指示したとMPU9は、解釈す
る。例えば、8351a,8352aが同時にタッチさ
れたときは、右斜め前方にキック等がされたと解釈され
る。この方向は、キック等をした後、キック等をした選
手が動く方向でもある。
Reference numerals 8351 and 8352 are buttons for instructing which direction to operate the ball, such as front, rear, left, and right, at the time of kicking, throwing, heading, and dribbling, and four directions can be designated. Is indicated by an arrow. That is, 8351a, 8352
a is the forward direction, 8351b, 8352b is the right direction,
8351c and 8352c are rear, 8351d and 835.
2d is to the left. When the two directions are touched at the same time, the MPU 9 interprets that the middle direction is designated. For example, when 8351a and 8352a are touched at the same time, it is interpreted that a kick or the like is performed diagonally to the front right. This direction is also the direction in which the player who kicks, etc., moves after making a kick, etc.

【0155】ボタンが操作されたときに、どの選手83
9,840がキック等を行うかについては、ボールに1
番近い位置にいる手前側チームおよび向う側チーム各一
人の選手をMPU9が判断し、その選手がボタンに従っ
てキック等を行う。
When the button is operated, which player 83
As for whether 9,840 kicks, etc.,
The MPU 9 judges the player of each of the front side team and the other side team at the nearest position, and the player performs a kick or the like according to the button.

【0156】ボタン8311等の仮想ボタンを表示する
領域は、図のように決められている。タッチ位置検出装
置7が出力するタッチ位置のうちこれらの領域に入るか
どうかの情報が後述のように必要なため、メモリ92
は、これらの領域をタッチ位置検出装置7の座標系で表
したテーブル928を有する。メモリ92は、タッチが
行われるときに、そのタッチ位置を情報処理装置内で識
別するためのボタンコードに変換する際に使用する、タ
ッチ位置とボタンコードとの対応テーブル929を有す
る。
The area for displaying virtual buttons such as the button 8311 is determined as shown in the figure. Since information on whether or not the touch position output from the touch position detection device 7 falls within these areas is necessary as described later, the memory 92
Has a table 928 representing these areas in the coordinate system of the touch position detection device 7. The memory 92 has a correspondence table 929 of the touch position and the button code, which is used when the touch position is converted into a button code for identifying the touch position in the information processing device.

【0157】図16により、仮想ボタンがタッチされた
ときの処理を説明する。
The processing when the virtual button is touched will be described with reference to FIG.

【0158】図16は、仮想ボタン群831の多重入力
処理のフローを示す。以下では、情報処理装置の電源が
オンになり、メニューが表示され、メニュー内のサッカ
ーが選択されたとする。
FIG. 16 shows a flow of multiple input processing of the virtual button group 831. In the following, it is assumed that the information processing apparatus is powered on, a menu is displayed, and soccer in the menu is selected.

【0159】ステップ1601:MPU9は、表示装置
8に、図15に示す表示を行わせる。
Step 1601: The MPU 9 causes the display device 8 to perform the display shown in FIG.

【0160】ステップ1602:MPU9は、同時複数
タッチ位置検出装置7から、1または2以上のタッチ位
置を取得する。
Step 1602: The MPU 9 acquires one or more touch positions from the simultaneous plural touch position detecting device 7.

【0161】ステップ1603:MPU9は、少なくと
も1つのタッチ位置が仮想ボタンのいずれかの上にある
か否かをテーブル928により判定し、仮想ボタンのい
ずれかの上にある場合、ステップ1604に進み、そう
でない場合はステップ1602に進む。
Step 1603: The MPU 9 judges from the table 928 whether or not at least one touch position is on any of the virtual buttons. If it is on any of the virtual buttons, the process proceeds to step 1604. Otherwise, it proceeds to step 1602.

【0162】ステップ1604:MPU9は、仮想ボタ
ンの上にあるタッチ位置を、テーブル929により仮想
ボタンのボタンコードに変換する。
Step 1604: The MPU 9 converts the touch position on the virtual button into the button code of the virtual button using the table 929.

【0163】ステップ1605:ボタンコードより、タ
ッチ位置の中にスタートボタン8311,8312があ
るかどうかを判定し、スタートボタン8311,831
2があるときは、ステップ1606に進み、そうでない
ときは、ステップ1607に進む。
Step 1605: It is judged from the button code whether or not there are start buttons 8311, 8312 in the touch position, and start buttons 8311, 831 are determined.
If there is 2, the process proceeds to step 1606, and if not, the process proceeds to step 1607.

【0164】ステップ1606:ゲームがすでに開始し
ているかどうかを判定し、開始している場合は、ゲーム
終了であるからゲームを終了させる。そうでない場合
は、ゲーム開始であるから、ステップ1602に進む。
Step 1606: It is judged whether or not the game has already started, and if it has started, the game is ended because the game is ended. If not, the game has started, and the process advances to step 1602.

【0165】ステップ1607:MPU9は、ボタン8
331,8332,834,8342,8351,83
52に対応するボタンコード毎に決められた前述の処理
を行い、選手839,840および、ボール841の動
きを決定し、表示装置8に表示を行わせる。
Step 1607: The MPU 9 pushes the button 8
331, 8332, 834, 8342, 8351, 83
The above-described processing determined for each button code corresponding to 52 is performed to determine the movements of the players 839 and 840 and the ball 841, and the display device 8 displays the movements.

【0166】上記の処理において、処理が終了したとき
は、図20のメニュー画面に戻る。
When the processing is completed in the above processing, the screen returns to the menu screen of FIG.

【0167】本処理では、2人のユーザがゲームを行う
場合について説明したが、これに限るものではない。3
人以上でゲームを行わせるためには、仮想ボタンをさら
に人数分増やせばよい。
In this processing, the case where two users play the game has been described, but the present invention is not limited to this. Three
In order to allow the game to be played by more than one person, the virtual buttons should be increased by the number of people.

【0168】本装置によれば、仮想ボタンの多重入力を
実現できるので、仮想ボタンを用いた対戦型サッカーゲ
ームの操作性が向上する。
According to this device, since multiple inputs of virtual buttons can be realized, the operability of a competitive soccer game using virtual buttons is improved.

【0169】次に、仮想電源スイッチを用いた電源切断
処理を、図17、図18により説明する。
Next, the power-off process using the virtual power switch will be described with reference to FIGS.

【0170】図17により、同時複数タッチ位置検出装
置7と一体化した表示装置8における表示画面を説明す
る。
The display screen of the display device 8 integrated with the simultaneous plural touch position detection device 7 will be described with reference to FIG.

【0171】図17は、仮想電源スイッチを用いた電源
投入切断の情報処理の画面を示す。この画面を表示する
ためには、ユーザは、情報処理装置の電源をいれた後に
表示される図20のメニュー画面において、メニューの
1つとして表示されている終了を選択することにより、
図17の画面の仮想電源スイッチ841が表示される。
FIG. 17 shows an information processing screen for turning on / off the power using the virtual power switch. In order to display this screen, the user selects the end displayed as one of the menus in the menu screen of FIG. 20 displayed after turning on the power of the information processing device,
The virtual power switch 841 on the screen of FIG. 17 is displayed.

【0172】ここで、仮想電源スイッチ841を用いた
電源切断処理とは、仮想電源スイッチ841aと仮想電
源スイッチ841bの2つを、同時にタッチ操作して行
う電源切断をいう。2つのスイッチ841a、bを用い
て、電源の切断を行うこととしたのは、誤って電源の切
断を行うことを防止するためである。
Here, the power-off processing using the virtual power switch 841 means power-off performed by simultaneously touching two virtual power switches 841a and 841b. The reason why the power supply is cut off by using the two switches 841a and 841b is to prevent the power supply from being cut off by mistake.

【0173】タッチ位置検出装置7が出力するタッチ位
置のうち仮想電源スイッチ841の領域に入るかどうか
の情報が後述のように必要なため、メモリ92は、これ
らの領域をタッチ位置検出装置7の座標系で表したテー
ブル930を有する。
Since information on whether or not the touch position output from the touch position detecting device 7 falls within the area of the virtual power switch 841 is required as described later, the memory 92 stores these areas in the touch position detecting device 7. It has a table 930 represented by a coordinate system.

【0174】図18により、仮想電源スイッチ841に
よる電源切断処理の流れを説明する。
The flow of power-off processing by the virtual power switch 841 will be described with reference to FIG.

【0175】図18は、仮想電源スイッチ841による
電源切断処理のフローを示す。
FIG. 18 shows the flow of power-off processing by the virtual power switch 841.

【0176】ステップ1801:表示装置8に、仮想電
源スイッチ841を表示する。
Step 1801: The virtual power switch 841 is displayed on the display device 8.

【0177】ステップ1802:同時複数タッチ位置検
出装置7から、1または2以上のタッチ位置を取得す
る。
Step 1802: One or more touch positions are acquired from the simultaneous plural touch position detecting device 7.

【0178】ステップ1803:取得した全てのタッチ
位置が仮想電源スイッチ841上であり、かつ、仮想電
源スイッチ841aおよび仮想電源スイッチ841bの
いずれの場所にも少なくとも1つのタッチ位置があるか
否かを判定し、この条件を満たす場合ステップ1804
に進み、そうでない場合は、ステップ1805に進む。
Step 1803: It is determined whether or not all the acquired touch positions are on the virtual power switch 841 and at least one touch position exists on any of the virtual power switch 841a and the virtual power switch 841b. If this condition is met, step 1804
Otherwise, to step 1805.

【0179】ステップ1804:電源の切断を行い、処
理を終了する。
Step 1804: The power is turned off, and the process ends.

【0180】ステップ1805:図20のメニュー画面
の表示を行う。
Step 1805: The menu screen shown in FIG. 20 is displayed.

【0181】本処理では、電源切断においてする情報処
理、すなわち、電源投入切断自体の処理や、電源投入切
断時にともなうバッテリーのチェックやデータの保存な
どの詳細については説明しなかったが、公知の技術で実
現できる。
In this processing, details of information processing performed when the power is turned off, that is, processing of turning on / off the power itself, checking of the battery and saving of data accompanying turning on / off of the power are not described, but a known technique is known. Can be achieved with.

【0182】また、本処理によれば、2つの仮想電源ス
イッチ841を同時に押さなければ電源切断を行えない
ので、不用意な操作を防止できる。
Further, according to this processing, the power cannot be turned off unless the two virtual power switches 841 are pressed at the same time, so that careless operation can be prevented.

【0183】以上述べてきた第4の実施例においては、
表面弾性波方式タッチプレートを用いた同時複数タッチ
位置検出装置と表示装置とを一体化した構成について説
明したが、同時複数タッチ位置検出装置のタッチプレー
トの方式はこれに限るものではない。発光素子またはカ
メラを用いたタッチプレートでももちろん可能である。
In the fourth embodiment described above,
Although the configuration in which the simultaneous plural touch position detecting device using the surface acoustic wave type touch plate and the display device are integrated has been described, the method of the touch plate of the simultaneous plural touch position detecting device is not limited to this. Of course, a touch plate using a light emitting element or a camera is also possible.

【0184】また、同時複数タッチ位置検出装置は、表
示装置とは別に、単独で構成してもよい。
Further, the simultaneous plural touch position detecting device may be constructed independently from the display device.

【0185】また、システム構成についてもこれに限る
ものではなく、キーボードなどの入力装置、ハードディ
スク装置などの補助記憶装置、プリンターなどの出力装
置などを組み合わせた構成としてもよい。
The system configuration is not limited to this, and may be a combination of an input device such as a keyboard, an auxiliary storage device such as a hard disk device, and an output device such as a printer.

【0186】以下、本発明の第5の実施例の同時複数ジ
ェスチャ指示処理装置について説明する。本装置は、C
ADにおいて、表示されている2次元または3次元の図
形を平行移動、回転移動、伸縮変形する場合に、平行移
動、回転移動、伸縮変形の指示を容易に行うことができ
る装置である。
A simultaneous plural gesture instruction processing device according to the fifth embodiment of the present invention will be described below. This device is C
In AD, when a displayed two-dimensional or three-dimensional figure is moved in parallel, rotated, or expanded / contracted, it is a device that can easily give instructions for parallel movement, rotational movement, and expansion / contraction.

【0187】最初に、表1により、同時複数ジェスチャ
指示処理の基本概念を説明する。
First, referring to Table 1, the basic concept of the simultaneous plural gesture instruction processing will be described.

【0188】[0188]

【表1】 [Table 1]

【0189】表1は、同時複数ジェスチャ指示処理の基
本アルゴリズムを示す。
Table 1 shows a basic algorithm for simultaneous multiple gesture instruction processing.

【0190】表において、縦項目は同時複数ジェスチャ
対象物の指定方法を示し、横項目は同時複数ジェスチャ
操作の指示内容を示す。同時複数ジェスチャ対象物の指
定方法には、複数指で各指1対象物を指定する外郭内指
定、複数指で1対象物の外郭(辺)を指定する外郭上指
定、複数指で囲む範囲内の複数対象物を指定する範囲内
指定がある。
In the table, the vertical item indicates the method of specifying the simultaneous plural gesture objects, and the horizontal item indicates the instruction content of the simultaneous plural gesture operations. Simultaneous multiple gesture objects can be specified by specifying the inside of the outline that specifies one target of each finger with multiple fingers, specifying the outline of the outline (side) of one target with multiple fingers, and within the range surrounded by multiple fingers. There is a specification within the range that specifies multiple objects.

【0191】ここで、1つ以上のタッチ位置が1つ以上
の対象物の外郭内にあるときは、外郭内指定であると判
定する。全タッチ位置が単一の対象物の外郭上にあると
きは、外郭上指定であると判定する。全タッチ位置が対
象物の外郭外にあり、かつ、全タッチ位置の内側に対象
物がある時は、範囲内指定であると判定する。範囲と
は、2本の指で指定された場合には、例えば、これらの
2本の指により指示される点を対角点とする矩形とする
ことができる。また、3本以上の指で指定された場合に
は、例えば、これらの指により指示される点を頂点とす
る多角形とすることができる。なお、外郭内指定では、
図形の内部を指でタッチして指定し、外郭上指定では、
図形の辺上を指でタッチして指定する。
Here, when one or more touch positions are within the contour of one or more objects, it is determined that the designation is within the contour. When all touch positions are on the outer contour of a single object, it is determined that the outer contour is designated. When all touch positions are outside the contour of the target object and the target object is inside all touch positions, it is determined that the designation is within the range. When the range is designated by two fingers, for example, the range can be a rectangle having the points designated by these two fingers as diagonal points. Further, when designated by three or more fingers, for example, a polygon having a point designated by these fingers as an apex can be used. In addition, in designation in the outer contour,
Touch the inside of the figure with your finger to specify it.
Specify by touching the side of the figure with your finger.

【0192】外郭上指定の場合、指で指定するとき、辺
が細いと、指の位置が辺上から若干はずれる可能性があ
る。そのため、タッチ位置が辺からはずれていても、そ
の量が小さい場合は、辺上と判断する。このために、本
装置は、辺からどの程度まではずれていても、辺上と判
断するかという許容量をデータとして有する。この許容
値は、また、外郭内指定において、外郭内にあるかどう
かの判定を行うときの許容値でもある。すなわち、辺か
ら上記許容値以上離れていて、かつ外郭内にあるとき、
外郭内と判定する。さらに、この許容値は、範囲内指定
において、範囲内にあるかどうかの判定を行うときの許
容値でもある。すなわち、辺から上記許容値以上離れて
いて、全タッチ位置が対象物の外郭外にあり、かつ、全
タッチ位置の内側に対象物があるとき、範囲内と判定す
る。
In the case of designation on the outer contour, when the designation is made with a finger, if the side is thin, the position of the finger may be slightly deviated from the side. Therefore, even if the touch position deviates from the side, if the amount is small, it is determined to be on the side. For this reason, the present apparatus has, as data, an allowable amount of determining whether the position is on the side no matter how far from the side. This allowable value is also an allowable value when determining whether or not the user is inside the outer contour in the specification of the outer contour. That is, when the distance is more than the above allowable value from the side and is in the outer contour,
It is judged to be inside the outer contour. Furthermore, this allowable value is also an allowable value when determining whether or not it is within the range in the specification within the range. That is, when the touch position is away from the side by the allowable value or more, the entire touch positions are outside the contour of the target object, and the target object is inside the full touch position, it is determined to be within the range.

【0193】同時複数ジェスチャ操作の指示内容には、
複数指の位置関係を保ったまま移動する平行移動指示、
複数指の位置関係を保ったまま回転する回転移動指示、
複数指の位置関係を伸縮変形移動する伸縮変形指示があ
る。
The instruction contents of the simultaneous multiple gesture operation include:
Parallel movement instructions to move while maintaining the positional relationship of multiple fingers,
Rotation movement instruction to rotate while maintaining the positional relationship of multiple fingers,
There is an expansion / contraction instruction for expanding / contracting the positional relationship of a plurality of fingers.

【0194】表に示したように、外郭内指定において
は、平行移動指示では全対象物を平行移動、回転移動指
示では全対象物を回転移動、伸縮変形指示では各対象物
を個別移動する。外郭上指定においては、平行移動指示
では対象物を平行移動、回転移動指示では対象物を回転
移動、伸縮変形指示では対象物を伸縮変形する。範囲指
定において、平行移動指示では全対象物を平行移動、回
転指示では全対象物を回転移動、伸縮変形指示では全対
象物を伸縮変形する。
As shown in the table, in the designation within the outer contour, the parallel movement instruction moves all the objects in parallel, the rotation movement instruction moves all the objects in rotation, and the expansion deformation instruction moves each object individually. In the designation on the outer shell, a parallel movement instruction moves a target object in parallel, a rotation movement instruction rotates a target object, and a stretch deformation instruction stretches or deforms the target object. In the range designation, the parallel movement instruction causes parallel movement of all objects, the rotation instruction causes rotational movement of all objects, and the extension / contraction deformation instruction causes extension / contraction deformation of all objects.

【0195】図21、図22により、本発明の同時複数
ジェスチャ指示処理の基本アルゴリズムにおける情報処
理の流れを説明する。図21,22においては、本装置
が入力待ちの状態にあり、後述する同時複数タッチ位置
検出装置7により、タッチ位置が検出されて、そのタッ
チ位置が後述する情報処理装置9に入力され、情報処理
装置9がこのタッチ位置を処理する段階以降について述
べる。図21のジェスチャ対象物の指定方法の判定は、
例えば、指により描かれるタッチ位置の軌跡の開始点と
表示されている図形との位置関係から以下のように行わ
れる。
The flow of information processing in the basic algorithm of the simultaneous plural gesture instruction processing of the present invention will be described with reference to FIGS. In FIGS. 21 and 22, the present device is in a state of waiting for input, a touch position is detected by a simultaneous multiple touch position detection device 7 which will be described later, and the touch position is input to an information processing device 9 which will be described later. The steps after the processing device 9 processes the touch position will be described. The determination of the method for designating the gesture target in FIG.
For example, it is performed as follows from the positional relationship between the starting point of the trajectory of the touch position drawn by the finger and the displayed graphic.

【0196】図21は、同時複数ジェスチャ対象物の指
定方法の判定処理フローを示す。
FIG. 21 shows a determination processing flow of a method of specifying a plurality of simultaneous gesture objects.

【0197】ステップ2101:タッチ位置が同時に複
数あるか否かを判定し、yesの場合ステップ2102
に進み、noの場合は処理を終了する。この場合は、タ
ッチ位置が1つであるので、タッチ位置が1つの場合の
処理を行う。
Step 2101: It is judged whether or not there are a plurality of touch positions at the same time. If yes, step 2102
If no, the process ends. In this case, since there is only one touch position, processing for the case of one touch position is performed.

【0198】ステップ2102:1つ以上のタッチ位置
が1つ以上の対象物の外郭内にあるか否かを判定し、y
esの場合ステップ2103に進み、noの場合はステ
ップ2104に進む。
Step 2102: It is judged whether or not one or more touch positions are within the outline of one or more objects, and y
If es, the process proceeds to step 2103, and if no, the process proceeds to step 2104.

【0199】ステップ2103:指定方法を外郭内指定
と判定し、処理を終了する。
Step 2103: The designation method is determined to be designation within the outer contour, and the process is terminated.

【0200】ステップ2104:全タッチ位置が単一の
対象物の外郭上にあるか否かを判定し、yesの場合ス
テップ2105に進み、noの場合はステップ2106
に進む。
Step 2104: It is determined whether or not all touched positions are on the outer contour of a single object. If yes, the process proceeds to step 2105, and if no, step 2106.
Proceed to.

【0201】ステップ2105:指定方法を外郭上指定
と判定し、処理を終了する。
Step 2105: The designation method is judged to be outer contour designation, and the processing is terminated.

【0202】ステップ2106:全タッチ位置が対象物
の外郭外にあり、かつ、全タッチ位置の内側に対象物が
あるか否かを判定し、yesの場合ステップ2107に
進み、noの場合は処理を終了する。
Step 2106: It is determined whether or not all touch positions are outside the contour of the object and there is an object inside all touch positions. If yes, the process proceeds to step 2107, and if no, the process is performed. To finish.

【0203】ステップ2107:指定方法を範囲内指定
と判定し、処理を終了する。
Step 2107: The designation method is judged to be designation within the range, and the processing is ended.

【0204】図22は、同時複数ジェスチャ操作の指示
内容の判定処理フローを示す。図22のジェスチャ操作
の指示内容の判定は、例えば、指により描かれるタッチ
位置の軌跡の開始点および終了点の位置関係から以下の
ように行われる。ただし、開始点と終了点以外の点を用
いることとしてもよい。例えば、そのような点と開始
点、、そのような点同士の組み合せ、またはそのような
点と終了点の組み合せから判定してもよい。複数の判定
結果が得られた場合は、複数の判定結果が一致した場合
にのみ、判定結果のようなジェスチャ操作の指示が行わ
れたとして、判定の確実性を高めることとしてもよい。
FIG. 22 shows a flow chart for determining the instruction contents of the simultaneous plural gesture operations. The content of the gesture operation instruction in FIG. 22 is determined, for example, as follows from the positional relationship between the start point and the end point of the trajectory of the touch position drawn by the finger. However, points other than the start point and the end point may be used. For example, it may be determined from such a point and a start point, a combination of such points, or a combination of such a point and an end point. When a plurality of determination results are obtained, the certainty of the determination may be increased, assuming that the gesture operation instruction like the determination result is given only when the plurality of determination results match.

【0205】ステップ2201:タッチ位置が同時に複
数あるか否かを判定し、yesの場合ステップ2202
に進み、noの場合は処理を終了する。
Step 2201: It is judged whether or not there are a plurality of touch positions at the same time. If yes, Step 2202
If no, the process ends.

【0206】ステップ2202:全タッチ位置が位置関
係を保ったまま平行移動するか否かを判定し、yesの
場合ステップ2203に進み、noの場合はステップ2
204に進む。判定の詳細は、後述する。
Step 2202: It is determined whether or not all touch positions move in parallel while maintaining the positional relationship. If yes, the process proceeds to step 2203, and if no, step 2
Proceed to 204. Details of the determination will be described later.

【0207】ステップ2203:指示内容を平行移動指
示と判定し、処理を終了する。
Step 2203: It is determined that the instruction content is the parallel movement instruction, and the processing is ended.

【0208】ステップ2204:全タッチ位置が位置関
係を保ったまま回転するか否かを判定し、yesの場合
ステップ2205に進み、noの場合はステップ220
6に進む。なお、回転移動であることの判定方法は、全
タッチ位置が位置関係を保ったまま、中点(あるいは重
心)が一定である場合に回転移動であると判定すること
とすればよい。判定の詳細は、後述する。
Step 2204: It is determined whether or not all touch positions rotate while maintaining the positional relationship. If yes, the process proceeds to step 2205, and if no, step 220.
Go to 6. It should be noted that the method of determining the rotational movement may be that the rotational movement is determined when the midpoint (or the center of gravity) is constant while maintaining the positional relationship among all touch positions. Details of the determination will be described later.

【0209】ステップ2205:指示内容を回転移動指
示と判定し、処理を終了する。
Step 2205: It is determined that the instruction content is the rotational movement instruction, and the processing is ended.

【0210】ステップ2206:タッチ位置が相互の位
置関係を伸縮変形するか否かを判定し、yesの場合ス
テップ2207に進み、noの場合は処理を終了する。
判定は、タッチ位置相互の距離が変わるかどうかで判定
する。判定の詳細は、後述する。
Step 2206: It is determined whether or not the touched positions expand or contract relative to each other. If yes, the process proceeds to step 2207, and if no, the process ends.
The determination is made based on whether the distance between the touch positions changes. Details of the determination will be described later.

【0211】ステップ2207:指示内容を伸縮変形指
示と判定し、処理を終了する。
Step 2207: It is determined that the instruction content is the expansion / contraction deformation instruction, and the processing is ended.

【0212】以上述べてきた実施例においては、対象物
の外郭内指定、外郭上指定および範囲内指定や、対象物
の平行移動、回転移動および伸縮変形の概念の組合せや
モード切り換えを行ってもよい。
In the above-described embodiments, even if the inside of the outline of the object is specified, the outside of the outline is specified and the range is specified, or the concept of parallel movement, rotation movement and expansion / contraction deformation of the object is combined or the mode is switched. Good.

【0213】ここで、概念の組合せとは、同時に平行移
動指示と伸縮変形指示を行うなどのジェスチャ操作の組
合せや、同時にある対象物は外郭内指定し、他の対象物
は外郭上指定するなどの対象物の指定の組合せのことで
ある。
Here, the combination of concepts is a combination of gesture operations such as a parallel movement instruction and an expansion / contraction deformation instruction at the same time, a certain object is designated inside the contour at the same time, and another object is designated on the contour. Is a designated combination of objects.

【0214】また、モードの切り換えとは、モードごと
に、指による操作の解釈を変えることをいう。例えば、
上記の外郭指定で伸縮変形指示に相当する操作を行った
場合、Aモードでは各対象物を個別移動することと解釈
し、Bモードでは対象物を伸縮変形することと解釈す
る。このように、複数のモードを設定し、これらのモー
ドを切り換える。
The switching of the mode means changing the interpretation of the operation by the finger for each mode. For example,
When the operation corresponding to the expansion and contraction instruction is performed by the above-mentioned outline designation, it is interpreted that each object is individually moved in the A mode, and is expanded and contracted in the B mode. In this way, a plurality of modes are set and these modes are switched.

【0215】以上述べてきた実施例によれば、マウスな
どでは複数回の操作を必要とする単一あるいは複数図形
の移動指示、回転指示、伸縮変形指示を、より自然な指
などの1度の操作で実現できるので、図形編集処理の操
作性を向上できる。
According to the above-described embodiment, a mouse or the like is used to issue a movement instruction, a rotation instruction, or an expansion / contraction instruction of a single or a plurality of figures, which requires a plurality of operations, once with a more natural finger or the like. Since it can be realized by operation, the operability of graphic editing processing can be improved.

【0216】以下、本発明の同時複数ジェスチャ指示処
理装置の4つの実施例を説明する。まず、図23によ
り、本発明の同時複数ジェスチャ指示処理装置の第5〜
8の4つの実施例に用いる表面弾性波方式タッチプレー
トを用いた同時複数タッチ位置検出装置を表示装置と一
体化の構成とした同時複数タッチ指示処理装置について
説明する。
Four embodiments of the simultaneous plural gesture instruction processing device of the present invention will be described below. First, referring to FIG. 23, the fifth to fifth simultaneous gesture instruction processing devices according to the present invention will be described.
A simultaneous plural touch instruction processing device in which the simultaneous plural touch position detecting device using the surface acoustic wave type touch plate used in the four embodiments of No. 8 is integrated with the display device will be described.

【0217】図23は、同時複数ジェスチャ指示処理装
置のシステム概略構成を示す。
FIG. 23 shows a schematic system configuration of a simultaneous plural gesture instruction processing device.

【0218】図において、7は表面弾性波方式タッチプ
レートを用いた同時複数タッチ位置検出装置、8は液晶
ディスプレイを用いた表示装置、9は情報処理装置であ
る。同時複数タッチ位置検出装置7は、情報処理装置9
に対して、検出したタッチ位置の個数とタッチ位置の
X,Y座標を出力する。また、91は情報処理を行うM
PU、92は、以下に述べる処理を行うための情報処理
プログラムを格納する、ROMであるメモリ、94は、
RAMであるメモリ、96は、同時複数タッチ位置検出
装置7からのタッチ位置の個数と座標とを受けるととも
に、MPU91から表示するためのデータを受けて、映
像信号を生成して表示装置9に出力するインタフェース
部、95は、バスである。ここで、図に示したように、
同時複数タッチ位置検出装置8と表示装置9は一体化さ
れている。
In the figure, 7 is a simultaneous plural touch position detecting device using a surface acoustic wave type touch plate, 8 is a display device using a liquid crystal display, and 9 is an information processing device. The simultaneous multiple-touch position detection device 7 includes an information processing device 9
, The number of detected touch positions and the X and Y coordinates of the touch positions are output. Further, 91 is an M for information processing.
PU, 92 is a memory that is a ROM that stores an information processing program for performing the processing described below, and 94 is
A memory 96, which is a RAM, receives the number and coordinates of touch positions from the simultaneous multiple touch position detection device 7, receives data for display from the MPU 91, generates a video signal, and outputs the video signal to the display device 9. The interface unit 95 that operates is a bus. Here, as shown in the figure,
The simultaneous multiple touch position detection device 8 and the display device 9 are integrated.

【0219】そして、選択された各処理においては、同
時複数タッチ位置検出装置8から得られる、同時にタッ
チされた複数のタッチ位置情報を受けたMPU91が、
メモリ92、94内に格納した情報処理プログラムに従
って、同時複数ジェスチャ操作に対応した情報処理を行
う。
Then, in each of the selected processes, the MPU 91 which has received a plurality of touch position information touched at the same time, which is obtained from the simultaneous plural touch position detection device 8,
According to the information processing program stored in the memories 92 and 94, information processing corresponding to simultaneous multiple gesture operations is performed.

【0220】以下説明する本発明の第5〜8の4つの実
施例においては、表示装置8に表示される図形編集処理
用表示画面を示しながら、MPU91が行う、同時複数
ジェスチャ操作により指示された処理について述べる。
In the fifth to eighth embodiments of the present invention described below, the MPU 91 performs an instruction for simultaneous multiple gesture operations while showing the figure edit processing display screen displayed on the display device 8. The processing will be described.

【0221】MPU91は、同時複数タッチ位置検出装
置7から、一定時間ごとに、タッチ位置の情報を受付け
る。この時間は、0.1秒以下である。この情報からタ
ッチ位置がどのような軌跡を描いているかを判定する。
複数の指でタッチされる場合に、複数の軌跡が得られる
が、どの軌跡がどの指によるかの判別方法は以下のよう
に行われる。2つの指により2つの軌跡が描かれる場合
について、図24により述べる。
[0221] The MPU 91 receives the touch position information from the simultaneous plural touch position detecting device 7 at regular intervals. This time is 0.1 second or less. From this information, it is determined what kind of locus the touch position draws.
When touched by a plurality of fingers, a plurality of loci are obtained, and a method of discriminating which locus is by which finger is performed as follows. A case where two trajectories are drawn by two fingers will be described with reference to FIG.

【0222】図24は、各対象物を平行移動させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が平行移動されて、指示された位置に表示された
状態を示す。
FIG. 24 shows an instruction method for translating each object, and a state in which the object is translated by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0223】図において、A、Bはジェスチャ対象物の
図形、A’、B’はジェスチャ操作後の図形である。実
線は、指の移動(タッチ位置の移動)方向を示し、点線
は、図形A,Bの移動方向を示す。a,bは、最初にタ
ッチされたタッチ位置を示し、タッチ位置の軌跡の開始
点である。a’,b’は、最後にタッチされたタッチ位
置を示し、タッチ位置の軌跡の終了点である。以下の図
においても、「’」は、移動後の図形または軌跡の終了
点を表すものとする。Tはタッチ位置aにタッチしてい
る親指を示し、T’は、移動後にタッチ位置a’にタッ
チしている親指を示す。Vはタッチ位置bにタッチして
いる人差指を示し、V’は、移動後にタッチ位置b’に
タッチしている人差指を示す。
In the figure, A and B are figures of the gesture object, and A'and B'are figures after the gesture operation. The solid line indicates the movement direction of the finger (movement of the touch position), and the dotted line indicates the movement direction of the figures A and B. Reference characters a and b indicate touch positions that are touched first and are start points of the loci of the touch positions. Symbols a'and b'represent the touch position touched last and are the end points of the trajectory of the touch position. Also in the following figures, “′” represents the end point of the figure or trajectory after movement. T indicates the thumb touching the touch position a, and T ′ indicates the thumb touching the touch position a ′ after the movement. V indicates the forefinger touching the touch position b, and V ′ indicates the forefinger touching the touch position b ′ after the movement.

【0224】図に示したように、親指と人差指で図形
A、Bの外郭内を指示した後、各タッチ位置の位置関係
を保ったまま手を平行移動することにより、図形A、B
が図形A’、B’の位置に平行移動する。
As shown in the figure, after pointing inside the outlines of the figures A and B with the thumb and forefinger, the hands A and B are moved in parallel while maintaining the positional relationship of each touch position.
Moves in parallel to the positions of figures A'and B '.

【0225】同時複数タッチ位置検出装置7からは、少
なくとも0.1秒おきに、2つのタッチ位置が送られて
くる。仮に0.1秒として説明する。MPU91は、最
新に送られてきた2つのタッチ位置(a,bとする)
と、0.1秒前に送られてきた2つのタッチ位置
(a’’,b’’とする)とを比較し、2つのタッチ位
置のうち少なくとも1つの位置が変化しているときに軌
跡が描かれていると判断する。そして、点aと点a’’
の距離、点aと点a’’の距離を求める。この2つの距
離の絶対値(それぞれ、|a−a’’|,|a−b’’
|とする)を比較し、小さい方、例えば、|a−a’’
|の方が小さければ、a,a’’を1つの軌跡上の点と
判断する。そして、bとb’’とが同一の軌跡上にある
とする。
Two touch positions are sent from the simultaneous plural touch position detecting device 7 at least every 0.1 seconds. It is assumed that the time is 0.1 seconds. The MPU 91 has two touch positions (a and b) sent most recently.
And two touch positions (a '' and b '') sent 0.1 seconds ago are compared, and when at least one of the two touch positions changes, the locus is traced. It is judged that is drawn. And point a and point a ''
And the distance between point a and point a ″. The absolute value of these two distances (| a−a ″ | and | a−b ″, respectively)
|)) And compare the smaller one, for example, | a-a ''
If | is smaller, it is determined that a and a ″ are points on one trajectory. Then, it is assumed that b and b ″ are on the same trajectory.

【0226】タッチ位置の検出は0.1秒以下の間隔で
行われており、0.1秒ずれている軌跡上の2つの点の
距離は、各時刻における2つのタッチ位置の距離(2つ
の指の間の距離であるため、最低でも1つの指の太さ程
度の距離がある)よりも小さい点から上記のような方法
で求めることができる。
The touch position is detected at intervals of 0.1 second or less, and the distance between two points on the locus deviated by 0.1 second is the distance between the two touch positions at each time (two Since it is the distance between the fingers, there is at least a distance equal to the thickness of one finger).

【0227】なお、軌跡の開始点は、0.5秒以上タッ
チ位置が入力されていないときに、タッチ位置の入力が
あったとき、そのタッチ位置を開始点とする。また、終
了点は、タッチ位置の入力があったときから、0.5秒
以上次のタッチ位置の入力が無かったとき、最後のタッ
チ位置を終了点とする。
The starting point of the locus is the starting point when the touch position is input when the touch position is not input for 0.5 seconds or more. In addition, the end point is the last touch position when the next touch position is not input for 0.5 seconds or more after the touch position is input.

【0228】次に、図22のステップ2202における
平行移動であるかどうかの判定方法を図24、図39に
より説明する。前の時間のタッチ位置と今回のタッチ位
置とを比較したときに、対応するタッチ位置間における
X座標及びY座標の差分(符号を考慮する)がどのタッ
チ位置についても同程度であるときに、平行移動である
と判定する。すなわち、図39において、x1=x2、
y1=y2のとき、平行移動であるとする。この際に、
X座標及びY座標の変化について許容値を設け、x1と
x2の差およびy1とy2の差がいずれも許容値以下の
ときは、平行移動であるとする。
Next, a method of determining whether or not the movement is parallel in step 2202 of FIG. 22 will be described with reference to FIGS. 24 and 39. When comparing the touch position of the previous time and the touch position of this time, when the difference (considering the sign) of the X coordinate and the Y coordinate between the corresponding touch positions is the same for all the touch positions, It is determined to be parallel movement. That is, in FIG. 39, x1 = x2,
When y1 = y2, it is assumed that the movement is parallel. At this time,
A permissible value is set for changes in the X coordinate and the Y coordinate, and if both the difference between x1 and x2 and the difference between y1 and y2 are equal to or less than the permissible value, it is determined that the movement is parallel.

【0229】図22のステップ2204における回転移
動であるかどうかの判定方法を図25、図40により説
明する。図25は、各対象物を回転移動させる場合の指
示方法、およびその指示を受けたMPU91により対象
物が回転移動されて、指示された位置に表示された状態
を示す。
A method of determining whether or not the movement is rotational movement in step 2204 of FIG. 22 will be described with reference to FIGS. 25 and 40. FIG. 25 shows an instruction method for rotationally moving each object and a state in which the object is rotationally moved by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0230】図において、C、Dはジェスチャ対象物の
図形、C’、D’はジェスチャ操作後の図形である。図
に示したように、親指と人差指で図形C、Dの外郭内を
指示した後、各タッチ位置の位置関係を保ったまま手を
回転移動することにより、図形C、Dが図形C’、D’
の位置に回転移動する。
In the figure, C and D are figures of the gesture object, and C'and D'are figures after the gesture operation. As shown in the figure, after instructing the inside of the contours of the figures C and D with the thumb and forefinger, by rotating the hand while maintaining the positional relationship of each touch position, the figures C and D become the figure C ′, D '
Move to the position of.

【0231】cd間の距離およびc’d’間の距離が一
定であり、さらに、前の時間のタッチ位置と今回のタッ
チ位置とを比較したときに、対応するタッチ位置間にお
けるX座標及びY座標の差分(符号を考慮する)のうち
少なくとも一方が変化しているときに、回転移動である
と判定する。すなわち、図40において、x1≠x2、
y1≠y2のうち、少なくとも一方が成立していると
き、回転移動であるとする。この際に、cd間の距離お
よびc’d’間の距離の差について許容値を設け、差が
許容値以下のときは、等しいとする。また、X座標及び
Y座標の変化について許容値を設け、x1とx2の差お
よびy1とy2の差のうち少なくとも一方が許容値以上
のときは、差があるとする。これらのときは、回転移動
であるとする。
The distance between cd and the distance between c'd 'are constant, and further, when the touch position of the previous time and the touch position of this time are compared, the X coordinate and the Y coordinate between the corresponding touch positions. When at least one of the coordinate differences (considering the sign) is changing, it is determined to be rotational movement. That is, in FIG. 40, x1 ≠ x2,
When at least one of y1 ≠ y2 is satisfied, it is assumed that the movement is rotational. At this time, an allowable value is set for the difference between the distance between cd and the distance between c′d ′, and when the difference is equal to or less than the allowable value, they are considered equal. In addition, an allowable value is set for changes in the X coordinate and the Y coordinate, and if at least one of the difference between x1 and x2 and the difference between y1 and y2 is greater than or equal to the allowable value, there is a difference. In these cases, it is assumed that the movement is rotational.

【0232】図22のステップ2206における伸縮変
形であるかどうかの判定方法を図26、図41により説
明する。
A method of determining whether the deformation is expansion / contraction in step 2206 of FIG. 22 will be described with reference to FIGS. 26 and 41.

【0233】図26は、各対象物を伸縮変形させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が伸縮変形されて、指示された位置に表示された
状態を示す。
FIG. 26 shows an instruction method for elastically deforming each object, and a state in which the object is elastically deformed by the MPU 91 which has received the instruction and is displayed at the instructed position.

【0234】図において、E、Fはジェスチャ対象物の
図形、E’、F’はジェスチャ操作後の図形である。図
に示したように、親指と人差指で図形E、Fの外郭内を
指示した後、各タッチ位置を伸縮変形移動することによ
り、図形E、Fが図形E’、F’の位置に個別移動す
る。
In the figure, E and F are figures of the gesture object, and E'and F'are figures after the gesture operation. As shown in the figure, after instructing the inside of the contours of the figures E and F with the thumb and forefinger, the respective touch positions are expanded / contracted and deformed, so that the figures E and F are individually moved to the positions of the figures E ′ and F ′. To do.

【0235】前の時間のタッチ位置と今回のタッチ位置
とを比較したときに、対応するタッチ位置間におけるX
座標及びY座標の差分(符号を考慮する)の比がどのタ
ッチ位置についても同じであり、かつ、図41に示すx
1とx2の符号が逆であるか、y1とy2の符号が逆で
あるときに、伸縮変形であると判定する。すなわち、図
41において、y1/x1=y2/x2であり(x1=
x2=0のときはこの条件は考慮しない)、かつ、x1
×x2が負またはy1×y2が負であるとき、伸縮変形
であるとする。この際に、y1/x1とy2/x2との
差について許容値を設け、y1/x1とy2/x2x1
との差が許容値以下のときは、等しいとする。また、x
1×x2と、y1×y2についても、負で許容値より大
きいときは、負であるとする。
When the touch position of the previous time and the touch position of this time are compared, X between the corresponding touch positions.
The ratio of the difference between the coordinates and the Y coordinate (considering the sign) is the same for any touch position, and x shown in FIG.
When the signs of 1 and x2 are opposite or the signs of y1 and y2 are opposite, it is determined that the deformation is expansion / contraction. That is, in FIG. 41, y1 / x1 = y2 / x2 (x1 =
This condition is not considered when x2 = 0), and x1
When xx2 is negative or y1xy2 is negative, it is considered to be expansion / contraction deformation. At this time, an allowable value is set for the difference between y1 / x1 and y2 / x2, and y1 / x1 and y2 / x2x1 are set.
If the difference between and is less than or equal to the allowable value, it is considered equal. Also, x
1 × x2 and y1 × y2 are also negative when they are negative and larger than the allowable value.

【0236】本発明の第5の実施例を図24〜図26に
より説明する。本実施例では、対象物の指定方法が外郭
内指定である場合に、平行移動指示、回転移動指示、伸
縮変形指示を受けたときの処理について述べる。
A fifth embodiment of the present invention will be described with reference to FIGS. In the present embodiment, a process when a parallel movement instruction, a rotation movement instruction, or a stretching / deformation instruction is received when the method of designating an object is the designation within the outer shell will be described.

【0237】図24において、タッチ位置を検出した同
時複数タッチ位置検出装置7から一定時間ごとに、タッ
チ位置を入力されたMPU91は、タッチ位置の軌跡を
判定し、この場合は、前述のように、対象物の指定方法
は、外郭内であり、ジェスチャ操作の指示内容は、平行
移動であると判定する。そして、移動量を表すベクトル
を図39の(x1,y1)として求める。移動後の位置
に図形A’,B’を表示するためのデータをインターフ
ェース部96に送る。インターフェース部96は、映像
信号を生成して、表示装置8に送る。表示装置8は、映
像信号に従って表示する。
In FIG. 24, the MPU 91, to which the touch position is input at regular time intervals from the simultaneous plural touch position detecting device 7 that has detected the touch position, determines the trajectory of the touch position. In this case, as described above, It is determined that the method of designating the target object is inside the contour and the instruction content of the gesture operation is parallel movement. Then, the vector representing the movement amount is obtained as (x1, y1) in FIG. Data for displaying the graphics A ′ and B ′ at the position after movement is sent to the interface unit 96. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0238】本実施例では、2つの図形の平行移動につ
いて説明したがこれに限るものではない。
In the present embodiment, the parallel movement of two figures has been described, but the present invention is not limited to this.

【0239】本実施例によれば、マウスなどでは複数回
の操作を必要とする複数図形の平行移動指示を、より自
然な1度の操作で実現できるので、図形編集処理の操作
性を向上させることができる。
According to the present embodiment, since a parallel movement instruction of a plurality of figures which requires a plurality of operations with a mouse or the like can be realized by a more natural one-time operation, the operability of the figure editing process is improved. be able to.

【0240】図25は、各対象物を回転移動させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が回転移動されて、指示された位置に表示された
状態を示す。
FIG. 25 shows an instruction method for rotationally moving each object, and a state in which the object is rotationally moved by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0241】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように、対象物の指定方法は、外郭内であ
り、ジェスチャ操作の指示内容は、回転移動であると判
定する。次に、MPU91は、以下のようにして回転角
度を算出する。図37に、回転角度Δθの算出概念図を
示す。
The MPU 91, to which the touch positions are input from the simultaneous plural-touch position detecting device 7 that has detected the touch positions at regular intervals, determines the trajectory of the touch positions. In this case, as described above, It is determined that the designation method is inside the contour and the instruction content of the gesture operation is rotational movement. Next, the MPU 91 calculates the rotation angle as follows. FIG. 37 shows a conceptual diagram of the calculation of the rotation angle Δθ.

【0242】図において、点a,点bは回転前のタッチ
位置、点a’,点b’は、回転後のタッチ位置、角度θ
は回転前の線分abの水平角度、角度θ’は回転後の線
分a’b’の水平角度、角度Δθは回転前の線分abと
回転後の線分a’b’とのなす角度である。
In the figure, points a and b are touch positions before rotation, points a ′ and b ′ are touch positions after rotation, and an angle θ is set.
Is the horizontal angle of the line segment ab before rotation, the angle θ ′ is the horizontal angle of the line segment a′b ′ after the rotation, and the angle Δθ is between the line segment ab before the rotation and the line segment a′b ′ after the rotation. It is an angle.

【0243】図示したように、回転の角度Δθは、 Δθ=θ−θ’ である。As shown, the angle of rotation Δθ is Δθ = θ-θ '.

【0244】従って、以下では、角度θ,角度θ’を算
出する。
Therefore, in the following, the angle θ and the angle θ ′ will be calculated.

【0245】図示したように、角度θ,角度θ’は、三
角関数により、
As shown in the figure, the angle θ and the angle θ'are

【0246】[0246]

【数1】 [Equation 1]

【0247】である。That is.

【0248】回転角度を求めると、MPU91は、移動
後の位置に図形C’,D’を表示するためのデータをイ
ンターフェース部96に送る。インターフェース部96
は、映像信号を生成して、表示装置8に送る。表示装置
8は、映像信号に従って表示する。
After obtaining the rotation angle, the MPU 91 sends data for displaying the figures C ′ and D ′ at the position after movement to the interface section 96. Interface section 96
Generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0249】本実施例では、2つの図形の回転移動につ
いて説明したがこれに限るものではない。
In this embodiment, the rotational movement of the two figures has been described, but the present invention is not limited to this.

【0250】本実施例によれば、マウスなどでは複数回
の操作を必要とする複数図形の回転移動指示などを、よ
り自然な1度の操作で実現できるので、図形編集処理の
操作性を向上させることができる。
According to the present embodiment, it is possible to realize a rotational movement instruction of a plurality of figures that requires a plurality of operations with a mouse or the like by a more natural one-time operation, so that the operability of the figure editing process is improved. Can be made.

【0251】図26は、各対象物を伸縮変形させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が伸縮変形されて、指示された位置に表示された
状態を示す。
FIG. 26 shows an instruction method for elastically deforming each object, and a state in which the object is elastically deformed by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0252】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように、対象物の指定方法は、外郭内であ
り、ジェスチャ操作の指示内容は、伸縮変形であると判
定する。変形量(伸縮比)は、移動前の図形E,F上の
タッチ位置をe(Xe,Ye),f(Xf,Yf)と
し、これらの点が、移動後にe’(Xe’,Ye’),
f’(Xf’,Yf’)の位置に来たとすると、(X
f’−Xe’)/(Xf−Xe)として求まる。また、
その位置は、移動前の図形E上のタッチ位置eが、移動
後のタッチ位置e’に来るということから決まる。MP
U91は、移動後の位置に図形E’,F’を表示するた
めのデータをインターフェース部96に送る。インター
フェース部96は、映像信号を生成して、表示装置8に
送る。表示装置8は、映像信号に従って表示する。
The MPU 91, to which the touch position is input from the simultaneous plural-touch position detecting device 7 that has detected the touch position at regular intervals, determines the trajectory of the touch position. In this case, as described above, the object is touched. The designation method is within the outer contour, and the instruction content of the gesture operation is determined to be expansion / contraction deformation. The deformation amount (expansion / contraction ratio) is e (Xe, Ye), f (Xf, Yf) at the touch positions on the figures E, F before the movement, and these points are e '(Xe', Ye 'after the movement. ),
If the position of f '(Xf', Yf ') is reached, (X
f'-Xe ') / (Xf-Xe). Also,
The position is determined by the fact that the touch position e on the figure E before the movement comes to the touch position e ′ after the movement. MP
The U 91 sends data for displaying the figures E ′ and F ′ to the position after the movement to the interface unit 96. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0253】本実施例では、2つの図形の個別移動につ
いて説明したがこれに限るものではない。
In this embodiment, the individual movement of the two figures has been described, but the present invention is not limited to this.

【0254】本実施例によれば、マウスなどでは複数回
の操作を必要とする複数図形の個別移動指示などを、よ
り自然な1度の操作で実現できるので、図形編集処理の
操作性を向上できる。
According to the present embodiment, it is possible to realize an individual movement instruction of a plurality of figures which requires a plurality of operations with a mouse or the like by a more natural one-time operation, so that the operability of the figure editing process is improved. it can.

【0255】本発明の第6の実施例を図27〜図30に
より説明する。本実施例では、対象物の指定方法が外郭
上指定である場合に、平行移動指示、回転移動指示、伸
縮変形指示を受けたときの処理について述べる。
The sixth embodiment of the present invention will be described with reference to FIGS. In the present embodiment, a process when a parallel movement instruction, a rotational movement instruction, or an expansion / contraction deformation instruction is received when the designation method of the target object is the outer contour designation will be described.

【0256】図27は、各対象物を平行移動させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が平行移動されて、指示された位置に表示された
状態を示す。
FIG. 27 shows an instruction method for translating each object and a state in which the object is translated by the MPU 91 which has received the instruction and is displayed at the instructed position.

【0257】図において、Gはジェスチャ対象物の図
形、G’はジェスチャ操作後の図形である。
In the figure, G is the figure of the gesture object, and G'is the figure after the gesture operation.

【0258】図に示したように、親指と人差指で図形G
の対角近辺の外郭上を指示した後、各タッチ位置の位置
関係を保ったまま手を平行移動することにより、図形G
が図形G’の位置に平行移動する。
As shown in the figure, the figure G is formed by the thumb and forefinger.
After instructing on the outer contour near the diagonal of G, move the hand in parallel while maintaining the positional relationship of each touch position.
Moves in parallel to the position of the figure G '.

【0259】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように、対象物の指定方法は、外郭上であ
り、ジェスチャ操作の指示内容は、平行移動であると判
定する。そして、移動量を表すベクトルを図39の(x
1,y1)と同様にして求める。移動後の位置に図形
G’を表示するためのデータをインターフェース部96
に送る。インターフェース部96は、映像信号を生成し
て、表示装置8に送る。表示装置8は、映像信号に従っ
て表示する。
The MPU 91, to which the touch positions are input from the simultaneous plural-touch position detecting device 7 that has detected the touch positions at regular time intervals, determines the trajectory of the touch positions. In this case, as described above, the object is touched. The designation method is on the outer contour, and the instruction content of the gesture operation is determined to be parallel movement. Then, the vector indicating the movement amount is represented by (x
1, y1). Data for displaying the graphic G ′ at the position after the movement is transferred to the interface unit 96.
Send to. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0260】本実施例では、図形の対角近辺の外郭上指
示による図形の平行移動について説明したがこれに限る
ものではない。
In the present embodiment, the parallel movement of the figure by the outer contour instruction near the diagonal of the figure has been described, but the present invention is not limited to this.

【0261】本実施例によれば、1つの図形の平行移動
指示などを、マウスなどに比べより自然な操作で実現で
きるので、図形編集処理の操作性を向上できる。
According to this embodiment, the instruction to move one figure in parallel can be realized by a more natural operation than that of a mouse, so that the operability of the figure editing process can be improved.

【0262】図28は、対象物を回転移動させる場合の
指示方法、およびその指示を受けたMPU91により対
象物が回転移動されて、指示された位置に表示された状
態を示す。
FIG. 28 shows an instruction method for rotationally moving an object and a state in which the object is rotationally moved by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0263】図において、Hはジェスチャ対象物の図
形、H’はジェスチャ操作後の図形である。
In the figure, H is the figure of the gesture object, and H'is the figure after the gesture operation.

【0264】図に示したように、親指と人差指で図形H
の対角近辺の外郭上を指示した後、各タッチ位置の位置
関係を保ったまま手を回転移動することにより、図形H
が図形H’の位置に回転移動する。
As shown in the figure, the figure H is formed by the thumb and forefinger.
After instructing on the outer contour near the diagonal of, the pattern H is rotated by moving the hand while maintaining the positional relationship of each touch position.
Rotates to the position of figure H '.

【0265】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように、対象物の指定方法は、外郭上であ
り、ジェスチャ操作の指示内容は、回転移動であると判
定する。次に、MPU91は、図37のようにして回転
角度を算出する。回転角度を求めると、MPU91は、
移動後の位置に図形H’を表示するためのデータをイン
ターフェース部96に送る。インターフェース部96
は、映像信号を生成して、表示装置8に送る。表示装置
8は、映像信号に従って表示する。
The MPU 91, to which the touch positions are input from the simultaneous plural touch position detecting device 7 that has detected the touch positions at regular intervals, determines the trajectory of the touch positions. In this case, as described above, The designation method is on the outer contour, and the instruction content of the gesture operation is determined to be rotational movement. Next, the MPU 91 calculates the rotation angle as shown in FIG. When the rotation angle is calculated, the MPU 91
Data for displaying the graphic H ′ at the position after movement is sent to the interface unit 96. Interface section 96
Generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0266】本実施例では、図形の対角近辺の外郭上指
示による図形の回転移動についてについて説明したがこ
れに限るものではない。
In the present embodiment, the rotational movement of the figure by the outer contour instruction near the diagonal of the figure has been described, but the present invention is not limited to this.

【0267】本実施例によれば、マウスなどでは複数回
の操作を必要とする1つの図形の回転移動指示などを、
より自然な1度の操作で実現できるので、図形編集処理
の操作性を向上できる。
According to this embodiment, a mouse or the like can be used to instruct the rotation and movement of one figure, which requires a plurality of operations.
Since it can be realized by one more natural operation, the operability of the graphic editing process can be improved.

【0268】図29は、対象物を伸縮変形させる場合の
指示方法、およびその指示を受けたMPU91により対
象物が伸縮変形されて、指示された位置に表示された状
態を示す。
FIG. 29 shows an instruction method for elastically deforming an object, and a state in which the object is elastically deformed by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0269】図において、Iはジェスチャ対象物の図
形、I’はジェスチャ操作後の図形である。
In the figure, I is the figure of the gesture object, and I'is the figure after the gesture operation.

【0270】図に示したように、親指と人差指で図形I
の対角近辺の外郭上を指示した後、各タッチ位置を伸縮
変形移動することにより、図形Iが図形I’の位置に伸
縮する。
As shown in the figure, a figure I is formed with the thumb and forefinger.
After instructing on the outline near the diagonal of, the graphic I expands and contracts to the position of the graphic I ′ by expanding and contracting and moving each touch position.

【0271】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように、対象物の指定方法が外郭上であり、
ジェスチャ操作の指示内容が平行移動であると判定す
る。次に、MPU91は、変形量(伸縮比)と、変形後
の位置を図26と同様にして求める。MPU91は、移
動後の位置に図形I’を表示するためのデータをインタ
ーフェース部96に送る。インターフェース部96は、
映像信号を生成して、表示装置8に送る。表示装置8
は、映像信号に従って表示する。
The MPU 91, to which the touch position is input from the simultaneous plural touch position detection device 7 that has detected the touch position at regular intervals, determines the trajectory of the touch position. In this case, as described above, the object is touched. The designation method is on the outer shell,
It is determined that the instruction content of the gesture operation is parallel movement. Next, the MPU 91 obtains the deformation amount (expansion / contraction ratio) and the position after the deformation in the same manner as in FIG. 26. The MPU 91 sends data for displaying the graphic I ′ at the position after the movement to the interface unit 96. The interface unit 96 is
A video signal is generated and sent to the display device 8. Display device 8
Are displayed according to the video signal.

【0272】本実施例では、図形の対角近辺の外郭上指
示による図形の伸縮について説明したがこれに限るもの
ではない。
In the present embodiment, the expansion / contraction of the graphic by the outer contour instruction near the diagonal of the graphic has been described, but the invention is not limited to this.

【0273】本実施例によれば、マウスなどでは複数回
の操作を必要とする1つの図形の伸縮指示などを、より
自然な1度の操作で実現できるので、図形編集処理の操
作性を向上できる。
According to the present embodiment, it is possible to realize expansion / contraction instruction of one figure which requires a plurality of operations with a mouse or the like by a more natural one-time operation, thus improving the operability of the figure editing process. it can.

【0274】次に、外郭上指定および範囲内指定の場合
のみに指定可能な、図30のように図形をたわませる場
合の伸縮変形について述べる。
Next, the expansion / contraction deformation in the case of bending the figure as shown in FIG. 30, which can be specified only in the case of the outer contour specification and the range specification, will be described.

【0275】図30は、対象物を伸縮変形させる場合の
指示方法、およびその指示を受けたMPU91により対
象物が伸縮変形されて、指示された位置に表示された状
態を示す。
[0275] Fig. 30 shows an instruction method for elastically deforming an object, and a state in which the object is elastically deformed by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0276】図において、Jはジェスチャ対象物の図
形、J’はジェスチャ操作後の図形である。Tは、右手
の親指、Vは右手の人差指、T1は、左手の親指、V1
は左手の人差指である。
In the figure, J is the figure of the gesture object, and J'is the figure after the gesture operation. T is the right thumb, V is the right index finger, T1 is the left thumb, V1
Is the index finger of the left hand.

【0277】図に示したように、両手の親指と人差指で
図形Jの4頂点の近くの外郭上を指示した後、両手の各
タッチ位置を図30のように伸縮変形移動することによ
り、図形Jが図形J’の位置に変形する。
As shown in the figure, the thumb and forefinger of both hands are used to indicate on the contour near the four vertices of the figure J, and then the touch positions of both hands are expanded and contracted as shown in FIG. J is transformed into the position of figure J '.

【0278】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定する。対象物
の指定方法は、外郭上であると前述のように判定する。
ジェスチャ操作の指示内容については、図30に示す伸
縮変形であるかどうかの判定を以下のように行う。タッ
チ位置をa,b,c,dとしたときに、a,bの軌跡が
図22のステップ4で述べた回転移動の判定方法により
回転であると判定され、さらに、c,dについても同様
の方法で回転移動であると判定されたときに、図30に
示す伸縮変形であると判定する。
The MPU 91, to which the touch position is input, determines the trajectory of the touch position at regular time intervals from the simultaneous plural touch position detecting device 7 which has detected the touch position. As described above, the designation method of the target object is on the outer contour.
Regarding the instruction content of the gesture operation, it is determined whether or not it is the expansion / contraction deformation shown in FIG. 30 as follows. When the touch positions are a, b, c, and d, it is determined that the loci of a and b are rotations by the rotation movement determination method described in step 4 of FIG. 22, and the same applies to c and d. When it is determined that the movement is rotational movement by the above method, it is determined that the deformation is expansion and contraction shown in FIG.

【0279】次に、MPU91は、変形後の位置を以下
のようにして求める。図38に、変形後の円弧図形の円
弧状中心線算出の概念図を示す。
Next, the MPU 91 obtains the deformed position as follows. FIG. 38 shows a conceptual diagram of calculation of an arc-shaped center line of a deformed arc figure.

【0280】図38において、図形Sは変形前の長方
形、図形S’は変形後の幅を持った円弧図形である。
w,w’は図形S,S’の幅、l,l’は図形S,S’
の幅方向の中心線である。
In FIG. 38, the figure S is a rectangle before transformation, and the figure S'is an arc figure having a width after transformation.
w and w ′ are the widths of the figures S and S ′, and l and l ′ are the figures S and S ′.
Is the center line in the width direction.

【0281】図示したょうに、円弧である中心線l’の
半径rは、ピタゴラスの定理により
As shown in the figure, the radius r of the center line l'which is an arc is determined by the Pythagorean theorem.

【0282】[0282]

【数2】 [Equation 2]

【0283】である。また、変形前の図形Sの幅wと、
変形後の図形S’の幅w’との関係は、 w=w’ である。従って、以下では、円弧である中心線l’の中
心点Oを算出する。
That is. In addition, the width w of the figure S before transformation,
The relation with the width w ′ of the transformed figure S ′ is w = w ′. Therefore, in the following, the center point O of the center line l'which is an arc is calculated.

【0284】図示したように、点a’と点b’の2点を
通る直線y1と、点c’と点d’の2点を通る直線y
2は、それぞれ、2点を通る直線の公式により、
As shown, a straight line y 1 passing through the two points a ′ and b ′ and a straight line y passing the two points c ′ and d ′.
2 is the formula of a straight line passing through two points,

【0285】[0285]

【数3】 [Equation 3]

【0286】である。また、これらの直線y1と直線y2
との交点である、点Oの座標(Xo,Yo)は、2直線
の交点の公式により、
It is. Also, these straight line y 1 and straight line y 2
The coordinates (Xo, Yo) of the point O, which is the intersection point with

【0287】[0287]

【数4】 [Equation 4]

【0288】である。It is.

【0289】MPU91は、形状および位置が求まる
と、変形後の位置に図形I’を表示するためのデータを
インターフェース部96に送る。インターフェース部9
6は、映像信号を生成して、表示装置8に送る。表示装
置8は、映像信号に従って表示する。
When the shape and position are obtained, the MPU 91 sends the interface unit 96 data for displaying the figure I ′ at the position after deformation. Interface part 9
6 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0290】本実施例では、図形の4頂点の近くの外郭
上指示による図形の変形について説明したがこれに限る
ものではない。4つのタッチ位置が長方形の4頂点の位
置関係にあれば可能である。この時、変形量を算出する
ことができるため、任意の図形について、変形後の形状
および位置を算出することができる。また、範囲内指定
の場合も同様に可能である。
In this embodiment, the deformation of the figure by the outer contour instruction near the four vertices of the figure has been described, but the present invention is not limited to this. It is possible if the four touch positions are in the positional relationship of the four vertices of the rectangle. At this time, since the deformation amount can be calculated, the shape and position after deformation can be calculated for any figure. Further, the case of specifying within the range is also possible.

【0291】本実施例によれば、マウスなどでは複数回
の操作を必要とする1つの図形の変形指示などを、より
自然な1度の操作で実現できるので、図形編集処理の操
作性を向上させることができる。
According to the present embodiment, the deformation instruction of one figure, which requires a plurality of operations with a mouse or the like, can be realized by one more natural operation, so that the operability of the figure editing process is improved. Can be made.

【0292】本発明の第7の実施例を図31〜図33に
より説明する。本実施例では、対象物の指定方法が範囲
内指定である場合に、平行移動指示、回転移動指示、伸
縮変形指示を受けたときの処理について述べる。
The seventh embodiment of the present invention will be described with reference to FIGS. In the present embodiment, processing when a parallel movement instruction, a rotational movement instruction, and an expansion / contraction deformation instruction are received when the method of specifying the target object is within the range will be described.

【0293】図31は、各対象物を平行移動させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が平行移動されて、指示された位置に表示された
状態を示す。
FIG. 31 shows an instruction method for translating each object, and a state in which the object is translated by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0294】図において、K、Lはジェスチャ対象物の
図形、K’、L’はジェスチャ操作後の図形である。
In the figure, K and L are figures of the gesture object, and K ′ and L ′ are figures after the gesture operation.

【0295】図に示したように、親指と人差指で図形
K、Lの外郭外を指示した後、各タッチ位置の位置関係
を保ったまま手を平行移動することにより、図形K、L
が図形K’、L’の位置に平行移動する。
As shown in the figure, after instructing the outside of the contours of the figures K and L with the thumb and the forefinger, the hands are moved in parallel while maintaining the positional relationship of the touch positions, whereby the figures K and L are moved.
Moves in parallel to the positions of figures K'and L '.

【0296】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように対象物の指定方法が範囲内であり、ジ
ェスチャ操作の指示内容が平行移動であると判定する。
そして、移動量を表すベクトルを図39の(x1,y
1)と同様にして求める。移動後の位置に図形K’,
L’を表示するためのデータをインターフェース部96
に送る。インターフェース部96は、映像信号を生成し
て、表示装置8に送る。表示装置8は、映像信号に従っ
て表示する。
The MPU 91, to which the touch positions are input at regular time intervals from the simultaneous plural touch position detecting devices 7 that have detected the touch positions, determines the trajectory of the touch positions. In this case, the target object is designated as described above. It is determined that the method is within the range and the instruction content of the gesture operation is parallel movement.
Then, the vector representing the movement amount is represented by (x1, y in FIG.
Obtained in the same manner as 1). Figure K ', at the position after movement
The data for displaying L ′ is transferred to the interface unit 96.
Send to. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0297】本実施例では、2つの図形の平行移動につ
いて説明したがこれに限るものではない。
In the present embodiment, the parallel movement of two figures has been described, but the present invention is not limited to this.

【0298】本実施例によれば、マウスなどでは複数回
の操作を必要とする複数図形の平行移動指示などを、よ
り自然な1度の操作で実現できるので、図形編集処理の
操作性を向上させることができる。
According to the present embodiment, it is possible to realize a parallel movement instruction of a plurality of figures which requires a plurality of operations with a mouse or the like by a more natural one-time operation, so that the operability of the figure editing process is improved. Can be made.

【0299】図32は、各対象物を回転移動させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が回転移動されて、指示された位置に表示された
状態を示す。
FIG. 32 shows an instruction method for rotationally moving each object and a state in which the object is rotationally moved by the MPU 91 which received the instruction and is displayed at the instructed position.

【0300】図において、M、Nはジェスチャ対象物の
図形、M’、N’はジェスチャ操作後の図形である。
In the figure, M and N are figures of the gesture object, and M'and N'are figures after the gesture operation.

【0301】図に示したように、親指と人差指で図形
M、Nの外郭外を指示した後、各タッチ位置の位置関係
を保ったまま手を回転移動することにより、図形M、N
が図形M’、N’の位置に回転移動する。
As shown in the figure, after instructing the outside of the contours of the figures M and N with the thumb and forefinger, the hands are rotated and moved while maintaining the positional relationship of each touch position.
Moves to the positions of figures M'and N '.

【0302】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように対象物の指定方法が範囲内であり、ジ
ェスチャ操作の指示内容が回転移動であると判定する。
そして、回転角を図37と同様にして求める。移動後の
位置に図形M’,N’を表示するためのデータをインタ
ーフェース部96に送る。インターフェース部96は、
映像信号を生成して、表示装置8に送る。表示装置8
は、映像信号に従って表示する。
The MPU 91, to which the touch position is input from the simultaneous plural touch position detection device 7 that has detected the touch position at regular intervals, determines the trajectory of the touch position. In this case, the target object is designated as described above. It is determined that the method is within the range and the instruction content of the gesture operation is rotational movement.
Then, the rotation angle is obtained in the same manner as in FIG. Data for displaying the figures M ′ and N ′ at the position after movement is sent to the interface unit 96. The interface unit 96 is
A video signal is generated and sent to the display device 8. Display device 8
Are displayed according to the video signal.

【0303】本実施例では、2つの図形の回転移動につ
いて説明したがこれに限るものではない。
In this embodiment, the rotational movement of the two figures has been described, but the present invention is not limited to this.

【0304】本実施例によれば、マウスなどでは複数回
の操作を必要とする複数図形の回転移動指示などを、よ
り自然な1度の操作で実現できるので、図形編集処理の
操作性を向上できる。
According to the present embodiment, it is possible to realize a rotational movement instruction of a plurality of figures which requires a plurality of operations with a mouse or the like by one more natural operation, so that the operability of the figure editing process is improved. it can.

【0305】図33は、各対象物を伸縮変形させる場合
の指示方法、およびその指示を受けたMPU91により
対象物が伸縮変形されて、指示された位置に表示された
状態を示す。
FIG. 33 shows an instruction method for elastically deforming each object, and a state in which the object is elastically deformed by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0306】図において、O、Pはジェスチャ対象物の
図形、O’、P’はジェスチャ操作後の図形である。
In the figure, O and P are figures of the gesture object, and O'and P'are figures after the gesture operation.

【0307】図に示したように、親指と人差指で図形
O、Pの外郭外を指示した後、各タッチ位置を伸縮変形
移動することにより、図形O、Pが図形O’、P’の位
置に伸縮変形する。本図における変形量、変形後の位置
は、図34と同様にして求めることができる。
As shown in the figure, after instructing the outside of the contours of the figures O and P with the thumb and the forefinger, the respective touch positions are expanded / contracted and deformed so that the figures O and P are located at the positions of the figures O ′ and P ′. It expands and contracts. The deformation amount and the position after the deformation in this figure can be obtained in the same manner as in FIG. 34.

【0308】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように対象物の指定方法が範囲内であり、ジ
ェスチャ操作の指示内容が伸縮変形であると判定する。
そして、変形量、変形後の位置は、図26と同様にして
求める。移動後の位置に図形O’,P’を表示するため
のデータをインターフェース部96に送る。インターフ
ェース部96は、映像信号を生成して、表示装置8に送
る。表示装置8は、映像信号に従って表示する。
The MPU 91, to which the touch position is input from the simultaneous plural touch position detection device 7 which has detected the touch position at regular intervals, determines the trajectory of the touch position. In this case, the target object is designated as described above. It is determined that the method is within the range and the instruction content of the gesture operation is expansion / contraction deformation.
Then, the deformation amount and the position after the deformation are obtained in the same manner as in FIG. Data for displaying the figures O ′ and P ′ at the position after movement is sent to the interface unit 96. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0309】本実施例では、2つの図形の伸縮変形につ
いて説明したがこれに限るものではない。
In this embodiment, the expansion / contraction deformation of two figures has been described, but the present invention is not limited to this.

【0310】本実施例によれば、マウスなどでは複数回
の操作を必要とする複数図形の伸縮変形指示などを、よ
り自然な1度の操作で実現できるので、図形編集処理の
操作性を向上できる。
According to the present embodiment, it is possible to realize expansion / contraction deformation instruction of a plurality of figures which requires a plurality of operations with a mouse or the like by a more natural one-time operation, so that the operability of the figure editing process is improved. it can.

【0311】本発明の第8の実施例を図34〜図36に
より説明する。本実施例では、対象物は、3次元図形で
あり、3次元図形の編集処理に本発明に係る同時複数ジ
ェスチャ指示処理装置を用いた場合について述べる。本
実施例では、対象物の指定方法が外郭上指定である場合
(図34、36)および範囲内指定である場合(図3
5)に、回転移動指示を受けたときの処理について述べ
る。
The eighth embodiment of the present invention will be described with reference to FIGS. In the present embodiment, the object is a three-dimensional figure, and the case where the simultaneous plural gesture instruction processing device according to the present invention is used for the editing process of the three-dimensional figure will be described. In the present embodiment, the designation method of the target object is the designation on the outer contour (FIGS. 34 and 36) and the designation method within the range (FIG. 3).
In 5), the processing when the rotational movement instruction is received will be described.

【0312】図34は、対象物を回転移動させる場合の
指示方法、およびその指示を受けたMPU91により対
象物が回転移動されて、指示された位置に表示された状
態を示す。
FIG. 34 shows an instruction method for rotationally moving an object and a state in which the object is rotationally moved by the MPU 91 that has received the instruction and is displayed at the instructed position.

【0313】図34は、対象物の指定方法が外郭上指定
で、ジェスチャ操作の指示内容が回転移動指示である場
合の例を示す。
FIG. 34 shows an example in the case where the designation method of the object is the outer contour designation and the instruction content of the gesture operation is the rotational movement instruction.

【0314】図において、Qはジェスチャ対象物である
3次元図形、Q’はジェスチャ操作後の3次元図形であ
る。Q’は、QをX軸方向の回転軸346の周りに90
度回転させたものである。
In the figure, Q is a three-dimensional figure which is a gesture object, and Q'is a three-dimensional figure after the gesture operation. Q'is 90 about Q about the rotation axis 346 in the X-axis direction.
It has been rotated once.

【0315】図に示したように、親指と人差指で3次元
図形Qの対角近辺の外郭上を指示した後、各タッチ位置
の位置関係を保ったまま手を回転移動することにより、
3次元図形Qが3次元図形Q’の位置に回転移動する。
As shown in the figure, after instructing the outline of the three-dimensional figure Q near the diagonal with the thumb and forefinger, the hand is rotated while maintaining the positional relationship of each touch position.
The three-dimensional figure Q is rotationally moved to the position of the three-dimensional figure Q '.

【0316】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように対象物の指定方法が外郭上であると判
定する。
The MPU 91, to which the touch position is input from the simultaneous plural touch position detecting device 7 which has detected the touch position at regular intervals, determines the trajectory of the touch position. In this case, the target object is designated as described above. It is determined that the method is on the outer contour.

【0317】ジェスチャ操作の指示内容が回転移動であ
ることの判定も前述のように行われる。さらに、3次元
図形の場合は、回転軸がX、Y、Z軸のいずれであるか
を判定する必要がある。回転軸の判定は、タッチしてい
る外郭(辺)が含まれる面の法線方向により行う。すな
わち、図34の場合、2辺341をタッチしているた
め、この2辺を含む面341の法線方向を考えると、X
軸方向であるので、回転軸は、X軸と判定する。2辺3
42をタッチした場合も回転軸は、X軸である。2辺3
43をタッチした場合は、回転軸は、Y軸である。
The determination that the instruction content of the gesture operation is the rotational movement is also performed as described above. Furthermore, in the case of a three-dimensional figure, it is necessary to determine whether the rotation axis is the X, Y, or Z axis. The rotation axis is determined based on the normal direction of the surface including the touched outline (side). That is, in the case of FIG. 34, since the two sides 341 are touched, considering the normal direction of the surface 341 including these two sides, X
Since it is in the axial direction, the rotation axis is determined to be the X axis. 2 sides 3
Also when 42 is touched, the rotation axis is the X axis. 2 sides 3
When 43 is touched, the rotation axis is the Y axis.

【0318】そして、回転量を図37と同様にして求め
る。移動後の位置に図形Q’を表示するためのデータを
インターフェース部96に送る。インターフェース部9
6は、映像信号を生成して、表示装置8に送る。表示装
置8は、映像信号に従って表示する。
Then, the rotation amount is obtained in the same manner as in FIG. Data for displaying the graphic Q ′ at the position after movement is sent to the interface unit 96. Interface part 9
6 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0319】本実施例では、3次元図形の対角近辺の外
郭上指示による3次元図形の回転移動について説明した
がこれに限るものではない。
In this embodiment, the rotational movement of the three-dimensional figure by the outer contour instruction near the diagonal of the three-dimensional figure has been described, but the present invention is not limited to this.

【0320】本実施例によれば、マウスや3次元ダイア
ルなどでは複雑な操作を必要とする1つの3次元図形の
回転移動指示などを、より自然な1度の操作で実現でき
るので、3次元図形編集処理の操作性を向上させること
ができる。
According to the present embodiment, a rotational movement instruction of one three-dimensional figure which requires a complicated operation with a mouse or a three-dimensional dial can be realized by a more natural one-time operation. The operability of the graphic editing process can be improved.

【0321】上記の実施例や図25,28,32の実施
例において、回転移動であることの判定方法は、図22
のステップ4で述べた方法以外に以下の方法を用いても
よい。同時複数タッチ位置検出装置7からは、タッチ位
置が0.1秒以下の間隔で送られてくるため、タッチ位
置の座標が指の移動にともなって多数得られる。6点の
X、Y座標が得られれば、以下の数5のx,yにこれら
の座標を入れることにより、円であるかどうかの判定が
でき、円の場合は、円の方程式が得られる。
In the above-described embodiment and the embodiments of FIGS. 25, 28 and 32, the method of determining the rotational movement is as shown in FIG.
The following method may be used in addition to the method described in step 4 of the above. Since the touch positions are sent from the simultaneous plural touch position detection device 7 at intervals of 0.1 second or less, a large number of coordinates of the touch positions are obtained as the finger moves. If the X and Y coordinates of 6 points are obtained, it is possible to determine whether or not it is a circle by inserting these coordinates into x and y of the following equation 5, and in the case of a circle, the equation of the circle is obtained. .

【0322】[0322]

【数5】 ax2+2hxy+by2+2gx+2fy+c=0 ここで、a,h,b,g,f,cは定数 同時複数タッチ位置検出装置7からは、タッチ位置が多
数送られるので、軌跡の開始点と終了点の間のタッチ位
置から6個ずつのタッチ位置の組を複数組求める。これ
らの組の各々から数5の係数を求め、係数から円である
かどうかが判定できる。そして、円の場合は、各組ごと
に円の方程式が求まる。次に、各組ごとに得られた方程
式から各々の円の中心位置と円の半径を求める。得られ
た複数の円の中心位置と半径を比較し、位置と半径が許
容範囲内で一致していた場合は、タッチ位置の軌跡は、
円であると判定する。
## EQU00005 ## ax 2 + 2hxy + by 2 + 2gx + 2fy + c = 0 where a, h, b, g, f, and c are constants Since multiple touch positions are sent from the simultaneous multiple touch position detection device 7, the start point of the locus is A plurality of sets of 6 touch positions are obtained from the touch positions between the end points. From each of these sets, the coefficient of Equation 5 is obtained, and it can be determined from the coefficient whether or not it is a circle. Then, in the case of a circle, the equation of the circle is obtained for each set. Next, the center position of each circle and the radius of the circle are calculated from the equations obtained for each set. The center positions and radii of the obtained circles are compared, and if the positions and radii match within the allowable range, the trajectory of the touch position is
Judge as a circle.

【0323】図34の場合、ジェスチャ操作の指示内容
である回転移動について、タッチ位置の軌跡が上記の円
以外に、軌跡が楕円でもよい。楕円でもよい場合は、図
34において、面344,347のように、画面上で斜
めになっている面上で回転移動を指示する場合である。
すなわち、図形Qについて、X軸、またはZ軸回りの回
転移動を指示する場合である。
In the case of FIG. 34, regarding the rotational movement which is the instruction content of the gesture operation, the locus of the touch position may be an ellipse other than the above circle. The case where the oval may be used is a case where the rotational movement is instructed on a surface that is oblique on the screen, such as surfaces 344 and 347 in FIG.
That is, this is a case of instructing the rotational movement of the graphic Q about the X axis or the Z axis.

【0324】この時、図42(図34の面344,34
5,347のみを示したもの)に示すような楕円344
1,3471上にあるタッチ位置を同時複数タッチ位置
検出装置7から入力されたMPU91は、円の場合と同
様にして、6点ごとの複数の組について、前述の数5に
より、係数から楕円であるかどうかを判定する。そし
て、楕円の場合は、各組ごとに楕円の方程式が求まる。
次に、各組ごとに得られた方程式から各々の楕円の向き
と、楕円の長軸と、短軸の長さを求める。得られた複数
の楕円の向きと、楕円の長軸と、短軸の長さを比較し、
楕円の向きと、楕円の長軸と、短軸の長さが許容範囲内
で一致していた場合は、タッチ位置の軌跡は、楕円であ
ると判定する。
At this time, FIG. 42 (surfaces 344, 34 in FIG. 34)
Ellipse 344 as shown in FIG.
The MPU 91, which receives the touch positions on 1,3471 from the simultaneous multiple touch position detection device 7, outputs an ellipse from the coefficient for a plurality of groups of 6 points in the same manner as in the case of the circle, according to the above-mentioned Equation 5. Determine if there is. Then, in the case of an ellipse, the equation of the ellipse is obtained for each set.
Next, the direction of each ellipse, the major axis of the ellipse, and the minor axis length are obtained from the equations obtained for each set. Compare the orientation of the obtained ellipses, the long axis of the ellipse, the length of the short axis,
When the direction of the ellipse, the long axis of the ellipse, and the length of the short axis match within the allowable range, the trajectory of the touch position is determined to be the ellipse.

【0325】回転軸の判定については、図42のよう
に、得られた楕円の長軸421の向きが水平方向から6
7.5度のときは、X軸と判定し、長軸422の向きが
水平方向から22.5度のときは、Y軸と判定する。な
お、67.5度や22.5度という数値は、図34の場
合、立体図がこの角度で表示されていることに起因して
おり、この角度は、立体図の表示角度により変わるもの
である。また、楕円3441が画面344内にあるとき
は、X軸と判定し、楕円3471が面422内にあると
きは、Y軸と判定することとしてもよい。
Regarding the determination of the rotation axis, the orientation of the long axis 421 of the obtained ellipse is 6 from the horizontal direction as shown in FIG.
When it is 7.5 degrees, it is determined to be the X-axis, and when the orientation of the major axis 422 is 22.5 degrees from the horizontal direction, it is determined to be the Y-axis. Note that the numerical values of 67.5 degrees and 22.5 degrees are due to the stereoscopic view being displayed at this angle in the case of FIG. 34, and this angle changes depending on the display angle of the stereoscopic view. is there. Further, when the ellipse 3441 is within the screen 344, it may be determined as the X axis, and when the ellipse 3471 is within the surface 422, it may be determined as the Y axis.

【0326】回転量の求め方について、図43により説
明する。図43において、aはタッチ開始点、bは、タ
ッチ終了点を示す。Oは長軸と短軸の交点、αは、線分
Oaと長軸とのなす角、βは、線分Obと長軸とのなす
角である。これらは楕円の方程式が決まれば、求めるこ
とができる。回転量は、α−βの絶対値として求まる。
How to determine the rotation amount will be described with reference to FIG. In FIG. 43, a indicates a touch start point and b indicates a touch end point. O is the intersection of the long axis and the short axis, α is the angle between the line segment Oa and the long axis, and β is the angle between the line segment Ob and the long axis. These can be obtained if the elliptic equation is determined. The rotation amount is obtained as an absolute value of α-β.

【0327】次に、図35は、対象物の指定方法が範囲
内指定で、ジェスチャ操作の指示内容が回転移動指示で
ある場合の例を示す。
[0327] Next, Fig. 35 shows an example in which the method of designating an object is designation within a range, and the instruction content of the gesture operation is a rotational movement instruction.

【0328】図において、Rはジェスチャ対象物の3次
元図形、R’はジェスチャ操作後の3次元図形である。
R’は、RをX軸方向の回転軸346の周りに90度回
転させたものである。
In the figure, R is a three-dimensional figure of the gesture object, and R'is a three-dimensional figure after the gesture operation.
R ′ is obtained by rotating R by 90 degrees around the rotation axis 346 in the X-axis direction.

【0329】図に示したように、親指と人差指で3次元
図形Rの外郭外を指示した後、各タッチ位置の位置関係
を保ったまま手を回転移動することにより、3次元図形
Rが3次元図形R’の位置に回転移動する。
As shown in the figure, after instructing the outside of the three-dimensional figure R with the thumb and forefinger, the three-dimensional figure R is moved to 3 by rotating the hand while maintaining the positional relationship of each touch position. Rotate to the position of the three-dimensional figure R '.

【0330】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように対象物の指定方法が範囲内指定である
と判定する。
The MPU 91, to which the touch positions are input at regular time intervals from the simultaneous plural touch position detecting device 7 that has detected the touch positions, determines the trajectory of the touch positions. In this case, the target object is designated as described above. It is determined that the method is the range specification.

【0331】ジェスチャ操作の指示内容が回転移動であ
ることの判定は、前述の図42のように行われる。すな
わち、図形Rについて、X、Y軸回りの回転は、指で楕
円を描くことにより、回転移動であることを指示すると
ともに、長軸の向きが、67.5度か22.5度である
かによって、回転軸がX軸であるかY軸であるかが指定
される。Z軸回りについては、指で円を描くことにより
指示される。なお、67.5度や22.5度という数値
は、図35の場合、立体図がこの角度で表示されている
ことに起因しており、この角度は、立体図の表示角度に
より変わるものである。
The determination that the instruction content of the gesture operation is the rotational movement is performed as described above with reference to FIG. That is, with respect to the figure R, rotation about the X and Y axes is indicated by drawing an ellipse with a finger to indicate that it is a rotational movement, and the direction of the major axis is 67.5 degrees or 22.5 degrees. Depending on whether the rotation axis is the X axis or the Y axis is specified. About the Z axis, it is instructed by drawing a circle with a finger. Note that the numerical values of 67.5 degrees and 22.5 degrees are due to the stereoscopic view being displayed at this angle in the case of FIG. 35, and this angle changes depending on the display angle of the stereoscopic view. is there.

【0332】そして、回転量を図37または図43と同
様にして求める。移動後の位置に図形R’を表示するた
めのデータをインターフェース部96に送る。インター
フェース部96は、映像信号を生成して、表示装置8に
送る。表示装置8は、映像信号に従って表示する。
Then, the rotation amount is obtained in the same manner as in FIG. 37 or FIG. Data for displaying the graphic R ′ at the position after movement is sent to the interface unit 96. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal.

【0333】本実施例では、3次元図形の範囲内指定に
よる3次元図形の回転移動について説明したがこれに限
るものではない。
In this embodiment, the rotational movement of the three-dimensional figure by designating the range of the three-dimensional figure has been described, but the present invention is not limited to this.

【0334】本実施例によれば、マウスや3次元ダイア
ルなどでは複雑な操作を必要とする1つの3次元図形の
回転移動指示などを、より自然な1度の操作で実現でき
るので、3次元図形編集処理の操作性を向上させること
ができる。
According to this embodiment, a rotational movement instruction of one three-dimensional figure, which requires a complicated operation with a mouse or a three-dimensional dial, can be realized by a more natural one-time operation. The operability of the graphic editing process can be improved.

【0335】図36は、対象物を回転移動の一種である
ねじり移動させる場合の指示方法、およびその指示を受
けたMPU91により対象物がねじり移動されて、指示
された位置に表示された状態を示す。
FIG. 36 shows an instruction method for twisting and moving an object, which is a kind of rotational movement, and a state in which the object is twisted and moved by the MPU 91 that has received the instruction and is displayed at the instructed position. Show.

【0336】図36は、対象物の指定方法が外郭上指定
で、ジェスチャ操作の指示内容がねじり移動指示である
場合の例を示す。
FIG. 36 shows an example in which the designation method of the object is the outer contour designation and the instruction content of the gesture operation is the twist movement instruction.

【0337】図において、Sはジェスチャ対象物の3次
元図形、S’はジェスチャ操作後の3次元図形である。
S’は、SをX軸方向の回転軸346の周りに90度回
転させたものである。
In the figure, S is a three-dimensional figure of the gesture object, and S'is a three-dimensional figure after the gesture operation.
S ′ is obtained by rotating S around the rotation axis 346 in the X-axis direction by 90 degrees.

【0338】図に示したように、両手の親指と人差指で
3次元図形Sの対角近辺の外郭上を指示した後、左手の
親指T1と人差指V1による各タッチ位置を固定し、右
手の親指Tと人差指Vによるタッチ位置の位置関係を保
ったまま右手を回転移動することにより、3次元図形S
が3次元図形S’の位置にねじり回転移動する。
As shown in the figure, after the thumb and forefinger of both hands are used to indicate the outer contour of the three-dimensional figure S in the vicinity of the diagonal, the touch positions of the left thumb T1 and the forefinger V1 are fixed and the right thumb is fixed. By rotating and moving the right hand while maintaining the positional relationship between the touch position of T and the index finger V, the three-dimensional figure S
Twists and rotates to the position of the three-dimensional figure S '.

【0339】タッチ位置を検出した同時複数タッチ位置
検出装置7から一定時間ごとに、タッチ位置を入力され
たMPU91は、タッチ位置の軌跡を判定し、この場合
は、前述のように対象物の指定方法が外郭上指定である
と判定する。
The MPU 91, to which the touch position is input at regular time intervals from the simultaneous plural touch position detecting device 7 that has detected the touch position, determines the trajectory of the touch position. In this case, the target object is designated as described above. It is determined that the method is specified on the outer contour.

【0340】ジェスチャ操作の指示内容が回転移動であ
ることの判定は、前述の図34,35のように行われ
る。
The determination that the instruction content of the gesture operation is the rotational movement is performed as shown in FIGS.

【0341】そして、回転量を図37または図43と同
様にして求める。移動後の位置に図形S’を表示するた
めのデータをインターフェース部96に送る。インター
フェース部96は、映像信号を生成して、表示装置8に
送る。表示装置8は、映像信号に従って表示する。図4
4に、ねじり後の図形S’を示す。左側面441は、回
転しておらず、右側面442は90度回転している。左
側面441の各頂点に対応する右側面442の各頂点を
結ぶ直線443,444,445,446はねじれた位
置関係にある。
Then, the rotation amount is obtained in the same manner as in FIG. 37 or 43. Data for displaying the figure S ′ at the position after movement is sent to the interface unit 96. The interface unit 96 generates a video signal and sends it to the display device 8. The display device 8 displays according to the video signal. Figure 4
4 shows the figure S ′ after twisting. The left side surface 441 has not rotated, and the right side surface 442 has rotated 90 degrees. The straight lines 443, 444, 445 and 446 connecting the respective vertices of the right side surface 442 corresponding to the respective vertices of the left side surface 441 are in a twisted positional relationship.

【0342】図44では、左右の側面を結ぶ線は直線で
あるが、図形Sが表示する物体の剛性や固さを考慮し
て、曲線で結ぶこととしてもよい。物体の固さによって
は、90度曲げると、破断してしまうため、回転は不可
という表示をすることとしてもよい。
In FIG. 44, the line connecting the left and right side surfaces is a straight line, but it may be a curve in consideration of the rigidity and hardness of the object displayed by the figure S. Depending on the hardness of the object, if it is bent by 90 degrees, it will be broken, so that it may be displayed that rotation is impossible.

【0343】本実施例では、3次元図形の対角近辺の外
郭上指定による3次元図形のねじり回転移動についてに
ついて説明したがこれに限るものではない。
In this embodiment, the twisting rotational movement of the three-dimensional figure by designating the outer contour near the diagonal of the three-dimensional figure has been described, but the present invention is not limited to this.

【0344】本実施例によれば、マウスや3次元ダイア
ルなどでは複雑な操作を必要とする1つの3次元図形の
ねじり回転移動指示などを、より自然な1度の操作で実
現できるので、3次元図形編集処理の操作性を向上でき
る。
According to this embodiment, a twisting rotation movement instruction of one three-dimensional figure which requires a complicated operation with a mouse or a three-dimensional dial can be realized by a more natural one-time operation. The operability of the dimensional figure editing process can be improved.

【0345】以上述べてきた第5〜8の4つの同時複数
ジェスチャ指示処理装置の実施例においては、表面弾性
波方式タッチプレートを用いた同時複数タッチ位置検出
装置と表示装置とを一体化した構成について説明した
が、同時複数タッチ位置検出装置のタッチプレートの方
式はこれに限るものではなく、また、同時複数タッチ位
置検出装置は単独で構成してもよい。さらに、システム
構成についてもこれに限るものではなく、キーボードな
どの入力装置、ハードディスク装置などの補助記憶装
置、プリンターなどの出力装置などを組み合わせた構成
としてもよい。
In the embodiments of the fifth to eighth simultaneous plural gesture instruction processing devices described above, the simultaneous plural touch position detecting device using the surface acoustic wave type touch plate and the display device are integrated. However, the method of the touch plate of the simultaneous plural touch position detecting device is not limited to this, and the simultaneous plural touch position detecting device may be configured independently. Further, the system configuration is not limited to this, and an input device such as a keyboard, an auxiliary storage device such as a hard disk device, an output device such as a printer may be combined.

【0346】また、第5〜8の4つの同時複数ジェスチ
ャ指示処理装置の実施例においては、図形編集処理の詳
細については説明しなかったが、公知の技術で実現で
き、また、図形編集処理に限るものではなく、図形入力
処理や、文字領域の指定、文字列の移動、ページめくり
などの文字入力編集処理、3次元処理やマルチメディア
処理、さらにはこれらの処理を組み合わせた処理などに
も適用できる。また、同時複数ジェスチャ操作のための
アイテムの詳細については説明しなかったが、指や掌や
ペンなどの多種アイテムを混用してもよい。
Further, although details of the graphic editing process have not been described in the fifth to eighth embodiments of the simultaneous plural gesture instruction processing device, they can be realized by a known technique and the graphic editing process can be realized. Not limited to this, it is also applied to graphic input processing, character area specification, character string movement, character input editing processing such as page turning, 3D processing and multimedia processing, and processing that combines these processing. it can. Further, although details of the items for the simultaneous multiple gesture operation have not been described, various items such as fingers, palms and pens may be mixed.

【0347】[0347]

【発明の効果】本発明に係るタッチ位置検出装置によれ
ば、指や掌やペンなどにより、同時に行われる複数のタ
ッチの位置検出が実現できるので、タッチ位置検出装置
の機能を向上でき、かつ耐久性が向上する。
According to the touch position detecting device of the present invention, since it is possible to detect the positions of a plurality of touches performed simultaneously with a finger, a palm, a pen or the like, the function of the touch position detecting device can be improved, and The durability is improved.

【0348】また、本発明に係るタッチ指示処理装置に
よれば、指や掌やペンなどの同時複数タッチ操作による
指示を処理できるので、タッチ指示処理装置の操作性が
向上する。
Further, according to the touch instruction processing device of the present invention, it is possible to process an instruction by a plurality of simultaneous touch operations with fingers, palms, pens, etc., and thus the operability of the touch instruction processing device is improved.

【0349】本発明に係る同時複数ジェスチャ指示処理
装置によれば、指や掌やペンなどにより、順次ではな
く、同時に行われる複数のタッチ位置を検出して、この
複数のタッチ位置の移動による指示に従って、表示装置
上に表示された表示対象物を移動させて表示することが
できるので、タッチ指示処理装置の操作性が向上し、し
かも耐久性を向上させることができる。
According to the simultaneous plural gesture instruction processing device of the present invention, a plurality of touch positions are detected by fingers, palms, pens, etc., which are simultaneously and not sequentially, and an instruction is given by moving the plurality of touch positions. According to the above, the display target displayed on the display device can be moved and displayed, so that the operability of the touch instruction processing device can be improved and the durability can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例の同時複数タッチ位置検
出装置のブロック図。
FIG. 1 is a block diagram of a simultaneous multiple touch position detection device according to a first embodiment of the present invention.

【図2】本発明の第1の実施例におけるX座標を検知す
るための信号の波形を示す説明図。
FIG. 2 is an explanatory diagram showing a waveform of a signal for detecting the X coordinate according to the first embodiment of the present invention.

【図3】本発明の第1の実施例のタッチ位置検出部2の
処理結果を示す説明図。
FIG. 3 is an explanatory diagram showing a processing result of the touch position detection unit 2 according to the first embodiment of this invention.

【図4】本発明の第2の実施例の同時複数タッチ位置検
出装置のブロック図。
FIG. 4 is a block diagram of a simultaneous multiple touch position detection device according to a second embodiment of the present invention.

【図5】本発明の第2の実施例における、X、Y座標検
知用の受光器群が受光する光の状態を示す説明図。
FIG. 5 is an explanatory diagram showing a state of light received by a photodetector group for detecting X and Y coordinates according to a second embodiment of the present invention.

【図6】本発明の第2の実施例のタッチ位置検出部4の
処理結果を示す説明図。
FIG. 6 is an explanatory diagram showing a processing result of the touch position detection unit 4 according to the second embodiment of the present invention.

【図7】本発明の第3の実施例の同時複数タッチ位置検
出装置のブロック図。
FIG. 7 is a block diagram of a simultaneous multiple touch position detection device according to a third embodiment of the present invention.

【図8】本発明の第3の実施例のカメラ51x、51y
の撮像した映像を示す説明図。
FIG. 8 is a camera 51x, 51y according to a third embodiment of the present invention.
Explanatory drawing which shows the image | video which imaged.

【図9】本発明の第4の実施例の同時複数タッチ指示処
理装置のブロック図。
FIG. 9 is a block diagram of a simultaneous multiple touch instruction processing device according to a fourth embodiment of the present invention.

【図10】仮想キーボードを用いたワープロにおける表
示画面を示す説明図。
FIG. 10 is an explanatory diagram showing a display screen in a word processor using a virtual keyboard.

【図11】仮想キーボード811において、シフトキー
が併用された時の処理フロー。
FIG. 11 is a processing flow when a shift key is also used in the virtual keyboard 811.

【図12】文章812において、範囲を指定した時の処
理フロー。
FIG. 12 is a processing flow when a range is specified in a sentence 812.

【図13】仮想ピアノを用いたピアノの演奏における表
示画面を示す説明図。
FIG. 13 is an explanatory diagram showing a display screen in playing a piano using a virtual piano.

【図14】仮想ピアノ821で多重音を演奏する時の処
理フロー。
FIG. 14 is a processing flow when playing multiple tones on a virtual piano 821.

【図15】仮想ボタンを用いた対戦型サッカーゲームに
おける表示画面を示す説明図。
FIG. 15 is an explanatory diagram showing a display screen in a competitive soccer game using virtual buttons.

【図16】仮想ボタン831により多重入力をした時の
処理フロー。
FIG. 16 is a processing flow when multiple input is performed using a virtual button 831.

【図17】仮想電源スイッチを用いた電源切断における
表示画面を示す説明図。
FIG. 17 is an explanatory diagram showing a display screen when power is cut off using a virtual power switch.

【図18】仮想電源スイッチ841を用いた電源切断の
処理フロー。
FIG. 18 is a processing flow of power off using a virtual power switch 841.

【図19】第1の実施例における送波器および受波器の
構造の説明図。
FIG. 19 is an explanatory diagram of structures of a wave transmitter and a wave receiver in the first embodiment.

【図20】第4の実施例におけるメニュー画面の説明
図。
FIG. 20 is an explanatory diagram of a menu screen according to the fourth embodiment.

【図21】本発明の第4の実施例の同時複数ジェスチャ
対象物の指定方法の判定処理フローチャート。
FIG. 21 is a determination processing flowchart of a method for specifying multiple simultaneous gesture objects according to the fourth embodiment of the present invention.

【図22】本発明の第4の実施例の同時複数ジェスチャ
操作の指示内容の判定処理フローチャート。
FIG. 22 is a flowchart of a determination process of instruction content of simultaneous multiple gesture operations according to the fourth embodiment of this invention.

【図23】本発明の第5〜7の実施例の同時複数ジェス
チャ指示処理装置のシステムの概略構成図。
FIG. 23 is a schematic configuration diagram of a system of a simultaneous plural gesture instruction processing device according to fifth to seventh embodiments of the present invention.

【図24】本発明の第5の実施例に係る、対象物の指定
方法が外郭内指定であり、ジェスチャ操作の指示内容が
平行移動指示である場合の指示内容を示す説明図。
FIG. 24 is an explanatory diagram showing the instruction content when the method of designating an object is the in-outer contour designation and the instruction content of the gesture operation is the parallel movement instruction according to the fifth embodiment of the present invention.

【図25】本発明の第5の実施例に係る、対象物の指定
方法が外郭内指定であり、ジェスチャ操作の指示内容が
回転移動指示である場合の指示内容を示す説明図。
FIG. 25 is an explanatory diagram showing the instruction content when the method of designating an object is the inside-outer contour designation and the instruction content of the gesture operation is the rotational movement instruction according to the fifth example of the present invention.

【図26】本発明の第5の実施例に係る、対象物の指定
方法が外郭内指定であり、ジェスチャ操作の指示内容が
変形伸縮指示である場合の指示内容を示す説明図。
FIG. 26 is an explanatory diagram showing the instruction content in the case where the method of designating an object is the in-outer contour designation and the instruction content of the gesture operation is the deformation / extension instruction according to the fifth embodiment of the present invention.

【図27】本発明の第6の実施例に係る、対象物の指定
方法が外郭上指定であり、ジェスチャ操作の指示内容が
平行移動指示である場合の指示内容を示す説明図。
FIG. 27 is an explanatory diagram showing the instruction content in the case where the method of designating the target object is the outer contour designation and the instruction content of the gesture operation is the parallel movement instruction according to the sixth embodiment of the present invention.

【図28】本発明の第6の実施例に係る、対象物の指定
方法が外郭上指定であり、ジェスチャ操作の指示内容が
回転移動指示である場合の指示内容を示す説明図。
FIG. 28 is an explanatory diagram showing the instruction content in the case where the method of designating the target object is the outer contour designation and the instruction content of the gesture operation is the rotational movement instruction according to the sixth embodiment of the present invention.

【図29】本発明の第6の実施例に係る、対象物の指定
方法が外郭上指定であり、ジェスチャ操作の指示内容が
変形伸縮指示である場合の指示内容を示す説明図。
FIG. 29 is an explanatory diagram showing the instruction content in the case where the method of designating an object is outer contour designation and the instruction content of a gesture operation is a deformation / expansion / contraction instruction according to the sixth embodiment of the present invention.

【図30】本発明の第6の実施例に係る、対象物の指定
方法が外郭上指定であり、ジェスチャ操作の指示内容が
変形伸縮指示である場合の指示内容を示す説明図。
FIG. 30 is an explanatory diagram showing the instruction content in the case where the method of designating an object is outer contour designation and the instruction content of a gesture operation is a deformation / expansion / contraction instruction according to the sixth embodiment of the present invention.

【図31】本発明の第7の実施例に係る、対象物の指定
方法が範囲内指定であり、ジェスチャ操作の指示内容が
平行移動指示である場合の指示内容を示す説明図。
FIG. 31 is an explanatory diagram showing the instruction content when the method of designating an object is the range designation and the instruction content of the gesture operation is the parallel movement instruction according to the seventh embodiment of the present invention.

【図32】本発明の第7の実施例に係る、対象物の指定
方法が範囲内指定であり、ジェスチャ操作の指示内容が
回転移動指示である場合の指示内容を示す説明図。
FIG. 32 is an explanatory diagram showing the instruction content when the method of designating an object is the in-range designation and the instruction content of the gesture operation is the rotational movement instruction according to the seventh embodiment of the present invention.

【図33】本発明の第7の実施例に係る、対象物の指定
方法が範囲内指定であり、ジェスチャ操作の指示内容が
変形伸縮指示である場合の指示内容を示す説明図。
FIG. 33 is an explanatory diagram showing the instruction content in the case where the method of designating an object is the range designation and the instruction content of the gesture operation is the deformation / expansion / contraction instruction according to the seventh embodiment of the present invention.

【図34】本発明の第8の実施例に係る、対象物の指定
方法が外郭上指定であり、ジェスチャ操作の指示内容が
回転移動指示である場合の指示内容を示す説明図。
FIG. 34 is an explanatory diagram showing the instruction content in the case where the method of designating the target object is the outer contour designation and the instruction content of the gesture operation is the rotational movement instruction according to the eighth embodiment of the present invention.

【図35】本発明の第8の実施例に係る、対象物の指定
方法が範囲内指定であり、ジェスチャ操作の指示内容が
回転移動指示である場合の指示内容を示す説明図。
FIG. 35 is an explanatory diagram showing the instruction content when the method of designating an object is the in-range designation and the instruction content of the gesture operation is the rotational movement instruction according to the eighth example of the present invention.

【図36】本発明の第8の実施例に係る、対象物の指定
方法が外郭上指定であり、ジェスチャ操作の指示内容が
ねじり移動縮指示である場合の指示内容を示す説明図。
FIG. 36 is an explanatory diagram showing the instruction content when the method of designating an object is outer contour designation and the instruction content of the gesture operation is the twist movement contraction instruction according to the eighth embodiment of the present invention.

【図37】回転移動における回転角度を算出する方法の
説明図。
FIG. 37 is an explanatory diagram of a method for calculating a rotation angle in a rotational movement.

【図38】変形後の円弧図形の円弧状中心線を算出する
方法の説明図。
FIG. 38 is an explanatory diagram of a method of calculating an arc-shaped center line of a deformed arc figure.

【図39】ジェスチャ操作の指示内容が平行移動指示で
あると判定する方法の説明図。
FIG. 39 is an explanatory diagram of a method of determining that the instruction content of the gesture operation is a parallel movement instruction.

【図40】ジェスチャ操作の指示内容が回転移動指示で
あると判定する方法の説明図。
FIG. 40 is an explanatory diagram of a method for determining that the instruction content of the gesture operation is a rotational movement instruction.

【図41】ジェスチャ操作の指示内容が伸縮変形指示で
あると判定する方法の説明図。
FIG. 41 is an explanatory diagram of a method for determining that the instruction content of the gesture operation is an expansion / contraction deformation instruction.

【図42】楕円であるタッチ位置の軌跡を指示する方法
の説明図。
FIG. 42 is an explanatory diagram of a method of designating a trajectory of a touch position that is an ellipse.

【図43】タッチ位置の軌跡が楕円である場合の回転量
の求め方の説明図。
FIG. 43 is an explanatory diagram of how to determine the rotation amount when the trajectory of the touch position is an ellipse.

【図44】ねじり移動が指示されたときの3次元図形の
表示例の説明図。
FIG. 44 is an explanatory diagram of a display example of a three-dimensional figure when a twist movement is instructed.

【符号の説明】[Explanation of symbols]

1…表面弾性波方式タッチプレート、2…タッチ位置検
出部、3…2次元光センサアレイ方式タッチプレート、
4…タッチ位置検出部、5…2次元映像カメラ方式タッ
チプレート、6…タッチ位置検出部、7…同時複数タッ
チ位置検出装置、8…表示装置、9…情報処理装置、1
1…送波器、12…分波器群、13…集波器群、14…
受波器、21…送波器制御部、22…受波器制御部、2
3…タッチ位置/押圧検出部、24…同時複数タッチ位
置判定部、25…外部インタフェース部、31…発光器
群、32…受光器群、41…発光器制御部、42…受光
器制御部、43…タッチ位置/幅検出部、44…同時複
数タッチ位置判定部、45…外部インタフェース部、5
1…カメラ、61…カメラ制御部、62…タッチ位置/
幅検出部、63…同時複数タッチ位置判定部、64…外
部インタフェース部、91…情報処理を行うMPU、9
2…メモリ、811…仮想キーボード、812…文章、
821…仮想ピアノ、822…楽譜、831…仮想ボタ
ン群、832…サッカーフィールド、841…仮想電源
スイッチ群。
DESCRIPTION OF SYMBOLS 1 ... Surface acoustic wave type touch plate, 2 ... Touch position detection part, 3 ... Two-dimensional optical sensor array type touch plate,
4 ... Touch position detection unit, 5 ... Two-dimensional video camera type touch plate, 6 ... Touch position detection unit, 7 ... Simultaneous multiple touch position detection device, 8 ... Display device, 9 ... Information processing device, 1
1 ... Wave transmitter, 12 ... Divider group, 13 ... Wave collector group, 14 ...
Wave receiver, 21 ... Wave transmitter control unit, 22 ... Wave receiver control unit, 2
3 ... Touch position / press detection unit, 24 ... Simultaneous multiple touch position determination unit, 25 ... External interface unit, 31 ... Light emitter group, 32 ... Light receiver group, 41 ... Light emitter control unit, 42 ... Light receiver control unit, 43 ... Touch position / width detection unit, 44 ... Simultaneous multiple touch position determination unit, 45 ... External interface unit, 5
1 ... Camera, 61 ... Camera control unit, 62 ... Touch position /
Width detection unit 63 ... Simultaneous multiple touch position determination unit 64 ... External interface unit 91 ... MPU for performing information processing, 9
2 ... memory, 811 ... virtual keyboard, 812 ... text,
821 ... Virtual piano, 822 ... Music score, 831 ... Virtual button group, 832 ... Soccer field, 841 ... Virtual power switch group.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 國森 義彦 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所マイクロエレクトロニク ス機器開発研究所内 (72)発明者 大條 成人 神奈川県横浜市戸塚区吉田町292番地 株 式会社日立製作所マイクロエレクトロニク ス機器開発研究所内 (72)発明者 伊藤 俊一 茨城県勝田市稲田1410番地 株式会社日立 製作所情報映像メディア事業部内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Yoshihiko Kunimori Inventor Yoshihiko Kunimori 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Ltd. Microelectronics Equipment Development Laboratory, Hitachi, Ltd. (72) Inventor Ojo Adult Kanagawa 292 Yoshida-cho, Totsuka-ku, Hitachi Ltd. Microelectronics Equipment Development Laboratory (72) Inventor Shunichi Ito 1410 Inada, Katsuta-shi, Ibaraki Hitachi Information & Video Media Division

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】接触物の接触位置をタッチ位置として、2
次元で上記タッチ位置を検出するタッチ位置検出装置に
おいて、 それぞれ1次元方向のタッチ位置を検出し、検出信号を
出力するタッチ位置検出手段を複数有し、かつ、同時に
複数の位置がタッチされたときに得られる、該タッチの
数より多い複数の候補位置のうちから、個々のタッチ位
置を判定する同時複数タッチ位置判定手段を有し、 上記タッチ位置検出手段の各々は、タッチにより変化す
る検出信号に基づいて、タッチ位置の検出を行い、 上記同時複数タッチ位置判定手段は、同時に複数の位置
がタッチされたときに得られる、該タッチの数より多い
複数の候補位置のうち、その位置が有する、上記タッチ
位置検出手段の一方の検出信号から抽出される、位置に
依存しない少なくとも1つのタッチの特徴量と他方のタ
ッチ位置検出手段の検出信号から抽出される、位置に依
存しない少なくとも1つのタッチの特徴量とが一致する
ものを選択することにより、個々のタッチ位置を判定す
ることを特徴とするタッチ位置検出装置。
1. A contact position of a contact object is set as a touch position.
A touch position detecting device for detecting the touch position in a dimension, comprising a plurality of touch position detecting means for respectively detecting a touch position in a one-dimensional direction and outputting a detection signal, and simultaneously touching a plurality of positions. Which has a plurality of simultaneous touch position determining means for determining individual touch positions from among a plurality of candidate positions which are larger than the number of touches, each of the touch position detecting means has a detection signal which changes depending on the touch. The touch position is detected based on the touch position, and the simultaneous plural touch position determination means has a plurality of candidate positions which are obtained when the plural positions are touched at the same time A feature amount of at least one touch that does not depend on the position and a touch position detection hand of the other that is extracted from one detection signal of the touch position detection means. Is extracted from the detection signal, by the feature amount of at least one touch position-independent selects a match, the touch position detecting apparatus characterized by determining the individual touch positions.
【請求項2】請求項1記載のタッチ位置検出装置におい
て、 上記タッチ位置検出手段の各々は、弾性表面波の送受信
手段と、弾性表面波の伝搬媒体であるパネルとを有し、 上記送受信手段は、弾性表面波を上記パネルに送波する
送波手段と、上記パネル上に1次元に配置され、上記送
波された弾性表面波を順次分波する複数の分波手段と、
上記分波手段の各々に対向させて設けられた、上記分波
された弾性表面波を順次集波する複数の集波手段と、上
記集波された弾性表面波を受付ける受波手段とを有し、 上記受波手段は、上記集波手段の各々と、上記集波手段
の各々に対向する上記分波手段との間にあるパネル上で
タッチが行われたことを示す受信信号を上記検出信号と
して出力することを特徴とするタッチ位置検出装置。
2. The touch position detection device according to claim 1, wherein each of the touch position detection means includes a surface acoustic wave transmitting / receiving means and a panel which is a surface acoustic wave propagation medium. A transmitting means for transmitting a surface acoustic wave to the panel; a plurality of demultiplexing means arranged one-dimensionally on the panel for sequentially demultiplexing the transmitted surface acoustic wave;
A plurality of wave collecting means, which are provided to face each of the wave separating means and sequentially collect the separated surface acoustic waves, and a wave receiving means for receiving the collected surface acoustic waves. Then, the wave receiving means detects the received signal indicating that a touch is made on a panel between each of the wave collecting means and the wave separating means facing each of the wave collecting means. A touch position detection device characterized by outputting as a signal.
【請求項3】請求項2記載のタッチ位置検出装置におい
て、 上記同時複数タッチ位置判定手段は、上記送受信手段ご
とに各タッチ位置における上記検出信号の減衰量、およ
び減衰している時間のうち少なくとも一つを上記タッチ
の特徴量として求めることにより、個々のタッチ位置を
検出することを特徴とするタッチ位置検出装置。
3. The touch position detection device according to claim 2, wherein the simultaneous plural touch position determination means is at least one of an attenuation amount of the detection signal at each touch position and an attenuation time for each transmission / reception means. A touch position detecting device characterized in that each touch position is detected by obtaining one of the touch feature amounts.
【請求項4】請求項1記載のタッチ位置検出装置におい
て、 上記タッチ位置検出手段は、光ビームの送受信手段であ
り、 上記送受信手段の各々は、1次元に配置された、光ビー
ムを送信する複数の送信手段と、上記送信手段の各々に
対向させて設けられた、光ビームを受信する複数の受信
手段とを有し、 上記受信手段の各々は、それぞれに対向する上記送信手
段との間でタッチが行われたことを示す受信信号を上記
検出信号として出力することを特徴とするタッチ位置検
出装置。
4. The touch position detecting device according to claim 1, wherein the touch position detecting means is a light beam transmitting / receiving means, and each of the transmitting / receiving means transmits a light beam arranged in one dimension. A plurality of transmitting means and a plurality of receiving means provided to face each of the transmitting means to receive a light beam, and each of the receiving means is provided between the transmitting means facing each other. A touch position detection device, which outputs a reception signal indicating that a touch has been performed in step S1 as the detection signal.
【請求項5】請求項1記載のタッチ位置検出装置におい
て、 上記タッチ位置検出手段は、カメラであり、 上記カメラの各々は、互いに対向しないように配置さ
れ、 上記カメラの各々は、視野内でタッチが行われたことを
示す撮影信号を上記検出信号として出力することを特徴
とするタッチ位置検出装置。
5. The touch position detection device according to claim 1, wherein the touch position detection means is a camera, the cameras are arranged so as not to face each other, and each of the cameras is in a field of view. A touch position detecting device, which outputs a photographing signal indicating that a touch has been performed as the detection signal.
【請求項6】請求項4または5記載のタッチ位置検出装
置において、 上記同時複数タッチ位置判定手段は、上記検出信号に基
づいて、上記タッチ位置検出手段ごとに各タッチの幅を
上記タッチの特徴量として求めることにより、個々のタ
ッチ位置を検出することを特徴とするタッチ位置検出装
置。
6. The touch position detecting device according to claim 4, wherein the simultaneous plural touch position determining means determines the width of each touch for each touch position detecting means based on the detection signal. A touch position detecting device characterized by detecting each touch position by obtaining it as a quantity.
【請求項7】請求項1、2、3、4、5または6記載の
タッチ位置検出装置と、 同時に複数の位置がタッチされたときに、タッチ位置に
応じた情報処理を行う情報処理装置とを有することを特
徴とするタッチ指示処理装置。
7. A touch position detecting device according to claim 1, 2, 3, 4, 5 or 6, and an information processing device for performing information processing according to a touch position when a plurality of positions are touched at the same time. A touch instruction processing device comprising:
【請求項8】表示対象物を表示する表示装置と、 上記表示対象物が表示されている上記表示装置の表示面
上での、同時かつ複数である、接触物の接触位置をタッ
チ位置として、2次元で上記タッチ位置を時系列に検出
するタッチ位置検出装置と、 上記時系列で検出された複数のタッチ位置を、上記表示
対象物に対する移動を指示するタッチ位置指示とし、こ
のタッチ位置指示に基づいて、上記表示対象物の移動を
行い、移動後の上記表示対象物を上記表示装置に表示さ
せる制御手段とを有し、 上記タッチ位置検出装置は、 それぞれ1次元方向のタッチ位置を検出し、検出信号を
出力するタッチ位置検出手段を複数有し、かつ、同時に
複数の位置がタッチされたときに得られる、該タッチの
数より多い複数の候補位置のうちから、個々のタッチ位
置を判定する同時複数タッチ位置判定手段を有し、 上記タッチ位置検出手段の各々は、タッチにより変化す
る検出信号に基づいて、タッチ位置の検出を行い、 上記同時複数タッチ位置判定手段は、同時に複数の位置
がタッチされたときに得られる、該タッチの数より多い
複数の候補位置のうち、その位置が有する、上記タッチ
位置検出手段の一方の検出信号から抽出される、位置に
依存しない少なくとも1つのタッチの特徴量と他方のタ
ッチ位置検出手段の検出信号から抽出される、位置に依
存しない少なくとも1つのタッチの特徴量とが一致する
ものを選択することにより、個々のタッチ位置を判定す
ることを特徴とするタッチ位置指示処理装置。
8. A display device for displaying a display object, and a plurality of touching positions of touching objects on the display surface of the display device on which the display object is displayed are set as touch positions. A touch position detection device that detects the touch position in a two-dimensional manner in time series, and a plurality of touch positions detected in the time series are used as a touch position instruction for instructing movement to the display object. And a control unit that displays the moved display object on the display device based on the movement of the display object, and the touch position detection device detects the touch position in the one-dimensional direction. , A plurality of touch position detecting means for outputting a detection signal, and each of the plurality of candidate positions, which is obtained when a plurality of positions are touched at the same time, is larger than the number of touches, an individual touch position. H has a simultaneous multiple touch position determination means for determining the position, each of the touch position detection means detects the touch position based on the detection signal changed by the touch, the simultaneous multiple touch position determination means, Of a plurality of candidate positions, which are obtained when a plurality of positions are touched at the same time and are larger than the number of the touches, that position has an extracted position from one of the detection signals of the touch position detection means and does not depend on the position. Individual touch positions are determined by selecting one in which the feature amount of at least one touch and the feature amount of at least one touch that does not depend on the position extracted from the detection signal of the other touch position detection unit match. A touch position instruction processing device characterized by:
【請求項9】請求項8記載のタッチ位置指示処理装置に
おいて、 上記制御手段は、上記タッチ位置指示による移動の指示
の種類として、 該タッチ位置の相互の位置関係を保ったまま平行移動す
る平行移動指示、 該タッチ位置の相互の位置関係を保ったまま回転移動す
る回転移動指示、 上記タッチ位置の位置関係を伸縮変形移動する伸縮変形
移動指示の少なくとも1つを受け、これらの指示に基づ
いて、上記表示対象物の移動を行い、移動後の上記表示
対象物を上記表示装置に表示させることを特徴とするタ
ッチ位置指示処理装置。
9. The touch position instruction processing device according to claim 8, wherein the control means performs parallel movement while maintaining a mutual positional relationship of the touch positions as a type of movement instruction by the touch position instruction. At least one of a movement instruction, a rotation movement instruction for rotationally moving while maintaining the mutual positional relationship of the touch positions, and an expansion / contraction deformation movement instruction for elastically deforming / moving the positional relationship of the touch positions, and based on these instructions, A touch position instruction processing device, wherein the display object is moved, and the moved display object is displayed on the display device.
【請求項10】請求項8記載のタッチ位置指示処理装置
において、 上記表示対象物は、複数あり、 上記制御手段は、上記表示対象物のうち、移動の対象と
なる上記表示対象物を指示する指示の種類として、 上記タッチ位置が、各々異なる上記複数の表示対象物の
外郭内を指示する外郭内指示、 上記タッチ位置が、上記複数の表示対象物の1対象物の
外郭上を指示する外郭上指示、 上記タッチ位置で囲む範囲内の複数の対象物を指示する
範囲内指示の少なくとも1つを受けることを特徴とする
タッチ位置指示処理装置。
10. The touch position instruction processing device according to claim 8, wherein there are a plurality of display objects, and the control means indicates the display object to be moved among the display objects. As the type of instruction, the touch position indicates an inside contour for instructing the insides of the plurality of display objects that are different from each other, and the touch position indicates an outside contour for instructing the outside of one object of the plurality of display objects. A touch position instruction processing device, characterized in that it receives at least one of an upper instruction and an in-range instruction for instructing a plurality of objects within a range surrounded by the touch position.
JP22020594A 1993-09-16 1994-09-14 Touch position detecting device and touch instruction processor Pending JPH07230352A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP22020594A JPH07230352A (en) 1993-09-16 1994-09-14 Touch position detecting device and touch instruction processor

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP23042093 1993-09-16
JP32007593 1993-12-20
JP5-230420 1993-12-20
JP5-320075 1993-12-20
JP22020594A JPH07230352A (en) 1993-09-16 1994-09-14 Touch position detecting device and touch instruction processor

Publications (1)

Publication Number Publication Date
JPH07230352A true JPH07230352A (en) 1995-08-29

Family

ID=27330411

Family Applications (1)

Application Number Title Priority Date Filing Date
JP22020594A Pending JPH07230352A (en) 1993-09-16 1994-09-14 Touch position detecting device and touch instruction processor

Country Status (1)

Country Link
JP (1) JPH07230352A (en)

Cited By (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163031A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
WO2001027867A1 (en) * 1999-10-13 2001-04-19 Elo Touchsystems, Inc. Contaminant processing system for an acoustic touchscreen
JP2001228971A (en) 2000-02-15 2001-08-24 Newcom:Kk Touch panel system to be operated at plural indicating positions
JP2001265475A (en) * 2000-03-15 2001-09-28 Ricoh Co Ltd Menu display controller and information processor and electronic blackboard system and method for controlling menu display system and method for controlling information processing system and computer readable recording medium with program for allowing the same method to be performed by computer recorded
JP2001290585A (en) * 2000-01-31 2001-10-19 Canon Inc Position information processor, position information processing method and program, and operation device and its method and program
JP2002079162A (en) * 2000-09-05 2002-03-19 Toppan Printing Co Ltd Ultrasonic coating head and coater using the same
JP2004502261A (en) * 2000-07-05 2004-01-22 スマート テクノロジーズ インコーポレイテッド Camera-based touch system
JP2004336597A (en) * 2003-05-12 2004-11-25 Sony Corp Device and method for accepting operation input, and remote control system
JP2005082086A (en) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd Input device in information terminal
JP2006034754A (en) * 2004-07-29 2006-02-09 Nintendo Co Ltd Game apparatus using touch panel and game program
US7202860B2 (en) 2001-10-09 2007-04-10 Eit Co., Ltd. Coordinate input device working with at least display screen and desk-top surface as the pointing areas thereof
JP2008507026A (en) * 2004-07-15 2008-03-06 エヌ−トリグ リミテッド Automatic switching of dual mode digitizer
US7342574B1 (en) 1999-10-29 2008-03-11 Ricoh Company, Ltd. Method and apparatus for inputting information including coordinate data
JP2008158842A (en) * 2006-12-25 2008-07-10 Xanavi Informatics Corp Map display device
JP2008216991A (en) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd Display device
US7477243B2 (en) 2002-05-31 2009-01-13 Eit Co., Ltd. Apparatus for controlling the shift of virtual space and method and program for controlling same
KR100896711B1 (en) * 2007-02-08 2009-05-11 삼성전자주식회사 Method for executing function according to tap in mobile terminal with touch screen
JP2009522669A (en) * 2005-12-30 2009-06-11 アップル インコーポレイテッド Portable electronic device with multi-touch input
JP2009217543A (en) * 2008-03-11 2009-09-24 Brother Ind Ltd Contact-input type information processing apparatus, contact-input type information processing method, and information processing program
JP2009543246A (en) * 2006-07-12 2009-12-03 エヌ−トリグ リミテッド Hovering and touch detection for digitizers
JP2009282634A (en) * 2008-05-20 2009-12-03 Canon Inc Information processor, its control method, program and storage medium
JP2010003325A (en) * 2005-10-05 2010-01-07 Sony Corp Display apparatus and display method
JP2010029711A (en) * 2009-11-10 2010-02-12 Nintendo Co Ltd Game machine and game program using touch panel
JP2010055598A (en) * 2008-07-31 2010-03-11 Sony Corp Information processing apparatus and method, and program
KR100958491B1 (en) * 2004-07-30 2010-05-17 애플 인크. Mode-based graphical user interfaces for touch sensitive input devices
KR100958490B1 (en) * 2004-07-30 2010-05-17 애플 인크. Mode-based graphical user interfaces for touch sensitive input devices
JP2010122767A (en) * 2008-11-17 2010-06-03 Zenrin Datacom Co Ltd Map display apparatus, map display method, and computer program
JP2010191942A (en) * 2009-01-20 2010-09-02 Nitto Denko Corp Display equipped with optical coordinate input device
JP2010233958A (en) * 2009-03-31 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010233957A (en) * 2009-03-31 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010250493A (en) * 2009-04-14 2010-11-04 Hitachi Displays Ltd Touch panel device
JP2011014170A (en) * 2000-01-31 2011-01-20 Canon Inc Operation apparatus, method therefor, and program therefor
JP2011023004A (en) * 2007-01-07 2011-02-03 Apple Inc Scrolling for list in touch screen display, parallel movement of document and scaling and rotation
JP2011048663A (en) * 2009-08-27 2011-03-10 Hitachi Displays Ltd Touch panel device
JP2011065519A (en) * 2009-09-18 2011-03-31 Digital Electronics Corp Touch detecting device for touch panel, and touch detecting method therefor
WO2011040483A1 (en) * 2009-09-29 2011-04-07 日本電気株式会社 Display device, control method and recording medium
JP2011076563A (en) * 2009-10-02 2011-04-14 Mitsubishi Electric Corp Terminal device of monitoring control device
JP2011141680A (en) * 2010-01-06 2011-07-21 Kyocera Corp Input device, input method and input program
JP4771951B2 (en) * 2003-05-15 2011-09-14 エフ・ポスザツト・ヒユー・エル・エル・シー Non-contact human computer interface
USRE42794E1 (en) 1999-12-27 2011-10-04 Smart Technologies Ulc Information-inputting device inputting contact point of object on recording surfaces as information
JP2011209822A (en) * 2010-03-29 2011-10-20 Nec Corp Information processing apparatus and program
JP2011253550A (en) * 2011-07-26 2011-12-15 Kyocera Corp Portable electronic device
JP2011530123A (en) * 2008-08-07 2011-12-15 ドラム,オウエン Method and apparatus for detecting multi-touch events in optical touch sensitive devices
JP2012048570A (en) * 2010-08-27 2012-03-08 Ricoh Co Ltd Display device, input control program, and recording medium storing the same
JP2012080950A (en) * 2010-10-07 2012-04-26 Taito Corp Game device and game system
JP2012091290A (en) * 2010-10-27 2012-05-17 Makino Milling Mach Co Ltd Method and device for measuring tool dimension
JP2012099161A (en) * 1998-01-26 2012-05-24 Wayne Westerman Method of merging manual operation inputs
US8248382B2 (en) 2008-03-11 2012-08-21 Alps Electric Co., Ltd. Input device
JP2012167943A (en) * 2011-02-10 2012-09-06 Touch Panel Systems Kk Acoustic wave type position detector
JP2012168977A (en) * 2012-05-07 2012-09-06 Fujitsu Component Ltd Resistance type touch panel
JP2012203497A (en) * 2011-03-24 2012-10-22 Hitachi Solutions Ltd Display integrated coordinate input device and activation method of virtual keyboard function
JP2013008326A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device and control method therefor
JP2013504116A (en) * 2009-09-02 2013-02-04 フラットフロッグ ラボラトリーズ アーベー Contact surface with compensation signal profile
JP2013506222A (en) * 2009-09-29 2013-02-21 イーロ・タッチ・ソリューションズ・インコーポレイテッド Method and apparatus for simultaneous touch detection of bending wave type touch screen
JP2013041608A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041607A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041609A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013050971A (en) * 2012-10-22 2013-03-14 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013061950A (en) * 2012-10-22 2013-04-04 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013073484A (en) * 2011-09-28 2013-04-22 Jvc Kenwood Corp Electronic apparatus, method for controlling electronic apparatus, and program
JP2013080513A (en) * 2012-12-28 2013-05-02 Zenrin Datacom Co Ltd Map display device
JP2013093048A (en) * 2013-01-21 2013-05-16 Fujitsu Ten Ltd Input device and input method
USRE44258E1 (en) 1999-11-04 2013-06-04 Sony Corporation Apparatus and method for manipulating a touch-sensitive display panel
US8461512B2 (en) 2008-08-07 2013-06-11 Rapt Ip Limited Optical control system with modulated emitters
JP2013522801A (en) * 2010-03-24 2013-06-13 ネオノード インコーポレイテッド Lens array for light-based touch screen
US8482534B2 (en) 1995-06-29 2013-07-09 Timothy R. Pryor Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
JP2013175216A (en) * 2013-04-17 2013-09-05 Casio Comput Co Ltd Electronic apparatus and program
JP2013539126A (en) * 2010-09-29 2013-10-17 シェンゼェン ビーワイディー オート アールアンドディー カンパニー リミテッド Object detection method and apparatus using the same
JP2013218204A (en) * 2012-04-11 2013-10-24 Nikon Corp Focus detection device and imaging device
JP2014032689A (en) * 2013-09-24 2014-02-20 Seiko Epson Corp Portable information apparatus, electronic book, and information storage medium
US8686964B2 (en) 2006-07-13 2014-04-01 N-Trig Ltd. User specific recognition of intended user interaction with a digitizer
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
US8704804B2 (en) 2005-10-05 2014-04-22 Japan Display West Inc. Display apparatus and display method
JP2014142792A (en) * 2013-01-23 2014-08-07 Kddi Corp Terminal device and display program
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
JP2014225292A (en) * 2012-12-20 2014-12-04 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
JP2014237039A (en) * 2014-08-19 2014-12-18 株式会社タイトー Game apparatus and game system
JP2014241093A (en) * 2013-06-12 2014-12-25 株式会社リコー Information processing system, operation apparatus, information display method, and program
JP2015022625A (en) * 2013-07-22 2015-02-02 アルプス電気株式会社 Input device
US9024886B2 (en) 2009-04-14 2015-05-05 Japan Display Inc. Touch-panel device
US9024906B2 (en) 2007-01-03 2015-05-05 Apple Inc. Multi-touch input discrimination
USRE45559E1 (en) 1997-10-28 2015-06-09 Apple Inc. Portable computers
JP2015115038A (en) * 2013-12-16 2015-06-22 セイコーエプソン株式会社 Information processor and control method of the same
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
JP2016076017A (en) * 2014-10-03 2016-05-12 株式会社東芝 Graphic processing device and graphic processing program
US9348458B2 (en) 2004-07-30 2016-05-24 Apple Inc. Gestures for touch sensitive input devices
JP2016515742A (en) * 2013-04-15 2016-05-30 クアルコム,インコーポレイテッド Gesture touch geometry ID tracking
US9354811B2 (en) 2009-03-16 2016-05-31 Apple Inc. Multifunction device with integrated search and application selection
US9360993B2 (en) 2002-03-19 2016-06-07 Facebook, Inc. Display navigation
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
US9448712B2 (en) 2007-01-07 2016-09-20 Apple Inc. Application programming interfaces for scrolling operations
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
JP2018063738A (en) * 2018-01-29 2018-04-19 株式会社東芝 Graphic processing device and graphic processing program
US10042418B2 (en) 2004-07-30 2018-08-07 Apple Inc. Proximity detector in handheld device
US10379728B2 (en) 2008-03-04 2019-08-13 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device

Cited By (163)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9513744B2 (en) 1994-08-15 2016-12-06 Apple Inc. Control systems employing novel physical controls and touch screens
US8482534B2 (en) 1995-06-29 2013-07-09 Timothy R. Pryor Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
US9758042B2 (en) 1995-06-29 2017-09-12 Apple Inc. Programmable tactile touch screen displays and man-machine interfaces for improved vehicle instrumentation and telematics
USRE46548E1 (en) 1997-10-28 2017-09-12 Apple Inc. Portable computers
USRE45559E1 (en) 1997-10-28 2015-06-09 Apple Inc. Portable computers
US9298310B2 (en) 1998-01-26 2016-03-29 Apple Inc. Touch sensor contact information
US9329717B2 (en) 1998-01-26 2016-05-03 Apple Inc. Touch sensing with mobile sensors
US9804701B2 (en) 1998-01-26 2017-10-31 Apple Inc. Contact tracking and identification module for touch sensing
US9348452B2 (en) 1998-01-26 2016-05-24 Apple Inc. Writing using a touch sensor
US9098142B2 (en) 1998-01-26 2015-08-04 Apple Inc. Sensor arrangement for use with a touch sensor that identifies hand parts
JP2012099161A (en) * 1998-01-26 2012-05-24 Wayne Westerman Method of merging manual operation inputs
US9626032B2 (en) 1998-01-26 2017-04-18 Apple Inc. Sensor arrangement for use with a touch sensor
US8866752B2 (en) 1998-01-26 2014-10-21 Apple Inc. Contact tracking and identification module for touch sensing
US8902175B2 (en) 1998-01-26 2014-12-02 Apple Inc. Contact tracking and identification module for touch sensing
US9342180B2 (en) 1998-01-26 2016-05-17 Apple Inc. Contact tracking and identification module for touch sensing
US9552100B2 (en) 1998-01-26 2017-01-24 Apple Inc. Touch sensing with mobile sensors
US9001068B2 (en) 1998-01-26 2015-04-07 Apple Inc. Touch sensor contact information
JP2012146345A (en) * 1998-01-26 2012-08-02 Wayne Westerman Multi-touch surface device
JP2015167028A (en) * 1998-01-26 2015-09-24 ウェスターマン,ウェイン Method and apparatus for integrating manual input
US9292111B2 (en) 1998-01-26 2016-03-22 Apple Inc. Gesturing with a multipoint sensing device
US9239673B2 (en) 1998-01-26 2016-01-19 Apple Inc. Gesturing with a multipoint sensing device
US9448658B2 (en) 1998-01-26 2016-09-20 Apple Inc. Resting contacts
US9383855B2 (en) 1998-01-26 2016-07-05 Apple Inc. Identifying contacts on a touch surface
JP2000163031A (en) * 1998-11-25 2000-06-16 Seiko Epson Corp Portable information equipment and information storage medium
WO2001027867A1 (en) * 1999-10-13 2001-04-19 Elo Touchsystems, Inc. Contaminant processing system for an acoustic touchscreen
US6366277B1 (en) 1999-10-13 2002-04-02 Elo Touchsystems, Inc. Contaminant processing system for an acoustic touchscreen
US7342574B1 (en) 1999-10-29 2008-03-11 Ricoh Company, Ltd. Method and apparatus for inputting information including coordinate data
USRE43084E1 (en) 1999-10-29 2012-01-10 Smart Technologies Ulc Method and apparatus for inputting information including coordinate data
USRE44258E1 (en) 1999-11-04 2013-06-04 Sony Corporation Apparatus and method for manipulating a touch-sensitive display panel
USRE42794E1 (en) 1999-12-27 2011-10-04 Smart Technologies Ulc Information-inputting device inputting contact point of object on recording surfaces as information
JP2011014170A (en) * 2000-01-31 2011-01-20 Canon Inc Operation apparatus, method therefor, and program therefor
JP2001290585A (en) * 2000-01-31 2001-10-19 Canon Inc Position information processor, position information processing method and program, and operation device and its method and program
US7986308B2 (en) 2000-01-31 2011-07-26 Canon Kabushiki Kaisha Method and apparatus for detecting and interpreting path of designated position
JP2011014169A (en) * 2000-01-31 2011-01-20 Canon Inc Operation apparatus, method therefor, and program therefor
JP2013050997A (en) * 2000-01-31 2013-03-14 Canon Inc Information processing device, control method therefor, and program therefor
JP2001228971A (en) 2000-02-15 2001-08-24 Newcom:Kk Touch panel system to be operated at plural indicating positions
JP2001265475A (en) * 2000-03-15 2001-09-28 Ricoh Co Ltd Menu display controller and information processor and electronic blackboard system and method for controlling menu display system and method for controlling information processing system and computer readable recording medium with program for allowing the same method to be performed by computer recorded
JP2004502261A (en) * 2000-07-05 2004-01-22 スマート テクノロジーズ インコーポレイテッド Camera-based touch system
JP2002079162A (en) * 2000-09-05 2002-03-19 Toppan Printing Co Ltd Ultrasonic coating head and coater using the same
JP4617549B2 (en) * 2000-09-05 2011-01-26 凸版印刷株式会社 Ultrasonic coating head and coating apparatus using the same
US7414617B2 (en) 2001-10-09 2008-08-19 Eit Co., Ltd. Coordinate input device working with at least display screen and desk-top surface as the pointing areas thereof
US7202860B2 (en) 2001-10-09 2007-04-10 Eit Co., Ltd. Coordinate input device working with at least display screen and desk-top surface as the pointing areas thereof
US9606668B2 (en) 2002-02-07 2017-03-28 Apple Inc. Mode-based graphical user interfaces for touch sensitive input devices
US9626073B2 (en) 2002-03-19 2017-04-18 Facebook, Inc. Display navigation
US9886163B2 (en) 2002-03-19 2018-02-06 Facebook, Inc. Constrained display navigation
US9753606B2 (en) 2002-03-19 2017-09-05 Facebook, Inc. Animated display navigation
US10055090B2 (en) 2002-03-19 2018-08-21 Facebook, Inc. Constraining display motion in display navigation
US9678621B2 (en) 2002-03-19 2017-06-13 Facebook, Inc. Constraining display motion in display navigation
US9360993B2 (en) 2002-03-19 2016-06-07 Facebook, Inc. Display navigation
US10365785B2 (en) 2002-03-19 2019-07-30 Facebook, Inc. Constraining display motion in display navigation
US9851864B2 (en) 2002-03-19 2017-12-26 Facebook, Inc. Constraining display in display navigation
US7477243B2 (en) 2002-05-31 2009-01-13 Eit Co., Ltd. Apparatus for controlling the shift of virtual space and method and program for controlling same
JP2004336597A (en) * 2003-05-12 2004-11-25 Sony Corp Device and method for accepting operation input, and remote control system
JP4771951B2 (en) * 2003-05-15 2011-09-14 エフ・ポスザツト・ヒユー・エル・エル・シー Non-contact human computer interface
JP2005082086A (en) * 2003-09-10 2005-03-31 Fujitsu Ten Ltd Input device in information terminal
JP2008507026A (en) * 2004-07-15 2008-03-06 エヌ−トリグ リミテッド Automatic switching of dual mode digitizer
US7658675B2 (en) 2004-07-29 2010-02-09 Nintendo Co., Ltd. Game apparatus utilizing touch panel and storage medium storing game program
JP2006034754A (en) * 2004-07-29 2006-02-09 Nintendo Co Ltd Game apparatus using touch panel and game program
US10042418B2 (en) 2004-07-30 2018-08-07 Apple Inc. Proximity detector in handheld device
KR100958491B1 (en) * 2004-07-30 2010-05-17 애플 인크. Mode-based graphical user interfaces for touch sensitive input devices
US9348458B2 (en) 2004-07-30 2016-05-24 Apple Inc. Gestures for touch sensitive input devices
KR100958490B1 (en) * 2004-07-30 2010-05-17 애플 인크. Mode-based graphical user interfaces for touch sensitive input devices
US11036282B2 (en) 2004-07-30 2021-06-15 Apple Inc. Proximity detector in handheld device
KR100984596B1 (en) * 2004-07-30 2010-09-30 애플 인크. Gestures for touch sensitive input devices
US8704804B2 (en) 2005-10-05 2014-04-22 Japan Display West Inc. Display apparatus and display method
JP2010003325A (en) * 2005-10-05 2010-01-07 Sony Corp Display apparatus and display method
JP2009522669A (en) * 2005-12-30 2009-06-11 アップル インコーポレイテッド Portable electronic device with multi-touch input
US10031621B2 (en) 2006-07-12 2018-07-24 Microsoft Technology Licensing, Llc Hover and touch detection for a digitizer
US9535598B2 (en) 2006-07-12 2017-01-03 Microsoft Technology Licensing, Llc Hover and touch detection for a digitizer
US9069417B2 (en) 2006-07-12 2015-06-30 N-Trig Ltd. Hover and touch detection for digitizer
JP2009543246A (en) * 2006-07-12 2009-12-03 エヌ−トリグ リミテッド Hovering and touch detection for digitizers
US8686964B2 (en) 2006-07-13 2014-04-01 N-Trig Ltd. User specific recognition of intended user interaction with a digitizer
US9442607B2 (en) 2006-12-04 2016-09-13 Smart Technologies Inc. Interactive input system and method
JP2008158842A (en) * 2006-12-25 2008-07-10 Xanavi Informatics Corp Map display device
US9256322B2 (en) 2007-01-03 2016-02-09 Apple Inc. Multi-touch input discrimination
US9778807B2 (en) 2007-01-03 2017-10-03 Apple Inc. Multi-touch input discrimination
US9024906B2 (en) 2007-01-03 2015-05-05 Apple Inc. Multi-touch input discrimination
JP2011023004A (en) * 2007-01-07 2011-02-03 Apple Inc Scrolling for list in touch screen display, parallel movement of document and scaling and rotation
US10817162B2 (en) 2007-01-07 2020-10-27 Apple Inc. Application programming interfaces for scrolling operations
US9448712B2 (en) 2007-01-07 2016-09-20 Apple Inc. Application programming interfaces for scrolling operations
US11886698B2 (en) 2007-01-07 2024-01-30 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US9619132B2 (en) 2007-01-07 2017-04-11 Apple Inc. Device, method and graphical user interface for zooming in on a touch-screen display
US9760272B2 (en) 2007-01-07 2017-09-12 Apple Inc. Application programming interfaces for scrolling operations
US11269513B2 (en) 2007-01-07 2022-03-08 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US10983692B2 (en) 2007-01-07 2021-04-20 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US10606470B2 (en) 2007-01-07 2020-03-31 Apple, Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US11461002B2 (en) 2007-01-07 2022-10-04 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
US9052814B2 (en) 2007-01-07 2015-06-09 Apple Inc. Device, method, and graphical user interface for zooming in on a touch-screen display
US9041681B2 (en) 2007-02-08 2015-05-26 Samsung Electronics Co., Ltd. Onscreen function execution method for mobile terminal having a touchscreen
KR100896711B1 (en) * 2007-02-08 2009-05-11 삼성전자주식회사 Method for executing function according to tap in mobile terminal with touch screen
US9641749B2 (en) 2007-02-08 2017-05-02 Samsung Electronics Co., Ltd. Onscreen function execution method for mobile terminal having a touchscreen
US9395913B2 (en) 2007-02-08 2016-07-19 Samsung Electronics Co., Ltd. Onscreen function execution method for mobile terminal having a touchscreen
JP2008216991A (en) * 2008-01-29 2008-09-18 Fujitsu Ten Ltd Display device
US10379728B2 (en) 2008-03-04 2019-08-13 Apple Inc. Methods and graphical user interfaces for conducting searches on a portable multifunction device
JP4670879B2 (en) * 2008-03-11 2011-04-13 ブラザー工業株式会社 Contact input type information processing apparatus, contact input type information processing method, and information processing program
JP2009217543A (en) * 2008-03-11 2009-09-24 Brother Ind Ltd Contact-input type information processing apparatus, contact-input type information processing method, and information processing program
US8248382B2 (en) 2008-03-11 2012-08-21 Alps Electric Co., Ltd. Input device
US8902193B2 (en) 2008-05-09 2014-12-02 Smart Technologies Ulc Interactive input system and bezel therefor
JP2009282634A (en) * 2008-05-20 2009-12-03 Canon Inc Information processor, its control method, program and storage medium
US8917245B2 (en) 2008-05-20 2014-12-23 Canon Kabushiki Kaisha Information processing apparatus and control method thereof
JP2010055598A (en) * 2008-07-31 2010-03-11 Sony Corp Information processing apparatus and method, and program
US9335864B2 (en) 2008-08-07 2016-05-10 Rapt Ip Limited Method and apparatus for detecting a multitouch event in an optical touch-sensitive device
JP2011530123A (en) * 2008-08-07 2011-12-15 ドラム,オウエン Method and apparatus for detecting multi-touch events in optical touch sensitive devices
US8723840B2 (en) 2008-08-07 2014-05-13 Rapt Ip Limited Method and apparatus for detecting a multitouch event in an optical touch-sensitive device
US8723839B2 (en) 2008-08-07 2014-05-13 Rapt Ip Limited Method and apparatus for detecting a multitouch event in an optical touch-sensitive device
US9086762B2 (en) 2008-08-07 2015-07-21 Rapt Ip Limited Optical control system with modulated emitters
US8461512B2 (en) 2008-08-07 2013-06-11 Rapt Ip Limited Optical control system with modulated emitters
JP2010122767A (en) * 2008-11-17 2010-06-03 Zenrin Datacom Co Ltd Map display apparatus, map display method, and computer program
JP2010191942A (en) * 2009-01-20 2010-09-02 Nitto Denko Corp Display equipped with optical coordinate input device
US10067991B2 (en) 2009-03-16 2018-09-04 Apple Inc. Multifunction device with integrated search and application selection
US11720584B2 (en) 2009-03-16 2023-08-08 Apple Inc. Multifunction device with integrated search and application selection
US10042513B2 (en) 2009-03-16 2018-08-07 Apple Inc. Multifunction device with integrated search and application selection
US9354811B2 (en) 2009-03-16 2016-05-31 Apple Inc. Multifunction device with integrated search and application selection
JP2010233957A (en) * 2009-03-31 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010233958A (en) * 2009-03-31 2010-10-21 Namco Bandai Games Inc Program, information storage medium, and game device
JP2010250493A (en) * 2009-04-14 2010-11-04 Hitachi Displays Ltd Touch panel device
US9024886B2 (en) 2009-04-14 2015-05-05 Japan Display Inc. Touch-panel device
US8692768B2 (en) 2009-07-10 2014-04-08 Smart Technologies Ulc Interactive input system
JP2011048663A (en) * 2009-08-27 2011-03-10 Hitachi Displays Ltd Touch panel device
JP2013504116A (en) * 2009-09-02 2013-02-04 フラットフロッグ ラボラトリーズ アーベー Contact surface with compensation signal profile
JP2011065519A (en) * 2009-09-18 2011-03-31 Digital Electronics Corp Touch detecting device for touch panel, and touch detecting method therefor
WO2011040483A1 (en) * 2009-09-29 2011-04-07 日本電気株式会社 Display device, control method and recording medium
JP2013506222A (en) * 2009-09-29 2013-02-21 イーロ・タッチ・ソリューションズ・インコーポレイテッド Method and apparatus for simultaneous touch detection of bending wave type touch screen
US9063651B2 (en) 2009-09-29 2015-06-23 Lenovo Innovations Limited Display device, control method and recording medium
JP5686735B2 (en) * 2009-09-29 2015-03-18 レノボ・イノベーションズ・リミテッド(香港) Display device, control method, and program
US9696856B2 (en) 2009-09-29 2017-07-04 Elo Touch Solutions, Inc. Method and apparatus for detecting simultaneous touch events on a bending-wave touchscreen
JPWO2011040483A1 (en) * 2009-09-29 2013-02-28 日本電気株式会社 Display device, control method, and program
JP2011076563A (en) * 2009-10-02 2011-04-14 Mitsubishi Electric Corp Terminal device of monitoring control device
JP2010029711A (en) * 2009-11-10 2010-02-12 Nintendo Co Ltd Game machine and game program using touch panel
JP2011141680A (en) * 2010-01-06 2011-07-21 Kyocera Corp Input device, input method and input program
JP2013522801A (en) * 2010-03-24 2013-06-13 ネオノード インコーポレイテッド Lens array for light-based touch screen
JP2011209822A (en) * 2010-03-29 2011-10-20 Nec Corp Information processing apparatus and program
JP2012048570A (en) * 2010-08-27 2012-03-08 Ricoh Co Ltd Display device, input control program, and recording medium storing the same
JP2013539126A (en) * 2010-09-29 2013-10-17 シェンゼェン ビーワイディー オート アールアンドディー カンパニー リミテッド Object detection method and apparatus using the same
JP2012080950A (en) * 2010-10-07 2012-04-26 Taito Corp Game device and game system
JP2012091290A (en) * 2010-10-27 2012-05-17 Makino Milling Mach Co Ltd Method and device for measuring tool dimension
US9188437B2 (en) 2010-10-27 2015-11-17 Makino Milling Machine Co., Ltd. Method of measurement and apparatus for measurement of tool dimensions
JP2012167943A (en) * 2011-02-10 2012-09-06 Touch Panel Systems Kk Acoustic wave type position detector
JP2012203497A (en) * 2011-03-24 2012-10-22 Hitachi Solutions Ltd Display integrated coordinate input device and activation method of virtual keyboard function
JP2013008326A (en) * 2011-06-27 2013-01-10 Canon Inc Image processing device and control method therefor
JP2011253550A (en) * 2011-07-26 2011-12-15 Kyocera Corp Portable electronic device
JP2013073484A (en) * 2011-09-28 2013-04-22 Jvc Kenwood Corp Electronic apparatus, method for controlling electronic apparatus, and program
US9223487B2 (en) 2011-09-28 2015-12-29 JVC Kenwood Corporation Electronic apparatus, method of controlling the same, and related computer program
JP2013218204A (en) * 2012-04-11 2013-10-24 Nikon Corp Focus detection device and imaging device
JP2012168977A (en) * 2012-05-07 2012-09-06 Fujitsu Component Ltd Resistance type touch panel
JP2013050971A (en) * 2012-10-22 2013-03-14 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041609A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041607A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013041608A (en) * 2012-10-22 2013-02-28 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2013061950A (en) * 2012-10-22 2013-04-04 Seiko Epson Corp Portable information apparatus, server, electronic book, program and information storage medium
JP2014225292A (en) * 2012-12-20 2014-12-04 キヤノンマーケティングジャパン株式会社 Information processing device, control method therefor, and program
JP2013080513A (en) * 2012-12-28 2013-05-02 Zenrin Datacom Co Ltd Map display device
JP2013093048A (en) * 2013-01-21 2013-05-16 Fujitsu Ten Ltd Input device and input method
JP2014142792A (en) * 2013-01-23 2014-08-07 Kddi Corp Terminal device and display program
JP2016515742A (en) * 2013-04-15 2016-05-30 クアルコム,インコーポレイテッド Gesture touch geometry ID tracking
JP2013175216A (en) * 2013-04-17 2013-09-05 Casio Comput Co Ltd Electronic apparatus and program
JP2014241093A (en) * 2013-06-12 2014-12-25 株式会社リコー Information processing system, operation apparatus, information display method, and program
JP2015022625A (en) * 2013-07-22 2015-02-02 アルプス電気株式会社 Input device
JP2014032689A (en) * 2013-09-24 2014-02-20 Seiko Epson Corp Portable information apparatus, electronic book, and information storage medium
JP2015115038A (en) * 2013-12-16 2015-06-22 セイコーエプソン株式会社 Information processor and control method of the same
JP2014237039A (en) * 2014-08-19 2014-12-18 株式会社タイトー Game apparatus and game system
JP2016076017A (en) * 2014-10-03 2016-05-12 株式会社東芝 Graphic processing device and graphic processing program
JP2018063738A (en) * 2018-01-29 2018-04-19 株式会社東芝 Graphic processing device and graphic processing program

Similar Documents

Publication Publication Date Title
JPH07230352A (en) Touch position detecting device and touch instruction processor
KR100811015B1 (en) Method and apparatus for entering data using a virtual input device
US7158117B2 (en) Coordinate input apparatus and control method thereof, coordinate input pointing tool, and program
US7215327B2 (en) Device and method for generating a virtual keyboard/display
JP4244075B2 (en) Image display device
KR101019254B1 (en) apparatus having function of space projection and space touch and the controlling method thereof
JPH1157216A (en) Game device
JPH05189137A (en) Command input device for computer
US9703410B2 (en) Remote sensing touchscreen
US20020140673A1 (en) Coordinate input apparatus, control method therefor, and computer-readable memory
US20100309154A1 (en) Two-dimensional input device, control device and interactive game system
CN101398723B (en) Mouse action mode switching method
JPH1139095A (en) Presentation system, method, and pen input device
JP2004078323A (en) Coordinate input system and coordinate calculation method
JPH08297536A (en) Head mount type display unit
JP2021197024A (en) Display unit, display method, and program
JP2003330612A (en) Information input/output system, program and storage medium
KR100207420B1 (en) Touch screen
JP2002207566A (en) Pointing device
JP2004310351A (en) Coordinate input system
Sherr Input and Output
Sherr 10.1 Input Devices
US20050057495A1 (en) Input unit for games and musical keyboards
JP2004272310A (en) Ultrasonic light coordinate input device
JP2001084108A (en) Device for inputting and detecting and displaying coordinate