JP2004310351A - Coordinate input system - Google Patents

Coordinate input system Download PDF

Info

Publication number
JP2004310351A
JP2004310351A JP2003101790A JP2003101790A JP2004310351A JP 2004310351 A JP2004310351 A JP 2004310351A JP 2003101790 A JP2003101790 A JP 2003101790A JP 2003101790 A JP2003101790 A JP 2003101790A JP 2004310351 A JP2004310351 A JP 2004310351A
Authority
JP
Japan
Prior art keywords
input
coordinate
coordinates
reference point
coordinate input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003101790A
Other languages
Japanese (ja)
Inventor
Yuichiro Yoshimura
雄一郎 吉村
Katsuyuki Kobayashi
克行 小林
Hajime Sato
肇 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003101790A priority Critical patent/JP2004310351A/en
Publication of JP2004310351A publication Critical patent/JP2004310351A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a coordinate input technique for improving the visibility of an indicated position. <P>SOLUTION: The input coordinate of a position on a coordinate input surface indicated by an operator is detected. An enlargement reference point to be a reference for enlarging the input coordinate is input, and an enlargement rate reference point for determining an enlargement rate to enlarge the input coordinate is input. Next, the enlargement rate is determined, based on a positional relationship between the input coordinate and the enlargement rate reference point. Then, coordinate which is the input coordinate enlarged in the direction of connecting the enlargement reference point and the input coordinate is calculated, based on the enlargement rate and the enlargement reference point, and the calculated coordinate is output. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、座標入力面上で指示された位置の入力座標を検出し、該入力座標に基づく座標を出力する座標入出力技術に関するものである。
【0002】
【従来の技術】
従来、CRTディスプレイ、液晶ディスプレイ(LCD)、あるいはプロジェクター等の表示装置の表示面に、座標を入力することができる座標入力装置を重ねて配置し、操作者が行ったポインティング、あるいは筆記による筆跡をディスプレイに表示し、あたかも、紙と鉛筆のような関係を実現することができる装置が知られている。
【0003】
座標入力装置としては、抵抗膜方式をはじめ、静電方式、ガラス等の座標入力面に超音波を伝播させる超音波方式等、透明な入力板を有するものや、光学式、あるいは空中に音波を放射することで位置を検出する方式がある。さらには電磁誘導(電磁授受)方式の様に、表示装置の裏側に座標算出のための機構を配置し、表示装置の前面に透明な保護板を配置して、入出力一体の情報機器を構成しているものも有る。
【0004】
この様な情報機器は、携帯性を有する小型の電子手帳に始まって、ペン入力コンピュータ等、表示デバイスの大型化に伴って、比較的大きなサイズの情報機器も見られるようになった。そして、フロントプロジェクタ、リアプロジェクタ、あるいは大型の液晶ディスプレイやプラズマディスプレイ等の大型表示装置と組み合わせて、例えば、プレゼンテーション装置、TV会議システム等に利用され始めている。
【0005】
この大型の液晶ディスプレイやプラズマディスプレイは、現在も画質の改善、低コスト化が進められており、衛星放送等のデジタル化に伴い、テレビの仕様形態も過渡期の状態に入りつつある。
【0006】
また、これらの大型表示装置は、例えば、オフィスにおいて使われていたホワイトボード、あるいは電子黒板にとって変わり、パーソナルコンピュータ等の端末内にあらかじめ用意した資料用データを大画表示装置に表示させることで、会議用途、打ち合わせ用途に使われ始めている。その場合、表示用ディスプレイに表示された情報は、ホワイトボードの如く、操作者、あるいは出席者により表示情報を更新するために、直接画面をタッチすることで、端末を制御して、例えば表示スクリーンの表示内容を切り替えることができるように構成されている。
【0007】
【発明が解決しようとする課題】
しかしながら、この種の大型の入出力一体型システムにおいては、下記の課題があった。
【0008】
この種の大型の入出力一体型システムは、ビジネスに於いて会議システムとしての用途が考えられるが、とりわけ重要な案件の議決に先立つ説明、顧客に対する新商品の売り込み、新企画の説明、等のプレゼンテーション用途は重要な位置を占める。
【0009】
一方、従来型のプレゼンテーションにおいては、OHPを用いる機会が多く、その場合には説明箇所を明確にし印象を強めるために、指し棒、指示棒を用いることが一般的である。プレゼンテーション時に重要なことは、聞き手に如何に効果的にこちらの内容を正確にしかも印象的に伝え、説得性を持つかである。そのためには、発表者は、聞き手の目を見て話すのが効果的とされる。
【0010】
また、場合によっては、聞き手の反応をうかがいながら説明の仕方を変える等の臨機応変さも要求され、聞き手側に顔、身体を向けての指示棒によるプレゼンテーションが効果的とされる。指示棒の利点は、発表者自らスクリーンの傍らに立ち、聞き手に向かって話をしながら的確に、スクリーン上の内容を指示できるので、効果的なプレゼンテーションを行うことができる点にあり、実際に従来からの実績もあり日常的に慣れ親しんだ指示手段と言える。しかも、指示箇所が棒の先で示されるので、視認性がよく、聞き手が指示箇所を確認しやすい。
【0011】
しかし、スクリーンが大型になると、指示棒の長さでは届かない領域に対しては、指示できない、また、それを解決するために、その長さを長くすると重たくなると言う欠点もあった。また、指示棒の長さは一定であり、スクリーンサイズ、指示箇所により指示棒の長さを変えることができないと言う欠点があった。これを、改善するために折畳式の指示棒も存在するが、依然として長さと重さの問題が残る。つまり、長さを変えるためには両手でわずらわしい伸縮作業が必要であり、また、伸ばす長さにも限界がある。更に、一部には、指示棒先端がスクリーン表面に接触することによるスクリーンの損傷が懸念されている。
【0012】
これに対比されるのが、スクリーンが大きい場合のみならずスクリーンとの距離が離れている場合に用いられるレーザーポインタがある。このレーザーポインタは、比較的小型で軽いので、手軽であり用いられる機会が増加している。しかしながら、近年、レーザー光の目に与える障害が懸念され、安全性で問題になると同時に、指示棒と比較して、ポイントのみで指示されるために、聞き手が指示箇所を視認しにくい、目で追いにくい、と言う欠点があった。
【0013】
更に、従来型の指示棒(指し棒)、レーザーポインタはいずれも、単純な表示面に対する指示手段ではあるだけで、大型表示装置を有する情報機器に対する座標入力による情報入力機能が無いのは言うまでも無い。
【0014】
一方、近年に於いて急速に定着しつつあるプレゼンテーションの形態としては、パーソナルコンピュータ(PC)のコンピュータ画面をプロジェクタにより大画面に投影させ、このコンピュータ画面に対し、マウス等による入力装置で指示を行う形態である。
【0015】
このPCを用いたプレゼンテーションは、PCが実現するグラフィックス画面を用いて、視覚的にも効果的にアピールでき、また、電子情報をそのまま表示できるので、従来のOHPを用いたプレゼンテーションに比べて利便性に優れている。しかし、強調箇所等を指示する場合に、マウスによる場合だと、発表者がPC側に位置し、PC画面を見ながら、あるいは、座ってマウスを操作することになり、指示棒の場合に比べると、カーソルの視認性が劣る。また、発表者がスクリーンの傍らに立って聞き手に対面していないので、説得性に欠けるという問題点があった。
【0016】
更に、マウスのカーソルの動きは、本来、操作者が机上で目から近距離のPCの小型表示画面を見ながら操作するために考案された入力装置であり、マウスパット上でのマウスの反復的な動作に対応して座標入力を行う相対座標入力方式である。周知のように、PCでは、マウスの移動距離に対して、一定の倍率で入力座標を拡大して座標を出力する場合の拡大率も任意に設定することができる。この従来のマウス等に代表される相対座標入力方式における座標拡大方式を模式的に説明すると、図20のようになる。
【0017】
図20において、マウスの相対座標系において、一連の操作の始点を基準点(x,y)、マウスによる入力座標の軌跡をO(x,y)→a(x,y)の軌跡とする。ここで、拡大率を2倍と設定すると、出力座標はO(x,y)→A(X,Y)の軌跡を描く。この場合、始点である基準点Oに対して拡大率が2倍であるから、X=2x、Y=2yとなる。
【0018】
尚、ここでは、マウスの入力座標と出力座標の始点を説明の簡略化のために同一点としたが、通常は、オフセットがある。更に、相対座標系であるから、このオフセットは、マウスがマウスパットから持ち上がって(ペン入力においては、ペンアップに相当)再度置かれる(ペン入力においては、ペンダウンに相当)ことを反復するたびに変動するのは周知のとおりである。
【0019】
一方、指し棒の先端(=出力座標)の動きは、言うまでも無く絶対座標系であり、指し棒を持つ手の位置を入力座標とすると、ちょうど肘を軸とした腕の延長線に指示棒の先端(=出力座標)がくる動きが典型的である。
【0020】
従って、上記のような、従来のマウスに代表される相対座標系における任意の基準点に対する相対拡大(縮小)座標系では、大型の表示器に対して効果的なプレゼンテーションツールとしての従来の指示棒(指し棒)の動作を反映することは困難であり、指示棒のような座標入力を効果的に実現することは困難である。
【0021】
具体的には、上記従来のマウス入力に代表される相対座標系における任意の基準点に対する相対拡大(縮小)座標系では、比較的画面が小さいパーソナルコンピュータの表示画面に対する操作においては、上述のように、マウスがマウスパットから持ち上がって(ペン入力においては、ペンアップに相当)再度置かれる(ペン入力においては、ペンダウンに相当)ことの反復による入力座標と出力座標とのオフセットの変動により、画面全体の入力範囲をカバーすることができる。
【0022】
しかしながら、本発明の主たる対象である大画面の入出力一体型システムに於いて、従来の指示棒のような使い勝手を実現させようとする場合には、上記のような相対座標系のオフセット変動を生じさせる操作が生じない絶対座標系なので、通常の固定された拡大率の設定では、操作者の一番近いコーナー部から最遠のコーナーの大画面の全領域をカバーして指示することは困難が伴う。
【0023】
加えて、従来の上記従来のマウス入力に代表される相対座標系における任意の基準点に対する相対拡大(縮小)座標系では、拡大率と同時に基準点がペンダウンが保たれた連続した一連の入力状態では拡大の基準点が固定であり、ペンアップ時点これが解消され、次のペンダウンの開始点が次の連続した一連の入力状態の基準点となる。しかしながら、この基準点の位置変動は、大画面の入出力一体型システムに適応すると、従来の指示棒のような入力形態に対してはその都度基準点が変動してストローク間の連続がなくなり、基準点と操作者の入力動作との関連性が無いので、従来のマウス入力に於ける相対座標系をそのまま仮想指示棒入力に用いようとすると使い勝手が問題であった。
【0024】
このように、従来の指示棒の使い勝手を併せ持つ大画面入出力一体型システムの操作性の優れた座標入力手段が望まれていた。
【0025】
本発明は上記の課題を解決するためになされたものであり、指示箇所の視認性を向上することができる座標入力技術を提供することを目的とする。
【0026】
【課題を解決するための手段】
上記の目的を達成するための本発明による座標入力装置は以下の構成を備える。即ち、
座標入力面上で指示された位置の入力座標を検出し、該入力座標に基づく座標を出力する座標入力装置であって、
操作者によって指示された座標入力面上の位置の入力座標を検出する検出手段と、
前記入力座標を拡大するための基準となる拡大基準点を入力する拡大基準点入力手段と、
前記入力座標を拡大する拡大率を決定するための拡大率基準点を入力する拡大率基準点入力手段と、
前記入力座標と前記拡大率基準点との位置関係に基づいて、前記拡大率を決定する決定手段と、
前記拡大率と前記拡大基準点に基づいて、前記拡大基準点と前記入力座標を結ぶ方向に、前記入力座標を拡大した座標を算出する算出手段と、
前記算出手段で算出された座標を出力する座標出力手段と、
を備える。
【0027】
【発明の実施の形態】
以下、本発明の実施形態について、図面を用いて詳細に説明する。
【0028】
<<実施形態1>>
まず、本発明の主眼とする指示棒(指し棒)の使い勝手を実現する座標入力手段(以下、仮想指示棒と呼ぶ)に於ける、入力座標に対する出力座標を算出する座標算出方法について、図1を用いて説明する。
【0029】
図1は本発明の実施形態1の座標入力装置による座標入力方法を説明するための図である。
【0030】
図1では、本発明の特徴を良く表すために、大画面の入出力一体型システムを想定している。図1に示すシステムでは、リアプロジェクション表示装置101に座標入力装置を内蔵して構成したシステムの一例である。この装置は、入出力一体型システムであり、これに接続されたコンピュータが出力する各種情報を画面102に表示するとともに、座標入力ペン21は、画面102を直接タッチすることで座標データを入力することができる。
【0031】
つまり、この入出力一体型システムに於ける座標入力面は画面102に重なる面により形成される。この座標入力面を介して入力された座標データは、アイコンの操作(コンピュータの操作)に使用したり、カーソルの移動、図形の描画(カーソルの軌跡)等として使用することができる。
【0032】
座標入力装置は、座標入力ペン21の入力座標を算出するとともに、その座標入力ペン21を仮想指示棒として機能させるために、その入力座標に基づく仮想指示棒先端指示座標を算出して、コンピュータに送出する。これに対し、コンピュータは、リアプロジェクション表示装置101の画面102に仮想指示棒先端指示座標に基づく画像をフィードバックさせる。これにより、操作者は、座標入力ペン21を仮想的な指示棒(仮想指示棒)として使用することができ、例えば、この仮想指示棒によってコンピュータを操作することが可能となる。
【0033】
尚、図1の座標入力装置における座標入力手段は、座標入力ペン21を用いる方式としたが、座標入力面上で座標入力が可能な手段であれば、タッチパネル方式でも良い。
【0034】
また、座標入力装置は、パーソナルコンピュータやワークステーション等の汎用コンピュータに搭載される標準的な構成要素(例えば、CPU、RAM、ROM、ハードディスク、外部記憶装置、ネットワークインタフェース、ディスプレイ、キーボード、マウス等)を有している。
【0035】
更に、座標入力装置では、以下に説明する各実施形態の座標算出処理を実現するハードウエアあるいはソフトウェアを有している。
【0036】
次に、実施形態1の座標入力装置による座標算出処理について、図2及び図3を用いて説明する。
【0037】
図2は本発明の実施形態1の座標入力装置による座標入力方法を説明するための図である。図3は本発明の実施形態1の座標算出処理を示すフローチャートである。
【0038】
ここでは、図1の座標入力ペン21による入力座標(x,y)に対して、図3に示すフローチャートの座標算出処理により、仮想指示棒の先端座標である仮想指示棒先端指示座標(X,Y)を出力する処理手順について説明する。
【0039】
実施形態1の具体的な座標算出処理を、図3に示すフローチャートと併せて説明するに先立ち、まず、本発明の特徴である、肩の位置を支点として動く肘の位置を基準として仮想指示棒先端指示座標を算出する座標算出原理について説明する。この座標算出原理により、操作者の動作に対してより自然な操作環境を実現することができる。
【0040】
人間の腕の動きは、図2で示すように、肘のみを支点とした動きに留まらず、更に肩を支点とした動きとの複合動作である。
【0041】
本発明の座標算出原理は、この人間の肩基準点O(x,y)の位置が一定ならば、図中斜線領域で示された座標入力ペン21(あるいはタッチパネル)の指示座標は、肘の位置(肘基準点)Oe(x,y)、肘の角度θeの関数で定まることに着目する。
【0042】
この場合、肘基準点Oe(x,y)は、次式を満足する。
【0043】
(x−x+(y)−y=re
一方、肘基準点Oe(x,y)を基準とするペン指示点(x,y)は、次式を満足する
(x−x+(y−y=(R−re)
従って、逆に、肩基準点O(x,y)の位置とペン指示点(x,y)が得られれば、下記のように、肘の位置(肘基準点)Oe(x,y)、及び肘の角度θeを算出することができる。
【0044】
ここで、上記2式を満足する肘基準点Oe(x,y)は、(xe1,ye1)と(xe2,ye2)の2点存在するが、
肘と腕の角度θeは、人間の間接の動きから
θe<90°
であるから、上記2点は、
e1 < ye2
となる。従って、この条件を満足する点である(xe1,ye1)が算出する肘基準点Oe(x,y)となる。
【0045】
また、θe=tan−1((y−ye1)/(x−xe1))
と算出することができる。
【0046】
以上のようにして、ペン指示点(x,y)を算出できれば、それに対応する肘の位置としての基準点Oe(xe1,ye1)、及び肘と腕の角度θeを算出することができる。そして、これらのデータに基づいて、仮想支持棒の先端指示座標(X,Y)を算出することができる。
【0047】
以上の条件に基づいて、具体的な座標算出処理を説明すると、図3に示すような処理手順となる。
【0048】
尚、本発明で説明する座標の拡大処理とは、換言すれば、入力座標に以下で説明する倍率(拡大率)を乗じて得られる座標を出力する処理のことであり、表現を代えれば、入力座標を別座標に変換する変換処理と説明することもできる。ここで、操作者にとっては、この処理によって出力される座標が、入力座標があたかも拡大された座標として出力されるように視認されるので、以降の説明では、便宜上、上記の処理を座標の拡大処理と表現する。
【0049】
まず、実際の座標入力作業に先立ち、ステップF1−1〜1−5で、仮想指示棒に関する設定を行う。
【0050】
まず、ステップF1−1において、操作者の肩の位置である肩基準点O(x,y)の入力を行う。この肩基準点は、その座標を基準として入力座標を拡大する場合の拡大率を決定するための拡大率基準点である。
【0051】
この肩基準点の入力に関しては、実際にキーボード等の入力装置で画面102に対応した座標入力面に於ける肩基準点に対応する座標を数値入力しても良い。また、肩の位置に座標入力ペン21を当ててその位置を肩基準点として入力しても良い。また、この肩基準点は、画面102に対応した座標入力面内のみの座標でなく、画面102に対応した座標入力面外の領域の座標を入力しても良い。
【0052】
但し、座標入力ペン21及びタッチパネルの入力範囲は、通常、画面102に対応した座標入力面内の領域に限定されるので、肩基準点をキーボード等の入力装置で入力する場合は問題ないが、肩の位置に座標入力ペン21を当ててその位置を肩基準点として入力する場合には、その入力範囲は、画面102に対応した座標入力面内の領域に限定される。更に、この上記各種設定値(肩基準点、肘基準点、拡大率等)の設定は、アプリケーションソフトにおいて、メニュー画面に沿って行うようにしても良い。
【0053】
次に、ステップF1−2において、画面102の対角の隅の領域に相当する対角最遠点(x,y)の座標を入力する。この数値は、通常、座標入力装置の表示画面102のサイズとして既知の値であるので、工場出荷時に座標入力装置のメモリに格納しておいても良いし、その座標値をキーボード等の入力装置で直接入力しても良い。また、電源投入後、あるいは、使用前の初期設定の都度、座標入力ペン21(あるいはタッチパネル)で目的とする位置を指示することで各種設定値を入力してもよい。
【0054】
次に、ステップF1−3において、操作者の肘の位置である肘基準点Oe(x,y)の入力を行う。
【0055】
この肘基準点の入力に関しては、例えば、操作者が座標入力ペン21を持った状態で対角最遠点(x,y)の方向を指示する際の操作者の肘の位置に座標入力ペン21を当てて(あるいは肘の位置の座標をキーボード等の入力装置により)その位置を肘基準点として入力する。この肘基準点は、その座標を基準として入力座標を拡大する場合の基準を決定するための拡大基準点である。
【0056】
また、ステップF1−3では、操作者の肩から肘までの距離reを設定する。同時に、肘から仮想指示棒先端までの長さbの最大値bmaxを設定する。このbmaxは、次の式により算出される。
【0057】
bmax=(x−xe0)secθ
ここで、θ=tan−1((y−ye0)/(x−xe0))
である。
【0058】
次に、ステップF1−4において、座標入力ペン21のペン先位置(あるいはタッチパネルの指示指先位置)(x,y)の入力を行う。この入力に関しては、ステップF1−3と同様に、操作者が座標入力ペン21を持った状態で対角最遠点(x,y)を仮想指示する際のペン先位置(あるいはタッチパネルの指示指先位置)を入力する。
【0059】
また、肘からペン先(指先)までの長さa(=R−re、R:肩からペン先位置までの距離)、及び肩基準点O(x,y)とペン(タッチパネル)指示座標(x,y)とのx座標の距離Cの最大値Cmaxを設定する。
【0060】
尚、長さaは、以下の式によって算出される。
【0061】
a=(x−xe0)secθ
θ=tan−1((y−ye0)/(x−xe0))
=tan−1((y−ye0)/(x−xe0))
また、この長さaは、同時に、操作者の肘から仮想指示棒先端までの長さbの最大値bminでもある。
【0062】
また、最大値Cmaxは、以下の式によって算出される。
【0063】
Cmax=x−x
尚、以上のステップF1−3とステップF1−4は、1つのステップとして同時に行うようにしても良い。
【0064】
次に、ステップF1−5において、表示画面102の最近点(x,y)の座標(既定値)を入力する。これにより、距離Cの最小値Cminを設定する。
【0065】
最小値Cminは、以下の式によって算出される。
【0066】
Cmin=x−x
以上のステップF1−1〜1−5において、仮想指示棒及び腕に関する各種設定値の設定が完了する。
【0067】
尚、ステップF1−1での肩基準点の入力及びF1−3での肘基準点の入力に関しては、その入力方法としてキーボード等の入力装置あるいは座標入力ペン21のいずれかを用いているが、いずれの場合でも、実際の入力作業に煩雑さが伴うので、例えば、典型的な基準点候補を用意しておき、メニュー選択画面で簡単に選べるようにしても良い。
【0068】
更には、操作者の身体情報(肩から肘までの距離re及び肘からペン先(指先)までの長さa)を所定の典型的な既知の値として持たせることにより、ステップF1−3で対角最遠点(x,y)の方向で一点のみ入力することにより、自動的に肩基準点及び肘基準点を算出するようにしても良い。
【0069】
次のステップF1−6〜1−9において、実際の座標入力ペン21あるいはタッチパネルの場合にはタッチ位置に対応する仮想支持棒先端指示座標の座標算出処理を行って、算出した座標値を出力する。
【0070】
まず、ステップF1−6において、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置)の入力座標(x,y)の検出を行う。これは、通常の各座標入力方式における座標算出である。
【0071】
次に、ステップF1−7及びステップF1−8において、上述の処理によって算出された操作者の肩、肘及び仮想指示棒に関する設定値、及び操作者の指示座標に基づいて、仮想支持棒先端指示座標を算出する。
【0072】
まず、ステップF1−7で、指示座標(x,y)に対応する肘基準点Oe(x,y)、及び肘と腕の角度θeを算出する。具体的には、次の式により算出する。
【0073】
(x−x+(y)−y=re
(x−x+(y−y=(R−re)
そして、上記2式を満足する2点(xe1,ye1)と(xe2,ye2)の内、
e1<ye2を満足する肘基準点Oe(x,y)を算出する。また、算出した肘基準点Oe(x,y)から、肘と腕の角度θeを次の式により算出する。
【0074】
θe=tan−1((y−y)/(x−x))
次に、ステップF1−8で、仮想支持棒先端指示座標(X,Y)を算出して、その座標を出力する。
【0075】
具体的には、次の式により算出し、出力する。
【0076】
(X,Y)=(x)+(x−x)*D,y)+(y−y)*D)
ここで、D=b/aである。つまり、Dは、肘からペン先(指先)までの長さaに対して、仮想支持棒先端指示座標(X,Y)の位置が、肘から仮想指示棒先端までの長さbまで拡大される、拡大率を表している。
【0077】
この式は、拡大基準点である肘基準点Oe(x,y)に対して、この拡大基準点と検出座標である指示座標(x,y)を結ぶ方向に、下記のように変動する拡大率Dで拡大した座標の算出を示している。
【0078】
また、長さaと長さbは、
a=bmin≦b≦bmax
の関係を満足するので、拡大率Dは、
1≦D≦bmax/a
の範囲で変化する。
【0079】
実施形態1では、更に、この拡大率Dを肩基準点O(x,y)とペン(タッチパネル)指示座標(x,y)とのx座標の距離Cの関数で表現している。これを具体的に示すと、以下の式になる。
【0080】
D=(α−1)/β*c+1+cmin(α−1)/β
α=bmax/a、β=cmax−cmin
この式により、仮想支持棒先端指示座標(X,Y)の位置は、操作者が対角最遠点(x,y)を仮想指示するときに、c=cmaxとなる。従って、対角最遠点(x,y)となり、表示画面102の最近点(x,y)を指示したときには、c=cminで、拡大率Dは1となる。従って、そのまま最近点(x,y)となる。
【0081】
このように、拡大率Dは、拡大率基準点である肩基準点O(x,y)とペン指示座標(x,y)とのx座標の距離Cにより変化するので、表示画面102の全領域すべてを仮想指示棒で指示することができる。
【0082】
尚、実施形態1では、拡大率Dを変動させるパラメータとして、操作者の肩基準点と入力座標のx座標の距離を用いたが、これが、この2点間の距離であっても良いし、また、操作者の他の部位の位置と指示座標との位置関係において変動させても良い。更には、操作者の部位ではなく、例えば、表示装置101における所定の拡大率基準点と入力座標の距離等に関連させて拡大率Dを変動させても良い。
【0083】
更に、仮想支持棒先端指示座標(X,Y)は、図2に示されるように、拡大基準点としての操作者の肘から、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置(x,y))に向けて角度方向に、肘からペン先(指先)までの長さと所望の仮想指示棒先端までの長さの比である拡大率Dを乗じた位置に仮想指示棒の先端の座標を出力することができる。
【0084】
これにより、従来のマウスに代表される相対座標系に於ける任意の基準点に対する拡大(縮小)座標系では実現され得なかった、操作者の身体的な条件に基づいた基準点及び仮想指示棒に関する設定値により座標を算出することができるので、座標入力ペン21や指で指示棒による操作感を実現することができる。
【0085】
また、その仮想指示棒の角度を形成する肘の位置の変化に伴い、その基準点も追従して動くので、実際の腕の動きにより近い仮想指示棒による指示を行うことができる。これは、座標入力ペン21あるいはタッチ位置座標の変化に伴い、常に予め入力された肩基準点に基づき、その入力座標に対応した肘基準点が算出され、その肘基準点から入力位置に向かう角度は自然な仮想指示棒の角度となるからである。
【0086】
次に、ステップF1−9において、ステップF1−1〜F1−5で算出した各種設定値を変更することによる、仮想指示棒の条件(長さや方向)の変更の有無を判定する。変更がある場合(ステップF1−9でYES)、ステップF1−1に戻る。一方、変更がない場合(ステップF1−9でNO)、ステップF1−6に戻る。
【0087】
この変更操作は、例えば、メニューによる選択、あるいは座標入力ペン21のスイッチによって実現することができる。
【0088】
尚、実施形態1においては、肩と肘の関係を比較的単純な、肩の付け根を一点の支点として、それを中心に肘が回転する運動モデルに基づいた座標入力装置で説明したが、これは、座標算出処理を簡略化するためであり、これに限定されるものではない。例えば、実際の人間の動きに対応した、肩が他の支点に対し一定の曲線運動をする、更には、手首の運動を加味する等のより複雑な運動モデルに基づいた座標算出処理を行い、より正確で自然な動きを実現するようにしても良い。
【0089】
また、基準点としての操作者の肘から、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置)の入力座標(x,y)に向けて角度方向に、肘からペン先(指先)までの長さと所望の指示棒先端までの長さの比である拡大率Dを乗じた位置に仮想指示棒の先端の座標を出力したが、人間の指示棒(指し棒)を持つ場合の手首の角度を考慮して座標を出力しても良い。
【0090】
つまり、肘と腕の角度θに対して、更に指示棒(指し棒)を持つ場合の手首の傾きの角度θoffを角度のオフセットとして加えた方向に座標を出力するために、この手首の傾きの角度θoffを設定、あるいは操作者の動作により入力する構成を予め設けるようにしても良い。
【0091】
更に、肩の位置を支点として動く肘の位置を基準として仮想指示棒先端指示座標を算出したが、もっと単純化して肘の位置を固定値として仮想指示棒先端指示座標を算出するようにしてもよい。この場合は、より座標算出処理における演算負荷を軽減することができる。
【0092】
以上説明したように、実施形態1によれば、座標入力ペン21(あるいはタッチ入力)を用いても、指示箇所の視認性がすぐれた使い勝手を併せ持つ大画面入出力一体型の操作性の優れた座標入力装置を提供することができる。
【0093】
特に、実施形態1によれば、操作者の肘、更には肩等の身体的な位置の動きに追従して入力座標に対応する仮想指示棒先端指示座標(例えば、カーソル)を出力するので、従来の指示棒の先端の軌跡に近い出力座標を出力することができる。
【0094】
入力座標を拡大することによって出力する仮想指示棒先端指示座標は、操作者の動作に沿った基準点に対して行われることに加え、その拡大率自体も操作者が指示棒を持つ動きに追従するので、自然な入力感が得られ、大画面入出力一体型の入力画面全体領域に対しての指示が可能になる。
【0095】
更に、従来の指示棒のような操作を実現できることに留まらず、従来の指示棒がもつ欠点の長さの制限が無く、手に対する重さの負担も無く、そして、スクリーンに対する損傷も少なく、しかも、接続したPC等の電子情報機器に対する入力が可能であるので、より効率的なプレゼンテーションを代表とする電子会議用のツールとすることができる。
【0096】
本発明の実現にあたっては、装置的な制限に関しても従来の入出力一体型装置を使用することで比較的簡単に実現できる一方、後述する3次元入力可能な座標入力装置において本発明を実現すれば、より操作者の指示動作に忠実にしかも自然な操作環境を実現することができる。
【0097】
<<実施形態2>>
実施形態2では、実施形態1の変形例について説明する。
【0098】
まず、実施形態2の座標入力装置による座標算出処理について、図4及び図5を用いて説明する。
【0099】
図4は本発明の実施形態2の座標入力装置による座標入力方法を説明するための図である。図5は本発明の実施形態2の座標算出処理を示すフローチャートである。
【0100】
ここでは、図4の座標入力ペン21による入力座標(x,y)に対して、図5に示すフローチャートの座標算出処理により、仮想指示棒先端指示座標(X,Y)を出力する処理手順について説明する。
【0101】
まず、ステップF1−11において、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置)の入力座標(x,y)を検出を行う。
【0102】
次に、ステップF1−21において、入力座標(x,y)が存在する領域の領域判定を行う。
【0103】
尚、実施形態2においては、図4に示すように、座標入力面である画面102を左領域Aと右領域Bとに領域分割しておき、この領域情報を予め座標入力装置において記憶しておく。
【0104】
ここで、座標入力面である画面102の向かって左下隅座標を(0,0)、右上隅座標を(a,b)とすると、画面102を左領域A及び右領域Bに分割した場合の境界線は、x=a/2である。
【0105】
従って、ステップF1−21の領域判定では、入力座標(x,y)のx座標が、x>a/2であるか否かを判定する。つまり、x>a/2である場合は入力座標(x,y)は右領域Bにあると判定し、X≦a/2である場合は入力座標(x,y)は左領域Aにあると判定する。
【0106】
ステップF1−21において、x>a/2である場合(ステップF1−21でYES)、ステップF1−31に進み、予め記憶された右領域Bの右下隅座標OB(b,0)を拡大基準点(x,y)とする。一方、X≦a/2である場合、(ステップF1−21でNO)、ステップF1−41に進み、予め記憶された左領域Bの左下隅座標OA(0,0)を拡大基準点(x,y)とする。
【0107】
そして、ステップF1−51において、左領域A及び右領域Bそれぞれの領域における基準点のいずれかの拡大基準点と、拡大率Dで入力座標(x,y)を拡大し、仮想指示棒先端指示座標(X、Y)を算出する。具体的には、次の式により算出し、出力する。
【0108】
(X,Y)=(x+(x−x)*D,y+(y−y)*D)
拡大率Dは、拡大基準点からペン先(指先)指示位置(x,y)までの長さと所望の仮想指示棒先端までの長さの比であり、予め座標入力装置に記憶されている。
【0109】
この式からわかるように、仮想支持棒先端指示座標(X,Y)は、図4に示されるように、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置)の入力座標(x,y)が存在する領域に応じて、その領域の外側から仮想指示棒の指示先である中心部に向けて一定の拡大率Dで拡大された位置に仮想指示棒先端指示座標を出力することができる。
【0110】
表示画面102に向かって左側に操作者が立ち左領域Bを指示した場合には、拡大基準点が左下となり、図4の(X,Y)で示される左から中央部にかけて仮想指示棒の先端としてカーソルが示される。
【0111】
一方、右側の場合にはその逆になり、操作者の指示位置に基づいて自動的に操作者の影にならない方に、仮想指示することができる。これは、従来のマウスに代表される相対座標系に於ける任意の基準点に対する拡大(縮小)座標系では実現され得なかった操作環境である。
【0112】
そして、ステップF1−61において、座標入力ペン21のペンアップの有無を判定する。ペンアップでない場合(ステップF1−61でNO)、ステップF1−61に戻り、ペンアップと判定されるまで、上記処理を繰り返す。一方、ペンアップである場合(ステップF1−61でYES)、処理を終了する。
【0113】
尚、実施形態2では、各領域に於ける拡大基準点は、各領域の下隅の領域に設けたが、これは、比較的大画面表示においては、その拡大基準点による拡大が、仮想指示棒の先端を規定するための基準点として好適であると言うことを前提に設定されたものである。但し、さらに操作性を向上させるためには、表示装置102の形状、仕様や使用目的により、上記以外の領域に、各領域の拡大基準点を設定しても良いことは言うまでもない。
【0114】
以上説明したように、実施形態2によれば、実施形態1で説明した効果に加えて、座標入力領域に応じて仮想指示棒先端指示座標の表示位置が自動的に切り替わるので、常に操作自身と離れた位置に仮想指示棒先端指示座標を出力することができ、指示部分が操作者の影になるのを回避することができる。
【0115】
<<実施形態3>>
実施形態2では、座標入力面である画面102を左領域Aと右領域Bとに領域分割したが、実施形態3では、さらに操作性を向上させるために、図6に示すように、左領域Aと右領域Bの間に、中間領域Cを設ける。但し、この中間領域Cにおいては、座標の拡大処理は実行しない。
【0116】
以下、実施形態3の座標入力装置による座標算出処理について、図6及び図7を用いて説明する。
【0117】
図6は本発明の実施形態3の座標入力装置による座標入力方法を説明するための図である。図7は本発明の実施形態3の座標算出処理を示すフローチャートである。
【0118】
ここでは、図6の座標入力ペン21による入力座標(x,y)に対して、図7に示すフローチャートの座標算出処理により、仮想指示棒先端指示座標(X,Y)を出力する処理手順について説明する。
【0119】
まず、ステップF2−1において、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置)の入力座標(x,y)の検出を行う。
【0120】
次に、ステップF1−2において、入力座標(x,y)が存在する領域の領域判定を行う。
【0121】
尚、実施形態3においては、図5に示すように、座標入力面である画面102の向かって左領域Aと右領域Bと、更にその中間領域Cを設ける。
【0122】
ここで、座標入力面である画面102の原点を左下隅座標を(0,0)とすると、左領域Aと中間領域Cの境界線は、X=a、中間領域Cと右領域Bとの境界線は、X=bとなるように領域分割する。そして、この領域情報を予め座標入力装置において記憶しておく。
【0123】
従って、ステップF2−2及びステップF2−3の領域判定では、入力座標(x,y)のx座標が、x<aあるいはx>bであるか否かを判定をする。つまり、x<aである場合は入力座標(x,y)は左領域Aにあると判定し、a≦x<bである場合は入力座標(x,y)は中間領域Cにあると判定し、b≦xである場合は入力座標(x,y)は右領域Bにあると判定する。
【0124】
そこで、まず、ステップF2−2において、入力座標(x,y)のx座標がx<aあるいはx>bである場合(ステップF2−2でYES)、ステップF2−3に進み、入力座標(x,y)のx座標がx<aであるか否かを判定する。x<aである場合(ステップF2−3でYES)、ステップF2−4に進み、予め記憶された左領域Aの左下隅座標OA(0,0)を拡大基準点(x,y)とする。一方、X<aでない場合(ステップF2−3でNO)、ステップF2−5に進み、予め記憶された右領域Bの右下隅座標OB(c,0)を拡大基準点(x,y)とする。
【0125】
そして、左領域Aあるいは右領域Bの場合、ステップF2−7において、それぞれの領域におけるいずれかの拡大基準点と、拡大率Dで入力座標(x,y)を拡大し、仮想指示棒先端指示座標(X、Y)を算出する。具体的には、次の式により算出し、出力する。
【0126】
(X,Y)=(x+(x−x)*D,y+(y−y)*D)
拡大率Dは、基準点からペン先(指先)指示位置(x,y)までの長さと所望の仮想指示棒先端までの長さの比であり、予め座標入力装置に記憶されている。
【0127】
一方、ステップF2−2において、入力座標(x,y)のx座標がx<aあるいはx>bでない場合(ステップF2−2でNO)、ステップF2−6に進み、拡大率D=1に設定し、入力座標(x,y)をそのまま出力する。
【0128】
そして、ステップF2−8において、座標入力ペン21のペンアップの有無を判定する。ペンアップでない場合(ステップF2−8でNO)、ステップF2−1に戻り、ペンアップと判定されるまで、上記処理を繰り返す。一方、ペンアップである場合(ステップF2−8でYES)、処理を終了する。
【0129】
以上の処理によって、左領域Aあるいは右領域Bに入力を行う場合は、実施形態1と同様に、それぞれの入力位置に適した仮想指示棒のカーソル位置が算出される。また、中間領域Cに入力を行う場合は、その入力位置の座標が出力される。
【0130】
通常の座標入力面である画面102における指示において、例えば、向かって左側の領域での入力の場合、拡大率にもよるが、拡大率が2倍以上の場合には、画面102のx=a/2より左側で座標入力面である画面102の右端に仮想指示棒先端指示座標が到達し、それ以上、右側を指示する意味が無くなる。つまり、拡大率が2倍以上の場合には、実際、仮想指示棒として使用しない入力領域が中間領域として存在することになる。
【0131】
そこで、実施形態3では、この拡大指示に使用しない中間領域を中間領域Cとして設け、これを座標を拡大しない等倍領域とすることにより、座標入力面である画面102の全領域を効率的に使用している。
【0132】
また、必ずしも拡大率が2倍以上でない場合でも、実際に座標入力面である画面102の中央の領域を指示する場合には、指示棒として使用する頻度より、単純な入力として使用する頻度が多いと考えられるので、実施形態3の構成は有効である。また、中間領域Cの範囲は、任意に操作者が設定できるようにしても良い。
【0133】
また、更に、例えば、左領域Aの基準点を(0,0)とする場合、左領域A内の領域で全領域を拡大指示しようとする場合には、中間領域Cとの境界線x=aにおいて、画面102の右端のx=cを指示するように拡大率を設定する必要がある。この場合の拡大率は、図6において、XL/XM=a/cで決定される。また、右領域Bに関しても同様にして決定される。
【0134】
一方、逆に、拡大率がある値に定まると、逆にその拡大率に相当する中間領域Cとの境界線の位置が定まる。そこで、中間領域Cの範囲を操作者が設定した場合に、自動的に拡大率が定まるようにしても良い。逆に、操作者が任意の拡大率を設定できるようにした場合、その拡大率から自動的に中間領域Cの範囲が定まるようにしても良い。
【0135】
以上説明したように、実施形態3によれば、実施形態1や2で説明した効果に加えて、座標入力領域を複数の領域に分割し、操作者の操作環境を想定して、各領域での入力座標の拡大を制御することで、より操作者の意図を反映した仮想指示先端指示座標の出力を実現することができる。
【0136】
<<実施形態4>>
実施形態2においては、拡大基準点は各領域の下隅部に予め設定したが、実際に操作する操作者の身長等の身体的特徴により最適な位置に設定できるようにしてもよい。また、指示位置に対する拡大基準点からの仮想指示棒先端までの拡大率が任意に設定できるようにしても良い。
【0137】
以下、実施形態4の座標入力装置による座標算出処理について、図8及び図9を用いて説明する。
【0138】
図8は本発明の実施形態4の座標入力装置による座標入力方法を説明するための図である。図9は本発明の実施形態4の座標算出処理を示すフローチャートである。
【0139】
ここでは、図8の座標入力ペン21による入力座標(x,y)に対して、図9に示すフローチャートの座標算出処理により、仮想指示棒先端指示座標(X,Y)を出力する処理手順について説明する。
【0140】
まず、ステップF3−1において、操作者が、例えば、肩と水平に座標入力ペン21を持った状態(あるいはタッチパネルで)での座標を入力する。この入力座標に基づいて、操作者に合う左領域Aにおける基準点OA(xA0,yA0)、右領域Bにおける基準点OB(xB0,yB0)を設定し、座標入力装置に記憶する。
【0141】
尚、この基準点は、X座標軸方向は各領域の端部で、Y座標軸方向は、上記の操作者の入力点により、値を調整するのが望ましいが、必ず、この座標に限るものではなく、操作者の望む任意の基準点を設定できるようにしても良い。
【0142】
次に、ステップF3−2において、操作者が座標入力ペン21を持った状態で、図8に示すように、ペン先位置(あるいはタッチパネルの指示指先位置)P1(x,y)を入力する。また、操作者は所望の仮想指示棒先端指示位置P2(x,y)をカーソル(P1延長線上に表示)を移動させながら入力する。この一連の操作者の動作に基づく入力値から、拡大率Dを設定し記憶する。この場合の拡大率Dは、次の式により算出する。
【0143】
D=OP2/OP1=(x−x)/(x−x
尚、上記の基準点OA(xA0,yA0)及び基準点OB(xB0,yB0)、拡大率Dは、一般的なプレゼンテーション環境を想定して得られる典型的な操作者の位置に基づいて予め記憶しておいても良い。そして、操作者の好み、用途、スクリーンに対して立つ位置、身長、利き腕等の操作者に関する操作者情報に応じて、適切な基準点OA(xA0,yA0)及び基準点OB(xB0,yB0)、拡大率Dを選択するようにしても良いし、あるいは用意されたメニューから選択できるようにしても良い。
【0144】
尚、以下のステップF3−4〜ステップF3−7は、実施形態2のステップF1−21〜ステップF1−61それぞれに対応するので、その説明は省略する。
【0145】
以上説明したように、実施形態4によれば、実施形態1〜3で説明した効果に加えて、操作者の身体的特徴を適切に反映した基準点を用いて、より操作者の意図を反映した仮想指示先端指示座標の出力を実現することができる。
【0146】
<<実施形態5>>
上記実施形態2〜4においては、座標入力面である画面102の各領域ごとに個別の基準点を設定して、その基準点に基づく座標の拡大処理、あるいは等倍処理を実行するように構成したが、これに限定されない。例えば、各領域の境界をまたがって連続的に入力動作をする場合には、隣の領域に移っても、最初の領域の基準点に基づく座標の拡大処理を保持したままの座標算出処理を実行するようにしても良い。
【0147】
以下、実施形態5の座標入力装置による座標算出処理について、図10及び図11を用いて説明する。
【0148】
図10は本発明の実施形態5の座標入力装置による座標入力方法を説明するための図である。図11は本発明の実施形態5の座標算出処理を示すフローチャートである。
【0149】
ここでは、図10の座標入力ペン21による入力座標(x,y)に対して、図11に示すフローチャートの座標算出処理により、仮想指示棒先端指示座標(X,Y)を出力する処理手順について説明する。
【0150】
図10は、実施形態3の図6と同様に、左領域Aと右領域Bの間に中間領域Cを構成した場合を示している。ここで、まず、左領域A内で座標の入力を開始し、引き続き連続的、つまり、ペンダウンのまま中間領域Cに移動して指示する場合を想定する。
【0151】
実施形態3では、この場合、最初の入力点(x,y)に対応して、出力座標を拡大して、仮想指示棒先端指示座標として(X,Y)=(x+(x−x)*D,y+(y−y)*D)が表示されるが、境界線x=aを境に中間領域Cに指示入力が進入して任意点を指示している場合には、その任意点(x’,y’)が出力される。
【0152】
これに対して、実施形態5では、境界線x=aを境に中間領域Cに指示入力が進入した場合でも、最初の入力点(x,y)に対応して、仮想指示棒先端指示座標(X,Y)を拡大して座標(X’,Y’)を出力する。
【0153】
以下、この処理の詳細について説明する。
【0154】
まず、ステップF4−1において、操作者の実際の座標入力ペン21(あるいはタッチパネルの場合にはタッチ位置)である入力座標(x,y)の検出を行う。
【0155】
次に、ステップF4−2において、ペンダウン継続の有無を示すFlag=0であるか否かを判定する。ここで、Flag=0がペンダウンが継続していないことを示し、Flag=1がペンダウンが継続していることを示す。
【0156】
ステップF4−2において、Flag=0でない場合(ステップF4−2でNO)、ステップF4−8に進む。一方、Flag=0である場合(ステップF4−2でYES)、ステップF4−3に進む。
【0157】
尚、初期状態では、Flag=0であるので、ステップF4−2では、ステップF4−3に進む。
【0158】
また、ステップF4−3〜ステップF4−8は、実施形態3のステップF2−2〜ステップF2−7それぞれに対応するので、その説明は省略する。
【0159】
次に、ステップF4−9で、座標入力ペン21のペンアップの有無を判定する。座標を連続的に入力している場合には、ペンダウンが継続していると判断し、ステップF4−10に進み、Flag=1に設定した後、ステップF4−1に戻る。
【0160】
尚、このペンダウン継続の有無の判断は、例えば、座標検出のサンプリング周期毎にペンアップの有無を判定することで判定可能であるが、これ以外にも前後の入力座標の距離等に閾値を設けて判断しても良い。
【0161】
ステップF4−1に戻り、次のサンプリング周期で、入力座標(x,y)を検出した後、ステップF4−2において、Flag=0であるか否かを判定する。この場合は、Flag=1であるので、ステップF4−8へ進む。つまり、拡大基準点(x,y)の値、あるいは、拡大率Dは、前回の処理と同様であり、このまま、再度、拡大処理、座標算出を行う。
【0162】
以上の座標算出処理により、各領域の境界をまたがって連続的に入力動作をする場合には、隣の領域に移っても、最初の領域の拡大基準点、拡大率を維持したままで、座標算出が実行される。
【0163】
そして、一旦、ペンアップとなり、ペンダウンの継続が解除されると、ステップF4−9からステップF4−11に進み、Flag=0に設定した後、ステップF4−1に戻る。
【0164】
以上説明したように、実施形態5によれば、実施形態1〜4で説明した効果に加えて、座標入力動作が拡大領域と等倍領域をまたがる場合でも、その座標入力動作が継続していれば、各領域に適した仮想指示先端指示座標の出力を実現することができる。
【0165】
尚、上記実施形態2〜5においては、座標入力領域を左右2つ、あるいはその中間領域を含む3つの領域を設定する例を示したが、領域分割の形態は、これに限定されるものではなく、それぞれの領域に固有の基準点、あるいは拡大率を設定する構成であれば、どのような形態でも良い。
【0166】
例えば、水平方向に座標入力領域を5つの領域に分割し、一番外側の左右の領域を拡大率を一番大きく、中央領域は等倍領域とし、その、中間の左右の2つの領域は拡大率を外側の左右領域に比べて小さくするという構成でも良い。これにより、領域をまたがる座標入力動作がなされても、拡大率の変動を少なく抑えることができ、快適な仮想指示棒先端座標の出力を実現することができる。
【0167】
<<実施形態6>>
実施形態1〜5の座標入力装置においては、基準点となる肩及び肘等の位置の入力は、キーボード等の入力装置を用いて入力可能な場合、あるいは座標入力ペン21の指示領域が表示領域内にある場合には問題ない。しかしながら、実際に座標入力ペン21を用いて入力する場合の入力領域が表示領域外の場合、更には、操作者の通常の入力領域が表示領域外の場合には、座標入力領域が表示領域外にもある座標入力方式を用いる必要がある。
【0168】
ここで、座標入力装置の座標入力方式に関しては、特に限定されるものではないが、2次元的に表示領域外の場合のみならず、画面102から垂直(Z軸)方向に離れた場所からコンピュータを遠隔操作することも可能な座標入力装置として、空中超音波を用いた座標入力方式を採用することができる。
【0169】
以下、実施形態6では、空中超音波を用いた座標入力方式を実施形態1の座標入力装置に適用した場合の構成について説明する。
【0170】
まず、実施形態6の座標入力装置で用いる座標入力ペン21の構成について、図12を用いて説明する。
【0171】
図12は本発明の実施形態6の座標入力装置の座標入力ペンの基本構成を示す図である。
【0172】
座標入力ペン21は、画面102にペン先を押し当てることでペン先スイッチ22がオンになり超音波の発振が開始される。また、遠隔操作する場合は、ペンサイドスイッチ23あるいはスイッチ24を押すことで超音波の発振が開始される。
【0173】
次に、実施形態6の座標入力装置の機能構成について、図13を用いて説明する。
【0174】
図13は本発明の実施形態6の座標入力装置の座標入力ペンの基本構成を示す図である。
【0175】
座標入力ペン21において、302は、不図示のバッテリで動作する発振子303を駆動する駆動回路である。この駆動回路302は、発振子303を所定のタイミングで駆動するように制御している。そして、発振子303から発振された超音波信号は、座標入力装置本体304の内部回路の内の複数の超音波センサ305で検出される。検出された超音波信号は、波形処理回路306で所定のレベルまで増幅されて、検出タイミング信号としてCPU307に入力される。
【0176】
こうして、複数の超音波センサ305で検出されたタイミング信号が揃ったらCPU307は、時間情報から距離情報に変換して、さらに三角測量の原理で座標入力ペン21の画面座標系(画面102に於ける座標系)に基づいた座標位置を算出する。更に、この一連の座標から操作座標系を算出し、座標入力装置304の画面座標系における操作者の入力座標を操作座標系(操作者を基準とした操作座標入力面における座標系)の座標に変換する。
【0177】
尚、この座標算出及び座標変換は、ROM312に格納されている座標算出プログラム308をCPU307が呼び出すことによって実行される。そして、算出された座標データは、メモリ310に格納される。また、座標データは、逐次無線インターフェース311によって、外部のコンピュータに転送される。更に、必要に応じて、座標データから得られる軌跡を文字認識エンジン309で文字認識し、その認識結果をコマンドあるいはテキストデータとして、メモリ310に格納することができる。
【0178】
尚、実施形態6の座標入力システムの構成は、上述した構成以外にも種々の構成を採用することができる。例えば、指示具はペン状に限定されず、いわゆる指示棒状であってもよい。また、座標入力方式は、超音波方式に限らず、3次元座標を算出することが可能な座標入力方式であれば、赤外線利用方式、抵抗膜方式、電磁誘導方式、あるいは静電結合方式等も採用することができる。
【0179】
また、表示装置は、リアプロジェクタ表示装置101に限定されず、フロントプロジェクタ、液晶ディスプレイ、プラズマディスプレイ等、コンピュータの情報を表示することができるものであれば、どのようなものでも良い。
【0180】
更に、座標入力装置304と外部のコンピュータ間の接続は、無線インターフェース311に限定されず、有線インターフェースであっても良い。
【0181】
<座標入力装置の詳細な構成の説明>
上述した動作をする座標入力装置の構成をより詳細に説明する。
【0182】
図14は本発明の実施形態6の3次元(空間)座標計測可能な座標入力装置の概略構成を示す図である。
【0183】
21は指示具であるところの座標入力ペンであり、操作者による座標入力動作により空中に音波を発生するように構成されている。発生した音波は複数の検出センサ3(実施形態6の場合、4個の検出センサ3_Sa〜Sdを使用する)により検出され、後述する方法により信号波形検出回路2で処理される。その後、演算制御回路1によって、座標入力ペン21の音波発生源の位置(X,Y,Z)を算出するように構成されている。
【0184】
演算制御回路1は、座標入力装置全体を制御するとともに、得られる座標データを基に、ディスプレイ駆動回路5を介して、表示装置101に表示されているカーソルを移動したり、あるいは筆記等の手書き情報を表示装置101に表示、追記できるように構成されている。
【0185】
以上のように、座標入力装置と表示装置を組み合わせることで、あたかも『紙と鉛筆』のような関係を実現することができるマンマシンインターフェースを提供することが可能となる。
【0186】
次に、座標入力ペン21の構成について、図15を用いて説明する。
【0187】
図15は本発明の実施形態6の座標入力ペンの構成を示す図である。
【0188】
特に、図15(a)は座標入力ペン21の外観図であり、図15(b)は座標入力ペン21の機能構成図である。
【0189】
座標入力ペン21内に内蔵された音波発生源43は、ペン電源45、およびタイマと発振回路並びに座標入力ペン21に具備されている複数のスイッチ情報を検知して制御する制御回路、各種データを記憶するメモリ等で構成された駆動回路44によって駆動される。
【0190】
音波発生源43は、例えば、PVDF(ポリフッ化ビニリデン)等の圧電性素子で構成される。このPVDFは、フィルム状で、所定サイズの円環状に構成することで、所望周波数で駆動効率が最大になるようになっている。
【0191】
音波発生源43の駆動信号は、タイマによって発せられる所定の周期で繰り返すパルス信号であって、発振回路により所定のゲインで増幅された後、音波発生源43に印加される。この電気的な駆動信号は、音波発生源43によって機械的な振動に変換され、空中にそのエネルギーが放射されることになる。
【0192】
尚、実施形態6における座標入力ペン21は、そのペン先端部を押圧することで動作するペン先スイッチ(SW)22、並びに座標入力ペン21の筐体に設けられた複数のペンサイドスイッチ(SW)23、24を具備する。
【0193】
駆動回路44は、所定周期毎(例えば、10msec毎、その場合、1秒間あたりに音波を100回放射するので、本座標入力装置の座標算出サンプリングレートは、100回/秒となる)に、座標入力ペン21内の音波発生源43を駆動させる信号を出力し、空中に音波を放射することになる。
【0194】
この音波は、音波発生源43と各検出センサ3_Sa〜Sd迄の距離に各々応じて遅延し、到達、検出されることになる。この検出センサ3_Sa〜Sdは、例えば、PZT等の厚み振動を行う圧電振動子で、前面に音響整合層を設けている。この音響整合層は、シリコンゴム等を薄層化したもので、気体との音響インピーダンスの整合をとり、高感度で広帯域特性が得られ、かつパルス応答性のよい超音波信号の送受信が可能となっている。
【0195】
この種の座標入力装置は、座標入力ペン21の音波発生源43と各検出センサ3_Sa〜Sd間の距離を、音波の既知の音速と、その到達時間の積により各々算出し、各検出センサ3_Sa〜Sdの位置情報を用いて幾何学的に音波発生源43の位置情報を得ることを基本としたシステムである。そこで、この音波の到達時間を検出する到達時間検出方法について、図16及び図17を用いて説明する。
【0196】
図16は本発明の実施形態6の音波の到達時間検出方法を説明するためのタイミングチャートである。また、図17は本発明の実施形態6の音波の到達時間検出を実現する検出回路のブロック図である。
【0197】
51は駆動回路44で発生した駆動信号であり、駆動信号51を発生するとともにスタート信号を生成する。このスタート信号は、例えば、座標入力ペン21内に内蔵されている赤外LED等(不図示)を介して、そのスタート信号を演算制御回路1に送信し、演算制御回路1内のタイマ12(図18参照)をスタートさせる。
【0198】
一方、空中に放射された音波は、音波発生源43と検出センサ3_Sa〜Sd間の距離に応じて遅延し、検出センサ3_Sa〜Sdで検出されることになる。53は前置増幅回路60で所定レベルまで増幅された各検出センサ3_Sa〜Sdで検出された検出信号を示す。この検出信号53を、絶対値回路及び低域通過フィルタ等により構成されるエンベロープ検出回路61で処理を行い、検出信号のエンベロープ54のみが取り出される。
【0199】
このエンベロープ54に着目すると、その波形が伝播する音速は群速度Vgであり、このエンベロープ54の特異な点、例えば、エンベロープ54のピークや変曲点を検出すると、群速度Vgに関わる遅延時間tgが得られる。エンベロープ54のピークあるいは変曲点を検出するエンベロープ特異点検出回路62は、微分回路、ゼロクロスコンパレータを用いて容易に検出が可能である。
【0200】
実施形態6では、2階微分することによって信号55を形成し、閾値レベル52と検出信号53で比較されたゲート信号を参照してエンベロープ54の変曲点を検出する(信号56)。この信号56を用いて前述したスタート信号により動作しているタイマ12をストップさせれば、群速度Vgに関わる群遅延時間Tgを検出することが可能である。
【0201】
また、厳密に言えば、この群遅延時間Tgには、波形処理に関わる回路の遅延分が含まれるが、後述する方法により、その影響は完全に除去される。よって、ここでは説明を簡略化するために、回路遅延時間は無いものとして説明を加える。
【0202】
以上のことから、音波発生源43と検出センサ3_Sa〜Sd間の距離Lは次式で求めることができる。
【0203】
L=Vg×Tg (1)
一方、より高精度な距離Lの計算を行う場合には、検出信号波形の位相情報より、音波が到達する時間を算出する。その詳細について説明すれば、検出センサ3_Sa〜Sdの出力信号53は、帯域通過フィルタ64により余分な周波数成分を除いた後、Tp信号検出回路66に入力される。Tp信号検出回路66は、ゼロクロスコンパレータ、マルチバイブレータ等で構成される。そして、帯域通過フィルタ64によって出力された信号のゼロクロス点に関わる信号を、所定の閾値レベル52と比較するゲート信号発生回路65が生成するゲート信号57と比較し、信号58を生成する。
【0204】
その後に、前述した群遅延時間Tgを検出する信号56をゲート信号(ゲート信号発生回路63が生成)として参照し、このゲート信号56の期間内において、帯域通過フィルタ64で出力される信号波形の位相が、例えば、負側から正側にクロスする最初のゼロクロス点を出力する信号59を生成する。
【0205】
そして、この信号59を用いて、前述したスタート信号により動作しているタイマ12をストップさせれば、位相速度Vpに関わる位相遅延時間Tpを検出することが可能である
尚、厳密にいえば、この位相遅延時間Tpには、波形処理に関わる回路の遅延分が含まれるが、後述する方法により、その影響は完全に除去される。よって、ここでは説明を簡略化するために、回路遅延時間は無いものとして説明を加える。
【0206】
以上のことから、音波発生源43と検出センサ3_Sa〜Sd間の距離Lは次式で求めることができる。
【0207】
L=Vp×Tp (2)
ここで、エンベロープ特異点検出回路62に基づきゲート信号発生回路63で生成するゲート信号56を用いる効果について説明する。
【0208】
検出センサ3_Sa〜Sdによって検出される信号レベルは、次の要因によって変動する。
【0209】
1) 音波発生源43、検出センサ3_Sa〜Sdの電気−機械変換効率
2) 音波発生源43と検出センサ3_Sa〜Sd間の距離
3) 音波が伝播する空中の温度、湿度等の環境変動
4) 音波発生源43の音波放射に関する指向性、並びに検出センサ3_Sa〜Sdの感度指向性
項目1)は部品公差により発生する要因であり、装置を大量生産する場合には十分な留意が必要である。また、項目2)は音波の減衰に関する項目であり、音波発生源43と検出センサ3_Sa〜Sd間の距離が大きくなるにつれて、空気中を伝播する音波の信号レベルは指数関数的に減衰することが一般的によく知られている他、その減衰定数も項目3)による環境で変化する。
【0210】
さらには、項目4)は、本発明は座標入力装置として動作するので、筆記具であるところの座標入力ペン21は、操作者による筆記動作で常にその姿勢が変化、つまり、ペン保持角度が変動するので、その変動によっても大きくレベルが変化する。さらには、検出センサ3_Sa〜Sdの感度指向性により、座標入力ペン21と検出センサ3_Sa〜Sdの成す角度が変動しても検出レベルが変動する。
【0211】
この時、例えば、検出レベルがより小さくなったと仮定した場合には、前述した閾値レベル(例えば、信号52)が固定であるために、信号58が信号58’に変化することは十分に有り得る現象となる。
【0212】
つまり、たとえ同一地点での座標入力動作を行っても、例えば、座標入力ペン21の保持角度(向き)が異なれば、検出信号53のレベルが異なることになるので、ゲート信号57の発生する時間がそれに依存することになる。しかしながら、本発明はエンベロープ54の特異点に基づくゲート信号56を参照しているので、検出信号レベルに依存することなく、安定して信号59を得ることが可能となっている。
【0213】
次に、実施形態6の演算制御回路1の概略構成について、図18を用いて説明する。
【0214】
図18は本発明の実施形態6の演算制御回路の概略構成を示すブロック図である。
【0215】
11は演算制御回路1及び本座標入力装置全体を制御するマイクロコンピュータであり、内部カウンタ、操作手順を記憶したROM、そして計算等に使用するRAM、定数等を記憶する不揮発性メモリ等によって構成されている。
【0216】
前述した通り、駆動回路44により座標入力ペン21内の音波発生源43の駆動タイミングと同期したスタート信号が、座標入力ペン21に内蔵された赤外LED等(不図示)により光信号として放射され、その信号をスタート信号検出回路17で検波することによって、演算制御回路1内のタイマ12(例えば、カウンタなどにより構成されている)をスタートさせる。
【0217】
このように構成することで、座標入力ペン21内の音波発生源43を駆動する駆動タイミングと、演算制御回路1内のタイマ12との同期が得られるので、音波発生源43で発生した音波が各検出センサ3_Sa〜Sd各々に到達するのに要する時間を測定することが可能となる。
【0218】
信号波形検出回路2より出力される各検出センサ3_Sa〜Sdよりの振動到達タイミング信号(信号59)は、検出信号入力ポート13を介してラッチ回路15_a〜dに各々入力される。ラッチ回路15_a〜dの各々は、対応する検出センサ3_Sa〜Sdよりの振動到達タイミング信号を受信すると、その時のタイマ12の計時値をラッチする。
【0219】
このようにして座標算出に必要な全ての検出信号の受信がなされたことを判定回路14が判定すると、マイクロコンピュータ11にその旨の信号を出力する。マイクロコンピュータ11がこの判定回路14からの信号を受信すると、ラッチ回路15_a〜dから各々の検出センサ3_Sa〜Sdまでの振動到達時間をラッチ回路15_a〜dより読み取り、所定の計算を行なって、座標入力ペン21の座標位置を算出する。
【0220】
更に、マイクロコンピュータ11では、画面座標系(x,y,z)において操作者が入力した複数の座標から操作座標系(X,Y,Z)に於ける操作者を基準とした操作座標入力面を算出し、この画面座標系(x,y,z)における座標入力ペン21の座標位置を操作座標系(X,Y,Z)の座標に変換する。
【0221】
その算出結果を、I/Oポート16を介してディスプレイ駆動回路5に出力し、表示装置101の対応する位置に、例えば、ドット等を表示することができる。また、I/Oポート16を介してインターフェース回路(不図示)に、座標位置情報を出力することによって、外部機器に座標値を出力することができる。
【0222】
<座標算出方式の説明>
次に、図19に示すような画面座標系に検出センサ3_Sa〜Sdが配置された場合、音波発生源43の画面座標系の位置座標(x,y,z)を求める方法について説明する。
【0223】
上記の方法により正確に求められた振動発生源43と各検出センサ3_Sa〜Sdまでの距離を各々La〜Ld、X方向の検出センサ間距離をXs−s、Y方向の検出センサ間距離をYs−sとすれば、
【0224】

Figure 2004310351
となる。同様にして、
【0225】
Figure 2004310351
となる。
【0226】
以上示したように、少なくとも3個の振動発生源43と検出センサ3までの距離が測定できれば、容易に音波発生源43の位置(空間)座標を求めることが可能となる。
【0227】
本発明では、検出センサを4個用いており、例えば、距離が最も遠い情報を使わず(この場合、検出センサ3で出力される信号は、距離が遠いために信号レベルが最も小さくなっている)、残り3個の距離情報のみで、座標を算出することで、信頼性の高い座標算出を可能としている。
【0228】
また、この距離が遠いセンサの距離情報を活用することで、出力された座標値の信頼性が高いものか判定することも可能である。
【0229】
具体的な方法としては、例えば、距離情報La、Lb、Lcで算出された座標値と、距離情報Lb、Lc、Ldで算出された座標値は同一の値を出力するはずであり(距離情報の組み合わせを変更して演算する)、両者が一致しない場合には、いずれかの距離情報が不正、つまり、誤検出したことになるので、その場合には、座標値を出力しないといった信頼性を向上させる構成も実施可能となる。
【0230】
以上説明したように、実施形態6によれば、画面102の表示領域外の領域に於いても座標入力が可能なので、基準点となる肩及び肘等の位置を入力する際に、表示領域外でも座標入力ペン21で実際の身体部分の位置を入力できるので、より自然な仮想指示棒の操作感が得られる。
【0231】
また、仮想指示棒に関する設定時のみならず、座標入力ペン21を用いて実際に座標入力を行う場合にも表示領域外入力が可能なので、操作範囲に領域制限が少なくなる。
【0232】
更に、実施形態6の座標入力装置のように、Z軸方向の座標入力が可能な場合には、例えば、Z座標に応じて、仮想指示棒の長さを自動的に変化させて仮想支持棒先端指示座標(X,Y)を算出してもよい。
【0233】
具体的には、Z座標に肘からペン先(指先)までの長さと所望の指示棒先端までの長さの比である拡大率Dを比例させることにより、自然な操作感を実現することができる。また、頻繁に拡大率Dが変化するのが望ましくない場合には、Z座標の段階的な範囲内の変動に対しては、拡大率Dが一定となるようにしても良い。
【0234】
尚、本発明は上記実施形態1〜6に限定されず、用途や目的に応じて、この実施形態1〜6を任意に組み合わせて実現される実施形態を構成しても良いことは言うまでもない。
【0235】
以上説明した実施形態1〜6における、座標入力装置は、パーソナルコンピュータ等の情報処理装置でもって実現できるし、その機能を実現する手順としての方法の発明として捉えることができる。また、コンピュータにより実現できるわけであるから、本発明はそれぞれの装置で実行されるコンピュータプログラム、更には、そのコンピュータプログラムを格納し、コンピュータが読み込めるCD−ROM等のコンピュータ可読記憶媒体にも適用できるのは明らかであろう。
【0236】
従って、上記実施形態1〜6に係る実施態様を列挙すると、次の通りである。すなわち、座標入力装置及びその制御方法、プログラムは、次のようになる。
【0237】
<実施態様1> 座標入力面上で指示された位置の入力座標を検出し、該入力座標に基づく座標を出力する座標入力装置であって、
操作者によって指示された座標入力面上の位置の入力座標を検出する検出手段と、
前記入力座標を拡大するための基準となる拡大基準点を入力する拡大基準点入力手段と、
前記入力座標を拡大する拡大率を決定するための拡大率基準点を入力する拡大率基準点入力手段と、
前記入力座標と前記拡大率基準点との位置関係に基づいて、前記拡大率を決定する決定手段と、
前記拡大率と前記拡大基準点に基づいて、前記拡大基準点と前記入力座標を結ぶ方向に前記入力座標を拡大した座標を算出する算出手段と、
前記算出手段で算出された座標を出力する座標出力手段と、
を備えることを特徴とする座標入力装置。
【0238】
<実施態様2> 前記決定手段は、前記入力座標と前記拡大率基準点との距離に基づいて、前記拡大率を決定する
ことを特徴とする実施態様1に記載の座標入力装置。
【0239】
<実施態様3> 操作者の身体情報を記憶する記憶手段とを更に備え、
前記拡大基準点入力手段は、前記身体情報に基づいて、前記拡大基準点を算出することで、該拡大基準点を入力する
ことを特徴とする実施態様1に記載の座標入力装置。
【0240】
<実施態様4> 前記拡大基準点入力手段は、前記入力座標と前記身体情報に基づいて、前記拡大基準点を算出することで、該拡大基準点を入力する
ことを特徴とする実施態様3に記載の座標入力装置。
【0241】
<実施態様5> 前記拡大基準点は、前記操作者の肘の位置に対応する
ことを特徴とする実施態様1に記載の座標入力装置。
【0242】
<実施態様6> 前記拡大基準点は前記操作者の肘の位置に対応し、前記拡大率基準点は前記操作者の肩の位置に対応する
ことを特徴とする実施態様1に記載の座標入力装置。
【0243】
<実施態様7> 複数種類の拡大基準点を記憶する記憶手段を更に備え、
前記算出手段は、前記検出手段で検出された入力座標が属する座標入力面上の領域に対応する拡大基準点を前記記憶手段より取得し、その取得した拡大基準点と所定拡大率に基づいて、前記入力座標を拡大した座標を算出する
ことを特徴とする実施態様1に記載の座標入力装置。
【0244】
<実施態様8> 前記拡大基準点を、前記座標入力面を複数の領域に分割した各分割領域毎に記憶する記憶手段を更に備え、
前記算出手段は、前記検出手段で検出された入力座標が属する座標入力面上の分割領域に対応する拡大基準点を前記記憶手段より取得し、その取得した拡大基準点と所定拡大率に基づいて、前記入力座標を拡大した座標を算出する
ことを特徴とする実施態様1に記載の座標入力装置。
【0245】
<実施態様9> 複数種類の拡大率と拡大基準点を記憶する記憶手段を更に備え、
前記算出手段は、前記検出手段で検出された入力座標が属する座標入力面上の領域に対応する拡大基準点と拡大率を前記記憶手段より取得し、その取得した拡大基準点と拡大率に基づいて、前記入力座標を拡大した座標を算出する
ことを特徴とする実施態様1に記載の座標入力装置。
【0246】
<実施態様10> 前記算出手段は、前記検出手段で検出された入力座標が属する座標入力面上の領域が座標の拡大を行わない等倍領域である場合は、前記入力座標を等倍した座標を算出する
ことを特徴とする実施態様1に記載の座標入力装置。
【0247】
<実施態様11> 前記座標入力面を分割する分割領域と、該分割領域に対応する拡大基準点及び拡大率を設定する設定手段を更に備える
ことを特徴とする実施態様7乃至9のいずれかに記載の座標入力装置。
【0248】
<実施態様12> 前記座標入力面を分割する分割領域と、該分割領域に対応する拡大基準点及び拡大率を記憶する記憶手段を更に備え、
前記設定手段は、前記記憶手段を参照して、前記操作者に関する操作者情報に対応する拡大基準点を設定する
ことを特徴とする実施態様11に記載の座標入力装置。
【0249】
<実施態様13> 複数種類の拡大率と拡大基準点を記憶する記憶手段を更に備え、
前記検出手段が、前記座標入力面上の複数の分割領域にまたがって連続的に入力座標を検出する場合、前記算出手段は、前記検出手段で最初に検出された入力座標が属する座標入力面上の領域に対応する拡大基準点と拡大率を前記記憶手段より取得し、その取得した拡大基準点と拡大率に基づいて、前記入力座標を拡大した座標を算出する
ことを特徴とする実施態様1に記載の座標入力装置。
【0250】
<実施態様14> 前記検出手段で検出された入力座標に基づいて、前記拡大率を入力する拡大率入力手段を更に備える
ことを特徴とする実施態様1に記載の座標入力装置。
【0251】
<実施態様15> 前記座標入力面を分割する分割領域の内、座標の拡大を行わない等倍領域が設定されている場合、該等倍領域に基づいて、前記拡大率を入力する拡大率入力手段を更に備える
ことを特徴とする実施態様1に記載の座標入力装置。
【0252】
<実施態様16> 前記拡大率に基づいて、座標の拡大を行わない等倍領域を前記座標入力面内に設定する設定手段を更に備える
ことを特徴とする実施態様1に記載の座標入力装置。
【0253】
<実施態様17> 前記座標入力面上を指示するための、音波発生部を有する指示手段とを更に備え、
前記検出手段は、前記座標入力面の周辺部に設けられた複数の検出手段で構成され、前記指示手段から発生した音波を該複数の検出手段が受信した受信タイミングに基づいて、該指示手段によって指示された座標入力面上の位置の入力座標を検出する
ことを特徴とする実施態様1に記載の座標入力装置。
【0254】
<実施態様18> 座標入力面上で指示された位置の入力座標を検出し、該入力座標に基づく座標を出力する座標入力装置の制御方法であって、
操作者によって指示された座標入力面上の位置の入力座標を検出する検出工程と、
前記入力座標を拡大するための基準となる拡大基準点を入力する拡大基準点入力工程と、
前記入力座標を拡大する拡大率を決定するための拡大率基準点を入力する拡大率基準点入力工程と、
前記入力座標と前記拡大率基準点との位置関係に基づいて、前記拡大率を決定する決定工程と、
前記拡大率と前記拡大基準点に基づいて、前記拡大基準点と前記入力座標を結ぶ方向に前記入力座標を拡大した座標を算出する算出工程と、
前記算出工程で算出された座標を出力する座標出力工程と、
を備えることを特徴とする座標入力装置の制御方法。
【0255】
<実施態様19> 座標入力面上で指示された位置の入力座標を検出し、該入力座標に基づく座標を出力する座標入力装置の制御をコンピュータで実現するプログラムであって、
操作者によって指示された座標入力面上の位置の入力座標を検出する検出工程のプログラムコードと、
前記入力座標を拡大するための基準となる拡大基準点を入力する拡大基準点入力工程のプログラムコードと、
前記入力座標を拡大する拡大率を決定するための拡大率基準点を入力する拡大率基準点入力工程のプログラムコードと、
前記入力座標と前記拡大率基準点との位置関係に基づいて、前記拡大率を決定する決定工程のプログラムコードと、
前記拡大率と前記拡大基準点に基づいて、前記拡大基準点と前記入力座標を結ぶ方向に前記入力座標を拡大した座標を算出する算出工程のプログラムコードと、
前記算出工程で算出された座標を出力する座標出力工程のプログラムコードと、
を備えることを特徴とするプログラム。
【0256】
以上、実施形態例を詳述したが、本発明は、例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能であり、具体的には、複数の機器から構成されるシステムに適用しても良いし、また、一つの機器からなる装置に適用しても良い。
【0257】
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接あるいは遠隔から供給し、そのシステムあるいは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによっても達成される場合を含む。
【0258】
従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。
【0259】
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
【0260】
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などがある。
【0261】
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムそのもの、もしくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
【0262】
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせ、その鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。
【0263】
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現され得る。
【0264】
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれた後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行ない、その処理によっても前述した実施形態の機能が実現される。
【0265】
【発明の効果】
以上説明したように、本発明によれば、指示箇所の視認性を向上することができる座標入力技術を提供できる。
【図面の簡単な説明】
【図1】本発明の実施形態1の座標入力装置による座標入力方法を説明するための図である。
【図2】本発明の実施形態1の座標入力装置による座標入力方法を説明するための図である。
【図3】本発明の実施形態1の座標算出処理を示すフローチャートである。
【図4】本発明の実施形態2の座標入力装置による座標入力方法を説明するための図である。
【図5】本発明の実施形態2の座標算出処理を示すフローチャートである。
【図6】本発明の実施形態3の座標入力装置による座標入力方法を説明するための図である。
【図7】本発明の実施形態3の座標算出処理を示すフローチャートである。
【図8】本発明の実施形態4の座標入力装置による座標入力方法を説明するための図である。
【図9】本発明の実施形態4の座標算出処理を示すフローチャートである。
【図10】本発明の実施形態5の座標入力装置による座標入力方法を説明するための図である。
【図11】本発明の実施形態5の座標算出処理を示すフローチャートである。
【図12】本発明の実施形態6の座標入力装置の座標入力ペンの基本構成を示す図である。
【図13】本発明の実施形態6の座標入力装置の基本構成を示すブロック図である。
【図14】本発明の実施形態6の3次元(空間)座標計測可能な座標入力装置の概略構成を示す図である。
【図15】本発明の実施形態6の座標入力ペンの構成を示す図である。
【図16】本発明の実施形態6の音波の到達時間検出方法を説明するためのタイミングチャートである。
【図17】本発明の実施形態6の音波の到達時間検出を実現する検出回路のブロック図である。
【図18】本発明の実施形態6の演算制御回路の概略構成を示すブロック図である。
【図19】本発明の実施形態6の3次元(空間)座標入力可能な座標入力装置の座標算出方法を説明するための図である。
【図20】従来技術を説明するための図である。
【符号の説明】
21 座標入力ペン
302 駆動回路
303 発振子
304 座標入力装置
305 超音波センサ
306 波形処理回路
307 CPU
308 座標算出プログラム
309 文字認識エンジン
310 メモリ
311 無線インタフェース
312 ROM[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a coordinate input / output technique for detecting input coordinates of a position designated on a coordinate input surface and outputting coordinates based on the input coordinates.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a coordinate input device capable of inputting coordinates is disposed on a display surface of a display device such as a CRT display, a liquid crystal display (LCD), or a projector, so that pointing or handwriting performed by an operator can be performed. 2. Description of the Related Art Devices that can be displayed on a display and realize a relationship like paper and a pencil are known.
[0003]
Examples of the coordinate input device include a resistive film type, an electrostatic type, an ultrasonic type that transmits ultrasonic waves to a coordinate input surface such as glass, an ultrasonic type, a type having a transparent input plate, an optical type, or a type in which sound waves are transmitted in the air. There is a method of detecting a position by emitting light. Furthermore, as in the electromagnetic induction (electromagnetic transfer) system, a mechanism for calculating coordinates is arranged on the back side of the display device, and a transparent protective plate is arranged on the front of the display device to configure an information device with integrated input and output Some do.
[0004]
Such information devices began with small electronic organizers having portability, and with the increase in size of display devices such as pen input computers, relatively large-sized information devices have come to be seen. Then, in combination with a front projector, a rear projector, or a large display device such as a large liquid crystal display or a plasma display, it has begun to be used for a presentation device, a TV conference system, and the like.
[0005]
These large liquid crystal displays and plasma displays are still being improved in image quality and cost reduction, and with the digitalization of satellite broadcasting and the like, the specification of televisions is entering a transitional state.
[0006]
In addition, these large display devices, for example, in place of a whiteboard or electronic blackboard used in the office, by displaying data for materials prepared in advance in a terminal such as a personal computer on the large display device, It has begun to be used for meetings and meetings. In that case, the information displayed on the display for display is controlled by directly touching the screen to update the display information by the operator or the attendees, such as a whiteboard, for example, the display screen. Is configured to be able to switch the display content.
[0007]
[Problems to be solved by the invention]
However, such a large-sized integrated input / output system has the following problems.
[0008]
This type of large-sized integrated input / output system can be used as a conference system in business, but it is particularly useful for explaining important matters prior to voting, selling new products to customers, explaining new plans, etc. Presentation applications occupy an important place.
[0009]
On the other hand, in a conventional presentation, OHP is often used. In such a case, it is common to use a pointing stick or a pointing stick in order to clarify an explanation place and strengthen an impression. The important thing at the time of presentation is how to convey the contents accurately and impressively to the audience, and have persuasiveness. To that end, it is effective for the presenter to speak in the eyes of the listener.
[0010]
In some cases, it is also required to be flexible, such as changing the way of explanation while listening to the response of the listener, and a presentation using a pointing stick with the face and body directed to the listener is effective. The advantage of the wand is that the presenter can stand by the screen himself and speak to the listener accurately while instructing the contents on the screen, thus giving an effective presentation. It can be said that it is a means of instruction that has been used on a daily basis and has a proven track record. Moreover, since the pointed position is indicated by the tip of the bar, the visibility is good and the listener can easily check the pointed position.
[0011]
However, when the screen is large, there is a drawback that an area that cannot be reached by the length of the pointer cannot be pointed, and in order to solve the problem, the length becomes longer and the weight becomes heavier. In addition, there is a disadvantage that the length of the pointing rod is constant, and the length of the pointing rod cannot be changed depending on the screen size and the pointed position. To improve this, foldable pointer bars also exist, but length and weight problems still remain. In other words, in order to change the length, bothersome stretching work is required, and the length of the extension is limited. Furthermore, there is a concern that the screen may be damaged due to the tip of the indicator stick touching the screen surface.
[0012]
In contrast to this, there is a laser pointer used not only when the screen is large but also when the distance from the screen is large. Since the laser pointer is relatively small and light, it is easy to use and the use thereof is increasing. However, in recent years, there is a concern that the laser beam may cause eye damage, causing a problem in safety, and at the same time, compared with the pointing stick, since the pointing is performed only with the point, it is difficult for the listener to visually recognize the pointed position. There was a drawback that it was difficult to follow.
[0013]
Furthermore, both the conventional pointing rod (pointing rod) and the laser pointer are merely pointing means for a simple display surface, and needless to say, there is no information input function by coordinate input to an information device having a large display device. Not even.
[0014]
On the other hand, as a form of presentation that has been rapidly established in recent years, a computer screen of a personal computer (PC) is projected on a large screen by a projector, and an instruction is given to the computer screen by an input device such as a mouse. It is a form.
[0015]
The presentation using this PC can be visually and effectively appealing using the graphics screen realized by the PC, and the electronic information can be displayed as it is, which is more convenient than the presentation using the conventional OHP. Excellent in nature. However, when using a mouse to indicate an emphasis point or the like, the presenter is located on the PC side and operates the mouse while looking at the PC screen or sitting down. , The visibility of the cursor is inferior. In addition, there is a problem that the presenter lacks persuasiveness because the presenter stands by the screen and does not face the listener.
[0016]
Furthermore, the movement of the mouse cursor is an input device originally designed for the operator to operate while looking at the small display screen of the PC at a short distance from the eyes on the desk, and the repetitive movement of the mouse on the mouse pad is performed. This is a relative coordinate input method for inputting coordinates in response to various operations. As is well known, in the PC, the enlargement ratio when the input coordinates are enlarged and the coordinates are output at a fixed magnification with respect to the moving distance of the mouse can be arbitrarily set. FIG. 20 schematically illustrates the coordinate expansion method in the conventional relative coordinate input method represented by a mouse or the like.
[0017]
In FIG. 20, the start point of a series of operations is defined as a reference point (x0, Y0), The locus of the coordinates input by the mouse is represented by O (x0, Y0) → a (x, y) trajectory. Here, if the enlargement ratio is set to twice, the output coordinates are O (x0, Y0) → Draw a locus of A (X, Y). In this case, since the enlargement ratio is twice as large as the reference point O, which is the starting point, X = 2x and Y = 2y.
[0018]
Here, the starting point of the input coordinates and the output coordinates of the mouse is set to the same point for simplification of description, but there is usually an offset. In addition, because of the relative coordinate system, this offset is generated each time the mouse is repeatedly lifted from the mouse pad (corresponding to pen-up in pen input) and repositioned (corresponds to pen-down in pen input). It is well known that it fluctuates.
[0019]
On the other hand, the movement of the tip of the pointing rod (= output coordinates) is, of course, an absolute coordinate system, and if the position of the hand holding the pointing rod is used as the input coordinates, it is indicated exactly on the extension of the arm around the elbow. The movement of the tip of the bar (= output coordinates) is typical.
[0020]
Therefore, in the above-described relative enlarged (reduced) coordinate system with respect to an arbitrary reference point in a relative coordinate system represented by a conventional mouse, the conventional pointing stick as an effective presentation tool for a large display device. It is difficult to reflect the movement of the (pointing rod), and it is difficult to effectively realize coordinate input like a pointing rod.
[0021]
Specifically, in the relative enlargement (reduction) coordinate system with respect to an arbitrary reference point in the above-described conventional relative coordinate system represented by mouse input, an operation on a display screen of a personal computer having a relatively small screen is as described above. Then, the mouse is lifted from the mouse pad (corresponding to pen-up in pen input) and re-placed (corresponding to pen-down in pen input), and the offset between input coordinates and output coordinates fluctuates. The entire input range can be covered.
[0022]
However, in the large-screen input / output integrated system, which is the main object of the present invention, when realizing usability like a conventional indicator rod, the offset variation of the relative coordinate system as described above may be reduced. Because it is an absolute coordinate system that does not cause operations, it is difficult to specify and cover the entire area of the large screen from the nearest corner part to the farthest corner with the usual fixed magnification setting Is accompanied.
[0023]
In addition, in a relative enlarged (reduced) coordinate system with respect to an arbitrary reference point in a relative coordinate system represented by the above-mentioned conventional mouse input, a continuous series of input states in which the reference point is kept pen-down at the same time as the enlargement ratio. In, the reference point for enlargement is fixed, this is canceled at the time of pen-up, and the start point of the next pen-down becomes the reference point for the next continuous series of input states. However, when the position fluctuation of the reference point is applied to a large-screen input / output integrated system, the reference point fluctuates each time for an input form such as a conventional indicator rod, and the continuity between strokes disappears. Since there is no relation between the reference point and the input operation of the operator, if the relative coordinate system in the conventional mouse input is used as it is for the input of the virtual pointing rod, the usability is a problem.
[0024]
As described above, there has been a demand for a coordinate input unit having excellent operability of a large-screen input / output integrated system having both the usability of a conventional indicator rod.
[0025]
The present invention has been made to solve the above-described problem, and has as its object to provide a coordinate input technique capable of improving the visibility of a designated portion.
[0026]
[Means for Solving the Problems]
A coordinate input device according to the present invention for achieving the above object has the following configuration. That is,
A coordinate input device that detects input coordinates of a position specified on a coordinate input surface and outputs coordinates based on the input coordinates,
Detecting means for detecting input coordinates of a position on the coordinate input surface specified by the operator;
Enlargement reference point input means for inputting an enlargement reference point serving as a reference for enlarging the input coordinates,
Magnification ratio reference point input means for inputting a magnification ratio reference point for determining a magnification ratio for enlarging the input coordinates,
Determining means for determining the magnification, based on the positional relationship between the input coordinates and the magnification reference point,
Calculation means for calculating coordinates obtained by enlarging the input coordinates in a direction connecting the enlargement reference point and the input coordinates, based on the enlargement ratio and the enlargement reference point,
Coordinate output means for outputting the coordinates calculated by the calculation means,
Is provided.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[0028]
<< First Embodiment >>
First, a coordinate calculation method for calculating output coordinates with respect to input coordinates in a coordinate input means (hereinafter, referred to as a virtual pointing stick) for realizing the usability of a pointing stick (pointing stick) which is the main feature of the present invention will be described with reference to FIG. This will be described using FIG.
[0029]
FIG. 1 is a diagram for explaining a coordinate input method by the coordinate input device according to the first embodiment of the present invention.
[0030]
FIG. 1 assumes a large-screen integrated input / output system in order to better illustrate the features of the present invention. The system shown in FIG. 1 is an example of a system in which a coordinate input device is built in a rear projection display device 101. This device is an integrated input / output system, in which various information output by a computer connected to the system is displayed on a screen 102, and the coordinate input pen 21 inputs coordinate data by directly touching the screen 102. be able to.
[0031]
That is, the coordinate input surface in the integrated input / output system is formed by a surface overlapping the screen 102. The coordinate data input via the coordinate input surface can be used for icon operations (computer operations), cursor movement, graphic drawing (cursor locus), and the like.
[0032]
The coordinate input device calculates the input coordinates of the coordinate input pen 21 and, in order to make the coordinate input pen 21 function as a virtual pointing rod, calculates the virtual pointing rod tip pointing coordinates based on the input coordinates and sends the coordinates to the computer. Send out. On the other hand, the computer causes the screen 102 of the rear projection display device 101 to feed back an image based on the virtual pointing rod tip pointing coordinates. Thus, the operator can use the coordinate input pen 21 as a virtual pointing stick (virtual pointing stick), and can operate the computer with the virtual pointing stick, for example.
[0033]
Although the coordinate input means in the coordinate input device of FIG. 1 uses the coordinate input pen 21, a touch panel method may be used as long as it can input coordinates on the coordinate input surface.
[0034]
The coordinate input device is a standard component (for example, a CPU, a RAM, a ROM, a hard disk, an external storage device, a network interface, a display, a keyboard, a mouse, etc.) mounted on a general-purpose computer such as a personal computer or a workstation. have.
[0035]
Further, the coordinate input device has hardware or software for realizing the coordinate calculation processing of each embodiment described below.
[0036]
Next, a coordinate calculation process performed by the coordinate input device according to the first embodiment will be described with reference to FIGS.
[0037]
FIG. 2 is a diagram for explaining a coordinate input method by the coordinate input device according to the first embodiment of the present invention. FIG. 3 is a flowchart illustrating the coordinate calculation process according to the first embodiment of the present invention.
[0038]
Here, with respect to the coordinates (x, y) input by the coordinate input pen 21 in FIG. 1, the virtual pointing rod tip pointing coordinates (X, y) which are the tip coordinates of the virtual pointing rod are obtained by the coordinate calculation processing of the flowchart shown in FIG. 3. The processing procedure for outputting Y) will be described.
[0039]
Prior to describing the specific coordinate calculation processing of the first embodiment in conjunction with the flowchart shown in FIG. 3, first, the virtual pointing rod based on the position of the elbow moving with the shoulder position as a fulcrum, which is a feature of the present invention, is described. The coordinate calculation principle for calculating the tip designation coordinates will be described. By this coordinate calculation principle, a more natural operation environment for the operation of the operator can be realized.
[0040]
As shown in FIG. 2, the motion of the human arm is not limited to the motion using only the elbow as a fulcrum, but is a composite motion with the motion using the shoulder as a fulcrum.
[0041]
The principle of the coordinate calculation of the present invention is based on the human shoulder reference point O0(X0, Y0) Is constant, the coordinates indicated by the coordinate input pen 21 (or the touch panel) indicated by the hatched area in the figure are the position of the elbow (elbow reference point) Oe (xe, Ye), And that it is determined by the function of the elbow angle θe.
[0042]
In this case, the elbow reference point Oe (xe, Ye) Satisfies the following equation.
[0043]
(Xe-X0)2+ (Ye) -Y0)2= Re2
On the other hand, the elbow reference point Oe (xe, Ye) As a reference, the pen indicated point (x, y) satisfies the following equation:
(Xxe)2+ (Y-ye)2= (R-re)2
Therefore, conversely, the shoulder reference point O0(X0, Y0) And the pen pointing point (x, y) are obtained, the position of the elbow (elbow reference point) Oe (xe, Ye), And the angle θe of the elbow can be calculated.
[0044]
Here, the elbow reference point Oe (xe, Ye) Is (xe1, Ye1) And (xe2, Ye2)
The angle θe between the elbow and the arm is
θe <90 °
Therefore, the above two points are:
ye1  <Ye2
Becomes Therefore, the point satisfying this condition is (xe1, Ye1) Calculated by the elbow reference point Oe (xe, Ye).
[0045]
Also, θe = tan-1((Y-ye1) / (Xxe1))
Can be calculated.
[0046]
If the pen pointing point (x, y) can be calculated as described above, the reference point Oe (xe1, Ye1), And the angle θe between the elbow and the arm can be calculated. Then, based on these data, the tip pointing coordinates (X, Y) of the virtual support bar can be calculated.
[0047]
Explaining a specific coordinate calculation process based on the above conditions, the processing procedure is as shown in FIG.
[0048]
Note that the coordinate expansion processing described in the present invention is, in other words, processing of outputting coordinates obtained by multiplying input coordinates by a magnification (magnification rate) described below. It can also be described as a conversion process for converting input coordinates into different coordinates. Here, for the operator, since the coordinates output by this processing are visually recognized as if the input coordinates are output as enlarged coordinates, in the following description, for the sake of convenience, the above processing will be referred to as the coordinate expansion. Expressed as processing.
[0049]
First, prior to the actual coordinate input operation, in steps F1-1 to 1-5, settings relating to the virtual pointing rod are performed.
[0050]
First, in step F1-1, the shoulder reference point O, which is the position of the shoulder of the operator.0(X0, Y0). This shoulder reference point is an enlargement ratio reference point for determining an enlargement ratio when the input coordinates are enlarged based on the coordinates.
[0051]
Regarding the input of the shoulder reference point, the coordinates corresponding to the shoulder reference point on the coordinate input surface corresponding to the screen 102 may be numerically input by an input device such as a keyboard. Alternatively, the coordinate input pen 21 may be applied to the position of the shoulder to input the position as a shoulder reference point. Further, as the shoulder reference point, not only the coordinates within the coordinate input plane corresponding to the screen 102 but also the coordinates of an area outside the coordinate input plane corresponding to the screen 102 may be input.
[0052]
However, since the input range of the coordinate input pen 21 and the touch panel is usually limited to an area in the coordinate input surface corresponding to the screen 102, there is no problem when inputting the shoulder reference point with an input device such as a keyboard. When the coordinate input pen 21 is applied to the position of the shoulder to input the position as a shoulder reference point, the input range is limited to an area in the coordinate input plane corresponding to the screen 102. Further, the setting of the various setting values (shoulder reference point, elbow reference point, enlargement ratio, etc.) may be performed along a menu screen in application software.
[0053]
Next, in step F1-2, the farthest diagonal point (x2, Y2) Enter the coordinates. Since this numerical value is usually a known value as the size of the display screen 102 of the coordinate input device, it may be stored in the memory of the coordinate input device at the time of shipment from the factory, or the coordinate value may be stored in an input device such as a keyboard. May be entered directly. Further, after the power is turned on or every time initial setting is performed before use, various setting values may be input by designating a target position with the coordinate input pen 21 (or touch panel).
[0054]
Next, in step F1-3, the elbow reference point Oe (xe, Ye).
[0055]
Regarding the input of the elbow reference point, for example, with the operator holding the coordinate input pen 21, the diagonal furthest point (x2, Y2The user touches the coordinate input pen 21 at the position of the operator's elbow when instructing the direction of (1) (or inputs the coordinates of the position of the elbow with an input device such as a keyboard) and inputs the position as an elbow reference point. The elbow reference point is an enlargement reference point for determining a reference when enlarging input coordinates based on the coordinates.
[0056]
In step F1-3, the distance re from the shoulder to the elbow of the operator is set. At the same time, a maximum value bmax of the length b from the elbow to the tip of the virtual pointing rod is set. This bmax is calculated by the following equation.
[0057]
bmax = (x2-Xe0) Secθ
Where θ = tan-1((Y2-Ye0) / (X2-Xe0))
It is.
[0058]
Next, in Step F1-4, the pen tip position of the coordinate input pen 21 (or the fingertip position of the touch panel) (x1, Y1). Regarding this input, similarly to step F1-3, the operator holds the coordinate input pen 21 and the diagonally distant point (x2, Y2) Is input at the time of virtual instruction (or the position of the pointing finger on the touch panel).
[0059]
Also, the length a (= R-re, R: distance from the shoulder to the pen tip position) from the elbow to the pen tip (finger tip), and the shoulder reference point O0(X0, Y0) And a pen (touch panel) designated coordinate (x, y), the maximum value Cmax of the x-coordinate distance C is set.
[0060]
The length a is calculated by the following equation.
[0061]
a = (x1-Xe0) Secθ
θ = tan-1((Y1-Ye0) / (X1-Xe0))
= Tan-1((Y2-Ye0) / (X2-Xe0))
The length a is also the maximum value bmin of the length b from the elbow of the operator to the tip of the virtual pointing rod.
[0062]
The maximum value Cmax is calculated by the following equation.
[0063]
Cmax = x1-X0
Steps F1-3 and F1-4 described above may be performed simultaneously as one step.
[0064]
Next, in step F1-5, the nearest point (x3, Y3) Enter the coordinates (default). Thereby, the minimum value Cmin of the distance C is set.
[0065]
The minimum value Cmin is calculated by the following equation.
[0066]
Cmin = x3-X0
In the above steps F1-1 to F1-5, the setting of various setting values related to the virtual pointing stick and the arm is completed.
[0067]
Regarding the input of the shoulder reference point in step F1-1 and the input of the elbow reference point in F1-3, either an input device such as a keyboard or the coordinate input pen 21 is used as the input method. In any case, since the actual input operation is complicated, for example, a typical reference point candidate may be prepared and easily selected on a menu selection screen.
[0068]
Further, by giving physical information of the operator (distance re from the shoulder to the elbow and length a from the elbow to the pen tip (fingertip)) as a predetermined typical known value, in step F1-3, Diagonal furthest point (x2, Y2), The shoulder reference point and the elbow reference point may be automatically calculated by inputting only one point.
[0069]
In the next steps F1-6 to F1-9, in the case of the actual coordinate input pen 21 or the touch panel, the coordinate calculation processing of the virtual support rod tip pointing coordinate corresponding to the touch position is performed, and the calculated coordinate value is output. .
[0070]
First, in step F1-6, input coordinates (x, y) of the operator's actual coordinate input pen 21 (or touch position in the case of a touch panel) are detected. This is a coordinate calculation in a normal coordinate input method.
[0071]
Next, in step F1-7 and step F1-8, the virtual support rod tip instruction is performed based on the set values regarding the operator's shoulder, elbow, and virtual indicator rod calculated by the above-described processing, and the operator's designated coordinates. Calculate the coordinates.
[0072]
First, in step F1-7, the elbow reference point Oe (x) corresponding to the designated coordinates (x, y)e, Ye) And the angle θe between the elbow and the arm. Specifically, it is calculated by the following equation.
[0073]
(Xe-X0)2+ (Ye) -Y0)2= Re2
(Xxe)2+ (Y-ye)2= (R-re)2
Then, two points (xe1, Ye1) And (xe2, Ye2)
ye1<Ye2Elbow reference point Oe (xe, Ye) Is calculated. Also, the calculated elbow reference point Oe (xe, Ye), The angle θe between the elbow and the arm is calculated by the following equation.
[0074]
θe = tan-1((Y-ye) / (Xxe))
Next, in step F1-8, the virtual support rod tip designation coordinates (X, Y) are calculated, and the coordinates are output.
[0075]
Specifically, it is calculated and output by the following equation.
[0076]
(X, Y) = (xe) + (Xx)e) * D, ye) + (Yy)e) * D)
Here, D = b / a. That is, the position of the virtual support rod tip indicating coordinates (X, Y) is enlarged to the length b from the elbow to the virtual pointer tip with respect to the length a from the elbow to the pen tip (fingertip). Represents the magnification.
[0077]
This equation is based on the elbow reference point Oe (xe, Ye), The calculation of the coordinates enlarged in the direction connecting the enlargement reference point and the designated coordinates (x, y) which are the detection coordinates at the enlargement ratio D which fluctuates as shown below.
[0078]
The length a and the length b are
a = bmin ≦ b ≦ bmax
Is satisfied, the enlargement ratio D is
1 ≦ D ≦ bmax / a
Range.
[0079]
In the first embodiment, the enlargement ratio D is further set to the shoulder reference point O0(X0, Y0) And pen (touch panel) designated coordinates (x, y) as a function of the distance C of the x coordinate. This is specifically shown by the following equation.
[0080]
D = (α-1) / β * c + 1 + cmin (α-1) / β
α = bmax / a, β = cmax−cmin
According to this formula, the position of the virtual support rod tip designation coordinates (X, Y) is determined by the operator at the diagonally farthest point (x2, Y2) Is virtually given, c = cmax. Therefore, the diagonally farthest point (x2, Y2), And the closest point (x3, Y3), C = cmin, and the enlargement ratio D is 1. Therefore, the nearest point (x3, Y3).
[0081]
Thus, the enlargement ratio D is equal to the shoulder reference point O which is the enlargement ratio reference point.0(X0, Y0) And the pen-instructed coordinates (x, y) vary with the x-coordinate distance C, so that the entire area of the display screen 102 can be designated with the virtual pointing stick.
[0082]
In the first embodiment, the distance between the operator's shoulder reference point and the x coordinate of the input coordinate is used as a parameter for changing the enlargement ratio D, but this may be the distance between the two points. Further, the positional relationship between the position of another part of the operator and the designated coordinates may be varied. Further, the enlargement ratio D may be varied not in relation to the operator's part but in relation to, for example, the distance between a predetermined enlargement ratio reference point on the display device 101 and the input coordinates.
[0083]
Further, as shown in FIG. 2, the virtual support rod tip pointing coordinates (X, Y) are calculated from the operator's elbow as an enlargement reference point by the operator's actual coordinate input pen 21 (or in the case of a touch panel, In the angular direction toward the touch position (x, y)), a virtual instruction is given at a position multiplied by an enlargement factor D, which is a ratio of the length from the elbow to the pen tip (fingertip) to the tip of the desired virtual indicator rod. The coordinates of the tip of the bar can be output.
[0084]
Thereby, the reference point and the virtual pointing rod based on the physical condition of the operator, which cannot be realized in the enlarged (reduced) coordinate system for an arbitrary reference point in the relative coordinate system represented by the conventional mouse. Since the coordinates can be calculated based on the set values related to the coordinates, it is possible to realize an operational feeling with the pointing stick using the coordinate input pen 21 or a finger.
[0085]
Further, with the change of the position of the elbow forming the angle of the virtual pointing rod, the reference point also moves, so that an instruction can be given by the virtual pointing rod that is closer to the actual movement of the arm. This is because the elbow reference point corresponding to the input coordinate is always calculated based on the previously input shoulder reference point in accordance with the change of the coordinate input pen 21 or the touch position coordinate, and the angle from the elbow reference point toward the input position is calculated. Is the natural angle of the virtual indicator rod.
[0086]
Next, in step F1-9, it is determined whether or not there is a change in the condition (length and direction) of the virtual pointing rod by changing the various setting values calculated in steps F1-1 to F1-5. If there is a change (YES in step F1-9), the process returns to step F1-1. On the other hand, when there is no change (NO in step F1-9), the process returns to step F1-6.
[0087]
This change operation can be realized by, for example, selection from a menu or a switch of the coordinate input pen 21.
[0088]
In the first embodiment, the relationship between the shoulder and the elbow is described as a relatively simple coordinate input device based on a motion model in which the base of the shoulder is used as a fulcrum and the elbow is rotated about the fulcrum. Is for simplifying the coordinate calculation process, and is not limited to this. For example, corresponding to the actual human movement, the shoulder makes a constant curve movement with respect to the other fulcrum, and further performs coordinate calculation processing based on a more complicated movement model such as taking into account the movement of the wrist, A more accurate and natural movement may be realized.
[0089]
In addition, from the elbow of the operator as a reference point, the pen tip is moved from the elbow in an angular direction toward the input coordinates (x, y) of the operator's actual coordinate input pen 21 (or the touch position in the case of a touch panel). The coordinates of the tip of the virtual indicator rod are output at the position multiplied by the magnification ratio D, which is the ratio of the length to the fingertip and the length to the tip of the desired indicator rod. The coordinates may be output in consideration of the wrist angle in such a case.
[0090]
In other words, in order to output coordinates in a direction obtained by adding the angle θoff of the tilt of the wrist when the pointing rod (pointing rod) is further provided to the angle θ between the elbow and the arm as an angle offset, A configuration in which the angle θoff is set or input by the operation of the operator may be provided in advance.
[0091]
Further, the virtual pointing rod tip pointing coordinates are calculated based on the position of the elbow moving with the shoulder position as a fulcrum. However, the virtual pointing rod tip pointing coordinates may be further simplified to calculate the virtual pointing rod tip pointing coordinates using the elbow position as a fixed value. Good. In this case, the calculation load in the coordinate calculation process can be further reduced.
[0092]
As described above, according to the first embodiment, even when the coordinate input pen 21 (or touch input) is used, the large-screen input / output integrated operability having excellent visibility of the designated portion and excellent usability is excellent. A coordinate input device can be provided.
[0093]
In particular, according to the first embodiment, the virtual pointing rod tip pointing coordinates (for example, a cursor) corresponding to the input coordinates are output following the movement of the physical position of the operator's elbow and further the shoulder and the like. Output coordinates close to the locus of the tip of the conventional pointing rod can be output.
[0094]
The virtual pointing rod tip coordinates output by expanding the input coordinates are performed with respect to the reference point along the operator's motion, and the magnification itself follows the movement of the operator holding the pointing rod. Therefore, a natural input feeling can be obtained, and an instruction can be given to the entire input screen area of the large screen input / output integrated type.
[0095]
Further, it is not only possible to realize the operation like the conventional pointing rod, there is no limitation on the length of the defect of the conventional pointing rod, there is no burden on the hand, and there is little damage to the screen, and Since it is possible to input data to an electronic information device such as a connected PC or the like, a tool for an electronic conference represented by a more efficient presentation can be provided.
[0096]
In realizing the present invention, it is relatively easy to use the conventional input / output integrated device in terms of device limitations, while if the present invention is realized in a coordinate input device capable of three-dimensional input described later. Thus, it is possible to realize a more natural operation environment that is more faithful to the instruction operation of the operator.
[0097]
<< Embodiment 2 >>
In a second embodiment, a modified example of the first embodiment will be described.
[0098]
First, a coordinate calculation process performed by the coordinate input device according to the second embodiment will be described with reference to FIGS.
[0099]
FIG. 4 is a diagram for explaining a coordinate input method by the coordinate input device according to the second embodiment of the present invention. FIG. 5 is a flowchart illustrating a coordinate calculation process according to the second embodiment of the present invention.
[0100]
Here, a processing procedure for outputting the virtual pointing rod tip pointing coordinates (X, Y) by the coordinate calculation processing of the flowchart shown in FIG. 5 with respect to the input coordinates (x, y) by the coordinate input pen 21 in FIG. explain.
[0101]
First, in step F1-11, the input coordinates (x, y) of the operator's actual coordinate input pen 21 (or touch position in the case of a touch panel) are detected.
[0102]
Next, in step F1-21, the area of the area where the input coordinates (x, y) exist is determined.
[0103]
In the second embodiment, as shown in FIG. 4, the screen 102, which is a coordinate input surface, is divided into a left area A and a right area B, and this area information is stored in the coordinate input device in advance. deep.
[0104]
Here, assuming that the lower left corner coordinates of the screen 102 as the coordinate input surface are (0, 0) and the upper right corner coordinates are (a, b), the screen 102 is divided into a left area A and a right area B. The boundary line is x = a / 2.
[0105]
Therefore, in the area determination in step F1-21, it is determined whether or not the x coordinate of the input coordinate (x, y) satisfies x> a / 2. That is, when x> a / 2, the input coordinates (x, y) are determined to be in the right area B, and when X ≦ a / 2, the input coordinates (x, y) are in the left area A. Is determined.
[0106]
In step F1-21, if x> a / 2 (YES in step F1-21), the flow advances to step F1-31 to set the lower right corner coordinates OB (b, 0) of the right region B stored in advance as the enlargement reference. Point (x0, Y0). On the other hand, if X ≦ a / 2 (NO in step F1-21), the flow advances to step F1-41 to move the previously stored lower left corner coordinate OA (0, 0) of the left area B to the enlargement reference point (x0, Y0).
[0107]
Then, in step F1-51, the input coordinates (x, y) are enlarged by the enlargement ratio D and any one of the enlargement reference points of the reference points in each of the left area A and the right area B, and the tip of the virtual indicator rod is designated. The coordinates (X, Y) are calculated. Specifically, it is calculated and output by the following equation.
[0108]
(X, Y) = (x0+ (Xx0) * D, y0+ (Y-y0) * D)
The enlargement ratio D is the ratio of the length from the enlargement reference point to the pen tip (fingertip) designated position (x, y) and the length from the desired virtual pointing stick tip, and is stored in the coordinate input device in advance.
[0109]
As can be seen from this equation, the virtual support rod tip pointing coordinates (X, Y) are, as shown in FIG. 4, the input coordinates of the operator's actual coordinate input pen 21 (or the touch position in the case of a touch panel). In accordance with the area where (x, y) is present, the virtual pointing rod tip pointing coordinates are output from the outside of the area toward the center, which is the pointing destination of the virtual pointing rod, at a fixed magnification D. can do.
[0110]
When the operator stands on the left side of the display screen 102 and points to the left area B, the enlargement reference point is at the lower left, and (XA, YAThe cursor is shown as the tip of the virtual pointing stick from the left to the center indicated by ()).
[0111]
On the other hand, in the case of the right side, the opposite is true, and a virtual instruction can be given to a person who is not automatically shaded by the operator based on the instruction position of the operator. This is an operation environment that cannot be realized in a conventional enlarged (reduced) coordinate system for an arbitrary reference point in a relative coordinate system represented by a mouse.
[0112]
Then, in a step F1-61, it is determined whether or not the coordinate input pen 21 is pen-up. If it is not pen-up (NO in step F1-61), the flow returns to step F1-61, and the above processing is repeated until pen-up is determined. On the other hand, if it is pen-up (YES in step F1-61), the process ends.
[0113]
In the second embodiment, the enlargement reference point in each area is provided in the lower corner area of each area. This is set on the premise that it is suitable as a reference point for defining the tip of. However, it is needless to say that, in order to further improve the operability, an enlargement reference point of each area may be set in an area other than the above depending on the shape, specification, and purpose of use of the display device 102.
[0114]
As described above, according to the second embodiment, in addition to the effects described in the first embodiment, the display position of the virtual pointing rod tip pointing coordinates is automatically switched according to the coordinate input area, so that the operation itself and the operation itself are always performed. The virtual pointing rod tip pointing coordinates can be output to a distant position, and the pointing portion can be prevented from being shadowed by the operator.
[0115]
<< Embodiment 3 >>
In the second embodiment, the screen 102, which is a coordinate input surface, is divided into a left area A and a right area B. However, in the third embodiment, in order to further improve operability, as shown in FIG. An intermediate area C is provided between A and the right area B. However, in this intermediate area C, the coordinate enlargement processing is not executed.
[0116]
Hereinafter, a coordinate calculation process performed by the coordinate input device according to the third embodiment will be described with reference to FIGS. 6 and 7.
[0117]
FIG. 6 is a diagram for explaining a coordinate input method by the coordinate input device according to the third embodiment of the present invention. FIG. 7 is a flowchart illustrating a coordinate calculation process according to the third embodiment of the present invention.
[0118]
Here, a processing procedure for outputting the virtual pointing rod tip pointing coordinates (X, Y) by the coordinate calculation processing of the flowchart shown in FIG. 7 with respect to the input coordinates (x, y) by the coordinate input pen 21 in FIG. explain.
[0119]
First, in step F2-1, the input coordinates (x, y) of the operator's actual coordinate input pen 21 (or touch position in the case of a touch panel) are detected.
[0120]
Next, in step F1-2, the area of the area where the input coordinates (x, y) exist is determined.
[0121]
In the third embodiment, as shown in FIG. 5, a left area A and a right area B facing the screen 102, which is a coordinate input surface, and an intermediate area C are provided.
[0122]
Here, assuming that the origin of the screen 102, which is the coordinate input surface, is the lower left corner coordinate (0, 0), the boundary between the left area A and the intermediate area C is X = a, and the boundary between the intermediate area C and the right area B is The boundary line is divided into regions so that X = b. Then, this area information is stored in the coordinate input device in advance.
[0123]
Therefore, in the area determination in step F2-2 and step F2-3, it is determined whether or not the x coordinate of the input coordinate (x, y) is x <a or x> b. That is, when x <a, the input coordinates (x, y) are determined to be in the left area A, and when a ≦ x <b, the input coordinates (x, y) are determined to be in the intermediate area C. If b ≦ x, the input coordinates (x, y) are determined to be in the right area B.
[0124]
Therefore, first, in step F2-2, when the x coordinate of the input coordinates (x, y) is x <a or x> b (YES in step F2-2), the process proceeds to step F2-3, where the input coordinates ( It is determined whether or not the x coordinate of (x, y) satisfies x <a. If x <a (YES in step F2-3), the flow advances to step F2-4 to move the previously stored lower left corner coordinates OA (0, 0) of the left area A to the enlargement reference point (x0, Y0). On the other hand, if X <a is not satisfied (NO in step F2-3), the process proceeds to step F2-5, and the lower right corner coordinates OB (c, 0) of the right region B stored in advance are set to the enlargement reference point (x0, Y0).
[0125]
Then, in the case of the left area A or the right area B, in step F2-7, the input coordinates (x, y) are enlarged by any of the enlargement reference points in each area and the enlargement ratio D, and the virtual pointing rod tip indication is performed. The coordinates (X, Y) are calculated. Specifically, it is calculated and output by the following equation.
[0126]
(X, Y) = (x0+ (Xx0) * D, y0+ (Y-y0) * D)
The enlargement ratio D is a ratio of the length from the reference point to the pen point (fingertip) pointed position (x, y) and the length from the desired virtual pointing rod tip, and is stored in the coordinate input device in advance.
[0127]
On the other hand, in step F2-2, if the x coordinate of the input coordinates (x, y) is not x <a or x> b (NO in step F2-2), the process proceeds to step F2-6, where the enlargement ratio D = 1. Is set, and the input coordinates (x, y) are output as they are.
[0128]
Then, in step F2-8, it is determined whether or not the coordinate input pen 21 has pen-uped. If it is not pen-up (NO in step F2-8), the process returns to step F2-1 and repeats the above processing until it is determined that pen-up has occurred. On the other hand, if it is pen-up (YES in step F2-8), the process ends.
[0129]
When the input is performed in the left area A or the right area B by the above processing, the cursor position of the virtual pointing stick suitable for each input position is calculated as in the first embodiment. When an input is made to the intermediate area C, the coordinates of the input position are output.
[0130]
In the instruction on the screen 102, which is a normal coordinate input surface, for example, in the case of input in the area on the left side, depending on the enlargement ratio, if the enlargement ratio is 2 or more, x = a of the screen 102 The virtual pointing rod tip pointing coordinates reach the right end of the screen 102, which is the coordinate input surface, on the left side of / 2, and there is no point in pointing the right side any further. That is, when the enlargement ratio is two times or more, an input area that is not actually used as a virtual pointing stick exists as an intermediate area.
[0131]
Therefore, in the third embodiment, an intermediate area not used for the enlargement instruction is provided as an intermediate area C, and is set as an equal-size area where the coordinates are not enlarged, so that the entire area of the screen 102 as the coordinate input surface can be efficiently used. I'm using
[0132]
Further, even when the enlargement ratio is not always twice or more, when the user actually designates the center area of the screen 102 which is the coordinate input surface, the user frequently uses the simple input rather than the pointing rod. Therefore, the configuration of the third embodiment is effective. Further, the range of the intermediate region C may be arbitrarily set by the operator.
[0133]
Further, for example, when the reference point of the left area A is (0, 0), and when the entire area is to be instructed to be enlarged in the area within the left area A, the boundary line x = In a, it is necessary to set the enlargement ratio so as to indicate x = c at the right end of the screen 102. The magnification in this case is determined by XL / XM = a / c in FIG. Further, the right region B is determined in the same manner.
[0134]
On the other hand, if the enlargement ratio is set to a certain value, on the other hand, the position of the boundary line with the intermediate region C corresponding to the enlargement ratio is determined. Therefore, when the operator sets the range of the intermediate region C, the enlargement ratio may be automatically determined. Conversely, when the operator can set an arbitrary enlargement ratio, the range of the intermediate area C may be automatically determined from the enlargement ratio.
[0135]
As described above, according to the third embodiment, in addition to the effects described in the first and second embodiments, the coordinate input area is divided into a plurality of areas, and each of the areas is assumed in consideration of the operating environment of the operator. By controlling the enlargement of the input coordinates, it is possible to realize the output of the virtual pointing tip pointing coordinates that more reflects the intention of the operator.
[0136]
<< Embodiment 4 >>
In the second embodiment, the enlargement reference point is set in advance at the lower corner of each area. However, the enlargement reference point may be set at an optimum position according to physical characteristics such as the height of the operator who actually operates. Further, the enlargement ratio from the enlargement reference point to the tip of the virtual indicator rod with respect to the designated position may be arbitrarily set.
[0137]
Hereinafter, a coordinate calculation process performed by the coordinate input device according to the fourth embodiment will be described with reference to FIGS. 8 and 9.
[0138]
FIG. 8 is a diagram for explaining a coordinate input method by the coordinate input device according to the fourth embodiment of the present invention. FIG. 9 is a flowchart illustrating a coordinate calculation process according to the fourth embodiment of the present invention.
[0139]
Here, a processing procedure for outputting the virtual pointing rod tip pointing coordinates (X, Y) by the coordinate calculation processing of the flowchart shown in FIG. 9 with respect to the input coordinates (x, y) by the coordinate input pen 21 in FIG. explain.
[0140]
First, in step F3-1, the operator inputs coordinates in a state where the coordinate input pen 21 is held horizontally with the shoulder (or with the touch panel), for example. Based on the input coordinates, the reference point OA (xA0, YA0), The reference point OB (xB0, YB0) Is set and stored in the coordinate input device.
[0141]
It is desirable that the reference point be adjusted at the end of each area in the X coordinate axis direction and the Y coordinate axis direction be adjusted by the input point of the operator described above. However, the reference point is not necessarily limited to these coordinates. Alternatively, any reference point desired by the operator may be set.
[0142]
Next, in step F3-2, with the operator holding the coordinate input pen 21, as shown in FIG. 8, the pen tip position (or the pointing fingertip position on the touch panel) P1 (x1, Y1). Further, the operator can select a desired virtual pointing stick tip pointing position P2 (x2, Y2) Is input while moving the cursor (displayed on the P1 extension line). The enlargement ratio D is set and stored from the input values based on the series of operator actions. The enlargement ratio D in this case is calculated by the following equation.
[0143]
D = OP2 / OP1 = (x2-X0) / (X1-X0)
Note that the reference point OA (xA0, YA0) And the reference point OB (xB0, YB0), The enlargement ratio D may be stored in advance based on a typical operator position obtained assuming a general presentation environment. Then, an appropriate reference point OA (x) is set in accordance with operator information about the operator, such as the operator's preference, purpose, position to stand on the screen, height, and dominant arm.A0, YA0) And the reference point OB (xB0, YB0), The enlargement ratio D may be selected, or may be selected from a prepared menu.
[0144]
Steps F3-4 to F3-7 described below correspond to steps F1-21 to F1-61 of the second embodiment, respectively, and a description thereof will be omitted.
[0145]
As described above, according to the fourth embodiment, in addition to the effects described in the first to third embodiments, the intention of the operator is more reflected by using the reference point appropriately reflecting the physical characteristics of the operator. It is possible to realize output of the virtual designated tip designated coordinates.
[0146]
<< Embodiment 5 >>
In the second to fourth embodiments, an individual reference point is set for each area of the screen 102 which is a coordinate input surface, and a process of enlarging a coordinate based on the reference point or a process of equal magnification is performed. However, the present invention is not limited to this. For example, in the case of performing an input operation continuously across the boundary of each area, even when moving to an adjacent area, the coordinate calculation processing is performed while maintaining the coordinate expansion processing based on the reference point of the first area. You may do it.
[0147]
Hereinafter, a coordinate calculation process performed by the coordinate input device according to the fifth embodiment will be described with reference to FIGS. 10 and 11.
[0148]
FIG. 10 is a diagram for explaining a coordinate input method by the coordinate input device according to the fifth embodiment of the present invention. FIG. 11 is a flowchart illustrating a coordinate calculation process according to the fifth embodiment of the present invention.
[0149]
Here, a processing procedure for outputting the virtual pointing rod tip pointing coordinates (X, Y) by the coordinate calculation processing of the flowchart shown in FIG. 11 with respect to the input coordinates (x, y) by the coordinate input pen 21 in FIG. explain.
[0150]
FIG. 10 shows a case where an intermediate region C is formed between a left region A and a right region B, as in FIG. 6 of the third embodiment. Here, first, it is assumed that the input of coordinates is started in the left area A, and then the instruction is continuously performed, that is, the instruction is moved to the intermediate area C with the pen down.
[0151]
In the third embodiment, in this case, the first input point (xA, YA), The output coordinates are enlarged, and (XA, YA) = (X0+ (Xx0) * D, y0+ (Y-y0) * D) is displayed, but when an instruction input enters the intermediate area C at the boundary line x = a and indicates an arbitrary point, the arbitrary point (xA’, YA’) Is output.
[0152]
On the other hand, in the fifth embodiment, even when the instruction input enters the intermediate area C at the boundary line x = a, the first input point (xA, YA), The virtual pointing rod tip pointing coordinates (XA, YA) To expand the coordinates (XA’, YA’).
[0153]
Hereinafter, the details of this processing will be described.
[0154]
First, in step F4-1, input coordinates (x, y) which are the actual coordinate input pen 21 (or touch position in the case of a touch panel) of the operator are detected.
[0155]
Next, in step F4-2, it is determined whether or not Flag = 0 indicating whether or not pen down is continued. Here, Flag = 0 indicates that pen down is not continued, and Flag = 1 indicates that pen down is continued.
[0156]
If Flag = 0 is not set in Step F4-2 (NO in Step F4-2), the process proceeds to Step F4-8. On the other hand, if Flag = 0 (YES in step F4-2), the flow advances to step F4-3.
[0157]
Since Flag = 0 in the initial state, the process proceeds to step F4-3 in step F4-2.
[0158]
Steps F4-3 to F4-8 correspond to steps F2-2 to F2-7 of the third embodiment, respectively, and a description thereof will be omitted.
[0159]
Next, in step F4-9, it is determined whether or not the coordinate input pen 21 has pen-uped. If the coordinates are continuously input, it is determined that the pen-down is continued, the process proceeds to step F4-10, where Flag = 1 is set, and then the process returns to step F4-1.
[0160]
The determination of whether or not pen down is continued can be made, for example, by determining the presence or absence of pen up for each sampling cycle of coordinate detection. You may decide.
[0161]
Returning to step F4-1, after detecting the input coordinates (x, y) in the next sampling cycle, it is determined in step F4-2 whether Flag = 0. In this case, since Flag = 1, the process proceeds to step F4-8. That is, the expansion reference point (x0, Y0) Or the enlargement ratio D is the same as in the previous process, and the enlargement process and the coordinate calculation are performed again without change.
[0162]
According to the above coordinate calculation processing, when performing an input operation continuously across the boundary of each area, even if moving to an adjacent area, the coordinates are maintained while maintaining the enlargement reference point and the enlargement ratio of the first area. The calculation is performed.
[0163]
Then, once the pen is up and the continuation of the pen down is released, the process proceeds from step F4-9 to step F4-11, sets Flag = 0, and then returns to step F4-1.
[0164]
As described above, according to the fifth embodiment, in addition to the effects described in the first to fourth embodiments, even when the coordinate input operation extends over the enlarged area and the equal-size area, the coordinate input operation may be continued. For example, it is possible to realize output of the virtual pointing tip pointing coordinates suitable for each area.
[0165]
In the above-described Embodiments 2 to 5, an example has been described in which two left and right coordinate input areas or three areas including an intermediate area are set, but the form of area division is not limited to this. Instead, any configuration may be used as long as a unique reference point or enlargement ratio is set for each area.
[0166]
For example, the coordinate input area is divided into five areas in the horizontal direction, the outermost left and right areas have the largest magnification, the central area is the same size area, and the middle two left and right areas are enlarged. The configuration may be such that the ratio is smaller than that of the outer left and right regions. As a result, even when a coordinate input operation is performed over an area, a change in the enlargement ratio can be suppressed to a small extent, and a comfortable output of the tip of the virtual indicator rod can be realized.
[0167]
<< Embodiment 6 >>
In the coordinate input device according to the first to fifth embodiments, the input of the position of the reference point such as the shoulder and the elbow can be input using an input device such as a keyboard, or the pointing area of the coordinate input pen 21 is a display area. If it is inside, there is no problem. However, when the input area when actually inputting using the coordinate input pen 21 is outside the display area, and when the normal input area of the operator is outside the display area, the coordinate input area is outside the display area. It is necessary to use a coordinate input method which is also provided in the above.
[0168]
Here, the coordinate input method of the coordinate input device is not particularly limited, but is not limited to a case in which the coordinate input device is two-dimensionally outside the display area, and is also used for a computer from a position vertically (Z-axis) away from the screen 102 Can be adopted as a coordinate input device that can remotely control the device.
[0169]
Hereinafter, in the sixth embodiment, a configuration in a case where a coordinate input method using aerial ultrasonic waves is applied to the coordinate input device of the first embodiment will be described.
[0170]
First, the configuration of the coordinate input pen 21 used in the coordinate input device according to the sixth embodiment will be described with reference to FIG.
[0171]
FIG. 12 is a diagram showing a basic configuration of a coordinate input pen of the coordinate input device according to the sixth embodiment of the present invention.
[0172]
When the coordinate input pen 21 presses the pen tip against the screen 102, the pen tip switch 22 is turned on and the oscillation of the ultrasonic wave is started. In the case of remote control, the ultrasonic oscillation is started by pressing the pen side switch 23 or the switch 24.
[0173]
Next, a functional configuration of the coordinate input device according to the sixth embodiment will be described with reference to FIG.
[0174]
FIG. 13 is a diagram illustrating a basic configuration of a coordinate input pen of the coordinate input device according to the sixth embodiment of the present invention.
[0175]
In the coordinate input pen 21, reference numeral 302 denotes a drive circuit for driving an oscillator 303 which is operated by a battery (not shown). The drive circuit 302 controls the oscillator 303 to be driven at a predetermined timing. The ultrasonic signal oscillated from the oscillator 303 is detected by a plurality of ultrasonic sensors 305 in the internal circuit of the coordinate input device main body 304. The detected ultrasonic signal is amplified to a predetermined level by the waveform processing circuit 306 and input to the CPU 307 as a detection timing signal.
[0176]
In this way, when the timing signals detected by the plurality of ultrasonic sensors 305 are aligned, the CPU 307 converts the time information into the distance information, and furthermore, the screen coordinate system of the coordinate input pen 21 (on the screen 102) based on the principle of triangulation. The coordinate position is calculated based on the coordinate system. Further, an operation coordinate system is calculated from the series of coordinates, and the input coordinates of the operator in the screen coordinate system of the coordinate input device 304 are converted into the coordinates of the operation coordinate system (the coordinate system on the operation coordinate input surface based on the operator). Convert.
[0177]
The coordinate calculation and the coordinate conversion are executed by the CPU 307 calling the coordinate calculation program 308 stored in the ROM 312. Then, the calculated coordinate data is stored in the memory 310. The coordinate data is sequentially transferred to an external computer by the wireless interface 311. Further, if necessary, the trajectory obtained from the coordinate data can be subjected to character recognition by the character recognition engine 309, and the recognition result can be stored in the memory 310 as a command or text data.
[0178]
The configuration of the coordinate input system according to the sixth embodiment may employ various configurations other than the above-described configuration. For example, the pointing tool is not limited to a pen shape, and may be a so-called pointing rod shape. In addition, the coordinate input method is not limited to the ultrasonic method, and any coordinate input method capable of calculating three-dimensional coordinates, such as an infrared-based method, a resistive film method, an electromagnetic induction method, or an electrostatic coupling method. Can be adopted.
[0179]
The display device is not limited to the rear projector display device 101, and may be any device that can display computer information, such as a front projector, a liquid crystal display, and a plasma display.
[0180]
Further, the connection between the coordinate input device 304 and an external computer is not limited to the wireless interface 311 and may be a wired interface.
[0181]
<Detailed configuration of coordinate input device>
The configuration of the coordinate input device that operates as described above will be described in more detail.
[0182]
FIG. 14 is a diagram showing a schematic configuration of a coordinate input device capable of measuring three-dimensional (space) coordinates according to Embodiment 6 of the present invention.
[0183]
Reference numeral 21 denotes a coordinate input pen, which is an indicator, and is configured to generate a sound wave in the air by a coordinate input operation by an operator. The generated sound wave is detected by a plurality of detection sensors 3 (in the case of the sixth embodiment, four detection sensors 3_Sa to Sd are used) and processed by the signal waveform detection circuit 2 by a method described later. Thereafter, the arithmetic control circuit 1 is configured to calculate the position (X, Y, Z) of the sound source of the coordinate input pen 21.
[0184]
The arithmetic and control circuit 1 controls the entire coordinate input device, moves the cursor displayed on the display device 101 via the display driving circuit 5 based on the obtained coordinate data, or writes handwriting such as writing. The information is configured to be displayed on the display device 101 and added thereto.
[0185]
As described above, by combining the coordinate input device and the display device, it is possible to provide a man-machine interface capable of realizing a relationship like "paper and pencil".
[0186]
Next, the configuration of the coordinate input pen 21 will be described with reference to FIG.
[0187]
FIG. 15 is a diagram illustrating a configuration of a coordinate input pen according to Embodiment 6 of the present invention.
[0188]
In particular, FIG. 15A is an external view of the coordinate input pen 21, and FIG. 15B is a functional configuration diagram of the coordinate input pen 21.
[0189]
A sound wave source 43 built in the coordinate input pen 21 includes a pen power supply 45, a timer and an oscillation circuit, a control circuit for detecting and controlling a plurality of switch information provided in the coordinate input pen 21, and various kinds of data. It is driven by a drive circuit 44 composed of a memory or the like for storing.
[0190]
The sound wave source 43 is composed of, for example, a piezoelectric element such as PVDF (polyvinylidene fluoride). The PVDF is formed in a film shape and is formed in an annular shape having a predetermined size so that the driving efficiency is maximized at a desired frequency.
[0191]
The drive signal of the sound wave source 43 is a pulse signal generated by a timer and repeated at a predetermined cycle, and is amplified by a predetermined gain by an oscillation circuit and then applied to the sound wave source 43. This electrical drive signal is converted into mechanical vibration by the sound wave source 43, and the energy is emitted into the air.
[0192]
The coordinate input pen 21 according to the sixth embodiment includes a pen tip switch (SW) 22 that operates by pressing the tip of the pen, and a plurality of pen side switches (SW) provided on the casing of the coordinate input pen 21. ) 23 and 24 are provided.
[0193]
The drive circuit 44 outputs the coordinates every predetermined period (for example, every 10 msec, in which case, a sound wave is emitted 100 times per second, so that the coordinate calculation sampling rate of the present coordinate input device is 100 times / second). A signal for driving the sound wave source 43 in the input pen 21 is output, and the sound wave is radiated into the air.
[0194]
This sound wave is delayed according to the distance between the sound wave generation source 43 and each of the detection sensors 3_Sa to Sd, and reaches and is detected. The detection sensors 3_Sa to Sd are, for example, piezoelectric vibrators such as PZT that perform thickness vibration, and have an acoustic matching layer on the front surface. This acoustic matching layer is a thin layer of silicon rubber, etc., which matches acoustic impedance with gas, provides high sensitivity and broadband characteristics, and enables transmission and reception of ultrasonic signals with good pulse response. Has become.
[0195]
This type of coordinate input device calculates the distance between the sound source 43 of the coordinate input pen 21 and each of the detection sensors 3_Sa to Sd based on the product of the known sound speed of the sound wave and its arrival time, and calculates each detection sensor 3_Sa This system is based on obtaining geometrically the position information of the sound source 43 using the position information of Sd. Therefore, a method of detecting the arrival time of the sound wave will be described with reference to FIGS.
[0196]
FIG. 16 is a timing chart for explaining the sound wave arrival time detection method according to the sixth embodiment of the present invention. FIG. 17 is a block diagram of a detection circuit for realizing the detection of the arrival time of the sound wave according to the sixth embodiment of the present invention.
[0197]
Reference numeral 51 denotes a drive signal generated by the drive circuit 44, which generates the drive signal 51 and also generates a start signal. This start signal is transmitted to the arithmetic and control circuit 1 via, for example, an infrared LED or the like (not shown) built in the coordinate input pen 21 and the timer 12 ( 18) is started.
[0198]
On the other hand, the sound waves emitted into the air are delayed according to the distance between the sound wave source 43 and the detection sensors 3_Sa to Sd, and are detected by the detection sensors 3_Sa to Sd. Reference numeral 53 denotes detection signals detected by the respective detection sensors 3_Sa to Sd amplified by the preamplifier circuit 60 to a predetermined level. The detection signal 53 is processed by an envelope detection circuit 61 composed of an absolute value circuit, a low-pass filter, and the like, and only the envelope 54 of the detection signal is extracted.
[0199]
Focusing on the envelope 54, the sound velocity at which the waveform propagates is the group velocity Vg. When a unique point of the envelope 54, for example, a peak or an inflection point of the envelope 54 is detected, the delay time tg related to the group velocity Vg is detected. Is obtained. The envelope singularity detection circuit 62 for detecting the peak or inflection point of the envelope 54 can be easily detected by using a differentiating circuit and a zero-cross comparator.
[0200]
In the sixth embodiment, a signal 55 is formed by second-order differentiation, and an inflection point of the envelope 54 is detected with reference to the gate signal compared with the threshold level 52 and the detection signal 53 (signal 56). If the timer 12 that is operating is stopped by the above-described start signal using the signal 56, the group delay time Tg related to the group velocity Vg can be detected.
[0201]
Strictly speaking, the group delay time Tg includes a delay of a circuit related to the waveform processing, but its influence is completely removed by a method described later. Therefore, in order to simplify the description, description will be made assuming that there is no circuit delay time.
[0202]
From the above, the distance L between the sound wave source 43 and the detection sensors 3_Sa to Sd can be obtained by the following equation.
[0203]
L = Vg × Tg (1)
On the other hand, when calculating the distance L with higher accuracy, the time when the sound wave arrives is calculated from the phase information of the detection signal waveform. More specifically, the output signals 53 of the detection sensors 3_Sa to Sd are input to a Tp signal detection circuit 66 after removing extra frequency components by a band-pass filter 64. The Tp signal detection circuit 66 includes a zero cross comparator, a multivibrator, and the like. Then, the signal related to the zero-cross point of the signal output from the band-pass filter 64 is compared with a gate signal 57 generated by a gate signal generation circuit 65 that compares the signal with a predetermined threshold level 52 to generate a signal 58.
[0204]
Thereafter, the signal 56 for detecting the group delay time Tg described above is referred to as a gate signal (generated by the gate signal generation circuit 63), and the signal waveform output from the band-pass filter 64 during the period of the gate signal 56 is referred to. A signal 59 is generated that outputs the first zero crossing point where the phase crosses from the negative side to the positive side, for example.
[0205]
Then, by using this signal 59 to stop the timer 12 operating by the above-described start signal, it is possible to detect the phase delay time Tp related to the phase speed Vp.
Strictly speaking, the phase delay time Tp includes a delay of a circuit related to the waveform processing, but the effect is completely removed by a method described later. Therefore, in order to simplify the description, description will be made assuming that there is no circuit delay time.
[0206]
From the above, the distance L between the sound wave source 43 and the detection sensors 3_Sa to Sd can be obtained by the following equation.
[0207]
L = Vp × Tp (2)
Here, the effect of using the gate signal 56 generated by the gate signal generation circuit 63 based on the envelope singularity detection circuit 62 will be described.
[0208]
The signal levels detected by the detection sensors 3_Sa to Sd fluctuate due to the following factors.
[0209]
1) Electro-mechanical conversion efficiency of the sound wave source 43 and the detection sensors 3_Sa to Sd
2) Distance between sound wave source 43 and detection sensors 3_Sa to Sd
3) Environmental fluctuations such as temperature and humidity in the air where sound waves propagate
4) Directivity of sound wave source 43 regarding sound wave radiation and sensitivity directivity of detection sensors 3_Sa to Sd
Item 1) is a factor that occurs due to component tolerance, and it is necessary to pay sufficient attention when mass-producing devices. Item 2) relates to attenuation of sound waves. As the distance between the sound source 43 and the detection sensors 3_Sa to Sd increases, the signal level of sound waves propagating in the air may exponentially attenuate. In addition to being generally well known, the damping constant also changes in the environment according to item 3).
[0210]
Further, in item 4), since the present invention operates as a coordinate input device, the posture of the coordinate input pen 21, which is a writing instrument, always changes due to the writing operation by the operator, that is, the pen holding angle changes. Therefore, the level greatly changes due to the fluctuation. Furthermore, due to the sensitivity directivity of the detection sensors 3_Sa to Sd, the detection level fluctuates even if the angle formed between the coordinate input pen 21 and the detection sensors 3_Sa to Sd fluctuates.
[0211]
At this time, for example, when it is assumed that the detection level has become smaller, since the above-described threshold level (for example, the signal 52) is fixed, the signal 58 can sufficiently change to the signal 58 '. It becomes.
[0212]
That is, even if the coordinate input operation is performed at the same point, for example, if the holding angle (direction) of the coordinate input pen 21 is different, the level of the detection signal 53 will be different. Will depend on it. However, since the present invention refers to the gate signal 56 based on the singular point of the envelope 54, the signal 59 can be stably obtained without depending on the detection signal level.
[0213]
Next, a schematic configuration of the arithmetic control circuit 1 according to the sixth embodiment will be described with reference to FIG.
[0214]
FIG. 18 is a block diagram showing a schematic configuration of an arithmetic control circuit according to Embodiment 6 of the present invention.
[0215]
Reference numeral 11 denotes a microcomputer for controlling the arithmetic control circuit 1 and the coordinate input device as a whole. The microcomputer 11 includes an internal counter, a ROM storing operation procedures, a RAM used for calculations and the like, and a nonvolatile memory storing constants and the like. ing.
[0216]
As described above, the start signal synchronized with the drive timing of the sound source 43 in the coordinate input pen 21 by the drive circuit 44 is emitted as an optical signal by an infrared LED or the like (not shown) built in the coordinate input pen 21. The signal is detected by the start signal detection circuit 17 to start the timer 12 (for example, constituted by a counter or the like) in the arithmetic and control circuit 1.
[0217]
With this configuration, the drive timing for driving the sound wave source 43 in the coordinate input pen 21 and the synchronization with the timer 12 in the arithmetic and control circuit 1 can be obtained. It is possible to measure the time required to reach each of the detection sensors 3_Sa to Sd.
[0218]
The vibration arrival timing signals (signal 59) from the detection sensors 3_Sa to Sd output from the signal waveform detection circuit 2 are input to the latch circuits 15_a to 15_d via the detection signal input port 13, respectively. When each of the latch circuits 15_a to 15_d receives the vibration arrival timing signal from the corresponding detection sensor 3_Sa to Sd, it latches the time value of the timer 12 at that time.
[0219]
When the determination circuit 14 determines that all the detection signals necessary for coordinate calculation have been received in this manner, it outputs a signal to the microcomputer 11 to that effect. When the microcomputer 11 receives the signal from the determination circuit 14, the microcomputer 11 reads the vibration arrival time from the latch circuits 15_a to 15_d to the respective detection sensors 3_Sa to Sd from the latch circuits 15_a to 15d, performs a predetermined calculation, and performs coordinate calculation. The coordinate position of the input pen 21 is calculated.
[0220]
Further, in the microcomputer 11, an operation coordinate input plane based on the operator in the operation coordinate system (X, Y, Z) is obtained from a plurality of coordinates input by the operator in the screen coordinate system (x, y, z). Is calculated, and the coordinate position of the coordinate input pen 21 in the screen coordinate system (x, y, z) is converted into coordinates in the operation coordinate system (X, Y, Z).
[0221]
The calculation result is output to the display drive circuit 5 via the I / O port 16, and for example, a dot or the like can be displayed at a corresponding position on the display device 101. Also, by outputting coordinate position information to an interface circuit (not shown) via the I / O port 16, it is possible to output coordinate values to an external device.
[0222]
<Description of coordinate calculation method>
Next, a method of calculating the position coordinates (x, y, z) of the sound source 43 in the screen coordinate system when the detection sensors 3_Sa to Sd are arranged in the screen coordinate system as shown in FIG.
[0223]
The distance between the vibration source 43 and each of the detection sensors 3_Sa to Sd accurately obtained by the above method is La to Ld, the distance between the detection sensors in the X direction is Xs-s, and the distance between the detection sensors in the Y direction is Ys. -S
[0224]
Figure 2004310351
Becomes Similarly,
[0225]
Figure 2004310351
Becomes
[0226]
As described above, if the distance between at least three vibration sources 43 and the detection sensor 3 can be measured, the position (space) coordinates of the sound source 43 can be easily obtained.
[0227]
In the present invention, four detection sensors are used, and for example, information at the longest distance is not used (in this case, the signal output from the detection sensor 3 has the lowest signal level because the distance is long. ), The coordinates are calculated using only the remaining three pieces of distance information, so that highly reliable coordinates can be calculated.
[0228]
Further, by utilizing the distance information of the sensor having a long distance, it is possible to determine whether or not the reliability of the output coordinate value is high.
[0229]
As a specific method, for example, the coordinate value calculated based on the distance information La, Lb, Lc and the coordinate value calculated based on the distance information Lb, Lc, Ld should output the same value (distance information). If the two do not match, either of the distance information is incorrect, that is, it is erroneously detected. In that case, the reliability that the coordinate value is not output is provided. An improved configuration can also be implemented.
[0230]
As described above, according to the sixth embodiment, since coordinates can be input even in an area outside the display area of the screen 102, when inputting the position of the reference point such as the shoulder and elbow, the coordinates outside the display area may be used. However, since the actual position of the body part can be input with the coordinate input pen 21, a more natural operation feeling of the virtual pointing stick can be obtained.
[0231]
In addition, not only at the time of setting regarding the virtual pointing rod, but also when actually inputting coordinates using the coordinate input pen 21, input outside the display area is possible, so that there is less restriction on the operation range.
[0232]
Further, when the coordinate input in the Z-axis direction is possible as in the coordinate input device according to the sixth embodiment, for example, the length of the virtual pointing rod is automatically changed in accordance with the Z coordinate, and the virtual supporting rod is changed. The tip designation coordinates (X, Y) may be calculated.
[0233]
Specifically, a natural operation feeling can be realized by making the Z coordinate proportional to the enlargement ratio D, which is the ratio of the length from the elbow to the pen tip (fingertip) to the tip of the desired pointing rod. it can. If it is not desirable that the enlargement ratio D frequently changes, the enlargement ratio D may be constant with respect to a change in the stepwise range of the Z coordinate.
[0234]
Note that the present invention is not limited to the above-described first to sixth embodiments, and it is needless to say that an embodiment realized by arbitrarily combining the first to sixth embodiments may be configured according to the application and purpose.
[0235]
The coordinate input device in the first to sixth embodiments described above can be realized by an information processing device such as a personal computer, and can be regarded as an invention of a method as a procedure for realizing the function. Further, since the present invention can be realized by a computer, the present invention can be applied to a computer program executed by each device, and further to a computer-readable storage medium such as a CD-ROM which stores the computer program and can be read by a computer. It will be clear.
[0236]
Therefore, the embodiments according to the first to sixth embodiments are listed as follows. That is, the coordinate input device, its control method, and program are as follows.
[0237]
<Embodiment 1> A coordinate input device that detects input coordinates of a position designated on a coordinate input surface and outputs coordinates based on the input coordinates,
Detecting means for detecting input coordinates of a position on the coordinate input surface specified by the operator;
Enlargement reference point input means for inputting an enlargement reference point serving as a reference for enlarging the input coordinates,
Magnification ratio reference point input means for inputting a magnification ratio reference point for determining a magnification ratio for enlarging the input coordinates,
Determining means for determining the magnification, based on the positional relationship between the input coordinates and the magnification reference point,
Calculation means for calculating coordinates obtained by enlarging the input coordinates in a direction connecting the enlargement reference point and the input coordinates, based on the enlargement ratio and the enlargement reference point,
Coordinate output means for outputting the coordinates calculated by the calculation means,
A coordinate input device comprising:
[0238]
<Embodiment 2> The determining unit determines the enlargement ratio based on a distance between the input coordinates and the enlargement ratio reference point.
The coordinate input device according to the first embodiment, wherein:
[0239]
<Embodiment 3> Further comprising a storage unit for storing physical information of the operator,
The enlargement reference point input means inputs the enlargement reference point by calculating the enlargement reference point based on the physical information.
The coordinate input device according to the first embodiment, wherein:
[0240]
<Embodiment 4> The enlargement reference point input means inputs the enlargement reference point by calculating the enlargement reference point based on the input coordinates and the physical information.
A coordinate input device according to a third embodiment, characterized in that:
[0241]
<Embodiment 5> The enlargement reference point corresponds to the position of the elbow of the operator.
The coordinate input device according to the first embodiment, wherein:
[0242]
<Embodiment 6> The enlargement reference point corresponds to the position of the operator's elbow, and the enlargement ratio reference point corresponds to the position of the operator's shoulder.
The coordinate input device according to the first embodiment, wherein:
[0243]
<Embodiment 7> It further includes a storage unit for storing a plurality of types of enlargement reference points,
The calculating means obtains an enlargement reference point corresponding to an area on a coordinate input surface to which the input coordinates detected by the detection means belong from the storage means, and based on the acquired enlargement reference point and a predetermined enlargement ratio, Calculating coordinates obtained by enlarging the input coordinates
The coordinate input device according to the first embodiment, wherein:
[0244]
<Eighth Embodiment> The image processing apparatus further includes a storage unit configured to store the enlargement reference point for each divided area obtained by dividing the coordinate input surface into a plurality of areas,
The calculating means acquires, from the storage means, an enlargement reference point corresponding to a divided area on a coordinate input surface to which the input coordinates detected by the detection means belong, based on the acquired enlargement reference point and a predetermined enlargement ratio. , Calculate coordinates obtained by enlarging the input coordinates
The coordinate input device according to the first embodiment, wherein:
[0245]
<Embodiment 9> The storage apparatus further includes a storage unit that stores a plurality of types of enlargement ratios and enlargement reference points.
The calculating means acquires, from the storage means, an enlargement reference point and an enlargement rate corresponding to an area on a coordinate input surface to which the input coordinates detected by the detection means belong, based on the acquired enlargement reference point and the enlargement rate. Calculate the coordinates obtained by enlarging the input coordinates.
The coordinate input device according to the first embodiment, wherein:
[0246]
<Embodiment 10> When the area on the coordinate input surface to which the input coordinates detected by the detection means belongs is a 1: 1 area in which the coordinates are not enlarged, the calculation means may set the coordinates obtained by equalizing the input coordinates. Calculate
The coordinate input device according to the first embodiment, wherein:
[0247]
<Embodiment 11> The image processing apparatus further includes a division area for dividing the coordinate input surface, and a setting unit for setting an enlargement reference point and an enlargement ratio corresponding to the division area.
The coordinate input device according to any one of embodiments 7 to 9, wherein:
[0248]
<Embodiment 12> The image processing apparatus further includes a division area for dividing the coordinate input surface, and a storage unit for storing an enlargement reference point and an enlargement ratio corresponding to the division area,
The setting unit refers to the storage unit and sets an enlargement reference point corresponding to operator information on the operator
The coordinate input device according to embodiment 11, wherein:
[0249]
<Embodiment 13> The image forming apparatus further includes a storage unit that stores a plurality of types of enlargement ratios and enlargement reference points,
When the detecting means continuously detects the input coordinates over a plurality of divided areas on the coordinate input surface, the calculating means determines on the coordinate input surface to which the input coordinates first detected by the detecting means belong. The enlargement reference point and enlargement ratio corresponding to the area are acquired from the storage unit, and the coordinates obtained by enlarging the input coordinates are calculated based on the acquired enlargement reference point and enlargement ratio.
The coordinate input device according to the first embodiment, wherein:
[0250]
<Embodiment 14> Further provided is an enlargement ratio input unit for inputting the enlargement ratio based on the input coordinates detected by the detection unit.
The coordinate input device according to the first embodiment, wherein:
[0251]
<Embodiment 15> In the case where an equal-magnification area in which the coordinate is not enlarged is set among the division areas dividing the coordinate input surface, an enlargement rate input for inputting the enlargement rate is performed based on the equal-magnification area. Further comprising means
The coordinate input device according to the first embodiment, wherein:
[0252]
<Embodiment 16> The image forming apparatus further includes a setting unit configured to set, on the basis of the enlargement ratio, a unit-size area in which coordinates are not enlarged in the coordinate input surface.
The coordinate input device according to the first embodiment, wherein:
[0253]
<Embodiment 17> An instruction unit having a sound wave generator for instructing on the coordinate input surface is further provided.
The detecting means is constituted by a plurality of detecting means provided in a peripheral portion of the coordinate input surface, and based on a reception timing at which the plurality of detecting means receive a sound wave generated from the indicating means, the detecting means Detect the input coordinates of the position on the specified coordinate input surface
The coordinate input device according to the first embodiment, wherein:
[0254]
<Embodiment 18> A control method of a coordinate input device that detects input coordinates of a position designated on a coordinate input surface and outputs coordinates based on the input coordinates,
A detection step of detecting input coordinates of a position on the coordinate input surface specified by the operator;
An enlargement reference point input step of inputting an enlargement reference point serving as a reference for enlarging the input coordinates,
An enlargement factor reference point input step of inputting an enlargement factor reference point for determining an enlargement factor for enlarging the input coordinates,
A determining step of determining the enlargement ratio based on a positional relationship between the input coordinates and the enlargement ratio reference point;
A calculating step of calculating coordinates obtained by enlarging the input coordinates in a direction connecting the enlargement reference point and the input coordinates, based on the enlargement ratio and the enlargement reference point,
A coordinate output step of outputting the coordinates calculated in the calculation step,
A method for controlling a coordinate input device, comprising:
[0255]
<Embodiment 19> A program for realizing control of a coordinate input device that detects input coordinates of a position designated on a coordinate input surface and outputs coordinates based on the input coordinates by a computer,
A program code for a detection step of detecting input coordinates of a position on the coordinate input surface specified by the operator,
A program code of an enlargement reference point input step of inputting an enlargement reference point serving as a reference for enlarging the input coordinates,
A program code for an enlargement factor reference point input step of inputting an enlargement factor reference point for determining an enlargement factor for enlarging the input coordinates,
A program code for a determining step of determining the magnification, based on a positional relationship between the input coordinates and the magnification reference point;
Program code for a calculation step of calculating coordinates obtained by enlarging the input coordinates in a direction connecting the enlargement reference point and the input coordinates, based on the enlargement ratio and the enlargement reference point;
Program code of a coordinate output step of outputting the coordinates calculated in the calculation step,
A program characterized by comprising:
[0256]
As described above, the embodiment has been described in detail. However, the present invention can take an embodiment as, for example, a system, an apparatus, a method, a program, a storage medium, or the like. The system may be applied to a system including a single device or an apparatus including one device.
[0257]
According to the present invention, a software program (in the embodiment, a program corresponding to the flowchart shown in the drawings) for realizing the functions of the above-described embodiments is directly or remotely supplied to a system or an apparatus, and a computer of the system or the apparatus is provided. Is also achieved by reading and executing the supplied program code.
[0258]
Therefore, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. That is, the present invention includes the computer program itself for realizing the functional processing of the present invention.
[0259]
In that case, as long as it has a program function, it may be in the form of an object code, a program executed by an interpreter, script data supplied to an OS, or the like.
[0260]
As a recording medium for supplying the program, for example, a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, CD-RW, magnetic tape, nonvolatile memory card , ROM, DVD (DVD-ROM, DVD-R) and the like.
[0261]
Other methods of supplying the program include connecting to a homepage on the Internet using a browser of a client computer, and downloading the computer program itself of the present invention or a file containing a compressed automatic installation function from the homepage to a recording medium such as a hard disk. Can also be supplied. Further, the present invention can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, the present invention also includes a WWW server that allows a plurality of users to download a program file for implementing the functional processing of the present invention on a computer.
[0262]
In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and downloaded to a user who satisfies predetermined conditions from a homepage via the Internet to download key information for decryption. It is also possible to execute the encrypted program by using the key information and install the program on a computer to realize the program.
[0263]
The functions of the above-described embodiments are implemented when the computer executes the read program, and an OS or the like running on the computer executes a part of the actual processing based on the instructions of the program. Alternatively, all the operations are performed, and the functions of the above-described embodiments can be realized by the processing.
[0264]
Further, after the program read from the recording medium is written into the memory provided in the function expansion board inserted into the computer or the function expansion unit connected to the computer, the function expansion board or the A CPU or the like provided in the function expansion unit performs part or all of the actual processing, and the processing also realizes the functions of the above-described embodiments.
[0265]
【The invention's effect】
As described above, according to the present invention, it is possible to provide a coordinate input technique capable of improving the visibility of a designated portion.
[Brief description of the drawings]
FIG. 1 is a diagram for explaining a coordinate input method by a coordinate input device according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining a coordinate input method by the coordinate input device according to the first embodiment of the present invention.
FIG. 3 is a flowchart illustrating a coordinate calculation process according to the first embodiment of the present invention.
FIG. 4 is a diagram for explaining a coordinate input method by a coordinate input device according to a second embodiment of the present invention.
FIG. 5 is a flowchart illustrating a coordinate calculation process according to the second embodiment of the present invention.
FIG. 6 is a diagram for explaining a coordinate input method by a coordinate input device according to a third embodiment of the present invention.
FIG. 7 is a flowchart illustrating a coordinate calculation process according to a third embodiment of the present invention.
FIG. 8 is a diagram for explaining a coordinate input method by a coordinate input device according to a fourth embodiment of the present invention.
FIG. 9 is a flowchart illustrating a coordinate calculation process according to the fourth embodiment of the present invention.
FIG. 10 is a diagram for explaining a coordinate input method by a coordinate input device according to a fifth embodiment of the present invention.
FIG. 11 is a flowchart illustrating a coordinate calculation process according to the fifth embodiment of the present invention.
FIG. 12 is a diagram illustrating a basic configuration of a coordinate input pen of a coordinate input device according to a sixth embodiment of the present invention.
FIG. 13 is a block diagram illustrating a basic configuration of a coordinate input device according to a sixth embodiment of the present invention.
FIG. 14 is a diagram illustrating a schematic configuration of a coordinate input device capable of measuring three-dimensional (space) coordinates according to a sixth embodiment of the present invention.
FIG. 15 is a diagram illustrating a configuration of a coordinate input pen according to a sixth embodiment of the present invention.
FIG. 16 is a timing chart for explaining a method of detecting a sound wave arrival time according to a sixth embodiment of the present invention.
FIG. 17 is a block diagram of a detection circuit that realizes detection of arrival time of a sound wave according to a sixth embodiment of the present invention.
FIG. 18 is a block diagram illustrating a schematic configuration of an arithmetic control circuit according to a sixth embodiment of the present invention.
FIG. 19 is a diagram illustrating a coordinate calculation method of a coordinate input device capable of inputting three-dimensional (space) coordinates according to a sixth embodiment of the present invention.
FIG. 20 is a diagram for explaining a conventional technique.
[Explanation of symbols]
21 Coordinate input pen
302 drive circuit
303 oscillator
304 coordinate input device
305 Ultrasonic sensor
306 Waveform processing circuit
307 CPU
308 Coordinate calculation program
309 Character Recognition Engine
310 memory
311 Wireless interface
312 ROM

Claims (1)

座標入力面上で指示された位置の入力座標を検出し、該入力座標に基づく座標を出力する座標入力装置であって、
操作者によって指示された座標入力面上の位置の入力座標を検出する検出手段と、
前記入力座標を拡大するための基準となる拡大基準点を入力する拡大基準点入力手段と、
前記入力座標を拡大する拡大率を決定するための拡大率基準点を入力する拡大率基準点入力手段と、
前記入力座標と前記拡大率基準点との位置関係に基づいて、前記拡大率を決定する決定手段と、
前記拡大率と前記拡大基準点に基づいて、前記拡大基準点と前記入力座標を結ぶ方向に前記入力座標を拡大した座標を算出する算出手段と、
前記算出手段で算出された座標を出力する座標出力手段と、
を備えることを特徴とする座標入力装置。
A coordinate input device that detects input coordinates of a position specified on a coordinate input surface and outputs coordinates based on the input coordinates,
Detecting means for detecting input coordinates of a position on the coordinate input surface specified by the operator;
Enlargement reference point input means for inputting an enlargement reference point serving as a reference for enlarging the input coordinates,
Magnification ratio reference point input means for inputting a magnification ratio reference point for determining a magnification ratio for enlarging the input coordinates,
Determining means for determining the magnification, based on the positional relationship between the input coordinates and the magnification reference point,
Calculation means for calculating coordinates obtained by enlarging the input coordinates in a direction connecting the enlargement reference point and the input coordinates, based on the enlargement ratio and the enlargement reference point,
Coordinate output means for outputting the coordinates calculated by the calculation means,
A coordinate input device comprising:
JP2003101790A 2003-04-04 2003-04-04 Coordinate input system Withdrawn JP2004310351A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003101790A JP2004310351A (en) 2003-04-04 2003-04-04 Coordinate input system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003101790A JP2004310351A (en) 2003-04-04 2003-04-04 Coordinate input system

Publications (1)

Publication Number Publication Date
JP2004310351A true JP2004310351A (en) 2004-11-04

Family

ID=33465464

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003101790A Withdrawn JP2004310351A (en) 2003-04-04 2003-04-04 Coordinate input system

Country Status (1)

Country Link
JP (1) JP2004310351A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153948A (en) * 2013-02-08 2014-08-25 International Business Maschines Corporation Control apparatus and control program
JP2014203417A (en) * 2013-04-10 2014-10-27 コニカミノルタ株式会社 Control device, operation control method and operation control program
JP2017107549A (en) * 2016-11-02 2017-06-15 株式会社リコー Program, method, information processing apparatus, and video display system
JP2018170037A (en) * 2018-07-03 2018-11-01 株式会社リコー Program, method, information processing apparatus, and video display system
US10212351B2 (en) 2015-02-09 2019-02-19 Ricoh Company, Ltd. Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014153948A (en) * 2013-02-08 2014-08-25 International Business Maschines Corporation Control apparatus and control program
JP2014203417A (en) * 2013-04-10 2014-10-27 コニカミノルタ株式会社 Control device, operation control method and operation control program
US9405403B2 (en) 2013-04-10 2016-08-02 Konica Minolta, Inc. Control apparatus, operation controlling method and non-transitory computer-readable storage medium
US10212351B2 (en) 2015-02-09 2019-02-19 Ricoh Company, Ltd. Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program
US10931878B2 (en) 2015-02-09 2021-02-23 Ricoh Company, Ltd. System, apparatus, method, and program for displaying wide view image
US11290651B2 (en) 2015-02-09 2022-03-29 Ricoh Company, Ltd. Image display system, information processing apparatus, image display method, image display program, image processing apparatus, image processing method, and image processing program
JP2017107549A (en) * 2016-11-02 2017-06-15 株式会社リコー Program, method, information processing apparatus, and video display system
JP2018170037A (en) * 2018-07-03 2018-11-01 株式会社リコー Program, method, information processing apparatus, and video display system

Similar Documents

Publication Publication Date Title
JP3952896B2 (en) Coordinate input device, control method therefor, and program
US7158117B2 (en) Coordinate input apparatus and control method thereof, coordinate input pointing tool, and program
JP4590114B2 (en) Coordinate input device, control method therefor, and recording medium
US9575594B2 (en) Control of virtual object using device touch interface functionality
JP5490225B2 (en) Portable electronic device, method for operating portable electronic device, and recording medium
JP3847641B2 (en) Information processing apparatus, information processing program, computer-readable recording medium storing information processing program, and information processing method
JP2006268073A (en) Data processor
US7075514B2 (en) Coordinate input apparatus, control method therefor, and computer-readable memory
JP2004310351A (en) Coordinate input system
JP2004078323A (en) Coordinate input system and coordinate calculation method
CN204808202U (en) Non -contact electronic product
JP2004185488A (en) Coordinate input device
JP2002351605A (en) Coordinate input device
JPH10149252A (en) Pen input device and positional coordinate correcting method for the device
JP2004070496A (en) Coordinate input device and coordinate value processing method
JP2004272343A (en) Coordinate input device
JP2002236545A (en) Coordinate input device and its control method, and computer-readable memory
JP2004192033A (en) Coordinate input device
JP2004070575A (en) Device for inputting coordinate and method for processing detected coordinate value
JP2004240634A (en) Coordinate input device
JP2004062656A (en) Coordinate input device, control method for the same, and program
JP2004192032A (en) Coordinate input device
JP2004240633A (en) Coordinate input device
JP2001084102A (en) Coordinate inputting device
JPH1031542A (en) Device and system for reading coordiante

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060606