JP2023053397A - 座標算出システム - Google Patents

座標算出システム Download PDF

Info

Publication number
JP2023053397A
JP2023053397A JP2023022993A JP2023022993A JP2023053397A JP 2023053397 A JP2023053397 A JP 2023053397A JP 2023022993 A JP2023022993 A JP 2023022993A JP 2023022993 A JP2023022993 A JP 2023022993A JP 2023053397 A JP2023053397 A JP 2023053397A
Authority
JP
Japan
Prior art keywords
electronic pen
coordinate
digitizer
spatial
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023022993A
Other languages
English (en)
Inventor
創 熊巳
Hajime Kumami
浩司 吉田
Koji Yoshida
浩 玉野
Hiroshi Tamano
博史 宗像
Hiroshi Munakata
元昊 陳
Yuanhao Chen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Publication of JP2023053397A publication Critical patent/JP2023053397A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】電子ペンのペン先の位置の空間における座標を良好に算出できる。【解決手段】電子ペンのペン先の位置を検出するタブレットと、電子ペンのトラッカーの位置を検出するトラッキングデバイスであり、タブレットよりも上に位置するトラッキングデバイスと、タブレットによって検出された電子ペンのペン先の位置に基づいて第1の座標系における電子ペンのペン先に対応する第1の座標を算出し、トラッキングデバイスによって検出されたトラッカーの位置に基づいて第1の座標系と異なる第2の座標系における電子ペンのペン先に対応する第2の座標を算出し、第1の座標系における第1の座標に基づいて第2の座標系における第3の座標を算出するコンピュータと、を有する。【選択図】図11

Description

この発明は、電子ペンを空間上で用いる場合に好適な座標算出システム及び座標算出方法に関する。
デジタイザと呼ばれる座標入力装置に対して、電子ペンにより連続的に位置指示することにより描画することで、アニメーション画像などを作成する描画システムが知られている。この場合に、操作者は、電子ペンを、デジタイザを内蔵したタブレット装置の入力面に接触させた状態で、あるいは、タブレット装置の入力面には非接触の状態ではあるが、位置検出可能な上方領域に置いた状態(ホバー状態)で、描画画像を生成するための位置指示操作するようにする。デジタイザは、電子ペンにより指示された位置を検出し、その検出結果として描画画像を生成し、表示画面に表示する。操作者は、表示画面に表示されている描画画像を確認しながら、描画を実行するようにする。
最近は、2次元の表示画面に表示された描画画像を、視覚的に、3次元画像のように描画表現(例えば回転や変形等)することができるようにするシステムやアプリケーションが登場している。この場合には、操作者の例えば手や指の動き(ジェスチャー)を動きセンサを用いて検出し、その検出した動き(ジェスチャー)に基づいて描画表現処理を行うようにする。
従来は、デジタイザで電子ペンによる指示位置を検出することに基づいて2次元描画画像を作成する工程と、2次元画像を3次元画像のように描画表現したり、取り扱ったりする工程とはそれぞれ独立して別々の工程として実行されていた。
ところで、上述のような位置指示入力とジェスチャーなどの操作入力の両方を行えるユーザインターフェースが提供されている(例えば、特許文献1及び特許文献2参照)。
特許文献1には、モーションセンサからの信号に応答してホバーイベント検出モードからジェスチャイベント検出モードに切り替えるように構成されたタッチコントローラが開示されている。
また、特許文献2には、タッチセンサ式ディスプレイを介して検出される位置情報と非接触検出手段を介して検出される位置情報とを交互に判定するコントローラ手段が開示されている。
米国特許第9367169号明細書 米国特許第9323379号明細書
しかしながら、特許文献1のように、モーションセンサからの信号に応じて切り替える方法では、切替のためにデバイスの傾きを、都度、変更しなければならないという問題がある。
また、特許文献2の場合には、タッチセンサ式ディスプレイと非接触検出手段とを時分割で切り替えることになり、それぞれの時間分解能が低下する問題がある。
この発明は、以上の問題点を解決することができるようにした座標算出システムを提供することを目的とする。
上記の課題を解決するために、
電子ペンのペン先の位置を検出するタブレットと、
前記電子ペンのトラッカーの位置を検出するトラッキングデバイスであり、前記タブレットよりも上に位置するトラッキングデバイスと、
前記タブレットによって検出された前記ペン先の位置に基づいて第1の座標系における前記ペン先に対応する第1の座標を算出し、前記トラッキングデバイスによって検出された前記トラッカーの位置に基づいて前記第1の座標系と異なる第2の座標系における前記ペン先に対応する第2の座標を算出し、前記第1の座標系における前記第1の座標に基づいて前記第2の座標系における第3の座標を算出するコンピュータと、
を有することを特徴とする座標算出システムを提供する。
この発明による空間位置指示システムの第1の実施形態の概要を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の構成例を説明するためのブロック図である。 この発明による空間位置指示システムの第1の実施形態における空間座標系を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の一部の動作を説明するための図である。 この発明による空間位置指示システムの第1の実施形態における電子ペンの位置検出用の座標系の切り替えを説明するための図である。 この発明による空間位置指示システムの第1の実施形態における表示部の表示画面の表示画像の例を示す図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第2の実施形態の概要を説明するための図である。 この発明による空間位置指示システムの第2の実施形態の主要な動作を説明するための図である。 この発明による空間位置指示システムの第2の実施形態の構成例を説明するためのブロック図である。
以下、この発明による空間位置指示システムの実施形態を、図を参照しながら説明する。
[第1の実施形態]
図1は、この発明による空間位置指示システムの第1の実施形態の全体構成例を示す図である。この第1の実施形態の空間位置指示システムは、図1に示すように、電子ペン1と、タブレット装置2とを備える。そして、タブレット装置2は、この実施形態では、図2に示すような内部構成を備える。概略的には、タブレット装置2の入力面から電子ペン1のペン先までのZ軸方向の高さ位置が後述する臨界高さ位置Lzよりも小さい場合には(例えば、図1における高さ位置B1)、指示位置検出装置部203で検出された電子ペン1の指示位置を用いる。一方、タブレット装置2の入力面から電子ペン1のペン先までのZ軸方向の高さ位置が臨界高さ位置Lz以上である場合には(例えば、図1における高さ位置B2)、空間位置検出装置部204で検出された電子ペン1の指示位置を用いる。一般に、指示位置検出装置部203による位置検出の精度は、空間位置検出装置部204による位置検出の精度よりも高い。そのため、電子ペン1がタブレット装置2の指示入力を受けるための入力面から離れ、その上方のホバー領域に位置する場合には、指示位置検出装置部203による位置検出を継続して使用し、その高さ位置が臨界高さ位置Lz以上となったときに空間位置検出装置部204による位置検出を使用することが好ましい。
この第1の実施形態の空間位置指示システムのタブレット装置2は、表示部の例としてのLCD(Liquid Crystal Display;液晶ディスプレイ)201を備え、このLCD201の表示画面201Dが、筐体202の表面に配置されている。
そして、タブレット装置2においては、LCD201の裏側に、LCD201と重畳する状態で、電子ペン1による指示位置を検出する指示位置検出装置部(以下、デジタイザという)203のセンサ部2031が配設されている。デジタイザ203は、図2に示すように、センサ部2031と位置検出回路2032とを備える。
センサ部2031は、図示は省略するが、複数個のループコイルが、それぞれ、タブレット装置2の筐体202の横方向(X軸方向)と、筐体202の縦方向(Y軸方向)とに配設されて構成されている。この例では、デジタイザ203は電磁誘導方式のものとされているが、本実施形態はこれに限定されない。
一方、電子ペン1は、ペン先側にコイルとコンデンサとからなる共振回路(図示は省略)を備えており、デジタイザ203のセンサ部2031のループコイルと、電子ペン1の共振回路との間で、電磁誘導結合することで、電子ペン1とデジタイザのセンサ部2031との間で信号の授受を行う。電子ペン1も電磁誘導方式のものとされているが、本実施形態はこれに限定されない。
デジタイザ203の位置検出回路2032は、センサ部2031のループコイルを通じて電子ペン1に信号を供給すると共に、電子ペン1からの信号をループコイルを通じて受信し、その受信した信号に基づいて、センサ部2031の検出領域において電子ペン1により指示された位置を検出する。なお、この実施形態では、デジタイザ203は、電子ペン1のペン先で指示された位置を検出するように構成されている。
この例では、LCD201の表示画面201Dのほぼ全域をカバーするようにデジタイザ203のセンサ部2031のループコイルが配設されており、表示画面201Dの表面全域とほぼ同一の領域は、センサ部2031に対する電子ペン1の入力面203S(図1の点線で囲む部分)となる。
そして、この実施形態では、デジタイザ203で電子ペン1の指示位置を検出することができる位置検出領域は、電子ペン1のペン先がデジタイザ203の入力面203Sに接触しているときの平面領域のみならず、電子ペン1のペン先がデジタイザ203の入力面203Sに非接触であって、入力面203Sとは、当該入力面203Sに直交する方向(X軸方向及びY軸方向に直交するZ軸方向)に離間しているが、電磁結合による信号の授受を通して電子ペン1の指示位置を検出することができる空間領域(電子ペン1のホバー状態のホバー領域)を含む。
例えば、図1において、デジタイザ203の入力面203Sの左上隅の位置P0を、X軸方向、Y軸方向及びZ軸方向の原点の座標((X,Y,Z)=(0,0,0))としたとき、デジタイザ203における電子ペン1の指示位置の検出が可能となる位置検出領域DTは、図3において、斜線を付して示す入力面203Sの平面領域及び当該入力面203Sの上方の直方体の空間領域となる。
すなわち、図1に示すように、デジタイザ203の入力面203SのX軸方向の長さをLx、Y軸方向の長さをLy、ホバー状態を検出することができるZ軸方向の臨界高さ位置をLzとすると、図3に示すように、P0(0,0,0)、P1(Lx,0,0)、P2(Lx,Ly,0)、P3(0,Ly,0)、P4(0,0,Lz)、P5(Lx,0,Lz)、P6(Lx,Ly,Lz)、P7(0,Ly,Lz)の8点の座標点位置で囲まれる領域が、デジタイザ203の位置検出領域DTとなる。
そして、この第1の実施形態のタブレット装置2は、デジタイザ203とは別個に電子ペン1の空間位置を検出する手段として、空間位置検出装置部204を備えている。図1に示すように、筐体202の表面に、空間位置検出装置部204の空間位置検出用部材2041が設けれられている。空間位置検出用部材2041は、この例では、図示は省略するが、非可視光センサ(例えば、赤外線発光部(赤外線LED)及び赤外線カメラなど)を備えて構成されるが、本実施形態はこれに限定されず、可視光センサなどの他のセンサ又はこれらの組み合わせを用いてもよい。
空間位置検出装置部204の空間位置検出用部材2041の赤外線発光部は、デジタイザの位置検出領域DTの少なくとも一部を含む空間領域を探索領域として、その探索領域に存する物(オブジェクトという)を探索するように赤外光を発する。すなわち、空間位置検出用部材2041の赤外線発光部は、デジタイザの位置検出領域DTの少なくとも一部を含む空間を探索するように赤外光を発する。そして、空間位置検出用部材2041の赤外線カメラは、その空間領域に存在するオブジェクトからの赤外光の反射光を受光することで、オブジェクトの存在及び位置を検出する。前述したように、この実施形態では、空間位置検出装置部204で検出するオブジェクトは、電子ペン1であり、例えば、そのペン先位置を位置検出する。
空間位置検出装置部204は、この第2の実施形態では、デジタイザ203で検出される電子ペン1の指示位置との連続性を考慮して、電子ペン1のペン先の空間位置を検出するように構成されているが、本実施形態はこれに限定されず、電子ペン1の他の1つ又は複数の部位の位置を検出するように構成されてもよい。この実施形態のタブレット装置2では、空間位置検出装置部204で検出された電子ペン1のペン先の空間位置から求められた当該ペン先の動きから、電子ペン1の操作者により実行されたジェスチャーを検出するように構成され得る。
空間位置検出装置部204の空間位置検出回路2042(図2参照)は、赤外線カメラで受光した反射光の受光情報(受光方向や発光時刻と受光時刻の差等)から、前述した広い空間領域内におけるオブジェクトの位置、この例では、電子ペン1のペン先位置を検出する。そして、空間位置検出装置部204は、この例では、空間領域内における電子ペン1のペン先位置の動きを検出する。この明細書では、空間位置検出装置部204が探索対象とする空間領域を、便宜上、動き検出空間領域MDと呼ぶことにする。
空間位置検出装置部204の動き検出空間領域MDの空間座標系は、デジタイザ203の位置検出領域DTの空間座標系とは独立に設定され得る。図3においては、動き検出空間領域MDの空間座標系の3軸は、サフィックスsを用いて、Xs軸、Ys軸、Zs軸として、デジタイザ203の検出領域DTの空間座標系のX軸、Y軸、Z軸とは区別して示している。この場合に、空間位置検出装置部204の動き検出空間領域MDは、この例においては、図1に示すように、タブレット装置2の筐体202において、空間位置検出用部材2041が設置される部分の中心位置を、動き検出空間領域MDの空間座標系の原点位置として定められている。
なお、図3では、便宜上、Xs軸、Ys軸、Zs軸のそれぞれの方向は、X軸、Y軸、Z軸のそれぞれの方向と同一方向として示しているが、空間位置検出用部材2041を構成する赤外線発光部や赤外線カメラの光軸方向の関係上、Xs軸、Ys軸、Zs軸のそれぞれの方向は、X軸、Y軸、Z軸のそれぞれの方向とは異なり得る。
しかし、この実施形態では、電子ペン1のペン先の位置の位置情報は、デジタイザ203の位置検出領域DTの空間座標系と、空間位置検出装置部204の動き検出空間領域MDの空間座標系との共通の領域を用いることによって、後述する空間位置補正情報を用いて座標変換ができるように構成されている。すなわち、空間位置検出装置部204の動き検出空間領域MDの空間座標系は、デジタイザ203の位置検出領域DTの空間座標系の少なくとも一部を共通領域として含むように配置される。
なお、Xs軸、Ys軸、Zs軸のそれぞれの方向と、X軸、Y軸、Z軸のそれぞれの方向とが同一方向であれば、デジタイザ203の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とは、両空間座標系の原点位置の差分を考慮することで、一つの空間座標系として共通に取り扱うことができる。すなわち、例えばデジタイザ203の位置検出領域DTの空間座標系の原点位置と、動き検出空間領域MDの空間座標系の原点位置とのX軸方向、Y軸方向、Z軸方向のオフセット値を、それぞれΔx、Δy、Δzとすれば、Xs-Δx(=X)、Ys-Δy(=Y)、Zs-Δz(=Z)を求めることにより、動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、デジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)に変換することできる。
しかし、この第1の実施形態のタブレット装置2においては、上述したように、独立に設けられるデジタイザ203の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とは、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが異なり得る。また、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが同一である場合においても、原点位置のオフセット値を正確に規定することは困難であり、タブレット装置2毎に異なってしまう恐れがある。
すると、2つの空間座標系における座標位置が異なってしまうことになり、例えば、表示画面201D上に電子ペン1のペン先位置を矢印等のカーソルで示す場合に、デジタイザ203の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との2つの空間座標系を切り替えたときに、図4に示すように、実線のカーソルCSの表示位置から破線のカーソルCS´状態にジャンプしてしまう恐れがある。このため、描画画像を入力しようとしている使用者にとっては、指示位置を指示し直さなければならない。
そこで、この第1の実施形態では、デジタイザ203の位置検出領域DTの少なくとも一部の領域は、動き検出空間領域MDと共通の空間領域であることを利用して、デジタイザ203の検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とのずれの補正情報を生成するようにする。この例では、デジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)を、空間位置検出装置部204の空間位置検出回路2042で検出された動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)に変換することで、両者のずれを補正した座標値を得ることができるようにする。その変換のための補正情報について次に説明する。
数式1に、空間位置検出装置部204の空間位置検出回路2042で検出された動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、デジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)に線形変換するための行列式を示す。この行列式は3行3列であり、その成分をaij(i,j=1、2、3)で表す。
Figure 2023053397000002
この第1の実施形態では、デジタイザの位置検出領域DTの少なくとも一部は、動き検出空間領域MDと共通の空間領域であることを利用して、デジタイザの検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との間の変換のための補正情報を生成するようにする。
すなわち、図3に示すように、デジタイザの位置検出領域DTと動き検出空間領域MDとの共通の空間領域内の少なくとも3点Pa,Pb,Pcを位置指定して、それぞれの点のデジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)と、動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)とをそれぞれのデバイスから取得する。理想的には、これらのデバイスから取得した座標値は同じ値になるが、キャリブレーションを行わなければ、これらの座標値は通常は一致しない。一般には、デジタイザ203の位置検出の精度が空間位置検出装置部204の位置検出の精度よりも高いため、空間位置検出装置部204の動き検出空間領域MDの空間座標系の座標値をデジタイザ203の位置検出領域DTの空間座標系の座標値に合わせることが好ましい。
共通領域内で位置指定した1つの点につき、対応する位置検出領域DTの空間座標系の座標値(X,Y,Z)と動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を数式1に代入すると3つの方程式が得られる。共通領域内で少なくとも3点の位置指定を行うことにより、a11~a33についての少なくとも9個の方程式が得られるので、a11~a33のそれぞれの値を求めることができる。また、デジタイザの検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との間の変換は、上記方法に限定されず、共通領域における少なくとも3点の座標値を用いた機械学習による学習や、ユーザによるキャリブレーションなどを用いてもよい。
以上のように、第1の実施形態のタブレット装置2は、空間位置検出装置部204の動き検出空間領域MD内に、デジタイザ203の位置検出領域DTの少なくとも一部を含むように構成されている。つまり、タブレット装置2は、空間位置検出装置部204の動き検出空間領域MDが、デジタイザ203の位置検出領域DTの少なくとも一部を共通領域として有するように構成されている。
そして、この実施形態のタブレット装置2では、電子ペン1のペン先位置の、デジタイザ203のセンサ部2031の入力面203Sからの離間距離(Z軸方向の離間距離)に応じて、デジタイザ203で検出した電子ペン1の指示位置(第1の位置)を用いるか、空間位置検出装置部204で検出した電子ペン1の空間領域における位置(第2の位置)を用いるかを切り替えるように構成している。
すなわち、図5に示すように、切り替えポイントとなる入力面203Sからの離間距離(Z軸方向の離間距離)をθthとしたとき、電子ペン1の入力面203Sからの離間距離がθthよりも小さいときには、タブレット装置2は、デジタイザ203が、その位置検出領域DTにおいて電子ペン1による指示位置を検出し、その検出した指示位置に応じた処理を行う装置として動作する。一方、電子ペン1の入力面203Sからの離間距離がθthよりも大きいときには、タブレット装置2は、空間位置検出装置部204が電子ペン1の空間領域内の位置を検出し、位置に応じた処理を行う装置として動作するように切り替えられる。
この実施形態では、切り替えポイントとなる入力面203Sからの離間距離(Z軸方向の離間距離)θthは、デジタイザ203が電子ペン1のホバー状態を検出することができるZ軸方向の臨界高さ距離Lz以下に設定される。この例では、切り替えポイントとなる入力面203Sからの離間距離θthは、図5に示すように、デジタイザ203が電子ペン1のホバー状態を検出することができるZ軸方向の臨界高さ距離Lz、すなわち、位置検出領域DTのZ軸方向の長さLzと等しく設定されている。
すなわち、タブレット装置2は、電子ペン1がデジタイザ203の位置検出領域DT内に存在するときには、当該電子ペン1の位置をデジタイザ203で検出した結果を用い、電子ペン1がデジタイザ203の位置検出領域DTの外側に存在するときには、当該電子ペン1の動きを空間位置検出装置部204で検出した結果を用いるように切り替えられると共に、その切り替えに応じて、描画処理も切り替えられる。
電子ペン1のペン先位置の、デジタイザ203のセンサ部2031の入力面203Sからの離間距離(Z軸方向の離間距離)は、この実施形態では、デジタイザ203のセンサ部2031での電子ペン1からの受信信号の信号レベル(信号強度)が、離間距離に応じた値となるので、タブレット装置2は、当該電子ペン1からの受信信号の信号レベルに基づいて検出する。
次に、以上のことを実現するタブレット装置2の構成部分の例について説明する。すなわち、デジタイザ203を構成する位置検出回路2032は、電子ペン1の指示位置の検出出力を、選択回路205の一方の入力信号として供給する。なお、この位置検出回路2032から選択回路205に供給される情報には、電子ペン1の指示位置の検出出力に加えて、電子ペン1に印加される筆圧情報が含まれている。この筆圧情報により、電子ペン1が入力面203Sに接触しているかどうかが分かり、また、線画を描画する場合に、筆圧の大きさに応じた太さの線画を描くことができる。
また、空間位置検出装置部204の空間位置検出回路2042は、電子ペン1の空間位置の検出出力を、空間位置座標補正回路206に供給する。この空間位置座標補正回路206には、補正情報メモリ207からの前述の(数式1)に示した行列式の成分a11~a33が供給される。空間位置座標補正回路206は、補正情報メモリ207から供給される成分を用いて、数式1の行列式の演算を実行して、空間位置検出装置部204の空間座標系の座標情報を、デジタイザ203の空間座標系の座標情報に変換する。そして、空間位置座標補正回路206は、その変換後の座標出力を、ジェスチャー検出回路208に供給する。
ジェスチャー検出回路208は、空間位置座標補正回路206からの座標出力に基づいて、電子ペン1のペン先の動き(ジェスチャー)を検出し、その検出出力を選択回路205の他方の入力信号として供給する。
そして、この実施形態においては、デジタイザ203の位置検出回路2032は、電子ペン1からの受信信号の信号レベルの情報を、離間距離検出回路210に供給する。離間距離検出回路210は、この実施形態では、電子ペン1からの受信信号の信号レベルから、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離を検出する。そして、離間距離検出回路210は、検出した離間距離の情報を選択制御信号生成回路211に供給する。
選択制御信号生成回路211は、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離が、距離Lz以下のときには、選択回路205をデジタイザ203の検出出力を選択するように制御し、距離Lzよりも大きいときには、選択回路205をジェスチャー検出回路208の検出出力を選択するように制御する選択制御信号SEを生成し、生成した選択制御信号SEにより選択回路205を選択制御する。
選択回路205は、一方の入力または他方の入力の一方を、選択制御信号SEに応じて切り替えて、描画処理回路212に供給する。
描画処理回路212は、デジタイザ203からの電子ペン1の指示位置検出出力に基づいて、精細な線画等を描画するペン描画処理部2121と、空間位置検出装置部204からの電子ペン1の空間位置に基づいて検出された動き(ジェスチャー)に基づいた描画処理をするジェスチャー処理部2122とを備える。そして、この描画処理回路212には、切替信号生成回路211からの切替制御信号SWが供給されており、描画処理回路212は、ペン描画処理部2121とジェスチャー処理部2122とを、スイッチ回路205の切り替えに連動して切り替えて、3D描画画像の描画処理を実行する。
描画処理回路212で生成された3D描画画像情報は、表示ドライブ回路213を通じて、この例では、LCDで構成されている表示部201に供給されて、その表示画面201Dに表示される。
図6に、表示部201の表示画面201Dに表示される3D描画画像の一例を示す。この実施形態では、図6に示すように、表示画面201Dには、スイッチ回路205の切替状態が、デジタイザ203側であるのか(タブレットモード)、ジェスチャー検出回路208側であるのかを(スペースモード)、使用者に通知する現在モード表示220が表示されている。この現在モード表示220は、描画処理回路212で、例えば切替制御信号SWに基づいて生成されて表示画像に表示される。
現在モード表示220は、電子ペン1がデジタイザ203の位置検出領域DT内に存在するか、空間位置検出装置部204の動き検出空間領域MD内に存在しているかを使用者に報知するためのもので、図6の例では、電子ペン1がいずれの領域に存在するかを斜線を付して示すバー221Bの高さにより示すバー表示221と、バー表示221がいずれの領域を示しているかを報知するための文字表示欄222とからなる。
なお、描画処理回路212に、離間距離検出回路210の検出出力と、空間位置座標補正回路206からの座標出力とを供給するようにすれば、描画処理回路212は、電子ペン1の入力面203Sからの離間距離を知ることができるので、現在モード表示202における電子ペン1の位置のバー表示221のバーの高さを、電子ペン1の入力面203Sからの離間距離に応じたものとするように表示することもできる。
図6(A)は、電子ペン1がデジタイザ203の位置検出領域DT内に存在していて、電子ペン1により、直方体のオブジェクトOBJが描画されたときの表示画面を示している。
図6(B)は、図6(A)の状態から、使用者により電子ペン1がデジタイザ203の位置検出領域DT外に移動され、例えば図6(B)において矢印ARで示すように、直方体のオブジェクトOBJを回転させるようなジェスチャー操作をした場合の表示画像例を示している。
図6は、デジタイザ203の位置検出領域DTでの描画及び空間位置検出装置部204の動き検出空間領域MDでの描画は、一例であって、ジェスチャー操作による描画には、オブジェクトの移動や、圧力を加えたり、一部を引っ張って伸ばしたりしてオブジェクトを変形させるような描画処理を行うこともできる。
なお、電子ペン1には、入力面203Sに接触しているときにペン先に印加される筆圧を検出する筆圧検出回路が設けられており、この筆圧検出回路の検出結果の情報が、タブレット装置2に、伝達されるように構成されている。そして、電子ペン1による精細な描画操作は、入力面203Sに接触している状態でなされることが多い。そこで、タブレット装置2では、電子ペン1から受信する筆圧検出結果の情報に基づいて、電子ペン1が入力面203Sに接触している状態と、非接触であるホバー状態とを区別して、表示画面201Dには、それを操作者に伝達するように、例えば「接触状態」、「ホバー状態」などの文字表示をするようにしてもよい。
なお、タブレット装置2は、例えばコンピューターからなる制御回路200を備え、この制御回路200による制御に基づいて、上述した各回路の動作を行う。なお、空間位置座標補正回路206、ジェスチャー検出回路208、離間距離検出回路210、選択制御信号生成回路211、描画処理回路212の各処理は、制御回路200が、ソフトウェアプログラムにより実行するソフトウェア機能部として構成することもできる。
補正情報メモリ207には、行列式の成分a11~a33を、タブレット装置2の工場出荷前に記憶させておくようにすることもできる。しかし、この実施形態では、各タブレット装置2毎の誤差をも含めて補正することができるように、使用者が、補正情報生成格納処理をタブレット装置2に実行させることで、タブレット装置2を起動させる前に、補正情報(行列式の成分a11~a33)を補正情報メモリ207に格納するようにすることができる。
図2に示した補正情報生成回路209は、そのための処理部であり、制御回路200からの制御に基づいて補正情報生成処理を実行する。この補正情報生成回路209は、制御回路200が備える、補正情報生成格納処理ためのアプリケーションとして設けることもできる。
タブレット装置2の最初の起動時に、制御回路200により、補正情報生成回路209が動作するように制御される。そして、制御回路200により、使用者に、空間位置検出装置部204と、デジタイザ203とで共通となるデジタイザ203の位置検出領域DTにおいて、少なくとも3点を電子ペン1により位置指示するように促される。使用者が、それに応じて3点以上を位置指示すると、前述したように、その3点以上について、デジタイザ203の検出座標情報と、空間位置検出装置部204の検出座標情報とが、補正情報生成回路209に取り込まれる。
そして、補正情報生成回路209では、取り込んだ3点以上の座標情報を用いて、前述したようにして、行列式の成分a11~a33を算出し、補正情報メモリ207に格納する。
なお、以上の補正情報生成回路209による行列式の成分a11~a33の算出、及び補正情報メモリ207への格納処理は、使用者により行わせるのではなく、使用者に販売する前に予め設定しても勿論よい。
以上のように構成されているので、この実施形態のタブレット装置2は、電子ペン1がデジタイザ203の入力面203Sに接触、あるいはホバー状態であるときには、デジタイザ203は、電子ペン1の指示位置を検出して、線画による精細な描画を行い、電子ペン1が、入力面230Sからの離間距離Lzよりも離れた状態にあるときには、空間位置検出装置部204での空間位置検出に切り替えて、電子ペン1の動き(ジェスチャー)検出を行って、検出された動き(ジェスチャー)に応じた操作を行う。
したがって、操作者は、デジタイザ203と、空間位置検出装置部204との切り替えを意識することなく、電子ペン1をタブレット装置2上において空間的に移動するだけで、シームレスに、精細描画からジェスチャーによる操作をすることができる。
そして、この実施形態のタブレット装置2においては、デジタイザ203の座標出力を空間位置検出装置部204の空間座標系の値に変換するようにしているので、空間座標系が切り替わったときにも、電子ペン1の位置検出に応じて表示画面に表示されるカーソル位置が、ジャンプしてしまうという不具合を抑えることができる。
また、タブレット装置2の表示部201の表示画面201Dには、電子ペン1の入力面203Sからの離間距離に応じて、デジタイザ203により電子ペン1の指示位置が検出されている状態か、空間位置検出装置部204で電子ペン1の空間位置が検出されている状態かが表示されるので、電子ペン1の操作者は、当該時点での電子ペン1の空間位置においては、どのような操作をするべきかを的確に把握することができる。
[第1の実施形態の変形例]
<変形例1>
なお、以上の第1の実施形態の説明では、デジタイザ203では、電子ペン1からの受信信号の信号レベルに基づいて、電子ペン1の入力面203Sからの離間距離を求め、その求めた離間距離からスイッチ回路205の切替信号を生成するようにした。しかし、電子ペン1の入力面203Sからの離間距離の算出方法は、上述の例に限られるものではない。
例えば、電子ペン1で、タブレット装置2のデジタイザ203のセンサ部2031からの信号を受信したときに、その受信信号の信号レベルを検出して、その信号レベルの情報を、タブレット装置2に送信するようにすることもできる。図7は、そのように構成した場合の電子ペン1Aと、タブレット装置2Aの要部の構成例を示す図である。
この例では、電子ペン1Aは、タブレット装置2Aのデジタイザ203のセンサ部2031からの受信信号の信号レベルを検出する受信信号レベル検出回路101を備えると共に、例えばブルートゥース(登録商標)規格の無線通信を行う無線通信部102を備える。そして、電子ペン1Aは、受信信号レベル検出回路101で検出したセンサ部2031からの受信信号の信号レベルの情報を、無線通信部102を通じてタブレット装置2Aに送信する。
タブレット装置2Aは、無線通信部102と無線通信を行うためのブルートゥース(登録商標)規格の無線通信部221を備えると共に、図2の例における離間距離検出回路210及び切替信号生成回路211に代えて、離間距離検出回路222及び選択制御信号生成回路223を備える。離間距離検出回路222は、この例では、無線通信部221で受信した電子ペン1Aからの信号レベルの情報に基づいて、電子ペン1Aのデジタイザ203の入力面203Sからの離間距離を検出し、その検出した離間距離の情報を選択制御信号生成回路223に供給する。
選択制御信号生成回路223は、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離が、距離Lz以下のときには、デジタイザ203の検出出力を選択し、距離Lzよりも大きいときには、ジェスチャー検出回路208の検出出力を選択するように制御する選択制御信号SEaを生成し、生成した切替制御信号SEaにより選択回路205を切り替え制御する。
タブレット装置2Aのその他の部分の構成は、図2に示したものと同様である。
この図7の例の構成によれば、デジタイザ203のセンサ部2031から電子ペン1Aに送信される信号の電波強度は、タブレット装置2が電子ペン1から受信する信号の電波強度よりも大きい。このため、タブレット装置2Aの離間距離検出回路222及び切替信号生成回路223では、図2の構成のタブレット装置2の場合よりも、より的確に、切り替えポイントの離間距離Lzの位置を検出することが可能となる。
<変形例2>
また、上述の例では、デジタイザ203のセンサ部2031と、電子ペン1あるいは電子ペン1Aとの間の信号の受信レベルに基づいて、電子ペン1あるいは電子ペン1Aのデジタイザ203の入力面203Sからの離間距離を検出するようにした。しかし、空間位置検出装置部204で位置検出された電子ペン1のペン先位置から、選択回路205の選択制御信号を生成するようにすることもできる。
図8は、そのように構成された場合のタブレット装置2Bの要部の構成例を示す図である。すなわち、この例のタブレット装置2Bでは、図2の例における離間距離検出回路210及び切替信号生成回路211に代えて、図8に示すように、離間距離検出回路224及び切替信号生成回路225を備える。この例では、離間距離検出回路224には、空間位置座標補正回路206の位置座標出力が供給される。離間距離検出回路224は、空間位置座標補正回路206の位置座標出力から、電子ペン1の空間位置を検出し、そのZ座標から、デジタイザ203の入力面203Sからの電子ペン1Aの離間距離を検出し、その検出出力を選択制御信号生成回路225に供給する。
選択制御信号生成回路225は、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離が、距離Lz以下のときには、デジタイザ203の検出出力を選択し、距離Lzよりも大きいときには、ジェスチャー検出回路208の検出出力を選択するように制御する選択制御信号SEbを生成し、生成した切替制御信号SEbにより選択回路205を制御する。
タブレット装置2Aのその他の部分の構成は、図2に示したものと同様である。
<変形例3>
以上の実施形態の説明では、ジェスチャーは、空間位置検出装置部204で検出された電子ペン1の位置の変化のみにより検出するようにした。しかし、電子ペンに、当該電子ペンの動きを検出する動き検出センサを設けて、その動き検出センサの検出出力をも、タブレット装置に送り、タブレット装置では、その動き検出センサの検出出力をも参照することで、より精細なジェスチャー操作を描画に反映することが可能となる。
図9は、そのように構成した場合の電子ペン1Cとタブレット装置2Cの要部の構成例を示す図である。この図9の例においては、電子ペン1Cは、図7の変形例と同様の無線通信部102を備えると共に、自身の動き検出センサとして、9軸センサ103を備える。9軸センサ103は、周知のように、3軸ジャイロセンサと、3軸加速度センサと、3軸地磁気センサとを組み合わせたもので、電子ペン1Cの動きについて、9軸のセンサ出力を送出する。
電子ペン1Cは、この9軸センサ103で検出した自身の動きについての9軸のセンサ出力を、無線通信部102を通じてタブレット装置2Cに送信する。
タブレット装置2Cは、図7の変形例と同様の無線通信部221を備えると共に、ペン動き検出回路226を備える。そして、タブレット装置2Cでは、無線通信部221で、電子ペン1Cから受信した9軸のセンサ出力を、ペン動き検出回路226に供給する。ペン動き検出回路226では、9軸のセンサ出力を解析して、電子ペン1Cの動きを検出し、その検出出力をジェスチャー検出回路208´に供給する。ジェスチャー検出回路208´は、空間位置座標補正回路206からの空間位置座標の変化に加えて、ペン動き検出回路226からの電子ペン1Cの動き検出出力を参照して、電子ペン1Cの操作者によりなされたジェスチャーを検出する。
タブレット装置2Cのその他の部分の構成は、図2に示したものと同様である。
この図9の例によれば、タブレット装置2Cでは、電子ペン1Cの操作者によるジェスチャーを、精緻に検出することが可能となり、従来よりも精緻な動きのジェスチャーを描画に反映できるという効果がある。
なお、以上の例では、タブレット装置2Cは、ジェスチャーを検出する場合に、電子ぺ1Cから受信した9軸センサ103で検出された当該電子ペン1Cの動き検出出力を用いるようにしたが、デジタイザ203で電子ペン1Cにより指示された位置を検出する場合にも用いるようにしてもよい。例えば、ペン動き検出出力から電子ペン1Cの傾きを検知することができるので、その傾きの検知結果を参照しながら、電子ペン1Cによる指示位置を検出するようにすることができる。また、電子ペン1Cの傾きを、線画の太さに反映したりすることもできる。
同様の考えから、タブレット装置2やタブレット装置2A~2Cにおいて、デジタイザ203で電子ペン1Cにより指示された位置を検出する場合に、空間位置検出装置部204での位置検出結果から、電子ペン1、電子ペン1A、電子ペン1B及び電子ペン1Cの傾きを検出して、それを参照しながら、電子ペン1Cによる指示位置を検出するようにすることもできる。
なお、タブレット装置2Cのペン動き検出回路226の動き検出出力は、ジェスチャーや電子ペンによる指示位置の検出のためにのみ用いるのではなく、それ自身を、描画に独立に反映させるようにすることもできる。また、タブレット装置では、描画操作のみではなく、その他の入力操作として検出するようにしてもよいことは言うまでもない。
<変形例4>
上述の実施形態では、デジタイザ203の空間座標系と、空間位置検出装置部204の空間座標系との間で、電子ペンの位置検出結果に誤差が生じる恐れがあることを考慮して、例えば表示画面201D上でカーソルの表示位置が、両座標系を切り替えたときにジャンプしてしまうような変化を生じないように、空間位置検出装置部204の空間座標系の座標出力を、デジタイザ203の空間座標系の座標出力に変換するようにした。
しかし、このような補正をせずに、両座標系を切り替えたときに、カーソル位置が異なるときには、切り替え前の空間座標系のカーソル位置から、切り替え後の空間座標系のカーソル位置に徐々に位置を変化するようにカーソルを表示することにより、カーソル位置の切り替え時の変化を目立たなくすることができる。
すなわち、例えば図10に示すように、表示画面201Dに空間座標系の切り替え前には、実線のカーソルCSのように表示されているときに、空間座標系の切り替え後のカーソル位置が、破線のカーソルCS´のようにジャンプしてしまう場合に、実線のカーソルCSの位置から、破線のカーソルCS´の位置に徐々に表示位置を変えるようにする。そのためには、実線のカーソルCSの座標位置情報Paと、破線のカーソルCS´の座標位置情報Pbとから、徐々に変化するカーソルの位置座標Pcを算出するようにする。
すなわち、以下に示す数式2として算出する。
Figure 2023053397000003
(数式2)において、k1及びk2は、重み付け係数である。すなわち、カーソルの位置座標Pcが、実線のカーソルCSの座標位置情報Paである切り替えの時点から重み付け係数k1の値は、「1」から徐々に小さくなるように変化し、一方、重み付け係数k2の値は、「0」から徐々に大きくなるように変化する。
そして、カーソルCSの位置が破線のカーソルCS´の位置に至る時点までは徐々に小さくなって「0」となるように変化し、重み付け係数k2の値は、徐々に大きくなって「1」となるように変化するようにされる。
これにより、カーソルCSからカーソルCS´のように表示位置が変化しても、その変化が目立たなくなる。
なお、k1及びk2は、時間tにより変化する変数k1(t)、k2(t)であってもよい。この場合、カーソルの位置座標Pcが、実線のカーソルCSの座標位置情報Paである切り替えの時点から重み付け係数k1(t)の値は、「1」から徐々に小さくなるように変化し、一方、重み付け係数k2(t)の値は、「0」から徐々に大きくなるように変化させることができる。
<変形例5>
以上の説明では、電子ペンの位置が、デジタイザ203の入力面203Sからの離間距離がLzを超える状態になった時には、デジタイザ203による電子ペンの指示位置の検出から、空間位置検出装置部204による電子ペンの空間位置検出に、即座に切り替えるようにした。しかし、場合によっては、操作者が、電子ペンを、タブレット装置のデジタイザ203の入力面203Sから、Lz以上の離間距離の位置に移動しても、その状態は、描画におけるジェスチャー入力のためでない場合もある。
したがって、空間位置検出装置部204による電子ペンの空間位置検出は、デジタイザ203の入力面203Sからの離間距離がLzを超える状態になった時に即座に、開始するのではなく、さらに所定の開始トリガが発生したときに、開始するようにしてもよい。その場合の所定の開始トリガとしては、例えば電子ペンに、操作者が操作可能に設けられているサイドスイッチを操作者が操作したときに、そのサイドスイッチの操作情報を、無線通信部102を通じてタブレット装置に送るようにすることが一例として挙げられる。
なお、電子ペンの位置(ペン先の位置)を、デジタイザの入力面から離れた位置に移動する場合だけでなく、デジタイザの入力面からの離れた空間位置から、デジタイザの入力面との距離がLz以内となるように移動する場合にも、同様に、例えばサイドスイッチなどの利用者の操作情報に応じて、空間位置検出装置部の空間座標系から、デジタイザの空間座標系に切り替えるようにしてもよい。
また、電子ペンが9軸センサを搭載している場合には、所定の開始トリガの動きとして予め定められた電子ペンの動きを9軸センサで検出し、その検出結果を無線通信部102を通じてタブレット装置に送信するようにしてもよい。また、タブレット装置の空間位置検出装置部204で電子ペンの動きに基づくジェスチャーは検出するようにしておき、所定の開始トリガの動きとして予め定められた電子ペンの動きに基づくジェスチャーを検出したときに、描画処理の対象となるジェスチャーを検出する処理動作を開始するようにしてもよい。
また、9軸センサで検出した電子ペンの動きにより、空間位置検出装置部の空間座標系と、デジタイザの空間座標系との切り替えを行うようにしてもよい。
<その他の変形例>
上述の実施形態では、タブレット装置は、表示部を備える構成としたが、表示部は、タブレット装置とは別個にして、無線あるいは有線で、タブレット装置と、表示部とを接続するように構成してもよい。その場合には、タブレット装置のデジタイザ203の入力面203Sは、表示部の表示画面の表面ではなく、デジタイザ203のセンサ部2031の上面となることは言うまでもない。また、空間位置検出装置部204が配置される部材はデジタイザ203に限られるものではなく、デジタイザ203とは別体の表示部やその他の部材に設けられてもよい。
また、上述の実施形態の空間位置指示システムは、タブレット装置と電子ペンとからあるシステムの構成として、タブレット装置が、デジタイザと、空間位置検出装置部と、描画情報生成部との全てを備える構成とした。しかし、デジタイザ203と、空間位置検出装置部204以外の部分を、例えばパーソナルコンピューターで構成するようにして、デジタイザの機能のみを有するタブレット装置と、空間位置検出装置部とを、パーソナルコンピューターに接続することで、空間位置指示システムの構成とするようにしてもよい。
なお、上述の実施形態では、2つの空間座標系での誤差を補正するために、デジタイザ203の空間座標系の座標値を空間位置検出装置部204の座標値に変換するようにしたが、逆に、空間位置検出装置部204の座標値をデジタイザ203の検出領域DTの座標値に変換するようにしてもよい。
また、上述の例では、タブレット装置2がタブレットモードの状態か、スペースモードの状態かを、現在モード表示220によって表示画面201Dに表示して、操作者に報知するようにした。しかし、現在モード表示220は、図6に示すようなバー表示に限られるものではないことは言うまでもない。また、現在モードを、タブレット装置2が備えるスピーカから音声で放音するように構成してもよい。
[第2の実施形態]
この発明による空間位置指示システムは、表示部をヘッドマウントディスプレイの構成として、3D描画空間をバーチャルリアリティー(VR(Virtual Reality)、MR(Mixed Reality)、AR(Augmented Reality)などを含む。以下、VRと略称する)の空間とすることもできる。図11は、VRの空間を3D描画空間とした第2の実施形態の空間位置指示システムの全体の構成の概要を示す図である。
すなわち、図11に示すように、この第2の実施形態の空間位置指示システムは、電子ペン10と、デジタイザ20と、空間位置検出用ユニット30と、空間描画情報生成装置40と、ヘッドマウントディスプレイ(以下、HMDと称する)50とを備えて構成されている。
電子ペン10は、第1の実施形態の電子ペン1と同様に、この第2の実施形態においても、電磁誘導方式の電子ペンを例に用いるが、本実施形態はこれに限定されない。デジタイザ20は、第1の実施形態のタブレット装置2の筐体と同様の薄型の直方体形状の筐体21を備え、その表面を入力面21Sとしている。そして、デジタイザ20は、第1の実施形態のデジタイザ203と同様の構成を備え、センサ部22と、位置検出回路23とを備える。そして、デジタイザ20は、第1の実施形態のデジタイザ203の位置検出領域DT(図3の位置検出領域DT参照)と同様に、入力面21Sの領域のみならず、当該入力面21の上方の空間領域であるホバー領域を含む位置検出領域DT´を備える。このデジタイザ20において、位置検出領域DT´において検出された電子ペン10の位置情報は、空間描画情報生成装置40に供給される。
空間位置検出用ユニット30は、電子ペン10の操作者の動きを検出する動き検出対象空間領域を設定するもので、2個の発光追跡装置31A,31Bと、複数個の光位置通知部(以下、トラッカーと称する)32A,32B,32C,32Dとを含んで構成されている。なお、この第2の実施形態では、後述するように、HMD50には、動き検出対象空間領域で描画された3D描画画像が、仮想表示画像として表示される。以下、この第2の実施形態における動き検出対象空間領域を、動き検出対象空間領域MDvと記す。
2個の発光追跡装置31A,31Bは、同一の構成を有するもので、それぞれ赤外線レーザ光のレーザ発光部と、発光した赤外線レーザ光により動き検出対象空間領域MDv内をサーチするようにするサーチ手段と、赤外線レーザ光を受けたトラッカー32A,32B,32C,32Dの発光部の発光を検知する光位置検知手段とを備える。
トラッカー32A,32B,32C,32Dは、発光追跡装置31A,31Bからの赤外線レーザ光を検知するセンサと、センサで赤外線レーザ光の受光を検知したときに、発光追跡装置31A,31Bのそれを通知するための、例えばLED(Light Emitting Diode)からなる発光部とを備えている。トラッカー32A,32B,32C,32Dは、動き検出対象空間領域MDv内での位置を検出する対象となるオブジェクトに取り付けられる。
発光追跡装置31A,31Bは、サーチ手段によりレーザ発光部を制御して、赤外線レーザ光を、トラッカー位置を検出するように動き検出対象空間領域MDv内を探索走査させるように出射して、サーチする。トラッカー32A,32B,32C,32Dのそれぞれは、赤外線レーザ光の受光を、センサで監視し、センサで赤外線レーザ光の受光を検出したときに、LEDからなる発光部を点灯する。発光追跡装置31A,31Bは、トラッカー32A,32B,32C,32Dの発光部の発光を検知することで、当該トラッカー32A,32B,32C,32Dが装着されているオブジェクトの動き検出対象空間領域MDv内における位置を検出する。発光追跡装置31A,31Bは、トラッカー32A,32B,32C,32Dの発光部の発光を検知したときに、当該検知した時点の、発光した赤外線レーザの発光時刻からの経過時刻をも検知することができるように構成されている。
2個の発光追跡装置31A,31Bは、空間描画情報生成装置40に対して、有線で、あるいは、無線で接続されており、空間描画情報生成装置40に対して、検知したトラッカーの動き検出対象空間領域MDvにおける空間位置情報を通知する。
トラッカー32A,32B,32C,32Dが装着されるオブジェクトは、この実施形態では、電子ペン10と、デジタイザ20とに加えて、この例では、図11に示すように、操作者が装着する専用の手袋用ユニット(グローブユニット)60とされており、それぞれにトラッカーが取り付けられている。すなわち、この例では、デジタイザ20の位置を通知することができるようにするために、薄型の直方体形状であるデジタイザ20の筐体の左上隅と右下隅とに、トラッカー32Aとトラッカー32Bとが装着されている。また、電子ペン10の位置を通知及び電子ペン10の動きを通知するために、電子ペン10には、トラッカー32Cが装着されている。さらに、グローブユニット60には、操作者の手の位置を通知及び手の動きを通知するために、トラッカー32Dが装着されている。
空間描画情報生成装置40は、例えばパーソナルコンピューターで構成されるもので、空間描画情報生成のためのプログラムにより処理が実行されるものである。この空間描画情報生成装置40は、電子ペン10による指示位置が、デジタイザ20の位置検出領域DT´から空間位置検出ユニット30の動き検出対象空間領域MDvへ移動したときでも、あるいは逆方向に移動したときでも、電子ペン10の指示位置の座標値をシームレスに取り扱えるように切り替える処理をすると共に、その切り替えに伴い、電子ペン10の指示位置の座標値の変換処理を適切に行うことを主要な処理機能とする。この空間描画情報生成装置40における主要な処理機能の概要を図12を用いて説明する。
例えば図12(A)に示すように、デジタイザ20の位置検出領域DT´外の動き検出対象空間領域から、デジタイザ20の位置検出領域DT´内に、電子ペン10のペン先の位置が移動したときには、空間位置検出ユニット30では、電子ペン10のペン先の位置P1,P2,P3・・・を、図12(A)に示すように、当該空間位置検出ユニット30の3次元座標空間(Xv,Yv,Zv)における位置座標Av1、Av2、Av3、・・・というように検出し、空間描画情報生成装置40に供給する。
そして、電子ペン10のペン先位置がデジタイザ20の位置検出領域DT´内である位置P2,P3については、デジタイザ20でも、図12(B)に示すように、当該デジタイザ20の3次元座標空間(X,Y,Z)における位置座標At2、At3、・・・というように、電子ペン10のペン先位置を検出し、空間描画情報生成装置40に供給する。
空間描画情報生成装置40では、図12(C)に示すように、電子ペン10のペン先の位置情報Aoutとしては、デジタイザ20の位置検出領域DT´になったときに、空間位置検出ユニット30で検出された位置情報から、デジタイザ20で検出された位置情報に切り替えて、出力するようにする。
そして、空間描画情報生成装置40では、この例では、空間位置検出ユニット30で検出した電子ペン10のペン先の位置座標Av1、AV2、Av3、・・・は、上述した第1の実施形態と同様に、デジタイザ20と共通に取り扱えるように変換した座標conv(Av1)、conv(AV2)、conv(Av3)、・・・とする。
ここで、座標の変換処理は、前述と同様に、Xs軸、Ys軸、Zs軸のそれぞれの方向と、X軸、Y軸、Z軸のそれぞれの方向とが同一方向であれば、デジタイザ20の位置検出領域DT´の空間座標系と動き検出空間領域MDの空間座標系とは、両空間座標系の原点位置の差分を考慮したオフセット値を用いることでできる。また、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが異なる場合には、上述の第1の実施形態と同様に、数式1で示した行列式を用いることで、座標の変換ができる。
この結果、図12のような軌跡で電子ペン10のペン先が移動したときの空間描画情報生成装置40における電子ペン10のペン先の位置情報出力Aoutとしては、位置P1では、空間位置検出ユニット30で検出され、且つ、変換された座標値conv(Av1)を検出出力とし、位置P2,P3では、デジタイザ20で検出された位置At2、At3を検出出力とし、
Aout=P1,P2,P3,・・・
=conv(Av1),At2,At3,・・・
となる。
したがって、空間描画情報生成装置40では、電子ペン10のペン先の移動軌跡が、デジタイザ20で電子ペン10のペン先位置を検出可能な位置検出領域DT´内と、空間位置検出ユニット30のみでペン先位置を検出可能となる位置検出領域DT´の外側の領域とに跨る場合にも、電子ペン10のペン先位置をシームレスに取り扱える。
図13に、この第2の実施形態における空間描画情報生成装置40で実行される処理機能を、機能ブロックの構成として示した構成例を示す。
空間描画情報生成装置40では、デジタイザ20の位置検出回路23からの電子ペン10による指示位置の検出出力は、選択回路401に、その一方の入力として供給される。
そして、空間位置検出用ユニット30の2個の発光追跡装置31A及び31Bからの、各トラッカー32A~32Dの空間位置情報は、空間描画情報生成装置40の空間位置検出回路402に供給される。空間位置検出回路402は、空間位置検出用ユニット30によりトラッカー32A~32Dの位置を検出することが可能な空間領域として、3座標軸(この例においても、便宜上、Xs,Ys,Zsとする)の空間領域を動き検出対象空間領域MDvとしており、2個の発光追跡装置31A及び31Bからの、各トラッカー32A~32Dの空間位置情報から、デジタイザ20、電子ペン10及びグローブユニット60の、3軸Xs,Ys,Zsの空間位置座標を検出する。
したがって、この第2の実施形態の空間位置指示システムにおいては、空間位置検出用ユニット30の動き検出対象空間領域MDv内に、デジタイザ20の位置検出領域DT´の全体が含まれていることになる。この実施形態では、デジタイザ20は、動き検出対象空間領域MDv内に、位置が固定されて設置される。つまり、デジタイザ20の位置検出領域DT´は、空間位置検出回路402における動き検出対象空間領域MDv内に、固定領域として含まれる。すなわち、空間位置検出回路402の動き検出対象空間領域MDvは、デジタイザ20の位置検出領域DT´を共通領域として含むものである。
もしも、デジタイザ20に取り付けられるトラッカー32A及び32Bの取り付け位置が正確なものであれば、デジタイザ20の位置検出領域DTの座標系(X,Y,Z)と、空間位置検出回路402の動き検出空間領域MD´の座標系(Xs,Ys,Zs)とは、原点位置のオフセットを調整すればよい。
しかし、この実施形態では、デジタイザ20の位置検出領域DT´の座標系(X,Y,Z)と、空間位置検出回路402の動き検出対象空間領域MDvの座標系(Xs,Ys,Zs)との間で、精度上の誤差が生じる恐れがあることを考慮して、空間位置検出回路402は、第1の実施形態で説明した空間位置座標補正回路206の機能を備える。そして、この第2の実施形態においても、第1の実施形態の補正情報メモリ207と同様にして求めた、図5に示した行列式の成分a11~a33を記憶する補正情報メモリ403を設ける。
そして、空間位置検出回路402は、補正情報メモリ403からの行列式の成分a11~a33を用いて、(数式1)の行列式の演算を行って、トラッカー32A~32Dの空間位置座標出力を、ジェスチャー検出回路404に供給する。
ジェスチャー検出回路404は、空間位置検出回路402からの座標出力に基づいて、電子ペン10の動き(ジェスチャー)や、グローブユニット60の動きを検出し、その検出出力を選択回路401の他方の入力信号として供給する。
そして、この第2の実施形態においては、第1の実施形態と同様にして、デジタイザ20の位置検出回路23は、電子ペン10からの受信信号の信号レベルの情報を、空間描画情報生成装置40の離間距離検出回路405に供給する。離間距離検出回路405は、電子ペン10からの受信信号の信号レベルから、電子ペン10のペン先のデジタイザ20の入力面21Sからの離間距離を検出する。そして、離間距離検出回路405は、検出した離間距離の情報を選択制御信号生成回路406に供給する。
選択制御信号生成回路406は、電子ペン10のペン先のデジタイザ20の入力面21Sからの離間距離が、前述したホバー状態の検出が可能な距離Lz以下のときには、選択回路401をデジタイザ20の位置検出回路23の検出出力を選択するように制御し、距離Lzよりも大きいときには、選択回路401をジェスチャー検出回路404の検出出力を選択するように制御する選択制御信号SE´を生成し、生成した切替制御信号SE´により選択回路401を制御する。選択制御信号生成回路406は、また、切替制御信号SE´を、描画情報生成回路407に供給する。
選択回路401は、一方の入力または他方の入力の一方を、選択制御信号SW´に応じて選択して、描画情報生成回路407に供給する。
描画情報生成回路407は、動き検出対象空間領域MDv内で、電子ペン10の操作者による描画のための電子ペン10に対する操作に応じた描画情報を生成する。この第2の実施形態では、電子ペン10の操作者による描画のための電子ペン10に対する操作としては、デジタイザ20の位置検出領域DT´内に電子ペン10を位置させて、当該電子ペン10により指示位置入力をする操作と、動き検出対象空間領域MDv内のデジタイザ20の位置検出領域DT´外に電子ペン1を位置させて、電子ペン1を動かして描画のためのジェスチャーをする操作とを含む。
そして、デジタイザ20の位置検出領域DT´内に電子ペン10が位置しているときには、離間距離検出回路405によりそれが検出され、その検出出力に基づいて選択制御信号生成回路406は、選択回路401をデジタイザ20の位置検出回路23の検出出力を選択するように制御する選択制御信号SE´を生成する。したがって、選択回路401を通じてデジタイザ20の位置検出回路23からの電子ペン10による指示位置検出出力が、描画情報生成回路407に供給される。
描画情報生成回路407は、受け取った電子ペン10による指示位置検出出力を線画入力として描画処理して、精細な3D描画画像の生成を行う。
また、動き検出対象空間領域MDv内のデジタイザ20の位置検出領域DT´外に電子ペン1が位置しているときには、離間距離検出回路405によりそれが検出され、その検出出力に基づいて切替信号生成回路406は、選択回路401をジェスチャー検出回路404の検出出力を選択するように制御する選択制御信号SE´を生成する。したがって、選択回路401を通じてジェスチャー検出回路404からの電子ペン10やグローブユニット60の動き検出出力に基づくジェスチャー情報が、描画情報生成回路407に供給される。
描画情報生成回路407は、受け取ったジェスチャー情報に基づく3D描画処理を行う。すなわち、ジェスチャー検出回路404で検出された電子ペン10の動きや操作者が装着しているグローブユニット60の動きに応じて描画処理を行う。
この場合に、描画情報生成回路407は、選択回路401の選択制御信号SE´に応じて、電子ペン10による指示位置検出出力を線画入力として描画処理するのか、ジェスチャー情報に基づく描画処理を行うのかを判断するようにするものである。
以上のようにして描画情報生成回路407により生成された描画画像情報は、表示ドライブ回路408を通じてHMD50に供給されて、例えばLCDからなる表示画像に、仮想画像として表示される。
したがって、操作者は、デジタイザ20での位置検出と、空間位置検出用ユニット30での位置検出(動き検出)との切り替えを意識することなく、電子ペン10を空間的に移動するだけで、シームレスに、精細描画からジェスチャーによる描画をすることができるという顕著な効果を奏する。
この場合に、この第2の実施形態においては、描画情報生成回路407は、HMD50に表示する仮想空間画像の発生部を備えており、この仮想空間画像上に、電子ペン10の操作者による描画画像を描画することができる。そして、この仮想空間画像に含まれる仮想物の動き検出対象空間領域MDv内における位置を予め定めておくことができる。そして、描画情報生成回路407は、ジェスチャー検出回路404からのジェスチャー情報により、仮想空間画像に含まれる仮想物に対して操作者がグローブユニット60で触れる操作したときには、それを検知することが可能である。そして、描画情報生成回路407は、仮想空間画像に含まれる仮想物に対して操作者がグローブユニット60で触れる操作したときには、その検知出力を触感生起情報発生部409に出力する。
触感生起情報発生部409は、描画情報生成回路407から、仮想空間画像に含まれる仮想物に対する操作者の触れる操作の検出出力を受け取った時には、触感を生起させる触感生起情報をグローブユニット60に供給する。グローブユニット60は、この触感生起情報に基づいて振動するなどの触感生起装置を備えており、当該触感生起装置が駆動されて、操作者に仮想物に仮想的に触れたことを通知させるようにする。
なお、HMD50の表示画面には、電子ペン10のデジタイザ20の入力面21Sからの離間距離に応じて、デジタイザ20により電子ペン10の指示位置が検出されている状態か、空間位置検出用ユニット30で電子ペン10の空間位置が検出されている状態かが表示されるように、描画情報生成回路407は、出力する描画画像情報を生成する。したがって、電子ペン1の操作者は、現時点での電子ペン10の空間位置においては、どのような描画操作をするべきかを的確に把握することができる。
なお、この第2の実施形態においても、上述した第1の実施形態の変形例が適用可能である。変形例2は、第2の実施形態では、空間位置検出装置部204の代わりに、空間位置検出用ユニット30及び空間位置検出回路402が用いられるのは、言うまでもない。
[第2の実施形態の変形例]
上述の第2の実施形態においては、空間位置検出用ユニット30は、赤外線レーザ光の発光する発光追跡装置と、トラッカーとを備える構成としたが、この構成に限られるものではないことは言うまでもない。例えば、その他の非可視光センサ、可視光線センサ又はこれらの組み合わせを用いた構成としてもよい。
また、電子ペンにバッテリーを設けると共に電波の送受信手段を設けておいて、電子ペンに対して外部から電波を送信し、当該電子ペンからの電波を受信することで電子ペンの空間位置を用いる構成としてもよい。また、磁気共鳴を用いるもの、超音波を用いるものであってもよい。また、1台または複数台のカメラで空間位置を検出する対象物(電子ペンやタブレット)を撮影し、その撮影画像を用いて対象物の空間位置を検出ものであってもよい。
なお、上述の第2の実施形態においては、HMD50を装着しているので、電子ペン10の操作者は、デジタイザ20は、直接的には見ることができない。そこで、HMD50に表示する仮想空間画像に、デジタイザ20の仮想画像を描画して、HMD50の表示画面で、操作者がデジタイザ20の位置を認識するように構成することもできる。また、HMDを、AR(拡張現実)対応のものとして、デジタイザ20を直接的に見ることができるように構成しても勿論よい。また、グローブユニット60と電子ペン10とはそれぞれ別々に構成されていたが、グローブユニット60と電子ペン10とが合体した構成であってもよい。
また、3次元画像を表示する手段としては、HMDに限られるものではなく、3Dディスプレイや、AI(Aerial Imaging)プレート、さらには、ホログラム技術を用いるようにしてもよい。また、デジタイザ20に、例えばLCDなどのディスプレイを設け、そのディスプレイにおいて、3D表示をするようにしてもよい。これらの表示手段は、HMDと共に用いて、HMDの装着者以外の者がHMDに表示されている描画画像を観視するためのものとするようにしてもよい。
なお、座標の変換は、第2の実施形態では、空間位置検出ユニット30で検出した電子ペンのペン先の座標値をデジタイザ20における座標系の座標値に変換するようにしたが、逆に、デジタイザ20で検出した電子ペンのペン先の座標値を空間位置検出ユニット30における座標系の座標値に変換するようにしてもよい。
また、上述の例では、デジタイザ20のセンサ部22と、電子ペン10との間の信号の受信レベルに基づいて、電子ペン10のペン先位置のデジタイザ20の入力面からの離間距離を検出するようにしたが、電子ペン10のペン先位置とデジタイザ20の入力面との離間距離を検出する方法は、これに限られるものではない。
例えば、この第2の実施形態において、空間位置検出ユニット30では、電子ペンのペン先位置と、デジタイザ20の入力面の位置とを検出することができるので、検出された電子ペン10のペン先位置とデジタイザ20の入力面の位置から、電子ペン10のペン先位置とデジタイザ20の入力面との離間距離を検出して、選択回路401の選択制御信号を生成するようにしてもよい。
[その他の実施形態又は変形例]
なお、上述の実施形態の説明では、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´の外側の空間領域においては、電子ペンの動きに基づくジェスチャーを検出するようにしたが、前記外側の空間領域においても、電子ペンの動きではなく、電子ペンのペン先の動きに基づく電子ペンによる指示位置を検出するようにすることもできる。
なお、上述の実施形態では、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動すると、描画処理回路212や描画情報生成回路407は、即座に、動き検出空間領域MDあるいは動き検出対象空間領域MDvにおける動き検出に基づくジェスチャーに応じた描画処理を実行するようにした。しかし、操作者は、かならずしも、描画のためのジェスチャーを行うために、電子ペンを、デジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動するとは限らず、単に描画操作入力の休止のために、そのように移動させる場合もある。
このことを考慮して、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動したときには、更なる所定のトリガ事象が検出されたときに、描画処理回路212や描画情報生成回路407は、動き検出空間領域MDあるいは動き検出対象空間領域MDvにおける動き検出に基づくジェスチャーに応じた描画処理を実行するように構成することもできる。
なお、その場合には、選択回路205や選択回路401は、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動したときに選択制御してもよいし、更なるトリガ事象が検出されたときに、選択制御するようにしてもよい。なお、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内に、その外側の空間領域から移動したときには、即座にデジタイザ203やデジタイザ20による電子ペン1の位置検出をするのは勿論である。
すなわち、例えば、操作者が、電子ペンの位置を、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動させると共に、所定のトリガ事象として、電子ペンに搭載されているサイドスイッチを更に操作者が操作したときにのみ、描画処理回路212や描画情報生成回路407は、動き検出空間領域MDあるいは動き検出対象空間領域MDvにおける動き検出に基づくジェスチャーに応じた描画処理を実行するように構成する。
所定のトリガ事象としては、サイドスイッチの操作に限られるものではない。例えば、電子ペンの操作者の特定のジェスチャーでもよい。あるいは、操作者の音声指示でもよい。音声指示を所定のトリガ事象とする場合には、第1の実施形態においては、タブレット装置2にマイクロフォンを設け、また、第2の実施形態では、空間描画情報生成装置にマイクロフォンを設け、そのマイクフォンで収音した音声を音声認識して、操作者の特定のトリガ事象であるか否かを判定するように構成する。あるいは、電子ペンにマイクロフォンを設け、収音した音声情報を、電子ペンが搭載している無線通信部を通じて送出し、タブレット装置2や空間描画情報生成装置に搭載している無線通信部で受信し、音声認識するように構成してもよい。
上述の第1の実施形態及び第2の実施形態では、電子ペン及びデジタイザは、電磁誘導方式のものを用いるようにしたが、これに限られるものではなく、静電方式(アクティブ静電結合方式、パッシブ静電結合方式を含む)の電子ペンとデジタイザを用いることも、勿論できる。
また、第1の実施形態のタブレット装置2や、第2の実施形態のデジタイザは、いわゆるスマートフォンと呼ばれる携帯型携帯電話端末であってもよいし、また、デジタイザ付のパーソナルコンピューターであってもよい。
なお、以上の説明では、空間位置指示システムにより3D描画をする場合について説明したが、この発明の対象とする描画画像は、2D描画画像や2.5D描画画像であってもよい。
1,1A,1C,10…電子ペン、2…タブレット装置、20…デジタイザ、30…空間位置検出用ユニット、40…空間描画情報生成装置、50…ヘッドマウントディスプレイ、201…LCD、202…タブレット装置2の筐体、203…デジタイザ、204…空間位置検出装置部、205,401…選択回路、206…空間位置座標補正回路、207…補正情報メモリ、208,404…ジェスチャー検出回路、210,405…離間距離検出回路、211,406…選択制御信号生成回路、213…描画処理回路、407…描画情報生成回路

Claims (14)

  1. 電子ペンのペン先の位置を検出するタブレットと、
    前記電子ペンのトラッカーの位置を検出するトラッキングデバイスであり、前記タブレットよりも上に位置するトラッキングデバイスと、
    前記タブレットによって検出された前記ペン先の位置に基づいて第1の座標系における前記ペン先に対応する第1の座標を算出し、前記トラッキングデバイスによって検出された前記トラッカーの位置に基づいて前記第1の座標系と異なる第2の座標系における前記ペン先に対応する第2の座標を算出し、前記第1の座標系における前記第1の座標に基づいて前記第2の座標系における第3の座標を算出するコンピュータと、
    を有することを特徴とする座標算出システム。
  2. 前記第1の座標系は前記タブレットの位置検出領域に関する座標系であり、前記第2の座標系は前記トラッキングデバイスの位置検出領域に関する座標系である、
    ことを特徴とする請求項1に記載の座標算出システム。
  3. 前記コンピュータは、前記第1の座標系における前記第1の座標に補正を行い、前記第2の座標系における前記第3の座標を算出する、
    ことを特徴とする請求項1に記載の座標算出システム。
  4. 前記コンピュータは、前記第2の座標系における前記第2の座標および前記第3の座標に基づいてVR(Virtual Reality)空間における仮想画像を表示部に表示させる、
    ことを特徴とする請求項1に記載の座標算出システム。
  5. 前記コンピュータは、VR(Virtual Reality)空間における前記タブレットに対応する仮想画像を表示部に表示させる、
    ことを特徴とする請求項1に記載の座標算出システム。
  6. 前記コンピュータは、前記タブレットの入力面から所定の距離内に前記電子ペンの前記ペン先が位置する場合、前記第1の座標系における前記第1の座標を算出する、
    ことを特徴とする請求項1に記載の座標算出システム。
  7. 前記電子ペンの前記トラッカーは、光を発光するLED(Light Emitting Diode)を有することを特徴とする請求項1に記載の座標算出システム。
  8. タブレットによって検出された電子ペンのペン先の位置に基づいて第1の座標系における座標であり前記ペン先に対応する第1の座標を算出し、
    前記タブレットよりも上に位置するトラッキングデバイスによって検出された前記電子ペンのトラッカーの位置に基づいて前記第1の座標系と異なる第2の座標系における座標であり前記ペン先に対応する第2の座標を算出し、
    前記第1の座標系における前記第1の座標に基づいて前記第2の座標系における第3の座標を算出する、
    を有することを特徴とする座標算出方法。
  9. 前記第1の座標系は前記タブレットの位置検出領域に関する座標系であり、前記第2の座標系は前記トラッキングデバイスの位置検出領域に関する座標系である、
    ことを特徴とする請求項8に記載の座標算出方法。
  10. 前記第1の座標系における前記第1の座標に補正を行い、前記第2の座標系における前記第3の座標を算出する、
    ことを特徴とする請求項8に記載の座標算出方法。
  11. 前記第2の座標系における前記第2の座標および前記第3の座標に基づいてVR(Virtual Reality)空間における仮想画像を表示部に表示させる、
    ことを特徴とする請求項8に記載の座標算出方法。
  12. VR(Virtual Reality)空間における前記タブレットに対応する仮想画像を表示部に表示させる、
    ことを特徴とする請求項8に記載の座標算出方法。
  13. 前記タブレットの入力面から所定の距離内に前記電子ペンの前記ペン先が位置する場合、前記第1の座標系における前記第1の座標を算出する、
    ことを特徴とする請求項8に記載の座標算出方法。
  14. 前記電子ペンの前記トラッカーは、光を発光するLED(Light Emitting Diode)を有することを特徴とする請求項8に記載の座標算出方法。
JP2023022993A 2017-09-04 2023-02-17 座標算出システム Pending JP2023053397A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017169679 2017-09-04
JP2017169679 2017-09-04
JP2018132770A JP7441600B2 (ja) 2017-09-04 2018-07-13 空間位置指示システム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018132770A Division JP7441600B2 (ja) 2017-09-04 2018-07-13 空間位置指示システム

Publications (1)

Publication Number Publication Date
JP2023053397A true JP2023053397A (ja) 2023-04-12

Family

ID=65527458

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018132770A Active JP7441600B2 (ja) 2017-09-04 2018-07-13 空間位置指示システム
JP2023022993A Pending JP2023053397A (ja) 2017-09-04 2023-02-17 座標算出システム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018132770A Active JP7441600B2 (ja) 2017-09-04 2018-07-13 空間位置指示システム

Country Status (5)

Country Link
US (1) US11630570B2 (ja)
EP (1) EP3680755A4 (ja)
JP (2) JP7441600B2 (ja)
CN (1) CN111033452B (ja)
WO (1) WO2019044003A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111819524A (zh) * 2018-03-05 2020-10-23 株式会社和冠 使用了电子笔的输入装置
JP7320970B2 (ja) * 2019-03-28 2023-08-04 株式会社ジャパンディスプレイ 表示装置
JP7183975B2 (ja) * 2019-06-26 2022-12-06 株式会社デンソー 入力装置
JP7365429B2 (ja) 2019-12-13 2023-10-19 アルプスアルパイン株式会社 入力装置
WO2021235193A1 (ja) * 2020-05-21 2021-11-25 ソニーグループ株式会社 情報処理システム、情報処理方法およびプログラム
JP7504723B2 (ja) 2020-08-25 2024-06-24 株式会社ワコム 入力システム及び入力方法
KR20220074053A (ko) * 2020-11-27 2022-06-03 삼성전자주식회사 전자 장치 및 전자 장치에서 스타일러스 펜의 에어 포인터를 제어하기 위한 방법
CN116848494A (zh) * 2021-03-22 2023-10-03 株式会社和冠 控制器及追踪系统
WO2023210721A1 (ja) * 2022-04-29 2023-11-02 株式会社ワコム 指示器及び入力装置

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3895406B2 (ja) * 1996-03-12 2007-03-22 株式会社東邦ビジネス管理センター データ処理装置およびデータ処理方法
JP4049877B2 (ja) * 1997-03-31 2008-02-20 株式会社ワコム 電子ペンを用いたコンピュータシステム
JP2004280205A (ja) * 2003-03-13 2004-10-07 Minolta Co Ltd 入力装置
JP2008129907A (ja) * 2006-11-22 2008-06-05 Konica Minolta Holdings Inc 情報処理システム
JP2010026565A (ja) * 2008-07-15 2010-02-04 Seiko Epson Corp 表示装置及びプログラム
KR20100041006A (ko) * 2008-10-13 2010-04-22 엘지전자 주식회사 3차원 멀티 터치를 이용한 사용자 인터페이스 제어방법
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods
DE102010007455B4 (de) * 2010-02-10 2024-06-27 Microchip Technology Germany Gmbh System und Verfahren zum berührungslosen Erfassen und Erkennen von Gesten in einem dreidimensionalen Raum
US20130241832A1 (en) * 2010-09-07 2013-09-19 Zrro Technologies (2009) Ltd. Method and device for controlling the behavior of virtual objects on a display
JP2012194915A (ja) * 2011-03-17 2012-10-11 Seiko Epson Corp 画像表示システム
JP5930618B2 (ja) * 2011-06-20 2016-06-08 コニカミノルタ株式会社 空間手書きシステム及び電子ペン
US9323379B2 (en) 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
US9552068B2 (en) * 2012-08-27 2017-01-24 Microchip Technology Germany Gmbh Input device with hand posture control
US10261612B2 (en) 2013-02-22 2019-04-16 Samsung Electronics Co., Ltd. Apparatus and method for recognizing proximity motion using sensors
JP6047822B2 (ja) * 2013-03-14 2016-12-21 シャープ株式会社 情報処理装置、情報処理方法及びプログラム
JP2014203425A (ja) * 2013-04-10 2014-10-27 パナソニック株式会社 電子ペンを備えた画像表示システム
JP2014215649A (ja) * 2013-04-23 2014-11-17 アルプス電気株式会社 入力装置
EP2818985B1 (en) * 2013-06-28 2021-05-12 Nokia Technologies Oy A hovering input field
JP2015032101A (ja) * 2013-08-01 2015-02-16 株式会社東芝 情報端末装置
JP6249486B2 (ja) * 2013-08-19 2017-12-20 株式会社ワコム 描画装置
US9367169B2 (en) 2014-03-31 2016-06-14 Stmicroelectronics Asia Pacific Pte Ltd Method, circuit, and system for hover and gesture detection with a touch screen
JP6525010B2 (ja) * 2014-08-05 2019-06-05 ソニー株式会社 情報処理装置及び情報処理方法、並びに画像表示システム
US9411440B2 (en) * 2014-08-22 2016-08-09 Qualcomm Incorporated Digital ultrasonic emitting base station
JP2016048153A (ja) * 2014-08-28 2016-04-07 直之 矢田 水素酸素供給装置
US10146331B2 (en) * 2014-11-28 2018-12-04 Ricoh Company, Ltd. Information processing system for transforming coordinates of a position designated by a pointer in a virtual image to world coordinates, information processing apparatus, and method of transforming coordinates
JP6544791B2 (ja) * 2015-02-20 2019-07-17 株式会社ワコム 位置指示器、信号処理回路、信号供給制御方法及び信号処理方法
JP2016157226A (ja) * 2015-02-24 2016-09-01 コニカミノルタ株式会社 操作パネル及び操作パネルを備える画像形成装置
JP6416687B2 (ja) * 2015-04-17 2018-10-31 株式会社ジャパンディスプレイ 表示装置およびタッチ検出装置
WO2016185838A1 (ja) 2015-05-15 2016-11-24 シャープ株式会社 タッチペン、タッチパネルシステムおよび電子機器

Also Published As

Publication number Publication date
JP7441600B2 (ja) 2024-03-01
CN111033452B (zh) 2024-04-09
EP3680755A1 (en) 2020-07-15
CN111033452A (zh) 2020-04-17
US20200201542A1 (en) 2020-06-25
JP2019046458A (ja) 2019-03-22
EP3680755A4 (en) 2020-10-28
WO2019044003A1 (ja) 2019-03-07
US11630570B2 (en) 2023-04-18

Similar Documents

Publication Publication Date Title
JP2023053397A (ja) 座標算出システム
US11934592B2 (en) Three-dimensional position indicator and three-dimensional position detection system including grip part orthogonal to electronic pen casing
JP7386152B2 (ja) 入力システム及び入力方法
US20230205416A1 (en) Spatial position indication system
US10509489B2 (en) Systems and related methods for facilitating pen input in a virtual reality environment
JP2013125247A (ja) ヘッドマウントディスプレイ及び情報表示装置
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
US20170371432A1 (en) Integrated free space and surface input device
CN117348743A (zh) 计算机、渲染方法以及位置指示装置
KR20170076534A (ko) 가상 현실 인터페이스 장치 및 제어 방법
US20220004299A1 (en) Systems and methods for dynamic shape sketching
US20200125252A1 (en) Mobile terminal
CN118276702A (zh) 坐标计算系统及坐标计算方法
KR20170110442A (ko) 증강현실 기능을 구비한 제어용 컴퓨터 장치 및 그 제어방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240401

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240613