JPWO2019171719A1 - 入力装置及び入力方法 - Google Patents

入力装置及び入力方法 Download PDF

Info

Publication number
JPWO2019171719A1
JPWO2019171719A1 JP2020504804A JP2020504804A JPWO2019171719A1 JP WO2019171719 A1 JPWO2019171719 A1 JP WO2019171719A1 JP 2020504804 A JP2020504804 A JP 2020504804A JP 2020504804 A JP2020504804 A JP 2020504804A JP WO2019171719 A1 JPWO2019171719 A1 JP WO2019171719A1
Authority
JP
Japan
Prior art keywords
electronic pen
posture
unit
information
pen
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020504804A
Other languages
English (en)
Other versions
JP7386152B2 (ja
Inventor
博史 宗像
博史 宗像
元昊 陳
元昊 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Publication of JPWO2019171719A1 publication Critical patent/JPWO2019171719A1/ja
Priority to JP2023192684A priority Critical patent/JP2024016238A/ja
Application granted granted Critical
Publication of JP7386152B2 publication Critical patent/JP7386152B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03542Light pens for emitting or receiving light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means

Abstract

3次元空間における電子ペンによる指示位置やペン姿勢を、精度や反応速度を考慮して良好に検出することができるようにする入力装置を提供する。
電子ペンとの信号の授受に応じて、電子ペンによる第1の指示位置を検出する第1の検出部と、電子ペンが存在する3次元空間における電子ペンによる第2の指示位置を検出する第2の検出部と、第1の指示位置に代えて第2の指示位置を出力するか否かの制御をする制御部とを備える入力装置である。

Description

この発明は、電子ペンを空間上で用いる場合に好適な入力装置に関する。
デジタイザと呼ばれる座標入力装置に対して、電子ペンにより連続的に位置指示することにより描画することで、アニメーション画像などを作成する描画システムが知られている。
従来から、電子ペンの傾きや回転を検出する方法として種々の方法が提案されている。特許文献1(特開2016−126503号公報)には、位置検出装置のセンサ部の入力面に対する傾き角や回転角の検出が可能な電子ペンが提供されている。この特許文献1の場合には、電子ペンとセンサ部を備える位置検出装置との間で、電磁誘導結合や静電容量結合などにより信号を授受することで、位置検出装置が、電子ペンにより指示された位置を検出すると共に、電子ペンの指示位置の位置座標、及び傾き角や回転角を検出する。
また、特許文献2(米国特許第9,329,703B2公報)には、電子ペンに、その動きや方位測定が可能なセンサを、内蔵あるいは装着し、そのセンサの検出出力を位置検出装置に送信することで、位置検出装置で、電子ペンの動きや状態(傾きや回転)を検出することができるようにすることが記載されている。
特開2016−126503号公報 米国特許第9,329,703B2公報
上述の特許文献1の場合には、電子ペンによる指示位置を中心とした周囲の複数個のループコイルから得られる複数の信号レベルを用いて、電子ペンの指示位置の位置座標及び傾きを検出する。しかし、センサ部の周辺領域では、電子ペンの指示位置の位置座標の精度が低下すると共に、電子ペンの傾きを検出すること困難になるという問題があった。
特許文献2の方法によれば、特許文献1の場合の問題は生じない。しかし、条件によっては、反応速度が遅くなったり、位置座標の精度が低下したりするという問題がある。
この発明は、以上の問題点を解消することができる入力装置を提供することを目的とする。
上記の課題を解決するために、
電子ペンとセンサ部との信号の授受に応じて、前記センサ部上の前記電子ペンによる第1の指示位置を検出する第1の検出部と、
前記電子ペンが存在する3次元空間における前記電子ペンによる第2の指示位置を検出する第2の検出部と、
前記第1の指示位置と前記第2の指示位置とに基づいて、前記電子ペンの位置情報を生成する制御部と、
を備える入力装置を提供する。
上述の構成の入力装置において、指示位置には、位置座標だけでなく姿勢(傾きや回転)も含まれるものである。そして、上述の構成の入力装置によれば、例えば、第2の検出部で検出される電子ペンによる指示位置に含まれる姿勢の情報を、第1の指示位置の位置座標と共に出力することが可能である。
この発明による入力装置の第1の実施形態を含む空間位置指示システムの構成例を説明するための図である。 図1の例の空間位置指示システムの各部の構成例を説明するためのブロック図である。 この発明による入力装置の実施形態を説明するための図である。 この発明による入力装置の第2の実施形態の各部の構成例を説明するためのブロック図である。 電子ペンとデジタイザとの信号の授受により、電子ペンの傾きを検出する動作を説明するための図である。 電子ペンとの信号の授受によりデジタイザが電子ペンの指示位置及び傾きを検出する際における検出精度が、入力面の周辺領域と他の領域とで異なることを説明するに用いる図である。 この発明による入力装置の第2の実施形態の主要な動作を説明するためのフローチャートの一部を示す図である。 この発明による入力装置の第2の実施形態の主要な動作を説明するためのフローチャートの一部を示す図である。 この発明による入力装置の第3の実施形態の構成例を説明するための図である。 この発明による入力装置の第3の実施形態の各部の構成例を説明するためのブロック図である。
以下、この発明による入力装置の実施形態を、図を参照しながら説明する。
[第1の実施形態]
以下に説明する入力装置の実施形態は、電子ペンと信号の送信及び受信の少なくとも一方を行う(以下「信号の授受」という。)センサ部を備えるデジタイザ(ペンタブレット)と、空間中における電子ペンによる指示位置情報を検出する空間位置検出用ユニットと、を備える空間位置指示システムに関する。なお、位置には、位置座標だけでなく姿勢(傾きや回転)なども含まれるが、以下の説明においては、両者を明確にするために、位置座標と姿勢の情報とは分けて説明する。
この実施形態による空間位置指示システムは、表示部がヘッドマウントディスプレイやスマートグラス等で構成され、3D描画空間をバーチャルリアリティー(VR(Virtual Reality)、MR(Mixed Reality)、AR(Augmented Reality)などを含む。以下、VRと略称する)の空間として利用する。図1は、VRの空間を3D描画空間とした第1の実施形態の入力装置を含む空間位置指示システムの全体の構成の概要を示す図である。図2は、第1の実施形態の入力装置を含む空間位置指示システムの各部の機能の詳細構成例を示すブロック図である。
すなわち、図1に示すように、この例の実施形態の空間位置指示システムは、電子ペン10と、デジタイザ20と、空間位置検出用ユニット30と、空間描画情報生成装置40と、ヘッドマウントディスプレイ(以下、HMDと称する)50とを備えて構成されている。空間描画情報生成装置40は、図2に示すように、この例では、入力情報処理部41と表示画像生成部42との機能を備えるもので、例えばコンピュータで構成される。
なお、この第1の実施形態の入力装置は、電子ペン10との信号の授受に応じて、電子ペン10による指示位置を検出する第1の検出部と 、電子ペン10が存在する3次元空間における電子ペン10による指示位置を検出する第2の検出部と、これらの指示位置に基づいて、電子ペン10の位置情報を生成する制御部と 、を備える。この第1の実施形態においては、第1の検出部はデジタイザ20で構成され、第2の検出部は、空間位置検出用ユニット30と入力処理部41の空間情報処理部410とで構成され、制御部は、入力情報処理部により構成される。
電子ペン10は、この第1の実施形態においては、電磁誘導方式の電子ペンを例に用いるが、電磁誘導方式に限定されるものではなく、静電結合方式などを用いてもよい。デジタイザ20は、薄型の直方体形状の筐体21を備え、その表面を電子ペン10による位置指示の入力面21Sとしている。そして、デジタイザ20は、センサ部22と、位置検出部23(図2参照)とを備える。
センサ部22は、図示は省略するが、複数個のループコイルが、それぞれ、デジタイザ20の筐体の横方向(X軸方向)と、筐体の縦方向(Y軸方向)とに配設されて構成されている。この例では、デジタイザ20は、電子ペン10に合わせて電磁誘導方式のものとされているが、電磁誘導方式に限定されるものではない。
電子ペン10は、図示は省略するが、ペン先側にコイルとコンデンサとからなる共振回路(図示は省略)を備えており、デジタイザ20のセンサ部22のループコイルと、電子ペン10の共振回路との間で、電磁誘導結合することで、電子ペン10とデジタイザ20のセンサ部22との間で信号の授受を行う。
デジタイザ20の位置検出部23は、センサ部22のループコイルを通じて電子ペン10に信号を供給すると共に、電子ペン10から帰還される信号をループコイルを通じて受信し、その受信した信号に基づいて、センサ部22の検出領域において電子ペン10により指示された位置を検出する。なお、この実施形態では、デジタイザ20は、電子ペン10のペン先で指示された位置を電子ペン10の指示位置として検出するように構成されている。
この例のデジタイザ20では、入力面21Sのほぼ全域をカバーするようにセンサ部22の複数個のループコイルが配設されている。
そして、この実施形態では、デジタイザ20で電子ペン10の指示位置を検出することができる位置検出領域は、電子ペン10のペン先がデジタイザ20の入力面21Sに接触しているときの平面領域のみならず、電子ペン10のペン先がデジタイザ20の入力面21Sに非接触であって、入力面21Sとは、当該入力面21Sに直交する方向(X軸方向及びY軸方向に直交するZ軸方向)に離間しているが、電磁結合による信号の授受を通して電子ペン10の指示位置を検出することができる空間領域(電子ペン10のホバー状態のホバー領域)を含む。
空間位置検出用ユニット30は、この例では、デジタイザ20が存在する3次元空間領域を設定して、当該3次元空間領域において、電子ペン10のペン先による指示位置、電子ペン10の傾き角や回転角などの電子ペン10の姿勢(ペン姿勢という)を検出すると共に、デジタイザ20の位置及び水平平面からの傾き角や傾き方向を検出することができるように構成されている。
空間位置検出用ユニット30は、2個の発光追跡装置31A,31Bと、複数個の光位置通知部(以下、トラッカーと称する)32A,32B,32C,32Dとを含んで構成されている。なお、この実施形態では、後述するように、HMD50には、デジタイザ20の位置検出領域DTを含む動き検出空間領域MDで描画された3D描画画像が、仮想表示画像として表示されると共に、電子ペン10の仮想表示画像が表示される。
2個の発光追跡装置31A,31Bは、同一の構成を有するもので、それぞれ赤外線レーザ光のレーザ発光部と、発光した赤外線レーザ光により動き検出空間領域MD内をサーチするようにするサーチ手段と、赤外線レーザ光を受けたトラッカー32A,32B,32C,32Dの発光部の発光を検知する光位置検知手段とを備える。
トラッカー32A,32B,32C,32Dが装着されるオブジェクト(空間位置検出用ユニット30の探索空間領域における探索対象物)は、この実施形態では、前述したように、電子ペン10と、デジタイザ20である。すなわち、この例では、デジタイザ20の位置及び水平面に対する傾き角や傾き方向を通知することができるようにするために、薄型の直方体形状であるデジタイザ20の筐体の左上隅と右下隅とに、トラッカー32Aとトラッカー32Bとが装着されている。また、電子ペン10の位置及びペン姿勢(傾き角や回転角)を通知するために、電子ペン10には、そのペン先側にトラッカー32Cが装着され、また、電子ペン10の筐体の軸心方向において、ペン先側とは反対側の後端側に、トラッカー32Dが装着されている。
発光追跡装置31A,31Bは、サーチ手段によりレーザ発光部を制御して、赤外線レーザ光を、トラッカー位置を検出するように動き検出空間領域MD内を探索走査させるように出射して、サーチする。トラッカー32A,32B,32C,32Dのそれぞれは、赤外線レーザ光の受光を、センサで監視し、センサで赤外線レーザ光の受光を検出したときに、LEDからなる発光部を点灯する。
発光追跡装置31A,31Bは、トラッカー32A,32B,32C,32Dの発光部の発光を検知することで、当該トラッカー32A,32B,32C,32Dが装着されているオブジェクトの動き検出空間領域MD内における位置を検出する。発光追跡装置31A,31Bは、トラッカー32A,32B,32C,32Dの発光部の発光を検知したときに、当該検知した時点の、発光した赤外線レーザの発光時刻からの経過時刻をも検知することができるように構成されている。この場合に、トラッカー32A,32B,32C,32Dのそれぞれは、自身の識別情報に応じた異なる発光をする。
2個の発光追跡装置31A,31Bは、空間描画情報生成装置40に対して、有線で、あるいは、無線で接続されており、空間描画情報生成装置40に対して、検知したトラッカー32A,32,32C,32Dの動き検出空間領域MDにおける空間位置情報を通知する。
2個の発光追跡装置31A,31Bで検知されたトラッカー32A,32B,32C,32Dの動き検出空間領域MDにおける空間位置情報は、この例では、図2に示すように、空間描画情報生成装置40の入力情報処理部41の空間情報処理部410に供給される。
空間情報処理部410は、この例では、空間位置検出部4101と、ペン姿勢検出部4102と、デジタイザ姿勢検出部4103とからなる。空間位置検出部4101は、トラッカー32A,32Bから、動き検出空間領域MDにおけるデジタイザ20の位置を検出すると共に、トラッカー32C,32Dから、電子ペン10のペン先の位置としての電子ペン10による指示位置と、電子ペン10の後端の位置を検出する。ペン姿勢検出部4102は、この例では、トラッカー32C及び32Dから、電子ペン10の傾き角及び回転角を含むペン姿勢を検出する。また、デジタイザ姿勢検出部4103は、先の位置として、電子ペン10による指示位置を検出する。
そして、この実施形態では、入力情報処理部41は、デジタイザ20で検出された、位置検出領域DTにおける電子ペン10による指示位置の情報と、入力情報処理部41の空間情報処理部410で検出された、動き検出空間領域MDにおける電子ペン10の位置(指示位置及び後端位置)の情報、ペン姿勢情報及びデジタイザ姿勢情報とから、表示画像生成部42に供給する情報を生成する。そして、入力情報処理部41は、生成した情報を、表示画像生成部42に供給する。
そして、この実施形態では、空間描画情報生成装置40の表示画像生成部42は、図2に示すように、3D描画像を生成するための描画像生成部421と、HMD50に表示するVR画像を生成するためのVR画像生成部422とを備える。
描画像生成部421は、電子ペン10による位置指示に基づいて3D描画像を生成すると共に、電子ペン10の操作者により実行されたジェスチャーに基づいて、3D描画像の変形、回転、移動などの処理を行う。そして、この実施形態では、描画像生成部421は、電子ペン10のデジタイザ20の入力面21Sに対する傾き角や傾き方向、回転角を含むペン姿勢をも、3D描画像の生成に反映させるようにする。例えば、電子ペン10がデジタイザ20と信号の授受する場合には、デジタイザ20の入力面21Sに対する傾き角や傾き方向を用いる。以下、3D描画像に関する処理を3D描画系処理という。
この実施形態では、電子ペン10に装着されたトラッカー32C,32Dを用いて、空間位置検出用ユニット30により、電子ペン10の傾き角、傾き方向及び回転角を含むペン姿勢を検出することができる。そこで、この実施形態では、入力情報処理部41は、空間位置検出用ユニット30により検出された電子ペン10のペン姿勢の情報を、3D描画系処理用の情報として、表示画像生成部42に供給するように構成されている。
すなわち、後述するように、入力情報処理部41は、3D描画像に、電子ペン10による位置指示に基づく描画入力時の電子ペン10の傾きや回転などのペン姿勢の情報が反映されるように、電子ペン10による位置指示の情報(ペン先の位置の情報)と、電子ペン10のペン姿勢の情報とを、表示画像生成部42に供給するように構成されている。
また、表示画像生成部42には、図2に示すように、電子ペン10の操作者により実行されたジェスチャーを検出するためのジェスチャー検出処理部423が設けられている。そして、この実施形態では、入力情報処理部41は、空間位置検出用ユニット30において検出された電子ペン10のペン先の位置情報(指示位置の情報に対応)と、ペン姿勢の情報とを、当該ジェスチャー検出処理部423に供給する情報とするように構成されている。
以上のように、この実施形態では、3D描画系処理用の情報としてデジタイザ20で検出される電子ペン10による指示位置の情報のみではなく、空間位置検出用ユニット30で検出される電子ペン10の指示位置(ペン先の位置)の情報及びペン姿勢の情報が利用される。
表示画像生成部42のVR画像生成部422は、HMD50に表示するVR画像を生成する。VR画像としては、この実施形態では、電子ペン10のVR画像と、描画像生成部421で生成された3D描画像のVR画像が含まれ、HMD50においては、描画像生成部421で生成された3D描画像のVR画像と、電子ペン10のVR画像とが3D表示される。なお、VR画像生成部422は、デジタイザ20のVR画像をも生成するようにしてもよい。以下、VR画像生成部422におけるVR画像の生成に関する処理をVR画像系処理という。
この実施形態では、VR画像生成部422には、入力情報処理部41からの電子ペン10のVR画像を生成するための情報が供給されると共に、描画像生成部421から、生成された3D描画像の情報が供給される。そして、VR画像生成部422で生成されたVR画像情報が、表示ドライブ部424を通じて、HMD50に供給されて、HMD50の例えばLCD(Liquid Crystal Display;液晶ディスプレイ)からなる表示画面に表示される。
この場合に、電子ペン10が位置検出領域DTに存在するときには、電子ペン10の位置(ペン先位置)を空間位置検出用ユニット30よりも高精度で検出することができるデジタイザ20からの電子ペンによる指示位置の情報と、空間位置検出用ユニット30が用いられて検出される傾きや回転などのペン姿勢の情報とが、入力情報処理部41から表示画像生成部42のVR画像生成部422に供給される。
また、電子ペン10が動き検出空間領域MDに存在するときには、デジタイザ20では電子ペン10の指示位置は検出できないので、空間位置検出用ユニット30が用いられて検出される電子ペンによる指示位置の情報と、ペン姿勢の情報とが、入力情報処理部41から表示画像生成部42のVR画像生成部422に供給される。
以上のように、この実施形態では、VR画像系処理用の情報として、空間位置検出用ユニット30で検出される電子ペン10の指示位置(ペン先の位置)の情報及びペン姿勢の情報のみではなく、デジタイザ20で検出される電子ペン10による指示位置の情報が利用される。
入力情報処理部41は、デジタイザ20からの情報と、空間位置検出用ユニット30からの情報とから、以上説明したような描画系処理用の情報と、VR画像系処理用の情報とを生成して、表示画像生成部42に供給すると共に、電子ペン10が、位置検出領域DT及び動き検出空間領域MDのいずれに存在しているかに応じた選択制御をするための切替制御信号SEを生成する。
上述したように、この実施形態では、3D描画系処理及びVR画像系処理のそれぞれにおいて、デジタイザ20の位置検出領域DTの空間座標系の情報と、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の情報とを相互に利用することができる。この場合に、2つの空間座標系は、それぞれ独立に設定され得るが、この実施形態では2つの空間座標系の内の一方の空間座標系の情報を、他方の空間座標系の情報に変換することにより、共通の座標空間における情報として扱えるようにする。この実施形態では、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の情報を、デジタイザ20の位置検出領域DTの空間座標系の情報に変換する。
この実施形態の空間位置指示システムにおいては、空間位置検出用ユニット30の動き検出空間領域MDで検出される電子ペン10のペン姿勢の情報を、3D描画系処理で用いるとともに、VR画像系処理においても用いることができる。
この場合に、VR画像系処理においては、電子ペン10のペン姿勢の情報は、電子ペン10のVR画像の姿勢に反映される。この電子ペン10のペン姿勢の情報には、電子ペン10の傾き角の情報が含まれているが、3D描画系処理においては、この電子ペン10の傾き角は、デジタイザ20のセンサ部22の入力面に対する相対的な傾き角である。一方、空間位置検出用ユニット30の動き検出空間領域MDで検出される電子ペン10のペン姿勢の情報は、例えば地球の重力方向あるいは水平面方向を基準にした、空間位置検出用ユニット30の動き検出空間領域MDにおける傾き角である。
デジタイザ20を、そのセンサ部22の入力面21Sに直交する方向が、空間位置検出用ユニット30の動き検出空間領域MDのZ軸方向と正確に一致させるように設置することができれば、空間位置検出用ユニット30の動き検出空間領域MDの空間において検出される電子ペン10の傾き角は、デジタイザ20のセンサ部22の入力面に対する相対的な傾き角と一致する。しかし、実際的には、デジタイザ20を、空間位置検出用ユニット30の動き検出空間領域MDに対して傾けて設置する場合がある。
そこで、この実施形態では、空間位置検出用ユニット30の動き検出空間領域MDの空間で検出される電子ペン10の絶対的な傾き角は、以下に説明するようにして、デジタイザ20のセンサ部22の入力面に対する相対的な傾き角に変換される。
図3は、この傾き角の変換の処理を説明するために用いる図である。この図3は、電子ペン10のペン先を球体の中心のO点とした球体座標系を示している。この図3におけるX−Y平面(互いに直交するX軸方向とY軸方向とを含む面)は、空間位置検出用ユニット30の動き検出空間領域MDの空間領域における水平面としている。
図3において、電子ペン10の筐体の軸心方向のペン先とは反対側の後端部の端縁の位置を示す点は、球面座標となる。この場合、球体の半径rは、電子ペン10の筐体の軸心方向の長さとなる。図3の球体座標系において、電子ペン10の筐体の軸心方向の後端部の端縁がP点にあるときの動き検出空間領域MDの空間内での電子ペン10の傾き角及び傾き方向は、空間位置検出用ユニット30を用いることで、電子ペン10の傾き角はδ、また、傾き方向はαとして検出することができる。また、空間位置検出用ユニット30を用いることで、図3の例では、デジタイザ20の筐体の、動き検出空間領域MDの空間内での傾き角はδ´、また、傾き方向はα´として検出することができる。
そして、図3に示すように、電子ペン10の筐体の軸心方向が、動き検出空間領域MDの空間内で垂直方向と一致する状態なっているときの電子ペン10の後端側の端縁の位置をQ点とすると、電子ペン10の筐体の軸心方向が、デジタイザ20のセンサ部22の入力面21Sに対して垂直な方向となっているときの、電子ペン10の後端側の端縁の位置はR点となる。
したがって、R点のO点からの空間ベクトルORと、P点のO点からの空間ベクトルOPとが成す角度を求めると、その角度を用いることで、空間位置検出用ユニット30を用いて検出された電子ペン10の傾き角及び傾き方向から、デジタイザ20のセンサ部22の入力面21Sに対する電子ペン10の相対的な傾き角及び傾き方向に変換することが可能になる。
なお、上述の逆変換をすることで、デジタイザ20のセンサ部22の入力面21Sに対する電子ペン10の相対的な傾き角及び傾き方向を、空間位置検出用ユニット30を用いて検出される電子ペン10の傾き角及び傾き方向に変換することができる。
次に、以上のことを実現するように構成された図2の入力情報処理部41の構成例について説明する。すなわち、デジタイザ20を構成する位置検出部23は、電子ペン10の指示位置の検出出力を、選択部411に、その一方の入力信号として供給すると共に、選択部412に、その一方の入力信号として供給する。なお、この位置検出部23から選択部411及び412に供給される情報には、電子ペン10の指示位置の検出出力に加えて、電子ペン10に印加される筆圧情報が含まれている。
また、空間情報処理部410の空間位置検出部4101は、電子ペン10のペン先の空間位置(電子ペンの指示位置)の検出出力を、座標変換部413に供給する。この座標変換部413は、空間位置検出用ユニット30の動き検出空間領域MDの空間座標系の情報を、デジタイザ20の位置検出領域DTの空間座標系の情報に変換する。そして、座標変換部413は、その変換後の座標出力を、選択部411及び412に、その他方の入力信号として供給する。
そして、この実施形態においては、デジタイザ20の位置検出部23は、電子ペン10からの受信信号の信号レベルの情報を、選択制御信号生成部414に供給する。選択制御信号生成部414は、電子ペン10からの受信信号の信号レベルから、電子ペン10のペン先のデジタイザ20の入力面21Sからの離間距離を検出し、検出した入力面21Sからの離間距離に基づいて選択制御信号SEを生成する。
この場合に、選択制御信号SEは、電子ペン10のペン先のデジタイザ20の入力面21Sからの離間距離が、デジタイザ20が電子ペンのホバー状態を検出することができるZ軸方向の臨界高さLz以下のときには、デジタイザ20の位置検出部23からの位置検出出力を選択するように制御し、上記臨界高さLzよりも大きいときには、空間位置検出部4101からの検出出力を選択するように制御する信号である。
選択部411は、一方の入力と他方の入力の一方を、選択制御信号SEに応じて切り替えて、3D描画系処理用の関連付け部415に供給する。また、選択部412は、一方の入力と他方の入力の一方を、選択制御信号SEに応じて切り替えて、VR画像系処理用の関連付け部416に供給する。
なお、図2の例においては、3D描画系処理用と、VR画像系処理用とで明確になるように、それぞれの処理用として2個の選択部411と412とを設けたが、実際的には、選択部は共通の1個で良く、その共通の選択部の出力を、関連付け部415及び416のそれぞれに供給するように構成することができる。
空間位置検出用ユニット30が用いられて空間情報処理部410のペン姿勢検出部4102で検出されたペン姿勢の情報は、そのままVR画像系処理用の関連付け部416に供給される。
このVR画像系処理用の関連付け部416は、選択部412からの電子ペン10の指示位置の情報と、空間情報処理部410のペン姿勢検出部4102からのペン姿勢の情報とを関連付けてペアとして、表示画像生成部42のVR画像生成部422に供給する。この場合に、関連付け部416での関連付けは、選択部412から出力される電子ペン10の指示位置に対して、当該電子ペン10の指示位置において検出されるペン姿勢の情報をペアとして関連付けることを意味している。
関連付け部416で関連付ける電子ペン10の指示位置の情報と、ペン姿勢の情報とが、共に空間情報処理部410からの情報である場合には、空間情報処理部410で、それらの情報の出力タイミングが調整されることで、関連付け部416では、単純に、同一タイミングの情報をペアリングすることで関連付けができる。
これに対して、関連付け部416で関連付ける電子ペン10の指示位置の情報が、デジタイザ20からの情報である場合には、関連付け部416では、デジタイザ20と、空間位置検出用ユニット30とでの検出結果の出力タイミングのずれ(処理遅延)を考慮することで、電子ペン10の指示位置の情報とペン姿勢の情報との関連付けをする。
表示画像生成部42のVR画像生成部422は、この関連付け部416からの電子ペン10の指示位置の情報とペン姿勢の情報とを用いて電子ペン10のVR画像を生成する。この場合に、電子ペン10のVR画像は、電子ペン10の指示位置の情報に基づく位置に表示するように生成される。
この場合に、選択部412からの電子ペン10の指示位置の情報は、選択制御信号SEにより切り替え選択されるが、空間位置検出部4101からの指示位置の情報は、デジタイザ20と空間位置検出用ユニット30とで共通の座標空間となるように、座標変換部413で座標変換されるので、選択部412が切り替えられたときにも、電子ペン10のVR画像の表示位置がジャンプするように動くなどいうような表示ずれを生じるようなことはない。
空間情報処理部410のペン姿勢検出部4102からのペン姿勢の情報は、また、姿勢変換部417を通じて3D描画系処理用の関連付け部415に供給される。姿勢変換部417には、ペン姿勢検出部4102からのペン姿勢の情報とデジタイザ姿勢検出部4103で検出されたデジタイザ20の姿勢の情報とが供給されており、姿勢変換部417では、図3を用いて説明した、空間位置検出用ユニット30で検出した空間座標系における電子ペン10のペン姿勢を、デジタイザ20のセンサ部22の入力面21Sに対する相対的なペン姿勢に変換する処理を実行する。
3D描画系処理用の関連付け部415は、選択部411からの電子ペン10の指示位置の情報と、姿勢変換部417からの、ペン姿勢検出部4102で検出されたペン姿勢の情報がデジタイザ20の入力面21Sに対する相対的なペン姿勢の情報に変換された情報とを関連付けてペアとして、表示画像生成部42の描画像生成部421及びジェスチャー検出処理部423に供給する。この場合に、関連付け部415での関連付けも、関連付け部416と同様に、選択部412から出力される電子ペン10の指示位置に対して、当該電子ペン10の指示位置において検出されるペン姿勢の情報をペアとして関連付けることを意味している。
描画像生成部421は、デジタイザ20からの電子ペン10の指示位置の検出出力と、この実施形態では空間位置検出用ユニット30で検出されたペン姿勢の情報とに基づいて、精細な線画等を描画するペン描画機能と、空間位置検出用ユニット30により検出された電子ペン10の空間位置とペン姿勢とに基づいてジェスチャー検出処理部423で検出された動き(ジェスチャー)に基づいた描画処理をするジェスチャー処理機能とを備える。
そして、この描画像生成部421及びジェスチャー検出処理部423には、選択制御信号生成部414からの選択制御信号SEが供給されており、ジェスチャー検出処理部423は、電子ペン10の指示位置が、デジタイザ20の位置検出領域DTの空間領域以外のときに動作するように制御され、描画像生成部421は、電子ペン10の指示位置が、デジタイザ20の位置検出領域DTの空間領域内のときには、ペン描画機能を実行し、電子ペン10の指示位置が、デジタイザ20の位置検出領域DTの空間領域以外のときには、ジェスチャー処理を実行するように切り替え制御される。
この場合に、この実施形態では、デジタイザ20と空間位置検出用ユニット30とで共通の座標空間となるように、座標変換部413を用いて座標変換するようにしているので、選択部411で、電子ペン10の指示位置の切り替えられたとしても、電子ペン10の指示位置がジャンプするようにずれてしまうようなことはない。また、ペン姿勢は、空間位置検出用ユニット30で検出されたものであっても、デジタイザ20の入力面21Sに対する相対的なペン姿勢に変換されるので、3D描画像に適切に反映される。
前述したように、描画像生成部421で生成された3D描画画像情報は、VR画像生成部422に供給されてVR画像とされ、表示ドライブ部424を通じてHMD50に供給されて表示される。この場合において、この実施形態では、電子ペン10の指示位置は、座標変換部413を用いることで、デジタイザ20と空間位置検出用ユニット30とで共通の空間座標となるようにしているので、3D描画像の空間座標系と、電子ペン10などのVR画像の空間座標系は同一となる。したがって、3D描画像に対する電子ペン10の指示位置は、3D描画系処理とVR画像系処理とで異なることはないので、VR画像生成部422では、両者の空間座標の補正をする必要はない。
以上の説明から分かるように、この第1の実施形態では、3D描画系処理において、電子ペン10及びデジタイザ20が、電子ペン10の傾き角や回転角などのペン姿勢を検出する機能を備えていなくでも、空間位置検出用ユニット30で検出した電子ペン10のペン姿勢を、3D描画像生成に利用することができるという効果を奏する。また、この第1の実施形態では、デジタイザ20の位置検出領域DT以外の空間領域で、空間位置検出用ユニット30により検出した電子ペン10のペン姿勢の情報を、3D描画像の生成のためのジェスチャー検出用とするようにできるという効果もある。さらに、この第1の実施形態では、デジタイザ20の検出領域の空間座標と、空間位置検出用ユニット30の検出領域の空間座標とを共通の座標として扱えるようにしたので、3D描画系処理において、デジタイザ20からの出力と、空間位置検出用ユニット30の出力とを切り替えたときにも、座標ずれが生じないという特徴がある。
したがって、操作者は、デジタイザ20と、空間位置検出用ユニット30との切り替えを意識することなく、電子ペン10をデジタイザ20上において空間的に移動するだけで、シームレスに、精細描画からジェスチャーによる操作をすることができる。
また、上述した第1の実施形態においては、VR画像系処理において、電子ペン10のVR画像を生成するための電子ペン10の位置情報(ペン先の位置情報)として、デジタイザ20の位置検出領域DTの空間領域においては、空間位置検出用ユニット30での検出出力よりも高精度で、反応速度も速いデジタイザ20の位置検出出力を用いることができるので、実際の使用者の電子ペンの操作に応じて的確に反応するVR画像が得られる。
なお、上述した空間描画情報生成装置40は、コンピュータにより構成されるので、入力情報処理部41及び表示画像生成部42の各部は、ソフトウェアプログラムにより実行するソフトウェア機能部として構成することができることは言うまでもない。
[第2の実施形態]
上述の第1の実施形態は、電子ペン10及びデジタイザ20は、電子ペンの傾き角や回転角などのペン姿勢の検出機能は有しない例であったが、電子ペンの傾き角や回転角などのペン姿勢の検出機能を有する構成とすることができる。
以下に説明する第2の実施形態の入力装置は、上述した第1の実施形態で説明した空間位置指示システムと同様のシステムにおいて、電子ペンやデジタイザが、電子ペンの傾き角や回転角などのペン姿勢の検出機能を有する場合である。
図4に、この第2の実施形態の空間位置指示システムの要部の構成例を示す。この第2の実施形態の空間位置指示システムは、第1の実施形態と同様の構成を備えるものであるが、電子ペン10及びデジタイザ20の代わりに、ペン姿勢を検出するための構成を備える電子ペン10A(図4では図示を省略)とデジタイザ20Aとを設ける。そして、第1の実施形態における空間描画情報生成装置40の入力情報処理部41の代わりに、図4に示すような構成の入力情報処理部41Aを設ける。
この第2の実施形態の空間位置指示システムにおいては、第1の実施形態で説明した空間位置検出用ユニット30、表示画像生成部42、HMD50をも備えるが、それらは、第1の実施形態と同様であるので、図4には示していない。また、図4に示すデジタイザ20A及び入力情報処理部41Aにおいて、図2に示したデジタイザ20及び入力情報処理部41と同様の部分には、同一参照符号を付して、その詳細な説明は省略する。
図5(A)に示すように、電子ペン10Aがセンサ部の入力面に対して垂直である場合には、所定数の複数、例えば7本のループコイル位置Xi−3、Xi−2、Xi−1、Xi、Xi+1、Xi+2、Xi+3の信号レベルは、指示位置を中心として対称形を呈する。
これに対して、電子ペン10Aが傾いているときには、これらの7本のループコイル位置Xi−3、Xi−2、Xi−1、Xi、Xi+1、Xi+2、Xi+3の信号レベルは、図5(B)に示すように、電子ペン10Aが傾いている方向及び傾いている角度に応じて変化する。この所定数の複数の信号レベルに基づいて、電子ペン10Aの指示位置の位置座標、及び傾き角、傾き方向を検出することができる。
しかしながら、図6に示すようなセンサ部の入力面(検出領域)INSにおいては、例えば点線の位置よりも外側の斜線を付して示す周辺領域PEでは、上述の所定数より少ない複数の信号レベルしか得られない。このため、この第2の実施形態では、デジタイザ20Aの周辺領域PEでは、電子ペン10Aの指示位置(ペン先位置)及び電子ペン10Aのペン姿勢の検出精度は低くなり、この第2の実施形態の場合には、空間位置検出用ユニット30で検出される電子ペン10Aの指示位置(ペン先位置)及び電子ペン10Aのペン姿勢の検出精度の方が高精度となっている点を考慮する。
すなわち、この第2の実施形態では、電子ペン10Aのペン先位置が、デジタイザ20Aにおいて、電子ペン10Aの指示位置やペン姿勢が検出することができる位置検出領域DTの空間領域であっても、周辺領域PE及びその上空の空間領域にあるときには、デジタイザ20Aで検出される電子ペン10Aの指示位置及びペン姿勢の情報に代えて、空間位置検出用ユニット30で検出される電子ペン10Aの指示位置及びペン姿勢の情報を用いるようにする。
図4に示すように、この第2の実施形態のデジタイザ20Aは、姿勢検出部24を備える。この姿勢検出部24は、図示を省略した電子ペン10Aとデジタイザ20Aのセンサ部22との信号の授受に基づいて、電子ペン10Aの傾き角、傾き方向、回転角などのペン姿勢を検出する。そして、この姿勢検出部24で検出された電子ペン10Aのペン姿勢の情報は、入力情報処理部41Aの選択部418の一方の入力端子に供給される。この選択部418の他方の入力端子には、空間情報処理部410のペン姿勢検出部4102からの、空間位置検出用ユニット30が用いられて検出された電子ペン10Aのペン姿勢の情報が供給される。
選択部418からの電子ペン10Aのペン姿勢の情報は、関連付け部415に供給されて、選択部411からの電子ペン10Aの指示位置の情報と、上述と同様の関連付け処理がなされ、表示画像生成部42の描画像生成部421及びジェスチャー検出処理部423に供給される。
また、この第2の実施形態では、空間情報処理部410のペン姿勢検出部4102で検出された電子ペン10Aのペン姿勢の情報は、選択部419の一方の入力端子に供給される。そして、デジタイザ20Aの姿勢検出部24からの電子ペン10Aのペン姿勢の情報は、姿勢変換部417Rに供給されると共に、空間情報処理部410のデジタイザ姿勢検出部4103で検出されたデジタイザ20Aの傾き角及び傾き方向を含むデジタイザ姿勢の情報が、この姿勢変換部417Rに供給される。
姿勢変換部417Rでは、デジタイザ20Aの姿勢検出部24からの電子ペン10Aのペン姿勢の情報と、空間情報処理部410のデジタイザ姿勢検出部4103からのデジタイザ20Aの姿勢の情報とから、姿勢変換部417とは逆変換がなされる。すなわち、デジタイザ20Aで検出された電子ペン10Aの、入力面21Sに対する相対的なペン姿勢を、空間位置検出用ユニット30で検出される動き検出空間領域MDの空間座標系における絶対的なデジタイザ20Aの姿勢に変換される。
そして、この姿勢変換部417Rで姿勢変換された電子ペン10Aのペン姿勢の情報は、選択部419の他方の入力端子に供給される。選択部419で後述するように選択されて出力される電子ペン10Aのペン姿勢の情報は、関連付け部416に供給されて、選択部412からの電子ペン10Aの指示位置の情報と、上述と同様の関連付け処理がなされ、表示画像生成部42のVR画像生成部422に供給される。
この第2の実施形態の選択制御信号生成部414Aは、選択部411、選択部412、選択部418及び選択部419の選択制御信号SEAを生成する。また、選択制御信号生成部414Aは、上述の第1の実施形態の選択制御信号生成部414と同様の選択制御信号SEを生成し、表示画像生成部42の描画像生成部421及びジェスチャー検出処理部423が実行する処理を、上述の第1の実施形態と同様にして切り替え制御をする。
この第2の実施形態の選択制御信号生成部414Aからの選択制御信号SEAは、電子ペン10Aの指示位置(ペン先位置)が、デジタイザ20Aの位置検出領域DTの空間領域内か、それ以外の空間領域かで、選択部411,412,418,419を選択制御するだけでなく、デジタイザ20Aの入力面21Sの周辺領域PE(図6参照)か、入力面21Sの周辺領域PEの内側の中央部領域かで、選択部411,412,418,419を選択制御するようにする。
このため、この第2の実施形態の選択制御信号生成部414Aには、デジタイザ20Aの位置検出部23からは、電子ペン10Aからの受信信号の信号レベルの情報に加えて、電子ペン10Aの指示位置の情報も供給される。そして、選択制御信号生成部414Aは、電子ペン10Aの指示位置(ペン先の位置)が、位置検出領域DTの空間領域内であり、且つ、周辺領域PEの内側の中央部領域の空間領域内に在るときと、それ以外の空間領域に在るときとで、選択部411,412,418,419を選択制御する選択制御信号SEAを生成する。
選択部411は、選択制御信号SEAにより、電子ペン10Aの指示位置(ペン先の位置)が、位置検出領域DTの空間領域内であり、且つ、周辺領域PEの内側の中央部領域の空間領域内に在るときには、デジタイザ20Aの位置検出部23からの電子ペン10Aの指示位置の情報を選択して、関連付け部415に供給し、電子ペン10Aの指示位置(ペン先の位置)が、上記以外の空間領域に在るときには、座標変換部413からの空間位置検出部4101からの電子ペン10Aの指示位置の情報を選択して、関連付け部415に供給する。
また、選択部412は、選択制御信号SEAにより、電子ペン10Aの指示位置(ペン先の位置)が、位置検出領域DTの空間領域内であり、且つ、周辺領域PEの内側の中央部領域の空間領域内に在るときには、デジタイザ20Aの位置検出部23からの電子ペン10Aの指示位置の情報を選択して、関連付け部416に供給し、電子ペン10Aの指示位置(ペン先の位置)が、上記以外の空間領域に在るときには、座標変換部413で座標変換処理した空間位置検出部4101からの電子ペン10Aの指示位置の情報を選択して、関連付け部416に供給する。
また、選択部418は、選択制御信号SEAにより、電子ペン10Aの指示位置(ペン先の位置)が、位置検出領域DTの空間領域内であり、且つ、周辺領域PEの内側の中央部領域の空間領域内に在るときには、デジタイザ20Aの姿勢検出部24からの電子ペン10Aのペン姿勢の情報を選択して、関連付け部415に供給し、電子ペン10Aの指示位置(ペン先の位置)が、上記以外の空間領域に在るときには、姿勢変換部417からのペン姿勢検出部4102で検出された電子ペン10Aのペン姿勢から、相対的なペン姿勢に変換されたペン姿勢の情報を選択して、関連付け部415に供給する。
また、選択部419は、選択制御信号SEAにより、電子ペン10Aの指示位置(ペン先の位置)が、位置検出領域DTの空間領域内であり、且つ、周辺領域PEの内側の中央部領域の空間領域内に在るときには、姿勢変換部417Rからのデジタイザ20Aの姿勢検出部24で検出された電子ペン10Aのペン姿勢から、空間位置検出用ユニット30で検出される絶対的なペン姿勢に変換されたペン姿勢の情報を選択して、関連付け部416に供給し、電子ペン10Aの指示位置(ペン先の位置)が、上記以外の空間領域に在るときには、ペン姿勢検出部4102からの電子ペン10Aのペン姿勢の情報を選択して、関連付け部416に供給する。
この第2の実施形態の空間位置指示システムの入力情報処理部41Aがコンピュータで構成される場合の処理動作の流れの一例を、図7及びその続きである図8を参照して説明する。なお、この場合には、図4に示した入力情報処理部41Aを構成する各ブロックは、コンピュータのプログラムによるソフトウェア機能部となる。
すなわち、入力情報処理部41Aは、デジタイザ20Aからの信号から、デジタイザ20Aで電子ペン10Aの指示位置を検出する状態になったか否か判別する(ステップS1)。このステップS1で、デジタイザ20Aで電子ペン10Aの指示位置を検出する状態になっていないと判別したときには、入力情報処理部41Aは、空間位置検出用ユニット30で電子ペン10Aが検出できるか否か判別する(ステップS2)。このステップS2で、空間位置検出用ユニット30で電子ペン10Aが検出できないと判別したときには、入力情報処理部41Aは、処理をステップS1に戻す。
ステップS1で、デジタイザ20Aで電子ペン10Aの指示位置を検出する状態になったと判別したときには、入力情報処理部41Aは、デジタイザ20Aで検出された電子ペン10Aによる指示位置の座標を取得し(ステップS3)、取得した指示位置の座標は、周辺領域PE内であるか否か判別する(ステップS4)。
ステップS4で、取得した指示位置の座標は、周辺領域PEではなく、その内側領域であると判別したときには、入力情報処理部41Aは、デジタイザ20Aからの電子ペン10Aの指示位置の情報とペン姿勢の情報とを関連付けて描画像生成用として表示画像生成部42に出力する(ステップS5)。
次いで、入力情報処理部41Aは、空間情報処理部410の空間位置検出部4101で検出した電子ペン10Aの指示位置の情報を、デジタイザ20Aと共通の座標系の情報とするための座標変換をする(ステップS6)。そして、入力情報処理部41Aは、座標変換した電子ペン10Aの指示位置の情報と、空間情報処理部410のペン姿勢検出部4102で検出したペン姿勢の情報とを関連付けて、VR画像生成用として表示画像生成部42に出力する(ステップS7)。このステップS7の次には、入力情報処理部41Aは、処理をステップS1に戻し、このステップS1以降の処理を繰り返す。
次に、ステップS4で、取得した指示位置の座標は、周辺領域PE内であると判別したとき、また、ステップS2で、空間位置検出用ユニット30で電子ペン10Aを検出することができると判別したときには、入力情報処理部41Aは、空間情報処理部410の空間位置検出部4101で検出した電子ペン10Aの指示位置の情報を、デジタイザ20Aと共通の座標系の情報とするための座標変換をする(図8のステップS11)。また、入力情報処理部41Aは、空間情報処理部410のデジタイザ姿勢検出部4103で検出されたデジタイザ20Aの姿勢の情報を取得する(ステップS12)。
次に、入力情報処理部41Aは、デジタイザ20Aの姿勢検出部24からのペン姿勢の情報を、ステップS12で取得したデジタイザ20Aの姿勢の情報を用いて、デジタイザ20Aに対する相対的な姿勢ではなく、空間領域における絶対姿勢の情報に変換する(ステップS13)。そして、入力情報処理部41Aは、ステップS11で座標変換して得た電子ペン10Aの指示位置の情報と、ステップS13で求められた絶対姿勢の情報とを関連付けて描画像生成用として表示画像生成部42に出力する(ステップS14)。
次に、入力情報処理部41Aは、空間情報処理部410のペン姿勢検出部4102からのペン姿勢の情報を、ステップS12で取得したデジタイザ20Aの姿勢の情報を用いて、デジタイザ20Aに対する相対的な姿勢の情報に変換する(ステップS15)。そして、入力情報処理部41Aは、ステップS11で座標変換して得た電子ペン10Aの指示位置の情報と、ステップS13で求められた絶対姿勢の情報とを関連付けて、VR画像生成用として表示画像生成部42に出力する(ステップS16)。このステップS16の次には、入力情報処理部41Aは、処理をステップS1に戻し、このステップS1以降の処理を繰り返す。
この第2の実施形態の空間位置指示システムの入力情報処理部41Aは、以上のように構成されているので、3D描画系処理及びVR画像系処理における電子ペン10Aの指示位置の情報は、デジタイザ20Aの位置検出領域DTの空間領域の内の、入力面21Sの周辺領域PEよりも内側の中央部領域では、空間位置検出用ユニット30で検出する場合よりも高精度で、デジタイザ20Aの位置検出部23で検出される電子ペン10Aの指示位置の情報が用いられ、そして、デジタイザ20Aの位置検出領域DTの空間領域の内の、入力面21Sの周辺領域PE(入力面21Sの上空を含む)及び位置検出領域DTの空間領域の外側の空間領域では、デジタイザ20Aの位置検出部23で検出する場合よりも高精度で、空間位置検出用ユニット30の空間位置検出部4101で検出される電子ペン10Aの指示位置の情報が用いられる。
また、3D描画系処理における電子ペン10Aのペン姿勢の情報としては、デジタイザ20Aの位置検出領域DTの空間領域の内の、入力面21Sの周辺領域PEよりも内側の中央部領域では、空間位置検出用ユニット30で検出する場合よりも高精度で、デジタイザ20Aの姿勢検出部24で検出される電子ペン10Aのペン姿勢の情報が用いられ、そして、デジタイザ20Aの位置検出領域DTの空間領域の内の、入力面21Sの周辺領域PE(入力面21Sの上空を含む)及び位置検出領域DTの空間領域の外側の空間領域では、デジタイザ20Aの位置検出部23で検出する場合よりも高精度で、空間位置検出用ユニット30のペン姿勢検出部4102で検出される電子ペン10Aのペン姿勢の情報が用いられる。
したがって、この第2の実施形態においても、第1の実施形態と同様に、常に高精度の情報を用いて、3D描画系処理を行うと共に、VR画像系処理を行うことができる。この場合に、第1の実施形態と同様に、3D描画系処理及びVR画像系処理のそれぞれにおいては、デジタイザ20Aで検出される情報と、空間位置検出用ユニット30で検出される情報を、相互に利用することができて便利であるという利点がある。
[第3の実施形態]
以上説明した第1の実施形態及び第2の実施形態は、この発明による入力装置を空間位置指示システムに適用した場合であるが、この発明による入力装置は、デジタイザを備えるタブレット装置において、ホバー領域を含む位置検出領域DT内で電子ペンによる位置指示を検出する場合にも適用可能である。
図9は、この第3の実施形態の入力装置を含むシステムの概要を示す図である。この図9においては、電子ペン10Bとデジタイザを備えるタブレット装置60とにより、第3の実施形態の入力装置が構成される。図9に示すように、この入力装置のタブレット装置60は、例えば机90上に置かれており、コンピュータ80に接続されている。また、この例では、タブレット装置60は、机90の載置面に対して例えば傾き角θを持って、載置されている。
そして、この第3の実施形態においては、タブレット装置60に内蔵されるデジタイザの入力面61Sの上方の3次元空間における電子ペン10Bのペン姿勢を検出するためのジャイロセンサユニット70が、電子ペン10Bのペン先側とは反対側の後端側に、挿脱可能に設けられている。なお、ジャイロセンサユニット70は、電子ペン10Bのペン先側とは反対側の後端側に内蔵されていてもよい。
図10は、この第3の実施形態の入力装置を構成する電子ペン10B、タブレット装置60及びジャイロセンサユニット70の機能構成例を説明するためのブロック図である。この場合に、ジャイロセンサユニット70は、例えば3軸ジャイロセンサ71と、無線通信部72とを備えて構成されている。無線通信部72は、例えばブルートゥース(登録商標)規格の近距離無線通信手段で構成されている。無線通信部72は、これに限らず、赤外線通信などの光通信であってもよい。
この例では、ジャイロセンサユニット70は、電子ペン10Bの筐体に対して装着されているので、3軸ジャイロセンサ71は、電子ペン10Bの3次元空間における傾き角、傾き方向、回転角に応じた出力信号を出力する。ここで、3軸ジャイロセンサ71で検出される電子ペン10Bの電子ペン10Bの傾き角、傾き方向、回転角に応じた出力信号は、電子ペン10Bのタブレット装置60の入力面61Sに対する相対的な姿勢に応じたものではなく、3次元空間における地軸を基準にした絶対的な姿勢に応じたものとなっている。無線通信部72は、3軸ジャイロセンサ71からの出力信号を、タブレット装置60に対して無線送信する。
電子ペン10Bは、タブレット装置60のセンサ部61とのインタラクション部100を備えている。インタラクション部100は、電磁誘導方式あるいは静電結合方式のいずれかにより、タブレット装置60のセンサ部61と結合して、信号のやり取りをする。この例の電子ペン10Bのインタラクション部100は、センサ部61とは、電子ペン10Bの指示位置の位置検出用信号のやり取りを行い、傾き角、傾き方向、回転角などのペン姿勢を検出するための信号のやり取りは行わない。
タブレット装置60では、センサ部61での電子ペン10Bとのインタラクションの結果得られる信号から、指示位置検出部62で、電子ペン10Bの指示位置が検出される。指示位置検出部62で検出された電子ペン10Bの指示位置の情報は、関連付け部63に供給される。
この第3の実施形態のタブレット装置60は、ジャイロセンサユニット70の無線通信部72と無線通信を行う無線通信部64を備える。この無線通信部64で受信されたジャイロセンサユニット70の3軸ジャイロセンサ71の検出出力は、電子ペン姿勢検出部65に供給されて、電子ペン10Bのペン姿勢が検出される。この電子ペン姿勢検出部65で検出された電子ペン10Bのペン姿勢の情報は、相対姿勢算出部66に供給される。
この実施形態のタブレット装置60は、自装置の傾き角や傾き方向を検出するためのジャイロセンサ67を備えている。このジャイロセンサ67のセンサ出力は、タブレット姿勢検出部68に供給される。タブレット姿勢検出部68は、ジャイロセンサ67のセンサ出力に基づいて、自装置の傾き角や傾き方向を検出し、その検出した自装置の傾き角や傾き方向の情報(タブレット姿勢の情報)を、相対姿勢算出部66に供給する。
相対姿勢算出部66は、電子ペン姿勢検出部65からの電子ペン10Bの3次元空間における絶対的なペン姿勢の情報を、タブレット姿勢検出部68からのタブレット姿勢の情報を用いて補正することで、電子ペン10Bのタブレット装置60の入力面61Sに対する相対的なペン姿勢を算出する。そして、相対姿勢算出部66は、算出した電子ペン10Bの相対的なペン姿勢の情報を、関連付け部63に供給する。
関連付け部63は、前述した関連付け部と同様にして、電子ペン10Bの指示位置の情報と、電子ペン10Bの相対的なペン姿勢の情報とを関連付けて、コンピュータ80に対して出力するようにする。
以上のようにして、この第3の実施形態の入力装置においては、電子ペン10Bのペン先による指示位置が得られるときに、これに対応して電子ペン10Bの後端側に設けられたジャイロセンサユニット70で、3次元空間において検出された電子ペン10Bのペン姿勢の情報を、電子ペン10Bの指示位置に対応するペン姿勢の情報として出力することができる。
[他の実施形態または変形例]
上述の第1の実施形態及び第2の実施形態においては、空間位置検出用ユニット30は、赤外線レーザ光の発光する発光追跡装置と、トラッカーとを備える構成としたが、この構成に限られるものではないことは言うまでもない。例えば、その他の非可視光センサ、可視光線センサ又はこれらの組み合わせ等を用いた構成としてもよい。
また、上述の第1の実施形態及び第2の実施形態においては、HMD50を装着しているので、電子ペン10の操作者は、デジタイザ20は、直接的には見ることができない。そこで、HMD50に表示する仮想空間画像に、デジタイザ20の仮想画像を描画して、HMD50の表示画面で、操作者がデジタイザ20の位置を認識するように構成することもできる。
また、上述の第1の実施形態及び第2の実施形態においては、2つの空間座標系での誤差を補正するために、空間位置検出用ユニット30の座標値を、デジタイザ20の空間座標系の座標値に変換するようにしたが、逆に、デジタイザ20の位置検出領域DTの座標値を空間位置検出用ユニット30の座標値に変換するようにしてもよい。なお、この2つの空間座標系の間の変換は、必須のものではなく、任意である。
上述の第1の実施形態及び第2の実施形態では、電子ペン及びデジタイザは、電磁誘導方式のものを用いるようにしたが、これに限られるものではなく、静電方式(アクティブ静電結合方式、パッシブ静電結合方式を含む)の電子ペンとデジタイザを用いることも、勿論できる。
また、第1の実施形態〜第2の実施形態のデジタイザ及び第3の実施形態のタブレット装置は、いわゆるスマートフォンと呼ばれる携帯型携帯電話端末であってもよい。
なお、第1の実施形態及び第2の実施形態では、空間位置指示システムにより3D描画をする場合について説明したが、描画画像は、2D描画画像や2.5D描画画像であってもよい。
10,10A,10B…電子ペン、20,20A…デジタイザ、21S…入力面、22…センサ部、23…位置検出部、24…姿勢検出部、30…空間位置検出用ユニット、40…空間描画情報生成装置、41…入力情報処理部、4101…空間位置検出部、4102…ペン姿勢検出部、50…HMD
この発明は、電子ペンを空間上において用いる場合に好適な入力装置及び入力方法に関する。
上記の課題を解決するために、
電子ペンとの信号の授受に応じて、2次元空間における前記電子ペンによる第1の指示位置を検出する第1の検出部と、
前記電子ペンが存在する3次元空間における前記電子ペンによる第2の指示位置を検出する第2の検出部と、
前記第1の指示位置及び前記第2の指示位置に基づいて、前記2次元空間又は前記3次元空間における前記電子ペンの位置情報を生成する制御部と、
を備える入力装置を提供する。

Claims (9)

  1. 電子ペンとの信号の授受に応じて、前記電子ペンによる第1の指示位置を検出する第1の検出部と 、
    前記電子ペンが存在する3次元空間における前記電子ペンによる第2の指示位置を検出する第2の検出部と、
    前記第1の指示位置と前記第2の指示位置とに基づいて、前記電子ペンの位置情報を生成する制御部と 、
    を備える入力装置。
  2. 前記第2の検出部で検出される前記第2の指示位置には、前記電子ペンが存在する3次元空間における前記電子ペンの第1の姿勢を含み、
    前記第1の姿勢から、前記電子ペンの前記第1の検出部に対する姿勢を算出する算出手段を備える
    ことを特徴とする請求項1に記載の入力装置。
  3. 前記第2の検出部で検出される前記第2の指示位置には、前記電子ペンが存在する3次元空間における前記電子ペンの第1の姿勢を含み、
    前記第2の検出部は、前記電子ペンの角速度を検出するセンサの出力から、前記電子ペンの前記第1の姿勢を検出する
    ことを特徴とする請求項1に記載の入力装置。
  4. 前記第2の検出部で検出される前記第2の指示位置には、前記電子ペンが存在する3次元空間における前記電子ペンの第1の姿勢を含み、
    前記制御部は、前記電子ペンと前記第1の検出部との信号の授受が可能な状態において、前記第2の検出部で検出された前記第1の姿勢を、前記第1の指示位置とに基づいて、前記電子ペンの位置情報を生成する
    ことを特徴とする請求項1に記載の入力装置。
  5. 前記制御部は、前記電子ペンの指示位置が、前記電子ペンと前記第1の検出部との信号の授受が可能な状態において、前記第1の検出部の入力面の領域のうち、周辺領域の内側の領域では前記第1の指示位置を出力し、前記周辺領域においては前記第2の指示位置を出力する
    ことを特徴とする請求項1に記載の入力装置。
  6. 前記第1の検出部で検出される前記第1の指示位置には第1の姿勢を含み、前記第2の検出部で検出される前記第2の指示位置には、第2の姿勢を含むものであり、
    前記制御部は、前記電子ペンと前記第1の検出部との信号の授受が可能な状態において、前記電子ペンの指示位置が、前記第1の検出部の入力面の領域のうち、周辺領域の内側の領域では前記第1の指示位置の情報と前記第1の姿勢の情報とを出力し、前記周辺領域においては前記第1の指示位置の情報と前記第2の姿勢の情報とを出力する
    ことを特徴とする請求項1に記載の入力装置。
  7. 前記第2の指示位置に代えて前記第1の指示位置を出力するか否かを制御する第2の制御部を備える
    ことを特徴とする請求項1に記載の入力装置。
  8. 前記第1の検出部で検出される前記第1の指示位置には第1の姿勢を含み、かつ、前記第1の姿勢は前記電子ペンの前記第1の検出部に対する相対姿勢であり、
    前記第1の姿勢を、前記電子ペンが存在する3次元空間における姿勢に変換する手段を備え、
    前記第2の制御部は、前記変換された前記第1の姿勢を出力する
    ことを特徴とする請求項7に記載の入力装置。
  9. 前記第1の検出部で検出される前記第1の指示位置には、前記第1の姿勢を含み、前記第2の検出部で検出される前記第2の指示位置には、前記第2の姿勢を含み、
    前記第2の制御部は、前記電子ペンの指示位置が、前記電子ペンと前記第1の検出部との信号の授受が可能な状態において、前記第1の検出部の入力面の領域の内側の中央領域では、前記第2の指示位置と、前記第1の指示位置の情報とを出力し、前記第1の検出部の入力面の前記中央領域の外側の領域においては、前記第2の指示位置の情報を出力する
    ことを特徴とする請求項7に記載の入力装置。
JP2020504804A 2018-03-05 2018-12-26 入力システム及び入力方法 Active JP7386152B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023192684A JP2024016238A (ja) 2018-03-05 2023-11-13 画像生成方法及びコンピュータ並びに画像生成プログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018038512 2018-03-05
JP2018038512 2018-03-05
PCT/JP2018/047700 WO2019171719A1 (ja) 2018-03-05 2018-12-26 電子ペンを用いた入力装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023192684A Division JP2024016238A (ja) 2018-03-05 2023-11-13 画像生成方法及びコンピュータ並びに画像生成プログラム

Publications (2)

Publication Number Publication Date
JPWO2019171719A1 true JPWO2019171719A1 (ja) 2021-03-04
JP7386152B2 JP7386152B2 (ja) 2023-11-24

Family

ID=67847059

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020504804A Active JP7386152B2 (ja) 2018-03-05 2018-12-26 入力システム及び入力方法
JP2023192684A Pending JP2024016238A (ja) 2018-03-05 2023-11-13 画像生成方法及びコンピュータ並びに画像生成プログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023192684A Pending JP2024016238A (ja) 2018-03-05 2023-11-13 画像生成方法及びコンピュータ並びに画像生成プログラム

Country Status (5)

Country Link
US (3) US11243616B2 (ja)
EP (1) EP3764201A4 (ja)
JP (2) JP7386152B2 (ja)
CN (1) CN111819524A (ja)
WO (1) WO2019171719A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019074582A (ja) * 2017-10-13 2019-05-16 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP7300304B2 (ja) * 2019-04-22 2023-06-29 株式会社ワコム ペン状態検出回路及びペン状態検出方法
CN112148139B (zh) * 2020-09-28 2022-07-26 联想(北京)有限公司 一种姿态识别方法和计算机可读存储介质
WO2023003759A1 (en) * 2021-07-22 2023-01-26 Dathomir Laboratories Llc Multi-modal tracking of an input device
WO2023188659A1 (ja) * 2022-03-30 2023-10-05 株式会社ワコム 情報処理システム
US11816275B1 (en) 2022-08-02 2023-11-14 International Business Machines Corporation In-air control regions

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129907A (ja) * 2006-11-22 2008-06-05 Konica Minolta Holdings Inc 情報処理システム
JP2010205134A (ja) * 2009-03-05 2010-09-16 Panasonic Corp 情報表示装置
WO2015047223A1 (en) * 2013-09-24 2015-04-02 Hewlett-Packard Development Company, L.P. Identifying a target touch region of a touch-sensitive surface based on an image
JP2017117373A (ja) * 2015-12-25 2017-06-29 キヤノン株式会社 操作装置とその制御方法、及びプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129933A1 (en) * 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
US7027648B2 (en) * 2002-02-08 2006-04-11 Microsoft Corporation Pen out-of-proximity handwriting-recognition trigger
KR100631616B1 (ko) * 2005-01-08 2006-10-11 엘지전자 주식회사 3차원 위치정보 입력장치
JP2007286976A (ja) * 2006-04-18 2007-11-01 Fanuc Ltd ロボットシミュレーション装置
US10922870B2 (en) * 2010-06-01 2021-02-16 Vladimir Vaganov 3D digital painting
US9329703B2 (en) 2011-06-22 2016-05-03 Apple Inc. Intelligent stylus
CN104598048A (zh) * 2013-10-31 2015-05-06 鸿富锦精密工业(深圳)有限公司 数位笔书写控制方法及系统
JP6487694B2 (ja) 2014-12-26 2019-03-20 株式会社ワコム 位置指示器及び信号処理装置
CN106404234A (zh) * 2015-03-12 2017-02-15 辛纳普蒂克斯公司 力传感器
JP6416687B2 (ja) * 2015-04-17 2018-10-31 株式会社ジャパンディスプレイ 表示装置およびタッチ検出装置
US20170242498A1 (en) * 2016-02-23 2017-08-24 Motorola Mobility Llc Passive Chopsticks Stylus System for Capacitive Touch Screens
KR20180015987A (ko) * 2016-08-04 2018-02-14 삼성전자주식회사 펜과 관련된 정보를 판단하는 터치 감지 장치 및 그 제어 방법과 펜
US11262885B1 (en) * 2017-06-27 2022-03-01 William Martin Burckel Multi-gesture context chaining
EP3680755A4 (en) * 2017-09-04 2020-10-28 Wacom Co., Ltd. SPATIAL POSITION INDICATOR SYSTEM
JP7321995B2 (ja) * 2018-03-23 2023-08-07 株式会社ワコム 位置指示器及び位置検出システム
US20200310561A1 (en) * 2019-03-29 2020-10-01 Logitech Europe S.A. Input device for use in 2d and 3d environments

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129907A (ja) * 2006-11-22 2008-06-05 Konica Minolta Holdings Inc 情報処理システム
JP2010205134A (ja) * 2009-03-05 2010-09-16 Panasonic Corp 情報表示装置
WO2015047223A1 (en) * 2013-09-24 2015-04-02 Hewlett-Packard Development Company, L.P. Identifying a target touch region of a touch-sensitive surface based on an image
JP2017117373A (ja) * 2015-12-25 2017-06-29 キヤノン株式会社 操作装置とその制御方法、及びプログラム

Also Published As

Publication number Publication date
US11243616B2 (en) 2022-02-08
EP3764201A4 (en) 2021-12-08
CN111819524A (zh) 2020-10-23
US20220083156A1 (en) 2022-03-17
JP7386152B2 (ja) 2023-11-24
EP3764201A1 (en) 2021-01-13
US11656692B2 (en) 2023-05-23
WO2019171719A1 (ja) 2019-09-12
US20230251726A1 (en) 2023-08-10
US20200387240A1 (en) 2020-12-10
JP2024016238A (ja) 2024-02-06

Similar Documents

Publication Publication Date Title
JP7386152B2 (ja) 入力システム及び入力方法
JP6838591B2 (ja) 制御装置、制御方法及びプログラム
US11630570B2 (en) Spatial position indication system
US9401050B2 (en) Recalibration of a flexible mixed reality device
US11934592B2 (en) Three-dimensional position indicator and three-dimensional position detection system including grip part orthogonal to electronic pen casing
KR20180075191A (ko) 무인 이동체를 제어하기 위한 방법 및 전자 장치
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
US20230205416A1 (en) Spatial position indication system
CN108351736B (zh) 可穿戴显示器、图像显示装置和图像显示系统
JP2008047047A (ja) 入力装置及び方法、並びにプログラム及び記憶媒体
US20140292636A1 (en) Head-Worn Infrared-Based Mobile User-Interface
US10592010B1 (en) Electronic device system with input tracking and visual output
US20130155211A1 (en) Interactive system and interactive device thereof
KR100948806B1 (ko) 무선 공간인식 3차원 마우스 장치 및 이의 제어 방법
WO2022172335A1 (ja) 仮想ガイド表示装置、仮想ガイド表示システム、及び仮想ガイド表示方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R150 Certificate of patent or registration of utility model

Ref document number: 7386152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150