JP6373537B1 - 空間位置指示システム - Google Patents

空間位置指示システム Download PDF

Info

Publication number
JP6373537B1
JP6373537B1 JP2018520198A JP2018520198A JP6373537B1 JP 6373537 B1 JP6373537 B1 JP 6373537B1 JP 2018520198 A JP2018520198 A JP 2018520198A JP 2018520198 A JP2018520198 A JP 2018520198A JP 6373537 B1 JP6373537 B1 JP 6373537B1
Authority
JP
Japan
Prior art keywords
electronic pen
position detection
spatial
unit
spatial position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018520198A
Other languages
English (en)
Other versions
JPWO2019044003A1 (ja
Inventor
創 熊巳
創 熊巳
吉田 浩司
浩司 吉田
浩 玉野
浩 玉野
博史 宗像
博史 宗像
元昊 陳
元昊 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Priority claimed from PCT/JP2018/008894 external-priority patent/WO2019044003A1/ja
Priority to JP2018132770A priority Critical patent/JP7441600B2/ja
Application granted granted Critical
Publication of JP6373537B1 publication Critical patent/JP6373537B1/ja
Publication of JPWO2019044003A1 publication Critical patent/JPWO2019044003A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/046Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by electromagnetic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected

Abstract

電子ペンの操作者が、線画による描画と、ジェスチャーによる描画とをシームレスに切り替えながら描画を実行することができる空間位置指示システムを提供する。電子ペンと、指示位置検出装置部と、空間位置検出装置部と、選択部とを備える。指示位置検出装置部は、入力面の上方のホバー領域を含む領域を検出領域における電子ペンによる指示位置を検出する。空間位置検出装置部は、指示位置検出装置部のホバー領域の少なくとも一部を含む空間領域における電子ペンの位置を、指示位置検出装置部とは別個に独立して検出する。電子ペンによる指示位置検出出力と、空間位置検出出力とに基づいて、表示部に表示する描画画像を生成する場合に、選択部は、電子ペンの入力面からの離間距離に応じて、指示位置検出出力と空間位置検出出力とのいずれか用いるように選択制御する。

Description

この発明は、電子ペンを空間上で用いる場合に好適な空間位置指示システムに関する。
デジタイザと呼ばれる座標入力装置に対して、電子ペンにより連続的に位置指示することにより描画することで、アニメーション画像などを作成する描画システムが知られている。この場合に、操作者は、電子ペンを、デジタイザを内蔵したタブレット装置の入力面に接触させた状態で、あるいは、タブレット装置の入力面には非接触の状態ではあるが、位置検出可能な上方領域に置いた状態(ホバー状態)で、描画画像を生成するための位置指示操作するようにする。デジタイザは、電子ペンにより指示された位置を検出し、その検出結果として描画画像を生成し、表示画面に表示する。操作者は、表示画面に表示されている描画画像を確認しながら、描画を実行するようにする。
最近は、2次元の表示画面に表示された描画画像を、視覚的に、3次元画像のように描画表現(例えば回転や変形等)することができるようにするシステムやアプリケーションが登場している。この場合には、操作者の例えば手や指の動き(ジェスチャー)を動きセンサを用いて検出し、その検出した動き(ジェスチャー)に基づいて描画表現処理を行うようにする。
従来は、デジタイザで電子ペンによる指示位置を検出することに基づいて2次元描画画像を作成する工程と、2次元画像を3次元画像のように描画表現したり、取り扱ったりする工程とはそれぞれ独立して別々の工程として実行されていた。
ところで、上述のような位置指示入力とジェスチャーなどの操作入力の両方を行えるユーザインターフェースが提供されている(例えば、特許文献1及び特許文献2参照)。
特許文献1には、モーションセンサからの信号に応答してホバーイベント検出モードからジェスチャイベント検出モードに切り替えるように構成されたタッチコントローラが開示されている。
また、特許文献2には、タッチセンサ式ディスプレイを介して検出される位置情報と非接触検出手段を介して検出される位置情報とを交互に判定するコントローラ手段が開示されている。
米国特許第9367169号明細書 米国特許第9323379号明細書
しかしながら、特許文献1のように、モーションセンサからの信号に応じて切り替える方法では、切替のためにデバイスの傾きを、都度、変更しなければならないという問題がある。
また、特許文献2の場合には、タッチセンサ式ディスプレイと非接触検出手段とを時分割で切り替えることになり、それぞれの時間分解能が低下する問題がある。
この発明は、以上の問題点を解決することができるようにした空間位置指示システムを提供することを目的とする。
上記の課題を解決するために、
電子ペンによる指示入力を受けるための入力面及び前記入力面の上方のホバー領域の少なくとも一方における前記電子ペンの第1の位置を検出する指示位置検出装置部と、
前記ホバー領域の少なくとも一部を含む空間領域における前記電子ペンの第2の位置を検出する空間位置検出装置部と、
前記電子ペンの前記入力面からの離間距離に応じて、前記指示入力として前記第1の位置を用いるか前記第2の位置を用いるかを選択する選択部と、
前記第1の位置の検出座標を前記空間位置検出装置部における座標系の座標値に変換する変換部と、
を備えることを特徴とする空間位置指示システムを提供する。
また、上記の課題を解決するために、
電子ペンによる指示入力を受けるための入力面及び前記入力面の上方のホバー領域の少なくとも一方における前記電子ペンの第1の位置を検出する指示位置検出装置部と、
前記ホバー領域の少なくとも一部を含む空間領域における前記電子ペンの第2の位置を検出する空間位置検出装置部と、
前記電子ペンの前記入力面からの離間距離に応じて、前記指示入力として前記第1の位置を用いるか前記第2の位置を用いるかを選択する選択部と、
前記第2の位置の検出座標を前記指示位置検出装置部における座標系の座標値に変換する変換部と、
を備えることを特徴とする空間位置指示システム。
上記の構成の空間位置指示システムにおいては、指示位置検出装置部における電子ペンによる指示入力の検出領域は、電子ペンによる指示入力を受けるための入力面の上方のホバー領域を含む領域とされている。空間位置検出装置部は、指示位置検出装置部の上記のホバー領域の少なくとも一部を含む空間領域における電子ペンの位置を検出可能となるように構成されている。
そして、選択部により、電子ペンの指示位置検出装置部の入力面からの離間距離に応じて、指示位置検出装置部からの指示位置検出出力と、空間位置検出装置部からの空間位置検出出力とのいずれかを用いるように選択制御される。これにより、電子ペンの操作者は、電子ペンを、指示位置検出装置部の入力面からの離間距離を変えるようにするだけで、指示位置検出装置部と、空間位置検出装置とをシームレスに切り替えながら操作を実行することができる。
この発明による空間位置指示システムの第1の実施形態の概要を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の構成例を説明するためのブロック図である。 この発明による空間位置指示システムの第1の実施形態における空間座標系を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の一部の動作を説明するための図である。 この発明による空間位置指示システムの第1の実施形態における電子ペンの位置検出用の座標系の切り替えを説明するための図である。 この発明による空間位置指示システムの第1の実施形態における表示部の表示画面の表示画像の例を示す図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第1の実施形態の変形例を説明するための図である。 この発明による空間位置指示システムの第2の実施形態の概要を説明するための図である。 この発明による空間位置指示システムの第2の実施形態の主要な動作を説明するための図である。 この発明による空間位置指示システムの第2の実施形態の構成例を説明するためのブロック図である。
以下、この発明による空間位置指示システムの実施形態を、図を参照しながら説明する。
[第1の実施形態]
図1は、この発明による空間位置指示システムの第1の実施形態の全体構成例を示す図である。この第1の実施形態の空間位置指示システムは、図1に示すように、電子ペン1と、タブレット装置2とを備える。そして、タブレット装置2は、この実施形態では、図2に示すような内部構成を備える。概略的には、タブレット装置2の入力面から電子ペン1のペン先までのZ軸方向の高さ位置が後述する臨界高さ位置Lzよりも小さい場合には(例えば、図1における高さ位置B1)、指示位置検出装置部203で検出された電子ペン1の指示位置を用いる。一方、タブレット装置2の入力面から電子ペン1のペン先までのZ軸方向の高さ位置が臨界高さ位置Lz以上である場合には(例えば、図1における高さ位置B2)、空間位置検出装置部204で検出された電子ペン1の指示位置を用いる。一般に、指示位置検出装置部203による位置検出の精度は、空間位置検出装置部204による位置検出の精度よりも高い。そのため、電子ペン1がタブレット装置2の指示入力を受けるための入力面から離れ、その上方のホバー領域に位置する場合には、指示位置検出装置部203による位置検出を継続して使用し、その高さ位置が臨界高さ位置Lz以上となったときに空間位置検出装置部204による位置検出を使用することが好ましい。
この第1の実施形態の空間位置指示システムのタブレット装置2は、表示部の例としてのLCD(Liquid Crystal Display;液晶ディスプレイ)201を備え、このLCD201の表示画面201Dが、筐体202の表面に配置されている。
そして、タブレット装置2においては、LCD201の裏側に、LCD201と重畳する状態で、電子ペン1による指示位置を検出する指示位置検出装置部(以下、デジタイザという)203のセンサ部2031が配設されている。デジタイザ203は、図2に示すように、センサ部2031と位置検出回路2032とを備える。
センサ部2031は、図示は省略するが、複数個のループコイルが、それぞれ、タブレット装置2の筐体202の横方向(X軸方向)と、筐体202の縦方向(Y軸方向)とに配設されて構成されている。この例では、デジタイザ203は電磁誘導方式のものとされているが、本実施形態はこれに限定されない。
一方、電子ペン1は、ペン先側にコイルとコンデンサとからなる共振回路(図示は省略)を備えており、デジタイザ203のセンサ部2031のループコイルと、電子ペン1の共振回路との間で、電磁誘導結合することで、電子ペン1とデジタイザのセンサ部2031との間で信号の授受を行う。電子ペン1も電磁誘導方式のものとされているが、本実施形態はこれに限定されない。
デジタイザ203の位置検出回路2032は、センサ部2031のループコイルを通じて電子ペン1に信号を供給すると共に、電子ペン1からの信号をループコイルを通じて受信し、その受信した信号に基づいて、センサ部2031の検出領域において電子ペン1により指示された位置を検出する。なお、この実施形態では、デジタイザ203は、電子ペン1のペン先で指示された位置を検出するように構成されている。
この例では、LCD201の表示画面201Dのほぼ全域をカバーするようにデジタイザ203のセンサ部2031のループコイルが配設されており、表示画面201Dの表面全域とほぼ同一の領域は、センサ部2031に対する電子ペン1の入力面203S(図1の点線で囲む部分)となる。
そして、この実施形態では、デジタイザ203で電子ペン1の指示位置を検出することができる位置検出領域は、電子ペン1のペン先がデジタイザ203の入力面203Sに接触しているときの平面領域のみならず、電子ペン1のペン先がデジタイザ203の入力面203Sに非接触であって、入力面203Sとは、当該入力面203Sに直交する方向(X軸方向及びY軸方向に直交するZ軸方向)に離間しているが、電磁結合による信号の授受を通して電子ペン1の指示位置を検出することができる空間領域(電子ペン1のホバー状態のホバー領域)を含む。
例えば、図1において、デジタイザ203の入力面203Sの左上隅の位置P0を、X軸方向、Y軸方向及びZ軸方向の原点の座標((X,Y,Z)=(0,0,0))としたとき、デジタイザ203における電子ペン1の指示位置の検出が可能となる位置検出領域DTは、図3において、斜線を付して示す入力面203Sの平面領域及び当該入力面203Sの上方の直方体の空間領域となる。
すなわち、図1に示すように、デジタイザ203の入力面203SのX軸方向の長さをLx、Y軸方向の長さをLy、ホバー状態を検出することができるZ軸方向の臨界高さ位置をLzとすると、図3に示すように、P0(0,0,0)、P1(Lx,0,0)、P2(Lx,Ly,0)、P3(0,Ly,0)、P4(0,0,Lz)、P5(Lx,0,Lz)、P6(Lx,Ly,Lz)、P7(0,Ly,Lz)の8点の座標点位置で囲まれる領域が、デジタイザ203の位置検出領域DTとなる。
そして、この第1の実施形態のタブレット装置2は、デジタイザ203とは別個に電子ペン1の空間位置を検出する手段として、空間位置検出装置部204を備えている。図1に示すように、筐体202の表面に、空間位置検出装置部204の空間位置検出用部材2041が設けられている。空間位置検出用部材2041は、この例では、図示は省略するが、非可視光センサ(例えば、赤外線発光部(赤外線LED)及び赤外線カメラなど)を備えて構成されるが、本実施形態はこれに限定されず、可視光センサなどの他のセンサ又はこれらの組み合わせを用いてもよい。また、空間位置検出用部材2041に代えて、或いは空間位置検出用部材2041と併せて、デジタイザ203から放出される電磁波の周波数を高くすることにより、臨界高さ位置を高くして電子ペン1の空間位置を検出してもよい。すなわち、通常は、第1の周波数でデジタイザ203の入力面及びホバー領域を含む空間領域で電子ペン1の位置を検出し、第1の周波数よりも高い第2の周波数に切り替えて、第1の周波数における第1の臨界高さ位置よりも高い第2の臨界高さ位置における電子ペン1の空間位置を検出すればよい。
空間位置検出装置部204の空間位置検出用部材2041の赤外線発光部は、デジタイザの位置検出領域DTの少なくとも一部を含む空間領域を探索領域として、その探索領域に存する物(オブジェクトという)を探索するように赤外光を発する。すなわち、空間位置検出用部材2041の赤外線発光部は、デジタイザの位置検出領域DTの少なくとも一部を含む空間を探索するように赤外光を発する。そして、空間位置検出用部材2041の赤外線カメラは、その空間領域に存在するオブジェクトからの赤外光の反射光を受光することで、オブジェクトの存在及び位置を検出する。前述したように、この実施形態では、空間位置検出装置部204で検出するオブジェクトは、電子ペン1であり、例えば、そのペン先位置を位置検出する。
空間位置検出装置部204は、この第2の実施形態では、デジタイザ203で検出される電子ペン1の指示位置との連続性を考慮して、電子ペン1のペン先の空間位置を検出するように構成されているが、本実施形態はこれに限定されず、電子ペン1の他の1つ又は複数の部位の位置を検出するように構成されてもよい。この実施形態のタブレット装置2では、空間位置検出装置部204で検出された電子ペン1のペン先の空間位置から求められた当該ペン先の動きから、電子ペン1の操作者により実行されたジェスチャーを検出するように構成され得る。
空間位置検出装置部204の空間位置検出回路2042(図2参照)は、赤外線カメラで受光した反射光の受光情報(受光方向や発光時刻と受光時刻の差等)から、前述した広い空間領域内におけるオブジェクトの位置、この例では、電子ペン1のペン先位置を検出する。そして、空間位置検出装置部204は、この例では、空間領域内における電子ペン1のペン先位置の動きを検出する。この明細書では、空間位置検出装置部204が探索対象とする空間領域を、便宜上、動き検出空間領域MDと呼ぶことにする。
空間位置検出装置部204の動き検出空間領域MDの空間座標系は、デジタイザ203の位置検出領域DTの空間座標系とは独立に設定され得る。図3においては、動き検出空間領域MDの空間座標系の3軸は、サフィックスsを用いて、Xs軸、Ys軸、Zs軸として、デジタイザ203の検出領域DTの空間座標系のX軸、Y軸、Z軸とは区別して示している。この場合に、空間位置検出装置部204の動き検出空間領域MDは、この例においては、図3に示すように、タブレット装置2の筐体202において、空間位置検出用部材2041が設置される部分の中心位置を、動き検出空間領域MDの空間座標系の原点位置として定められている。
なお、図3では、便宜上、Xs軸、Ys軸、Zs軸のそれぞれの方向は、X軸、Y軸、Z軸のそれぞれの方向と同一方向として示しているが、空間位置検出用部材2041を構成する赤外線発光部や赤外線カメラの光軸方向の関係上、Xs軸、Ys軸、Zs軸のそれぞれの方向は、X軸、Y軸、Z軸のそれぞれの方向とは異なり得る。
しかし、この実施形態では、電子ペン1のペン先の位置の位置情報は、デジタイザ203の位置検出領域DTの空間座標系と、空間位置検出装置部204の動き検出空間領域MDの空間座標系との共通の領域を用いることによって、後述する空間位置補正情報を用いて座標変換ができるように構成されている。すなわち、空間位置検出装置部204の動き検出空間領域MDの空間座標系は、デジタイザ203の位置検出領域DTの空間座標系の少なくとも一部を共通領域として含むように配置される。
なお、Xs軸、Ys軸、Zs軸のそれぞれの方向と、X軸、Y軸、Z軸のそれぞれの方向とが同一方向であれば、デジタイザ203の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とは、両空間座標系の原点位置の差分を考慮することで、一つの空間座標系として共通に取り扱うことができる。すなわち、例えばデジタイザ203の位置検出領域DTの空間座標系の原点位置と、動き検出空間領域MDの空間座標系の原点位置とのX軸方向、Y軸方向、Z軸方向のオフセット値を、それぞれΔx、Δy、Δzとすれば、Xs−Δx(=X)、Ys−Δy(=Y)、Zs−Δz(=Z)を求めることにより、動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、デジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)に変換することできる。
しかし、この第1の実施形態のタブレット装置2においては、上述したように、独立に設けられるデジタイザ203の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とは、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが異なり得る。また、X軸、Y軸、Z軸のそれぞれの方向と、Xs軸、Ys軸、Zs軸のそれぞれの方向とが同一である場合においても、原点位置のオフセット値を正確に規定することは困難であり、タブレット装置2毎に異なってしまう恐れがある。
すると、2つの空間座標系における座標位置が異なってしまうことになり、例えば、表示画面201D上に電子ペン1のペン先位置を矢印等のカーソルで示す場合に、デジタイザ203の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との2つの空間座標系を切り替えたときに、図4に示すように、実線のカーソルCSの表示位置から破線のカーソルCS´状態にジャンプしてしまう恐れがある。このため、描画画像を入力しようとしている使用者にとっては、指示位置を指示し直さなければならない。
そこで、この第1の実施形態では、デジタイザ203の位置検出領域DTの少なくとも一部の領域は、動き検出空間領域MDと共通の空間領域であることを利用して、デジタイザ203の検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とのずれの補正情報を生成するようにする。この例では、デジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)を、空間位置検出装置部204の空間位置検出回路2042で検出された動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)に変換することで、両者のずれを補正した座標値を得ることができるようにする。その変換のための補正情報について次に説明する。
数式1に、空間位置検出装置部204の空間位置検出回路2042で検出された動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を、デジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)に線形変換するための行列式を示す。この行列式は3行3列であり、その成分をaij(i,j=1、2、3)で表す。
Figure 0006373537
この第1の実施形態では、デジタイザの位置検出領域DTの少なくとも一部は、動き検出空間領域MDと共通の空間領域であることを利用して、デジタイザの検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との間の変換のための補正情報を生成するようにする。
すなわち、図3に示すように、デジタイザの位置検出領域DTと動き検出空間領域MDとの共通の空間領域内の少なくとも3点Pa,Pb,Pcを位置指定して、それぞれの点のデジタイザ203の位置検出領域DTの空間座標系の座標値(X,Y,Z)と、動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)とをそれぞれのデバイスから取得する。理想的には、これらのデバイスから取得した座標値は同じ値になるが、キャリブレーションを行わなければ、これらの座標値は通常は一致しない。一般には、デジタイザ203の位置検出の精度が空間位置検出装置部204の位置検出の精度よりも高いため、空間位置検出装置部204の動き検出空間領域MDの空間座標系の座標値をデジタイザ203の位置検出領域DTの空間座標系の座標値に合わせることが好ましい。
共通領域内で位置指定した1つの点につき、対応する位置検出領域DTの空間座標系の座標値(X,Y,Z)と動き検出空間領域MDの空間座標系の座標値(Xs,Ys,Zs)を数式1に代入すると3つの方程式が得られる。共通領域内で少なくとも3点の位置指定を行うことにより、a11〜a33についての少なくとも9個の方程式が得られるので、a11〜a33のそれぞれの値を求めることができる。また、デジタイザの検出領域DTの空間座標系と動き検出空間領域MDの空間座標系との間の変換は、上記方法に限定されず、共通領域における少なくとも3点の座標値を用いた機械学習による学習や、ユーザによるキャリブレーションなどを用いてもよい。
以上のように、第1の実施形態のタブレット装置2は、空間位置検出装置部204の動き検出空間領域MD内に、デジタイザ203の位置検出領域DTの少なくとも一部を含むように構成されている。つまり、タブレット装置2は、空間位置検出装置部204の動き検出空間領域MDが、デジタイザ203の位置検出領域DTの少なくとも一部を共通領域として有するように構成されている。
そして、この実施形態のタブレット装置2では、電子ペン1のペン先位置の、デジタイザ203のセンサ部2031の入力面203Sからの離間距離(Z軸方向の離間距離)に応じて、デジタイザ203で検出した電子ペン1の指示位置(第1の位置)を用いるか、空間位置検出装置部204で検出した電子ペン1の空間領域における位置(第2の位置)を用いるかを切り替えるように構成している。
すなわち、図5に示すように、切り替えポイントとなる入力面203Sからの離間距離(Z軸方向の離間距離)をθthとしたとき、電子ペン1の入力面203Sからの離間距離がθthよりも小さいときには、タブレット装置2は、デジタイザ203が、その位置検出領域DTにおいて電子ペン1による指示位置を検出し、その検出した指示位置に応じた処理を行う装置として動作する。一方、電子ペン1の入力面203Sからの離間距離がθthよりも大きいときには、タブレット装置2は、空間位置検出装置部204が電子ペン1の空間領域内の位置を検出し、位置に応じた処理を行う装置として動作するように切り替えられる。
この実施形態では、切り替えポイントとなる入力面203Sからの離間距離(Z軸方向の離間距離)θthは、デジタイザ203が電子ペン1のホバー状態を検出することができるZ軸方向の臨界高さ距離Lz以下に設定される。この例では、切り替えポイントとなる入力面203Sからの離間距離θthは、図5に示すように、デジタイザ203が電子ペン1のホバー状態を検出することができるZ軸方向の臨界高さ距離Lz、すなわち、位置検出領域DTのZ軸方向の長さLzと等しく設定されている。
すなわち、タブレット装置2は、電子ペン1がデジタイザ203の位置検出領域DT内に存在するときには、当該電子ペン1の位置をデジタイザ203で検出した結果を用い、電子ペン1がデジタイザ203の位置検出領域DTの外側に存在するときには、当該電子ペン1の動きを空間位置検出装置部204で検出した結果を用いるように切り替えられると共に、その切り替えに応じて、描画処理も切り替えられる。
電子ペン1のペン先位置の、デジタイザ203のセンサ部2031の入力面203Sからの離間距離(Z軸方向の離間距離)は、この実施形態では、デジタイザ203のセンサ部2031での電子ペン1からの受信信号の信号レベル(信号強度)が、離間距離に応じた値となるので、タブレット装置2は、当該電子ペン1からの受信信号の信号レベルに基づいて検出する。
次に、以上のことを実現するタブレット装置2の構成部分の例について説明する。すなわち、デジタイザ203を構成する位置検出回路2032は、電子ペン1の指示位置の検出出力を、選択回路205の一方の入力信号として供給する。なお、この位置検出回路2032から選択回路205に供給される情報には、電子ペン1の指示位置の検出出力に加えて、電子ペン1に印加される筆圧情報が含まれている。この筆圧情報により、電子ペン1が入力面203Sに接触しているかどうかが分かり、また、線画を描画する場合に、筆圧の大きさに応じた太さの線画を描くことができる。
また、空間位置検出装置部204の空間位置検出回路2042は、電子ペン1の空間位置の検出出力を、空間位置座標補正回路206に供給する。この空間位置座標補正回路206には、補正情報メモリ207からの前述の(数式1)に示した行列式の成分a11〜a33が供給される。空間位置座標補正回路206は、補正情報メモリ207から供給される成分を用いて、数式1の行列式の演算を実行して、空間位置検出装置部204の空間座標系の座標情報を、デジタイザ203の空間座標系の座標情報に変換する。そして、空間位置座標補正回路206は、その変換後の座標出力を、ジェスチャー検出回路208に供給する。
ジェスチャー検出回路208は、空間位置座標補正回路206からの座標出力に基づいて、電子ペン1のペン先の動き(ジェスチャー)を検出し、その検出出力を選択回路205の他方の入力信号として供給する。
そして、この実施形態においては、デジタイザ203の位置検出回路2032は、電子ペン1からの受信信号の信号レベルの情報を、離間距離検出回路210に供給する。離間距離検出回路210は、この実施形態では、電子ペン1からの受信信号の信号レベルから、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離を検出する。そして、離間距離検出回路210は、検出した離間距離の情報を選択制御信号生成回路211に供給する。
選択制御信号生成回路211は、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離が、距離Lz以下のときには、選択回路205をデジタイザ203の検出出力を選択するように制御し、距離Lzよりも大きいときには、選択回路205をジェスチャー検出回路208の検出出力を選択するように制御する選択制御信号SEを生成し、生成した選択制御信号SEにより選択回路205を選択制御する。
選択回路205は、一方の入力または他方の入力の一方を、選択制御信号SEに応じて切り替えて、描画処理回路212に供給する。
描画処理回路212は、デジタイザ203からの電子ペン1の指示位置検出出力に基づいて、精細な線画等を描画するペン描画処理部2121と、空間位置検出装置部204からの電子ペン1の空間位置に基づいて検出された動き(ジェスチャー)に基づいた描画処理をするジェスチャー処理部2122とを備える。そして、この描画処理回路212には、切替信号生成回路211からの切替制御信号SWが供給されており、描画処理回路212は、ペン描画処理部2121とジェスチャー処理部2122とを、スイッチ回路205の切り替えに連動して切り替えて、3D描画画像の描画処理を実行する。
描画処理回路212で生成された3D描画画像情報は、表示ドライブ回路213を通じて、この例では、LCDで構成されている表示部201に供給されて、その表示画面201Dに表示される。
図6に、表示部201の表示画面201Dに表示される3D描画画像の一例を示す。この実施形態では、図6に示すように、表示画面201Dには、スイッチ回路205の切替状態が、デジタイザ203側であるのか(タブレットモード)、ジェスチャー検出回路208側であるのかを(スペースモード)、使用者に通知する現在モード表示220が表示されている。この現在モード表示220は、描画処理回路212で、例えば切替制御信号SWに基づいて生成されて表示画像に表示される。
現在モード表示220は、電子ペン1がデジタイザ203の位置検出領域DT内に存在するか、空間位置検出装置部204の動き検出空間領域MD内に存在しているかを使用者に報知するためのもので、図6の例では、電子ペン1がいずれの領域に存在するかを斜線を付して示すバー221Bの高さにより示すバー表示221と、バー表示221がいずれの領域を示しているかを報知するための文字表示欄222とからなる。
なお、描画処理回路212に、離間距離検出回路210の検出出力と、空間位置座標補正回路206からの座標出力とを供給するようにすれば、描画処理回路212は、電子ペン1の入力面203Sからの離間距離を知ることができるので、現在モード表示202における電子ペン1の位置のバー表示221のバーの高さを、電子ペン1の入力面203Sからの離間距離に応じたものとするように表示することもできる。
図6(A)は、電子ペン1がデジタイザ203の位置検出領域DT内に存在していて、電子ペン1により、直方体のオブジェクトOBJが描画されたときの表示画面を示している。
図6(B)は、図6(A)の状態から、使用者により電子ペン1がデジタイザ203の位置検出領域DT外に移動され、例えば図6(B)において矢印ARで示すように、直方体のオブジェクトOBJを回転させるようなジェスチャー操作をした場合の表示画像例を示している。
図6は、デジタイザ203の位置検出領域DTでの描画及び空間位置検出装置部204の動き検出空間領域MDでの描画は、一例であって、ジェスチャー操作による描画には、オブジェクトの移動や、圧力を加えたり、一部を引っ張って伸ばしたりしてオブジェクトを変形させるような描画処理を行うこともできる。
なお、電子ペン1には、入力面203Sに接触しているときにペン先に印加される筆圧を検出する筆圧検出回路が設けられており、この筆圧検出回路の検出結果の情報が、タブレット装置2に、伝達されるように構成されている。そして、電子ペン1による精細な描画操作は、入力面203Sに接触している状態でなされることが多い。そこで、タブレット装置2では、電子ペン1から受信する筆圧検出結果の情報に基づいて、電子ペン1が入力面203Sに接触している状態と、非接触であるホバー状態とを区別して、表示画面201Dには、それを操作者に伝達するように、例えば「接触状態」、「ホバー状態」などの文字表示をするようにしてもよい。
なお、タブレット装置2は、例えばコンピューターからなる制御回路200を備え、この制御回路200による制御に基づいて、上述した各回路の動作を行う。なお、空間位置座標補正回路206、ジェスチャー検出回路208、離間距離検出回路210、選択制御信号生成回路211、描画処理回路212の各処理は、制御回路200が、ソフトウェアプログラムにより実行するソフトウェア機能部として構成することもできる。
補正情報メモリ207には、行列式の成分a11〜a33を、タブレット装置2の工場出荷前に記憶させておくようにすることもできる。しかし、この実施形態では、各タブレット装置2毎の誤差をも含めて補正することができるように、使用者が、補正情報生成格納処理をタブレット装置2に実行させることで、タブレット装置2を起動させる前に、補正情報(行列式の成分a11〜a33)を補正情報メモリ207に格納するようにすることができる。
図2に示した補正情報生成回路209は、そのための処理部であり、制御回路200からの制御に基づいて補正情報生成処理を実行する。この補正情報生成回路209は、制御回路200が備える、補正情報生成格納処理ためのアプリケーションとして設けることもできる。
タブレット装置2の最初の起動時に、制御回路200により、補正情報生成回路209が動作するように制御される。そして、制御回路200により、使用者に、空間位置検出装置部204と、デジタイザ203とで共通となるデジタイザ203の位置検出領域DTにおいて、少なくとも3点を電子ペン1により位置指示するように促される。使用者が、それに応じて3点以上を位置指示すると、前述したように、その3点以上について、デジタイザ203の検出座標情報と、空間位置検出装置部204の検出座標情報とが、補正情報生成回路209に取り込まれる。
そして、補正情報生成回路209では、取り込んだ3点以上の座標情報を用いて、前述したようにして、行列式の成分a11〜a33を算出し、補正情報メモリ207に格納する。
なお、以上の補正情報生成回路209による行列式の成分a11〜a33の算出、及び補正情報メモリ207への格納処理は、使用者により行わせるのではなく、使用者に販売する前に予め設定しても勿論よい。
以上のように構成されているので、この実施形態のタブレット装置2は、電子ペン1がデジタイザ203の入力面203Sに接触、あるいはホバー状態であるときには、デジタイザ203は、電子ペン1の指示位置を検出して、線画による精細な描画を行い、電子ペン1が、入力面230Sからの離間距離Lzよりも離れた状態にあるときには、空間位置検出装置部204での空間位置検出に切り替えて、電子ペン1の動き(ジェスチャー)検出を行って、検出された動き(ジェスチャー)に応じた操作を行う。
したがって、操作者は、デジタイザ203と、空間位置検出装置部204との切り替えを意識することなく、電子ペン1をタブレット装置2上において空間的に移動するだけで、シームレスに、精細描画からジェスチャーによる操作をすることができる。
そして、この実施形態のタブレット装置2においては、デジタイザ203の座標出力を空間位置検出装置部204の空間座標系の値に変換するようにしているので、空間座標系が切り替わったときにも、電子ペン1の位置検出に応じて表示画面に表示されるカーソル位置が、ジャンプしてしまうという不具合を抑えることができる。
また、タブレット装置2の表示部201の表示画面201Dには、電子ペン1の入力面203Sからの離間距離に応じて、デジタイザ203により電子ペン1の指示位置が検出されている状態か、空間位置検出装置部204で電子ペン1の空間位置が検出されている状態かが表示されるので、電子ペン1の操作者は、当該時点での電子ペン1の空間位置においては、どのような操作をするべきかを的確に把握することができる。
[第1の実施形態の変形例]
<変形例1>
なお、以上の第1の実施形態の説明では、デジタイザ203では、電子ペン1からの受信信号の信号レベルに基づいて、電子ペン1の入力面203Sからの離間距離を求め、その求めた離間距離からスイッチ回路205の切替信号を生成するようにした。しかし、電子ペン1の入力面203Sからの離間距離の算出方法は、上述の例に限られるものではない。
例えば、電子ペン1で、タブレット装置2のデジタイザ203のセンサ部2031からの信号を受信したときに、その受信信号の信号レベルを検出して、その信号レベルの情報を、タブレット装置2に送信するようにすることもできる。図7は、そのように構成した場合の電子ペン1Aと、タブレット装置2Aの要部の構成例を示す図である。
この例では、電子ペン1Aは、タブレット装置2Aのデジタイザ203のセンサ部2031からの受信信号の信号レベルを検出する受信信号レベル検出回路101を備えると共に、例えばブルートゥース(登録商標)規格の無線通信を行う無線通信部102を備える。そして、電子ペン1Aは、受信信号レベル検出回路101で検出したセンサ部2031からの受信信号の信号レベルの情報を、無線通信部102を通じてタブレット装置2Aに送信する。
タブレット装置2Aは、無線通信部102と無線通信を行うためのブルートゥース(登録商標)規格の無線通信部221を備えると共に、図2の例における離間距離検出回路210及び切替信号生成回路211に代えて、離間距離検出回路222及び選択制御信号生成回路223を備える。離間距離検出回路222は、この例では、無線通信部221で受信した電子ペン1Aからの信号レベルの情報に基づいて、電子ペン1Aのデジタイザ203の入力面203Sからの離間距離を検出し、その検出した離間距離の情報を選択制御信号生成回路223に供給する。
選択制御信号生成回路223は、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離が、距離Lz以下のときには、デジタイザ203の検出出力を選択し、距離Lzよりも大きいときには、ジェスチャー検出回路208の検出出力を選択するように制御する選択制御信号SEaを生成し、生成した切替制御信号SEaにより選択回路205を切り替え制御する。
タブレット装置2Aのその他の部分の構成は、図2に示したものと同様である。
この図7の例の構成によれば、デジタイザ203のセンサ部2031から電子ペン1Aに送信される信号の電波強度は、タブレット装置2が電子ペン1から受信する信号の電波強度よりも大きい。このため、タブレット装置2Aの離間距離検出回路222及び切替信号生成回路223では、図2の構成のタブレット装置2の場合よりも、より的確に、切り替えポイントの離間距離Lzの位置を検出することが可能となる。
<変形例2>
また、上述の例では、デジタイザ203のセンサ部2031と、電子ペン1あるいは電子ペン1Aとの間の信号の受信レベルに基づいて、電子ペン1あるいは電子ペン1Aのデジタイザ203の入力面203Sからの離間距離を検出するようにした。しかし、空間位置検出装置部204で位置検出された電子ペン1のペン先位置から、選択回路205の選択制御信号を生成するようにすることもできる。
図8は、そのように構成された場合のタブレット装置2Bの要部の構成例を示す図である。すなわち、この例のタブレット装置2Bでは、図2の例における離間距離検出回路210及び切替信号生成回路211に代えて、図8に示すように、離間距離検出回路224及び切替信号生成回路225を備える。この例では、離間距離検出回路224には、空間位置座標補正回路206の位置座標出力が供給される。離間距離検出回路224は、空間位置座標補正回路206の位置座標出力から、電子ペン1の空間位置を検出し、そのZ座標から、デジタイザ203の入力面203Sからの電子ペン1Aの離間距離を検出し、その検出出力を選択制御信号生成回路225に供給する。
選択制御信号生成回路225は、電子ペン1のペン先のデジタイザ203の入力面203Sからの離間距離が、距離Lz以下のときには、デジタイザ203の検出出力を選択し、距離Lzよりも大きいときには、ジェスチャー検出回路208の検出出力を選択するように制御する選択制御信号SEbを生成し、生成した切替制御信号SEbにより選択回路205を制御する。
タブレット装置2Aのその他の部分の構成は、図2に示したものと同様である。
<変形例3>
以上の実施形態の説明では、ジェスチャーは、空間位置検出装置部204で検出された電子ペン1の位置の変化のみにより検出するようにした。しかし、電子ペンに、当該電子ペンの動きを検出する動き検出センサを設けて、その動き検出センサの検出出力をも、タブレット装置に送り、タブレット装置では、その動き検出センサの検出出力をも参照することで、より精細なジェスチャー操作を描画に反映することが可能となる。
図9は、そのように構成した場合の電子ペン1Cとタブレット装置2Cの要部の構成例を示す図である。この図9の例においては、電子ペン1Cは、図7の変形例と同様の無線通信部102を備えると共に、自身の動き検出センサとして、9軸センサ103を備える。9軸センサ103は、周知のように、3軸ジャイロセンサと、3軸加速度センサと、3軸地磁気センサとを組み合わせたもので、電子ペン1Cの動きについて、9軸のセンサ出力を送出する。
電子ペン1Cは、この9軸センサ103で検出した自身の動きについての9軸のセンサ出力を、無線通信部102を通じてタブレット装置2Cに送信する。
タブレット装置2Cは、図7の変形例と同様の無線通信部221を備えると共に、ペン動き検出回路226を備える。そして、タブレット装置2Cでは、無線通信部221で、電子ペン1Cから受信した9軸のセンサ出力を、ペン動き検出回路226に供給する。ペン動き検出回路226では、9軸のセンサ出力を解析して、電子ペン1Cの動きを検出し、その検出出力をジェスチャー検出回路208´に供給する。ジェスチャー検出回路208´は、空間位置座標補正回路206からの空間位置座標の変化に加えて、ペン動き検出回路226からの電子ペン1Cの動き検出出力を参照して、電子ペン1Cの操作者によりなされたジェスチャーを検出する。
タブレット装置2Cのその他の部分の構成は、図2に示したものと同様である。
この図9の例によれば、タブレット装置2Cでは、電子ペン1Cの操作者によるジェスチャーを、精緻に検出することが可能となり、従来よりも精緻な動きのジェスチャーを描画に反映できるという効果がある。
なお、以上の例では、タブレット装置2Cは、ジェスチャーを検出する場合に、電子ぺ1Cから受信した9軸センサ103で検出された当該電子ペン1Cの動き検出出力を用いるようにしたが、デジタイザ203で電子ペン1Cにより指示された位置を検出する場合にも用いるようにしてもよい。例えば、ペン動き検出出力から電子ペン1Cの傾きを検知することができるので、その傾きの検知結果を参照しながら、電子ペン1Cによる指示位置を検出するようにすることができる。また、電子ペン1Cの傾きを、線画の太さに反映したりすることもできる。
同様の考えから、タブレット装置2やタブレット装置2A〜2Cにおいて、デジタイザ203で電子ペン1Cにより指示された位置を検出する場合に、空間位置検出装置部204での位置検出結果から、電子ペン1、電子ペン1A、電子ペン1B及び電子ペン1Cの傾きを検出して、それを参照しながら、電子ペン1Cによる指示位置を検出するようにすることもできる。
なお、タブレット装置2Cのペン動き検出回路226の動き検出出力は、ジェスチャーや電子ペンによる指示位置の検出のためにのみ用いるのではなく、それ自身を、描画に独立に反映させるようにすることもできる。また、タブレット装置では、描画操作のみではなく、その他の入力操作として検出すようにしてもよいことは言うまでもない。
<変形例4>
上述の実施形態では、デジタイザ203の空間座標系と、空間位置検出装置部204の空間座標系との間で、電子ペンの位置検出結果に誤差が生じる恐れがあることを考慮して、例えば表示画面201D上でカーソルの表示位置が、両座標系を切り替えたときにジャンプしてしまうような変化を生じないように、空間位置検出装置部204の空間座標系の座標出力を、デジタイザ203の空間座標系の座標出力に変換するようにした。
しかし、このような補正をせずに、両座標系を切り替えたときに、カーソル位置が異なるときには、切り替え前の空間座標系のカーソル位置から、切り替え後の空間座標系のカーソル位置に徐々に位置を変化するようにカーソルを表示することにより、カーソル位置の切り替え時の変化を目立たなくすることができる。
すなわち、例えば図10に示すように、表示画面201Dに空間座標系の切り替え前には、実線のカーソルCSのように表示されているときに、空間座標系の切り替え後のカーソル位置が、破線のカーソルCS´のようにジャンプしてしまう場合に、実線のカーソルCSの位置から、破線のカーソルCS´の位置に徐々に表示位置を変えるようにする。そのためには、実線のカーソルCSの座標位置情報Paと、破線のカーソルCS´の座標位置情報Pbとから、徐々に変化するカーソルの位置座標Pcを算出するようにする。
すなわち、以下に示す数式2として算出する。
Figure 0006373537
(数式2)において、k1及びk2は、重み付け係数である。すなわち、カーソルの位置座標Pcが、実線のカーソルCSの座標位置情報Paである切り替えの時点から重み付け係数k1の値は、「1」から徐々に小さくなるように変化し、一方、重み付け係数k2の値は、「0」から徐々に大きくなるように変化する。
そして、カーソルCSの位置が破線のカーソルCS´の位置に至る時点までは徐々に小さくなって「0」となるように変化し、重み付け係数k2の値は、徐々に大きくなって「1」となるように変化するようにされる。
これにより、カーソルCSからカーソルCS´のように表示位置が変化しても、その変化が目立たなくなる。
なお、k1及びk2は、時間tにより変化する変数k1(t)、k2(t)であってもよい。この場合、カーソルの位置座標Pcが、実線のカーソルCSの座標位置情報Paである切り替えの時点から重み付け係数k1(t)の値は、「1」から徐々に小さくなるように変化し、一方、重み付け係数k2(t)の値は、「0」から徐々に大きくなるように変化させることができる。
<変形例5>
以上の説明では、電子ペンの位置が、デジタイザ203の入力面203Sからの離間距離がLzを超える状態になった時には、デジタイザ203による電子ペンの指示位置の検出から、空間位置検出装置部204による電子ペンの空間位置検出に、即座に切り替えるようにした。しかし、場合によっては、操作者が、電子ペンを、タブレット装置のデジタイザ203の入力面203Sから、Lz以上の離間距離の位置に移動しても、その状態は、描画におけるジェスチャー入力のためでない場合もある。
したがって、空間位置検出装置部204による電子ペンの空間位置検出は、デジタイザ203の入力面203Sからの離間距離がLzを超える状態になった時に即座に、開始するのではなく、さらに所定の開始トリガが発生したときに、開始するようにしてもよい。その場合の所定の開始トリガとしては、例えば電子ペンに、操作者が操作可能に設けられているサイドスイッチを操作者が操作したときに、そのサイドスイッチの操作情報を、無線通信部102を通じてタブレット装置に送るようにすることが一例として挙げられる。
なお、電子ペンの位置(ペン先の位置)を、デジタイザの入力面から離れた位置に移動する場合だけでなく、デジタイザの入力面からの離れた空間位置から、デジタイザの入力面との距離がLz以内となるように移動する場合にも、同様に、例えばサイドスイッチなどの利用者の操作情報に応じて、空間位置検出装置部の空間座標系から、デジタイザの空間座標系に切り替えるようにしてもよい。
また、電子ペンが9軸センサを搭載している場合には、所定の開始トリガの動きとして予め定められた電子ペンの動きを9軸センサで検出し、その検出結果を無線通信部102を通じてタブレット装置に送信するようにしてもよい。また、タブレット装置の空間位置検出装置部204で電子ペンの動きに基づくジェスチャーは検出するようにしておき、所定の開始トリガの動きとして予め定められた電子ペンの動きに基づくジェスチャーを検出したときに、描画処理の対象となるジェスチャーを検出する処理動作を開始するようにしてもよい。
また、電子ペンが備える9軸センサで検出した電子ペンの動きにより、空間位置検出装置部の空間座標系と、デジタイザの空間座標系との切り替えを行うようにしてもよい。
<その他の変形例>
上述の実施形態では、タブレット装置は、表示部を備える構成としたが、表示部は、タブレット装置とは別個にして、無線あるいは有線で、タブレット装置と、表示部とを接続するように構成してもよい。その場合には、タブレット装置のデジタイザ203の入力面203Sは、表示部の表示画面の表面ではなく、デジタイザ203のセンサ部2031の上面となることは言うまでもない。また、空間位置検出装置部204が配置される部材はデジタイザ203に限られるものではなく、デジタイザ203とは別体の表示部やその他の部材に設けられてもよい。
また、上述の実施形態の空間位置指示システムは、タブレット装置と電子ペンとからあるシステムの構成として、タブレット装置が、デジタイザと、空間位置検出装置部と、描画情報生成部との全てを備える構成とした。しかし、デジタイザ203と、空間位置検出装置部204以外の部分を、例えばパーソナルコンピューターで構成するようにして、デジタイザの機能のみを有するタブレット装置と、空間位置検出装置部とを、パーソナルコンピューターに接続することで、空間位置指示システムの構成とするようにしてもよい。
なお、上述の実施形態では、2つの空間座標系での誤差を補正するために、デジタイザ203の空間座標系の座標値を空間位置検出装置部204の座標値に変換するようにしたが、逆に、空間位置検出装置部204の座標値をデジタイザ203の検出領域DTの座標値に変換するようにしてもよい。
また、上述の例では、タブレット装置2がタブレットモードの状態か、スペースモードの状態かを、現在モード表示220によって表示画面201Dに表示して、操作者に報知するようにした。しかし、現在モード表示220は、図6に示すようなバー表示に限られるものではないことは言うまでもない。また、現在モードを、タブレット装置2が備えるスピーカから音声で放音するように構成してもよい。
[第2の実施形態]
この発明による空間位置指示システムは、表示部をヘッドマウントディスプレイの構成として、3D描画空間をバーチャルリアリティー(VR(Virtual Reality)、MR(Mixed Reality)、AR(Augmented Reality)などを含む。以下、VRと略称する)の空間とすることもできる。図11は、VRの空間を3D描画空間とした第2の実施形態の空間位置指示システムの全体の構成の概要を示す図である。
すなわち、図11に示すように、この第2の実施形態の空間位置指示システムは、電子ペン10と、デジタイザ20と、空間位置検出用ユニット30と、空間描画情報生成装置40と、ヘッドマウントディスプレイ(以下、HMDと称する)50とを備えて構成されている。
電子ペン10は、第1の実施形態の電子ペン1と同様に、この第2の実施形態においても、電磁誘導方式の電子ペンを例に用いるが、本実施形態はこれに限定されない。デジタイザ20は、第1の実施形態のタブレット装置2の筐体と同様の薄型の直方体形状の筐体21を備え、その表面を入力面21Sとしている。そして、デジタイザ20は、第1の実施形態のデジタイザ203と同様の構成を備え、センサ部22と、位置検出回路23とを備える。そして、デジタイザ20は、第1の実施形態のデジタイザ203の位置検出領域DT(図3の位置検出領域DT参照)と同様に、入力面21Sの領域のみならず、当該入力面21の上方の空間領域であるホバー領域を含む位置検出領域(以下、第1の実施形態のデジタイザ203の位置検出領域DTと区別するために位置検出領域DT´(不図示)と称する)を備える。このデジタイザ20において、位置検出領域DT´において検出された電子ペン10の位置情報は、空間描画情報生成装置40に供給される。
空間位置検出用ユニット30は、電子ペン10の操作者の動きを検出する動き検出対象空間領域を設定するもので、2個の発光追跡装置31A,31Bと、複数個の光位置通知部(以下、トラッカーと称する)32A,32B,32C,32Dとを含んで構成されている。なお、この第2の実施形態では、後述するように、HMD50には、動き検出対象空間領域で描画された3D描画画像が、仮想表示画像として表示される。以下、この第2の実施形態における動き検出対象空間領域を、動き検出対象空間領域MDvと記す。
2個の発光追跡装置31A,31Bは、同一の構成を有するもので、それぞれ赤外線レーザ光のレーザ発光部と、発光した赤外線レーザ光により動き検出対象空間領域MDv内をサーチするようにするサーチ手段と、赤外線レーザ光を受けたトラッカー32A,32B,32C,32Dの発光部の発光を検知する光位置検知手段とを備える。
トラッカー32A,32B,32C,32Dは、発光追跡装置31A,31Bからの赤外線レーザ光を検知する受光センサと、受光センサで赤外線レーザ光の受光を検知したときに、発光追跡装置31A,31Bのそれを通知するための、例えばLED(Light Emitting Diode)からなる発光部とを備えている。この例では、トラッカー32A,32B,32C,32Dには、いずれの方向からのレーザ光も受光することができるように複数個の受光センサが設けられていると共に、動きや方向(向き)を検出するための例えば9軸センサも設けられている。トラッカー32A,32B,32C,32Dは、動き検出対象空間領域MDv内での位置を検出する対象となるオブジェクトに取り付けられる。そして、トラッカー32A,32B,32C,32Dのそれぞれから、受光センサの受光出力や9軸センサの出力が、有線で、または無線で、あるいは、取り付けられているオブジェクト経由で、空間描画情報生成装置40に供給されている。
発光追跡装置31A,31Bは、サーチ手段によりレーザ発光部を制御して、赤外線レーザ光を、トラッカー位置を検出するように動き検出対象空間領域MDv内を探索走査させるように出射して、サーチする。トラッカー32A,32B,32C,32Dのそれぞれは、赤外線レーザ光の受光を、センサで監視し、センサで赤外線レーザ光の受光を検出したときに、LEDからなる発光部を点灯する。発光追跡装置31A,31Bは、トラッカー32A,32B,32C,32Dの発光部の発光を検知することで、当該トラッカー32A,32B,32C,32Dが装着されているオブジェクトの動き検出対象空間領域MDv内における位置を検出する。発光追跡装置31A,31Bは、トラッカー32A,32B,32C,32Dの発光部の発光を検知したときに、当該検知した時点の、発光した赤外線レーザの発光時刻からの経過時刻をも検知することができるように構成されている。
2個の発光追跡装置31A,31Bは、空間描画情報生成装置40に対して、有線で、あるいは、無線で接続されており、空間描画情報生成装置40に対して、検知したトラッカーの動き検出対象空間領域MDvにおける空間位置情報を通知する。
トラッカー32A,32B,32C,32Dが装着されるオブジェクトは、この実施形態では、電子ペン10と、デジタイザ20とに加えて、この例では、図11に示すように、操作者が装着する専用の手袋用ユニット(グローブユニット)60でとされており、それぞれにトラッカーが取り付けられている。すなわち、この例では、デジタイザ20の位置を通知することができるようにするために、薄型の直方体形状であるデジタイザ20の筐体の左上隅と右下隅とに、トラッカー32Aとトラッカー32Bとが装着されている。また、電子ペン10の位置を通知及び電子ペン10の動きを通知するために、電子ペン10には、トラッカー32Cが装着されている。さらに、グローブユニット60には、操作者の手の位置を通知及び手の動きを通知するために、トラッカー32Dが装着されている。
空間描画情報生成装置40は、例えばパーソナルコンピューターで構成されるもので、空間描画情報生成のためのプログラムにより処理が実行されるものである。この空間描画情報生成装置40は、電子ペン10による指示位置が、デジタイザ20の位置検出領域DTから空間位置検出ユニット30の動き検出対象空間領域MDに移動したとき、あるいは動き検出対象空間領域MDから位置検出領域DTに移動したときに、電子ペン10の指示位置の座標値をシームレスに取り扱えるように切り替える処理をする。また、その切り替えに伴い、電子ペン10の指示位置の座標値の変換処理を行ってもよい。この空間描画情報生成装置40における主要な処理機能の概要を図12を用いて説明する。
図12(A)は、デジタイザ20の位置検出領域DTの外側の動き検出対象空間領域MDから、デジタイザ20の位置検出領域DT内に、電子ペン10のペン先の位置が移動する場合を例示的に示す図である。空間位置検出ユニット30は、電子ペン10のペン先の位置を、空間位置検出ユニット30の3次元座標空間(Xv,Yv,Zv)における位置座標Av1、Av2、Av3、・・・、AvNというように検出し、空間描画情報生成装置40に供給する。
そして、電子ペン10のペン先位置がデジタイザ20の位置検出領域DT内にある位置Av2,Av3については、デジタイザ20でも、図12(B)に示すように、デジタイザ20の3次元座標空間(X,Y,Z)における位置座標At2、At3、・・・というように、電子ペン10のペン先位置を検出し、空間描画情報生成装置40に供給する。
空間描画情報生成装置40では、図12(C)に示すように、電子ペン10のペン先の位置情報Aoutとしては、デジタイザ20の位置検出領域DTになったときに、空間位置検出ユニット30で検出された位置情報から、デジタイザ20で検出された位置情報に切り替えて、出力するようにする。
そして、空間描画情報生成装置40では、この例では、空間位置検出ユニット30で検出した電子ペン10のペン先の位置座標Av1、AV2、Av3、・・・は、上述した第1の実施形態と同様に、デジタイザ20と共通に取り扱えるように変換した座標f(Av1)、f(AV2)、f(Av3)、・・・、f(AvN)とする(fは、動き検出対象空間領域MDから位置検出領域DTへの写像を表す)。
ここで、座標の変換処理は、前述と同様に、Xv軸、Yv軸、Zv軸のそれぞれの方向と、X軸、Y軸、Z軸のそれぞれの方向とが同一方向であれば、デジタイザ20の位置検出領域DTの空間座標系と動き検出空間領域MDの空間座標系とは、両空間座標系の原点位置の差分を考慮したオフセット値を用いることでできる。また、X軸、Y軸、Z軸のそれぞれの方向と、Xv軸、Yv軸、Zv軸のそれぞれの方向とが異なる場合には、上述の第1の実施形態と同様に、例えば、数式1で示した行列式などを用いて、線形変換を行うことで、座標の変換ができる。
図12の場合には、電子ペン10のペン先が移動したときの空間描画情報生成装置40における電子ペン10のペン先の位置情報出力Aoutとしては、f(Av1)、f(AV2)、f(Av3)、・・・、f(AvN)を用いることが出来る。位置座標Av2、Av3では、デジタイザ20で検出された位置情報を用いればよく、それぞれAt2、At3となる。
従って、電子ペン10のペン先の位置情報出力Aoutは、
Aout=f(Av1),At2,At3,・・・
のように表される。
したがって、空間描画情報生成装置40では、電子ペン10のペン先の移動軌跡が、デジタイザ20で電子ペン10のペン先位置を検出可能な位置検出領域DT内と、空間位置検出ユニット30のみでペン先位置を検出可能となる位置検出領域DTの外側の領域とに跨る場合にも、電子ペン10のペン先位置をシームレスに取り扱える。
図13に、この第2の実施形態における空間描画情報生成装置40で実行される処理機能を、機能ブロックの構成として示した構成例を示す。なお、図13においては、各機能ブロックは、便宜上、「回路」と称することとした。
空間描画情報生成装置40では、デジタイザ20の位置検出回路23からの電子ペン10による指示位置の検出出力は、選択回路401に、その一方の入力として供給される。
そして、空間位置検出用ユニット30の2個の発光追跡装置31A及び31Bからの、各トラッカー32A〜32Dの空間位置情報は、空間描画情報生成装置40の空間位置検出回路402に供給される。また、図示は省略するが、前述したように、トラッカー32A,32B,32C,32Dのそれぞれからの受光センサの受光出力や9軸センサの出力も、この空間位置検出回路402に供給される。空間位置検出回路402は、これらの情報から、トラッカー32A,32B,32C,32Dがどの方向を向いているかも検出する。電子ペン10には、トラッカー32Cがペン先位置とは特定の方向関係及び位置関係の状態で取り付けられているので、空間位置検出回路402は、検出したトラッカー32Cの位置と方向から電子ペン10のペン先位置を検出する。
空間位置検出回路402は、空間位置検出用ユニット30によりトラッカー32A〜32Dの位置を検出することが可能な空間領域として、3座標軸(この例においても、便宜上、Xs,Ys,Zsとする)の空間領域を動き検出対象空間領域MDvとしており、2個の発光追跡装置31A及び31Bからの、各トラッカー32A〜32Dの空間位置情報から、デジタイザ20、電子ペン10及びグローブユニット60の、3軸Xs,Ys,Zsの空間位置座標を検出する。
したがって、この第2の実施形態の空間位置指示システムにおいては、空間位置検出用ユニット30の動き検出対象空間領域MDv内に、デジタイザ20の位置検出領域DT´の全体が含まれていることになる。この実施形態では、デジタイザ20は、動き検出対象空間領域MDv内に、位置が固定されて設置される。つまり、デジタイザ20の位置検出領域DT´は、空間位置検出回路402における動き検出対象空間領域MDv内に、固定領域として含まれる。すなわち、空間位置検出回路402の動き検出対象空間領域MDvは、デジタイザ20の位置検出領域DT´を共通領域として含むものである。
もしも、デジタイザ20に取り付けられるトラッカー32A及び32Bの取り付け位置が正確なものであれば、デジタイザ20の位置検出領域DTの座標系(X,Y,Z)と、空間位置検出回路402の動き検出空間領域MD´の座標系(Xs,Ys,Zs)とは、原点位置のオフセットを調整すればよい。
しかし、この実施形態では、デジタイザ20の位置検出領域DT´の座標系(X,Y,Z)と、空間位置検出回路402の動き検出対象空間領域MDvの座標系(Xs,Ys,Zs)との間で、精度上の誤差が生じる恐れがあることを考慮して、空間位置検出回路402は、第1の実施形態で説明した空間位置座標補正回路206の機能を備える。そして、この第2の実施形態においても、第1の実施形態の補正情報メモリ207と同様にして求めた、図5に示した行列式の成分a11〜a33を記憶する補正情報メモリ403を設ける。
そして、空間位置検出回路402は、補正情報メモリ403からの行列式の成分a11〜a33を用いて、(数式1)の行列式の演算を行って、トラッカー32A〜32Dの空間位置座標出力を、ジェスチャー検出回路404に供給する。
ジェスチャー検出回路404は、空間位置検出回路402からの座標出力に基づいて、電子ペン10の動き(ジェスチャー)や、グローブユニット60の動きを検出し、その検出出力を選択回路401の他方の入力信号として供給する。
そして、この第2の実施形態においては、第1の実施形態と同様にして、デジタイザ20の位置検出回路23は、電子ペン10からの受信信号の信号レベルの情報を、空間描画情報生成装置40の離間距離検出回路405に供給する。離間距離検出回路405は、電子ペン10からの受信信号の信号レベルから、電子ペン10のペン先のデジタイザ20の入力面21Sからの離間距離を検出する。そして、離間距離検出回路405は、検出した離間距離の情報を選択制御信号生成回路406に供給する。
選択制御信号生成回路406は、電子ペン10のペン先のデジタイザ20の入力面21Sからの離間距離が、前述したホバー状態の検出が可能な距離Lz以下のときには、選択回路401をデジタイザ20の位置検出回路23の検出出力を選択するように制御し、距離Lzよりも大きいときには、選択回路401をジェスチャー検出回路404の検出出力を選択するように制御する選択制御信号SE´を生成し、生成した切替制御信号SE´により選択回路401を制御する。選択制御信号生成回路406は、また、切替制御信号SE´を、描画情報生成回路407に供給する。
選択回路401は、一方の入力または他方の入力の一方を、選択制御信号SW´に応じて選択して、描画情報生成回路407に供給する。
描画情報生成回路407は、動き検出対象空間領域MDv内で、電子ペン10の操作者による描画のための電子ペン10に対する操作に応じた描画情報を生成する。この第2の実施形態では、電子ペン10の操作者による描画のための電子ペン10に対する操作としては、デジタイザ20の位置検出領域DT´内に電子ペン10を位置させて、当該電子ペン10により指示位置入力をする操作と、動き検出対象空間領域MDv内のデジタイザ20の位置検出領域DT´外に電子ペン1を位置させて、電子ペン1を動かして描画のためのジェスチャーをする操作とを含む。
そして、デジタイザ20の位置検出領域DT´内に電子ペン10が位置しているときには、離間距離検出回路405によりそれが検出され、その検出出力に基づいて選択制御信号生成回路406は、選択回路401をデジタイザ20の位置検出回路23の検出出力を選択するように制御する選択制御信号SE´を生成する。したがって、選択回路401を通じてデジタイザ20の位置検出回路23からの電子ペン10による指示位置検出出力が、描画情報生成回路407に供給される。
描画情報生成回路407は、受け取った電子ペン10による指示位置検出出力を線画入力として描画処理して、精細な3D描画画像の生成を行う。
また、動き検出対象空間領域MDv内のデジタイザ20の位置検出領域DT´外に電子ペン1が位置しているときには、離間距離検出回路405によりそれが検出され、その検出出力に基づいて切替信号生成回路406は、選択回路401をジェスチャー検出回路404の検出出力を選択するように制御する選択制御信号SE´を生成する。したがって、選択回路401を通じてジェスチャー検出回路404からの電子ペン10やグローブユニット60の動き検出出力に基づくジェスチャー情報が、描画情報生成回路407に供給される。
描画情報生成回路407は、受け取ったジェスチャー情報に基づく3D描画処理を行う。すなわち、ジェスチャー検出回路404で検出された電子ペン10の動きや操作者が装着しているグローブユニット60の動きに応じて描画処理を行う。
この場合に、描画情報生成回路407は、選択回路401の選択制御信号SE´に応じて、電子ペン10による指示位置検出出力を線画入力として描画処理するのか、ジェスチャー情報に基づく描画処理を行うのかを判断するようにするものである。
以上のようにして描画情報生成回路407により生成された描画画像情報は、表示ドライブ回路408を通じてHMD50に供給されて、例えばLCDからなる表示画像に、仮想画像として表示される。
したがって、操作者は、デジタイザ20での位置検出と、空間位置検出用ユニット30での位置検出(動き検出)との切り替えを意識することなく、電子ペン10を空間的に移動するだけで、シームレスに、精細描画からジェスチャーによる描画をすることができるという顕著な効果を奏する。
この場合に、この第2の実施形態においては、描画情報生成回路407は、HMD50に表示する仮想空間画像の発生部を備えており、この仮想空間画像上に、電子ペン10の操作者による描画画像を描画することができる。そして、この仮想空間画像に含まれる仮想物の動き検出対象空間領域MDv内における位置を予め定めておくことができる。そして、描画情報生成回路407は、ジェスチャー検出回路404からのジェスチャー情報により、仮想空間画像に含まれる仮想物に対して操作者がグローブユニット60で触れる操作したときには、それを検知することが可能である。そして、描画情報生成回路407は、仮想空間画像に含まれる仮想物に対して操作者がグローブユニット60で触れる操作したときには、その検知出力を触感生起情報発生部409に出力する。
触感生起情報発生部409は、描画情報生成回路407から、仮想空間画像に含まれる仮想物に対する操作者の触れる操作の検出出力を受け取った時には、触感を生起させる触感生起情報をグローブユニット60に供給する。グローブユニット60は、この触感生起情報に基づいて振動するなどの触感生起装置を備えており、当該触感生起装置が駆動されて、操作者に仮想物に仮想的に触れたことを通知させるようにする。
なお、HMD50の表示画面には、電子ペン10のデジタイザ20の入力面21Sからの離間距離に応じて、デジタイザ20により電子ペン10の指示位置が検出されている状態か、空間位置検出用ユニット30で電子ペン10の空間位置が検出されている状態かが表示されるように、描画情報生成回路407は、出力する描画画像情報を生成する。したがって、電子ペン1の操作者は、現時点での電子ペン10の空間位置においては、どのような描画操作をするべきかを的確に把握することができる。
なお、この第2の実施形態においても、上述した第1の実施形態の変形例が適用可能である。変形例2は、第2の実施形態では、空間位置検出装置部204の代わりに、空間位置検出用ユニット30及び空間位置検出回路402が用いられるのは、言うまでもない。
[第2の実施形態の変形例]
上述の第2の実施形態においては、空間位置検出用ユニット30は、赤外線レーザ光の発光する発光追跡装置と、トラッカーとを備える構成としたが、この構成に限られるものではないことは言うまでもない。例えば、その他の非可視光センサ、可視光線センサ又はこれらの組み合わせを用いた構成としてもよい。また、空間位置検出用ユニット30は、デジタイザ203から放出される電磁波の周波数を高くすることにより、臨界高さ位置を高くして電子ペン1の空間位置を検出する構成としてもよい。すなわち、空間位置検出用ユニット30は、通常は、第1の周波数でデジタイザ203の入力面及びホバー領域で電子ペン1の位置を検出し、第1の周波数よりも高い第2の周波数に切り替えて、第1の周波数における第1の臨界高さ位置よりも高い第2の臨界高さ位置における電子ペン1の空間位置を検出すればよい。
また、電子ペンにバッテリーを設けると共に電波の送受信手段を設けておいて、電子ペンに対して外部から電波を送信し、当該電子ペンからの電波を受信することで電子ペンの空間位置を用いる構成としてもよい。また、磁気共鳴を用いるもの、電波を用いるもの、超音波を用いるもの等であってもよい。また、1台または複数台のカメラで空間位置を検出する対象物(電子ペンやタブレット)を撮影し、その撮影画像を用いて対象物の空間位置を検出ものであってもよい。
なお、上述の第2の実施形態においては、HMD50を装着しているので、電子ペン10の操作者は、デジタイザ20は、直接的には見ることができない。そこで、HMD50に表示する仮想空間画像に、デジタイザ20の仮想画像を描画して、HMD50の表示画面で、操作者がデジタイザ20の位置を認識するように構成することもできる。また、HMDを、AR(拡張現実)対応のものとして、デジタイザ20を直接的に見ることができるように構成しても勿論よい。また、グローブユニット60と電子ペン10とはそれぞれ別々に構成されていたが、グローブユニット60と電子ペン10とが合体した構成であってもよい。
また、3次元画像を表示する手段としては、HMDに限られるものではなく、グラス(メガネ)、3Dディスプレイ、コンタクトレンズ、AI(Aerial Imaging)プレート、さらには、ホログラム技術等を用いるようにしてもよい。また、デジタイザ20に、例えばLCDなどのディスプレイを設け、そのディスプレイにおいて、3D表示をするようにしてもよい。これらの表示手段は、HMDと共に用いて、HMDの装着者以外の者がHMDに表示されている描画画像を観視するためのものとするようにしてもよい。
なお、座標の変換は、第2の実施形態では、空間位置検出ユニット30で検出した電子ペンのペン先の座標値をデジタイザ20における座標系の座標値に変換するようにしたが、逆に、デジタイザ20で検出した電子ペンのペン先の座標値を空間位置検出ユニット30における座標系の座標値に変換するようにしてもよい。
また、上述の例では、デジタイザ20のセンサ部22と、電子ペン10との間の信号の受信レベルに基づいて、電子ペン10のペン先位置のデジタイザ20の入力面からの離間距離を検出するようにしたが、電子ペン10のペン先位置とデジタイザ20の入力面との離間距離を検出する方法は、これに限られるものではない。
例えば、この第2の実施形態において、空間位置検出ユニット30では、電子ペンのペン先位置と、デジタイザ20の入力面の位置とを検出することができるので、検出された電子ペン10のペン先位置とデジタイザ20の入力面の位置から、電子ペン10のペン先位置とデジタイザ20の入力面との離間距離を検出して、選択回路401の選択制御信号を生成するようにしてもよい。
[その他の実施形態又は変形例]
なお、上述の実施形態の説明では、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´の外側の空間領域においては、電子ペンの動きに基づくジェスチャーを検出するようにしたが、前記外側の空間領域においても、電子ペンの動きではなく、電子ペンのペン先の動きに基づく電子ペンによる指示位置を検出するようにすることもできる。
なお、上述の実施形態では、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動すると、描画処理回路212や描画情報生成回路407は、即座に、動き検出空間領域MDあるいは動き検出対象空間領域MDvにおける動き検出に基づくジェスチャーに応じた描画処理を実行するようにした。しかし、操作者は、かならずしも、描画のためのジェスチャーを行うために、電子ペンを、デジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動するとは限らず、単に描画操作入力の休止のために、そのように移動させる場合もある。
このことを考慮して、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動したときには、更なる所定のトリガ事象が検出されたときに、描画処理回路212や描画情報生成回路407は、動き検出空間領域MDあるいは動き検出対象空間領域MDvにおける動き検出に基づくジェスチャーに応じた描画処理を実行するように構成することもできる。
なお、その場合には、選択回路205や選択回路401は、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動したときに選択制御してもよいし、更なるトリガ事象が検出されたときに、選択制御するようにしてもよい。なお、電子ペンの位置が、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内に、その外側の空間領域から移動したときには、即座にデジタイザ203やデジタイザ20による電子ペン1の位置検出をするのは勿論である。
すなわち、例えば、操作者が、電子ペンの位置を、指示位置検出装置部の例としてのデジタイザの位置検出領域DT又はDT´内から、その外側の空間領域に移動させると共に、所定のトリガ事象として、電子ペンに搭載されているサイドスイッチを更に操作者が操作したときにのみ、描画処理回路212や描画情報生成回路407は、動き検出空間領域MDあるいは動き検出対象空間領域MDvにおける動き検出に基づくジェスチャーに応じた描画処理を実行するように構成する。
所定のトリガ事象としては、サイドスイッチの操作に限られるものではない。例えば、電子ペンの操作者の特定のジェスチャーでもよい。あるいは、操作者の音声指示でもよい。音声指示を所定のトリガ事象とする場合には、第1の実施形態においては、タブレット装置2にマイクロフォンを設け、また、第2の実施形態では、空間描画情報生成装置にマイクロフォンを設け、そのマイクフォンで収音した音声を音声認識して、操作者の特定のトリガ事象であるか否かを判定するように構成する。あるいは、電子ペンにマイクロフォンを設け、収音した音声情報を、電子ペンが搭載している無線通信部を通じて送出し、タブレット装置2や空間描画情報生成装置に搭載している無線通信部で受信し、音声認識するように構成してもよい。
上述の第1の実施形態及び第2の実施形態では、電子ペン及びデジタイザは、電磁誘導方式のものを用いるようにしたが、これに限られるものではなく、静電方式(アクティブ静電結合方式、パッシブ静電結合方式を含む)の電子ペンとデジタイザを用いることも、勿論できる。
また、第1の実施形態のタブレット装置2や、第2の実施形態のデジタイザは、いわゆるスマートフォンと呼ばれる携帯型携帯電話端末であってもよいし、また、デジタイザ付のパーソナルコンピューターであってもよい。
なお、以上の説明では、空間位置指示システムにより3D描画をする場合について説明したが、この発明の対象とする描画画像は、2D描画画像や2.5D描画画像であってもよい。
1,1A,1C,10…電子ペン、2…タブレット装置、20…デジタイザ、30…空間位置検出用ユニット、40…空間描画情報生成装置、50…ヘッドマウントディスプレイ、201…LCD、202…タブレット装置2の筐体、203…デジタイザ、204…空間位置検出装置部、205,401…選択回路、206…空間位置座標補正回路、207…補正情報メモリ、208,404…ジェスチャー検出回路、210,405…離間距離検出回路、211,406…選択制御信号生成回路、213…描画処理回路、407…描画情報生成回路

Claims (13)

  1. 電子ペンによる指示入力を受けるための入力面及び前記入力面の上方のホバー領域の少なくとも一方における前記電子ペンの第1の位置を検出する指示位置検出装置部と、
    前記ホバー領域の少なくとも一部を含む空間領域における前記電子ペンの第2の位置を検出する空間位置検出装置部と、
    前記電子ペンの前記入力面からの離間距離に応じて、前記指示入力として前記第1の位置を用いるか前記第2の位置を用いるかを選択する選択部と、
    前記第1の位置の検出座標を前記空間位置検出装置部における座標系の座標値に変換する変換部と、
    を備えることを特徴とする空間位置指示システム。
  2. 電子ペンによる指示入力を受けるための入力面及び前記入力面の上方のホバー領域の少なくとも一方における前記電子ペンの第1の位置を検出する指示位置検出装置部と、
    前記ホバー領域の少なくとも一部を含む空間領域における前記電子ペンの第2の位置を検出する空間位置検出装置部と、
    前記電子ペンの前記入力面からの離間距離に応じて、前記指示入力として前記第1の位置を用いるか前記第2の位置を用いるかを選択する選択部と、
    前記第2の位置の検出座標を前記指示位置検出装置部における座標系の座標値に変換する変換部と、
    を備えることを特徴とする空間位置指示システム。
  3. 前記指示位置検出装置部が前記電子ペンから受信する信号レベルに基づいて前記離間距離を検出する離間距離検出部を更に備える
    ことを特徴とする請求項1又は請求項2に記載の空間位置指示システム。
  4. 前記空間位置検出装置部による前記電子ペンの前記空間位置検出出力に基づいて前記離間距離を検出する離間距離検出部を更に備える
    ことを特徴とする請求項1又は請求項2に記載の空間位置指示システム。
  5. 前記指示位置検出装置部が前記電子ペンから受信する信号レベル及び前記空間位置検出装置部による前記電子ペンの前記空間位置検出出力に基づいて前記離間距離を検出する離間距離検出部を更に備える
    ことを特徴とする請求項1又は請求項2に記載の空間位置指示システム。
  6. 前記指示位置検出装置部からの前記電子ペンによる指示位置検出出力と、前記空間位置検出装置からの空間位置検出出力とに基づいて、表示部に表示する描画画像を制御する描画画像制御部を更に備える
    ことを特徴とする請求項1乃至請求項のいずれかに記載の空間位置指示システム。
  7. 前記描画画像制御部は、前記指示位置検出装置部が選択されているか前記空間位置検出装置部が選択されているかを視覚的に前記表示部に示す
    ことを特徴とする請求項に記載の空間位置指示システム。
  8. 前記電子ペンは、
    動きを検出する動きセンサと、
    前記動きセンサで検出した前記電子ペンの動きの情報を、前記描画画像制御部に送る送信手段と、
    を含むことを特徴とする請求項1又は請求項2に記載の空間位置指示システム。
  9. 前記空間位置検出装置部は、前記第2の位置を、前記電子ペンに装着された空間位置検出用部材を介して検出するものである
    ことを特徴とする請求項1乃至請求項のいずれかに記載の空間位置指示システム。
  10. 前記空間位置検出装置部は、前記第2の位置を、前記指示位置検出装置部に装着された空間位置検出用部材を介して検出するものである
    ことを特徴とする請求項1乃至請求項のいずれかに記載の空間位置指示システム。
  11. 前記表示部は、ヘッドマウントディスプレイである
    ことを特徴とする請求項1乃至請求項10のいずれかに記載の空間位置指示システム。
  12. 前記描画画像制御部は、前記描画画像を仮想現実画像として生成し、前記ヘッドマウントディスプレイに前記仮想現実画像が表示される
    ことを特徴とする請求項11に記載の空間位置指示システム。
  13. 前記選択部は、更に、トリガ事象が検出されたときに、前記指示入力として前記第1の位置を用いるか前記第2の位置を用いるかを選択制御する
    ことを特徴とする請求項1乃至請求項12のいずれかに記載の空間位置指示システム。
JP2018520198A 2017-09-04 2018-03-08 空間位置指示システム Active JP6373537B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018132770A JP7441600B2 (ja) 2017-09-04 2018-07-13 空間位置指示システム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017169679 2017-09-04
JP2017169679 2017-09-04
PCT/JP2018/008894 WO2019044003A1 (ja) 2017-09-04 2018-03-08 空間位置指示システム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018132770A Division JP7441600B2 (ja) 2017-09-04 2018-07-13 空間位置指示システム

Publications (2)

Publication Number Publication Date
JP6373537B1 true JP6373537B1 (ja) 2018-08-15
JPWO2019044003A1 JPWO2019044003A1 (ja) 2019-11-07

Family

ID=63165949

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018520198A Active JP6373537B1 (ja) 2017-09-04 2018-03-08 空間位置指示システム

Country Status (2)

Country Link
US (1) US20230205416A1 (ja)
JP (1) JP6373537B1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021117446A1 (ja) * 2019-12-13 2021-06-17
JP2022522491A (ja) * 2019-03-01 2022-04-19 華為技術有限公司 ジェスチャ処理方法およびデバイス

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280205A (ja) * 2003-03-13 2004-10-07 Minolta Co Ltd 入力装置
JP2006126936A (ja) * 2004-10-26 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2008129907A (ja) * 2006-11-22 2008-06-05 Konica Minolta Holdings Inc 情報処理システム
JP2010026565A (ja) * 2008-07-15 2010-02-04 Seiko Epson Corp 表示装置及びプログラム
JP2013168187A (ja) * 2010-11-22 2013-08-29 Kenji Yoshida 情報入力システム、媒体
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2016045588A (ja) * 2014-08-20 2016-04-04 キヤノン株式会社 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
JP2016048453A (ja) * 2014-08-27 2016-04-07 シャープ株式会社 タッチパネルシステム及びタッチパネル装置
JP2016206791A (ja) * 2015-04-17 2016-12-08 株式会社ジャパンディスプレイ 表示装置およびタッチ検出装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004280205A (ja) * 2003-03-13 2004-10-07 Minolta Co Ltd 入力装置
JP2006126936A (ja) * 2004-10-26 2006-05-18 Canon Inc 画像処理方法、画像処理装置
JP2008129907A (ja) * 2006-11-22 2008-06-05 Konica Minolta Holdings Inc 情報処理システム
JP2010026565A (ja) * 2008-07-15 2010-02-04 Seiko Epson Corp 表示装置及びプログラム
JP2013168187A (ja) * 2010-11-22 2013-08-29 Kenji Yoshida 情報入力システム、媒体
JP2013175113A (ja) * 2012-02-27 2013-09-05 Casio Comput Co Ltd 情報処理装置、情報処理方法及びプログラム
JP2016045588A (ja) * 2014-08-20 2016-04-04 キヤノン株式会社 データ処理装置、データ処理システム、データ処理装置の制御方法、並びにプログラム
JP2016048453A (ja) * 2014-08-27 2016-04-07 シャープ株式会社 タッチパネルシステム及びタッチパネル装置
JP2016206791A (ja) * 2015-04-17 2016-12-08 株式会社ジャパンディスプレイ 表示装置およびタッチ検出装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022522491A (ja) * 2019-03-01 2022-04-19 華為技術有限公司 ジェスチャ処理方法およびデバイス
JP7391102B2 (ja) 2019-03-01 2023-12-04 華為技術有限公司 ジェスチャ処理方法およびデバイス
JPWO2021117446A1 (ja) * 2019-12-13 2021-06-17
WO2021117446A1 (ja) * 2019-12-13 2021-06-17 アルプスアルパイン株式会社 入力装置
JP7365429B2 (ja) 2019-12-13 2023-10-19 アルプスアルパイン株式会社 入力装置
US11954312B2 (en) 2019-12-13 2024-04-09 Alps Alpine Co., Ltd. Input device adapted to receive a touch input and a hover input

Also Published As

Publication number Publication date
US20230205416A1 (en) 2023-06-29
JPWO2019044003A1 (ja) 2019-11-07

Similar Documents

Publication Publication Date Title
JP7441600B2 (ja) 空間位置指示システム
US11934592B2 (en) Three-dimensional position indicator and three-dimensional position detection system including grip part orthogonal to electronic pen casing
KR102021135B1 (ko) 가상 현실 환경에서의 내비게이션을 위한 제어 시스템
JP7386152B2 (ja) 入力システム及び入力方法
US20230205416A1 (en) Spatial position indication system
JP2013125247A (ja) ヘッドマウントディスプレイ及び情報表示装置
JP5561092B2 (ja) 入力装置、入力制御システム、情報処理方法及びプログラム
CN108027987B (zh) 信息处理方法、信息处理装置及信息处理系统
US20190094996A1 (en) Systems and related methods for facilitating pen input in a virtual reality environment
KR20170076544A (ko) 전자 장치 및 그 제어 방법
WO2017222858A1 (en) Integrated free space and surface input device
CN113448343B (zh) 用于设定飞行器的目标飞行路径的方法、系统和可读介质
US20220004299A1 (en) Systems and methods for dynamic shape sketching
US11620044B2 (en) Mobile terminal
KR20170110442A (ko) 증강현실 기능을 구비한 제어용 컴퓨터 장치 및 그 제어방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180427

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180427

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180427

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180515

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180717

R150 Certificate of patent or registration of utility model

Ref document number: 6373537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250