JP2023531303A - 誇張されたコンテンツを用いた動的なスケッチのためのシステム及び方法 - Google Patents

誇張されたコンテンツを用いた動的なスケッチのためのシステム及び方法 Download PDF

Info

Publication number
JP2023531303A
JP2023531303A JP2022580859A JP2022580859A JP2023531303A JP 2023531303 A JP2023531303 A JP 2023531303A JP 2022580859 A JP2022580859 A JP 2022580859A JP 2022580859 A JP2022580859 A JP 2022580859A JP 2023531303 A JP2023531303 A JP 2023531303A
Authority
JP
Japan
Prior art keywords
position indicator
signals indicative
input gesture
switch
spatial positions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022580859A
Other languages
English (en)
Inventor
ソサニャ オルワセユイ
パレデス フェンテス ダニエラ
トーマス ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wacom Co Ltd
Original Assignee
Wacom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wacom Co Ltd filed Critical Wacom Co Ltd
Publication of JP2023531303A publication Critical patent/JP2023531303A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • G06F3/0325Detection arrangements using opto-electronic means using a plurality of light emitters or reflectors or a plurality of detectors forming a reference frame from which to derive the orientation of the object, e.g. by triangulation or on the basis of reference deformation in the picked up image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2016Rotation, translation, scaling

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

システムは、位置指示器の位置を示し、かつ物理オブジェクトの表面を示す信号を受信する。システムは、位置指示器の位置及び物理オブジェクトの表面を示す信号に基づいて、物理オブジェクトの表面の一部分の記述を取得する。システムはまた、位置指示器の位置を示す信号に基づいて、位置指示器が物理オブジェクトの表面の一部分上または一部分の上方にあるかどうかを判定する。位置指示器が物理オブジェクトの表面の一部分上または一部分の上方にあると判定することに応答して、システムは、位置指示器の位置を示す信号に基づいて、入力ジェスチャに対応する座標を取得及び記憶する。したがって、位置指示器を、任意の物理表面上または物理表面の上方に配置しながら入力デバイスとして使用することができる。

Description

本開示は、デジタルデータで表される多次元オブジェクトのディメンジョンを指定することに関し、より具体的には、入力面を使用してそのような多次元オブジェクトの形状を動的にスケッチするためのシステム及び方法に関する。
ソフトウェアアプリケーションは、タブレットコンピュータのユーザが、例えば、タブレットコンピュータのタッチ画面デバイス上で入力操作を実行することによって、デジタルデータで表される多次元オブジェクトをスケッチするか、または他の方法で多次元オブジェクトのディメンジョンを指定することを可能にした。しかしながら、タッチ画面デバイスの入力面よりも大きいオブジェクトをスケッチすることは困難であり得る。
したがって、ユーザがデジタルデータで表される相対的に大きいオブジェクトの形状、向き、寸法などを指定することを可能にするために、入力ジェスチャを誇張または強調するシステム及び方法を提供することが望ましい。さらに、任意のサイズを有する任意の物理表面を、デジタルデータで表される多次元オブジェクトの形状、向き、寸法などを指定するための入力面として使用することを可能にするシステム及び方法を提供することが望ましい。
米国特許出願公開第2012/0206452号 米国特許第9,939,931号 米国特許第9,964,395号 米国特許第9,600,096号 米国付与前公開第2016/0343174号
本開示は、ユーザが、任意のサイズを有する任意の物理表面を使用してデジタルデータで表される多次元オブジェクトの形状、向き、寸法などを指定することを可能にするシステム及び方法を教示する。さらに、本開示は、ユーザが、誇張されたユーザ入力ジェスチャを使用してデジタルデータで表される、相対的に大きい多次元オブジェクトの形状、向き、寸法などを指定することを可能にするシステム及び方法を教示する。
本開示の第1の実施形態による方法は、3次元空間における位置指示器の複数の空間位置を示す1つ以上の信号を受信することと、前記3次元空間における物理オブジェクトの表面を示す1つ以上の信号を受信することと、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号と、前記物理オブジェクトの前記表面を示す前記1つ以上の信号とに基づいて、前記物理オブジェクトの前記表面の一部分の記述を取得することと、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあるかどうかを判定することと、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあると判定することに応答して、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、入力ジェスチャに対応する座標を取得することと、前記入力ジェスチャに対応する前記座標を記憶することとを含むものとして概要され得る。
方法は、前記位置指示器の仮想表現を、前記物理オブジェクトの前記表面の前記一部分の仮想表現とともに表示することをさらに含んでもよい。
方法は、前記位置指示器のスイッチの複数の位置を示す1つ以上の信号を受信することと、前記位置指示器の前記スイッチの前記複数の位置を示す前記1つ以上の信号に基づいて、前記位置指示器の前記スイッチが第1の位置にあるかどうかを判定することとをさらに含んでもよく、前記入力ジェスチャに対応する前記座標を取得することは、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあると判定することに応答したものであり、かつ前記位置指示器の前記スイッチが前記第1の位置にあると判定することに応答したものであってもよい。
前記物理オブジェクトの前記表面の前記一部分に対応する座標を第1の座標系から第2の座標系に変換することであって、前記第1の座標系は、前記第2の座標系とは異なる、変換することをさらに含んでもよい。
前記位置指示器は、複数の参照タグを含んでもよく、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記参照タグの複数の位置を示す。前記参照タグの各々は、前記参照タグ上に形成された視覚的に識別可能なパターンを含んでもよく、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記参照タグの複数の画像に対応する画像データを含んでもよい。前記参照タグの各々は発光してもよく、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記参照タグの複数の画像に対応する画像データを含んでもよい。
本開示の第1の実施形態による方法は、3次元空間における位置指示器の複数の空間位置を示す1つ以上の信号を受信することと、倍率を示す1つ以上の信号を取得することと、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、前記3次元空間における入力ジェスチャに対応する座標を取得することと、前記倍率を示す前記1つ以上の信号に基づいて、前記入力ジェスチャに対応する前記座標をスケーリングすることと、前記入力ジェスチャに対応する前記座標の前記スケーリングに基づいて、前記入力ジェスチャの仮想表現を表示することとを含むものとして概要され得る。
方法は、前記倍率を表示することをさらに含んでもよい。
方法は、前記位置指示器の一部に加えられた圧力を示す信号を受信することであって、前記倍率は、前記位置指示器の前記一部に加えられた前記圧力を示す前記信号に基づく、受信することをさらに含んでもよい。
方法は、前記位置指示器の加速度を示す信号を受信することであって、前記倍率は、前記位置指示器の前記加速度を示す前記信号に基づく、受信することをさらに含んでもよい。
方法は、前記位置指示器のスイッチの複数の位置を示す1つ以上の信号を受信することと、前記位置指示器の前記スイッチの前記複数の位置を示す前記1つ以上の信号に基づいて、前記位置指示器の前記スイッチが第1の位置にあるかどうかを判定することとをさらに含んでもよく、前記入力ジェスチャに対応する前記座標を取得することは、前記位置指示器の前記スイッチが前記第1の位置にあると判定することに応答したものである。
前記位置指示器の前記スイッチの前記複数の位置を示す前記1つ以上の信号に基づいて、前記位置指示器の前記スイッチが第2の位置にあるかどうかを判定することをさらに含んでもよく、前記入力ジェスチャに対応する前記座標を取得することは、前記位置指示器の前記スイッチが前記第2の位置にあると判定することに応答して終了する。
前記位置指示器は、複数の参照タグを含んでもよく、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記参照タグの複数の位置を示す。前記参照タグの各々は、前記参照タグ上に形成された視覚的に識別可能なパターンを含んでもよく、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記参照タグの複数の画像に対応する画像データを含んでもよい。前記参照タグの各々は発光してもよく、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記参照タグの複数の画像に対応する画像データを含んでもよい。
本開示の第3の実施形態によるシステムは、動作時に、3次元空間における位置指示器の複数の空間位置を示す1つ以上の信号と、前記3次元空間における物理オブジェクトの表面を示す1つ以上の信号とを受信する、1つ以上のレシーバと、前記1つ以上のレシーバに結合された1つ以上のプロセッサと、前記1つ以上のプロセッサに結合された1つ以上のメモリデバイスとを備え、前記1つ以上のメモリデバイスは、命令を記憶しており、前記命令は、前記1つ以上のプロセッサによって実行されると、前記システムに、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号と、前記物理オブジェクトの前記表面を示す前記1つ以上の信号とに基づいて、前記物理オブジェクトの前記表面の一部分の記述を取得させ、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあるかどうかを判定させ、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあると判定することに応答して、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、入力ジェスチャに対応する座標を取得させ、前記入力ジェスチャに対応する前記座標を記憶させるものとして概要され得る。
前記1つ以上のメモリデバイスは、前記1つ以上のプロセッサによって実行されると、前記システムに、前記位置指示器の仮想表現を、前記物理オブジェクトの前記表面の前記一部分の仮想表現とともに表示させる命令を記憶してもよい。
前記1つ以上のメモリデバイスは、前記1つ以上のプロセッサによって実行されると、前記システムに、倍率の指示を取得させ、前記倍率と前記入力ジェスチャに対応する前記座標とに基づいて、スケーリングされた入力ジェスチャに対応する座標を取得させる命令を記憶してもよい。前記1つ以上のメモリデバイスは、前記1つ以上のプロセッサによって実行されると、システムに、前記スケーリングされた入力ジェスチャの仮想表現を表示させる命令を記憶してもよい。
図1は、本開示の1つ以上の実施形態による、可視化システムのブロック図を示す。 図2は、本開示の1つ以上の実施形態による、入力デバイスとして使用される位置指示器のブロック図を示す。 図3は、本開示の1つ以上の実施形態による、図2に示す位置指示器を介して入力を受信する処理デバイスのブロック図を示す。 図4は、本開示の1つ以上の実施形態による、図1に示す可視化システムによって実行され得る方法のフローチャートを示す。 図5Aは、本開示の1つ以上の実施形態による、図1に示す可視化システムによって実行され得る方法のフローチャートを示す。 図5Bは、本開示の1つ以上の実施形態による、図1に示す可視化システムによって実行され得る方法のフローチャートを示す。 図6Aは、本開示の1つ以上の実施形態による、図1に示す可視化システムの動作を説明するための図である。 図6Bは、本開示の1つ以上の実施形態による、図1に示す可視化システムの動作を説明するための図である。 図6Cは、本開示の1つ以上の実施形態による、図1に示す可視化システムの動作を説明するための図である。 図6Dは、本開示の1つ以上の実施形態による、図1に示す可視化システムの動作を説明するための図である。 図7は、本開示の1つ以上の実施形態による、図1に示す可視化システムによって実行され得る方法のフローチャートを示す。 図8Aは、本開示の1つ以上の実施形態による、図1に示す可視化システムの動作を説明するための図である。 図8Bは、本開示の1つ以上の実施形態による、図1に示す可視化システムの動作を説明するための図である。
図1は、本開示の1つ以上の実施形態による、可視化システム100のブロック図を示す。可視化システム100は、位置指示器102、処理デバイス104、複数の追跡デバイス106a及び106b、可視化デバイス108、並びにセンサ109を含む。図示された実施形態では、位置指示器102は、一端に開口部112が形成された中空の筐体110を含むが、位置指示器102の筐体は、他の異なる形態を有していてもよい。1つ以上の実施形態において、筐体110は、概して円筒状の形状を有する。筐体110は、本開示の範囲を逸脱することなく他の形状を有していてもよい。芯体114の先端部は、開口部112を通って筐体110から突出している。1つ以上の実施形態において、芯体114は、位置指示器の一部(例えば、芯体114の先端部)に加えられた圧力に対応する圧力を圧力検出器118に伝える棒状部材であり、圧力検出器118については、図2を参照して以下に記載する。1つ以上の実施形態において、芯体114は、導電材料で形成されている。1つ以上の実施形態において、芯体114は、非導電性であり、樹脂から形成されている。
これに代えて、またはこれに組み合わせて、1つ以上の実施形態において、開口部112は、筐体110の側面に形成されており、芯体114が開口部112を通って延在することによって、ユーザの指が、処理デバイス104に入力を与えるために、芯体に圧力を加えることを可能にする。図2を参照して以下に説明するように、位置指示器102は、処理デバイス104に、芯体114の先端部に加えられた圧力の量を示す信号を送信する。位置指示器102は、処理デバイス104の入力デバイスとして使用できる。
処理デバイス104は、例えばガラスなどの透明材料から形成された、入力面116を含む。1つ以上の実施形態において、処理デバイス104は、タブレットコンピュータである。図3を参照して以下に説明するように、入力面116の下方には、位置指示器102の現在の位置を追跡するセンサ140と、ディスプレイデバイス138とが設けられていてもよい。処理デバイス104は、ユーザによる位置指示器102の操作に基づいて、可視化データを生成し、可視化データを可視化デバイス108に送信し、可視化デバイス108は、可視化データに基づく画像を表示する。加えて、または代わりに、処理デバイス104のディスプレイデバイス138が、可視化データに基づく画像を表示してもよい。
1つ以上の実施形態において、可視化デバイス108及びディスプレイデバイス138は、各々、処理デバイス104によって生成された可視化データの部分を処理し、同時に画像を表示する。1つ以上の実施形態において、可視化デバイス108及びディスプレイデバイス138は、異なる画面リフレッシュレートで動作する。したがって、より高い画面リフレッシュレートで動作しているデバイスの処理を、より低い画面リフレッシュレートで動作しているデバイスにオフロードすることが望ましい場合がある。例えば、可視化デバイス108は、90Hzの画面リフレッシュレートで動作することができ、ディスプレイデバイス138は、60Hzの画面リフレッシュレートで動作することができ、そのような場合に、可視化デバイス108による可視化データの処理の一部またはすべてをディスプレイデバイス138にオフロードすることが望ましい場合がある。こうして、処理デバイス104は、可視化デバイス108の処理負荷がディスプレイデバイス138にオフロードされるように、可視化データを分割してもよい。
1つ以上の実施形態において、処理デバイス104は、可視化デバイス108から、可視化デバイス108の現在の処理負荷を示す信号を受信し、処理デバイス104は、現在の処理負荷に基づいて、可視化デバイス108及びディスプレイデバイス138に送信される可視化データの量を動的に調整する。1つ以上の実施形態において、処理デバイス104は、可視化デバイス108の現在の処理負荷を推定し、推定される現在の処理負荷に基づいて、可視化デバイス108及びディスプレイデバイス138に送信される可視化データの量を動的に調整する。例えば、可視化デバイス108の、示されるまたは推定される現在の処理負荷が、所定の閾値以上である場合、処理デバイス104は、可視化デバイス108に送信される可視化データの量を減少させ、ディスプレイデバイス138に送信される可視化データの量を増加させる。加えて、または代わりに、処理デバイス104は、同様の方式でディスプレイデバイス138から可視化デバイス108に処理をオフロードしてもよい。
追跡デバイス106a及び106bは、位置指示器102、特に、いくつかの実施形態では、位置指示器102の芯体114の先端部、の位置及び/または向きを追跡する。追跡デバイス106a及び106bを、追跡デバイス106と総称する。図1に示す実施形態は2つの追跡デバイス106を含むが、可視化システム100は、本開示の範囲を逸脱することなく、異なる数の追跡デバイス106を含んでもよい。例えば、可視化システム100は、本開示による、3つ、4つ、またはそれよりも多い追跡デバイス106を含んでもよい。1つ以上の実施形態において、可視化システム100は、追跡デバイス106を全く含んでおらず、位置指示器102の芯体114の先端部の位置は、処理デバイス104のセンサ140のみを使用して追跡される。
1つ以上の実施形態において、追跡デバイス106は、位置指示器102の芯体114の先端部の位置及び/または向きを追跡するために、既知の光学モーション追跡技術を採用している。1つ以上の実施形態において、位置指示器102は、筐体110の外面上に取り付けられた光学マーカの形態をなす参照タグを有し、光学マーカは、光学的に検知できる、一意の、視覚的に識別可能な色またはパターンが各々の上に形成された、受動デバイスである。追跡デバイス106の各々は、光学マーカのうちの1つ以上の画像を取得して、対応する画像データを処理デバイス104に送信する、カメラを含んでもよい。処理デバイス104は、光学マーカの各々と位置指示器102の芯体114の先端部との間の空間的な関係を示すデータを記憶しており、既知の手法に従って画像データを処理することによって、位置指示器102の芯体114の先端部の現在の位置及び/または向きを判定する。1つ以上の実施形態において、光学マーカは、異なる波長を有する光を放出する発光デバイス(例えば、発光ダイオード)を各々が有する能動デバイスである。例えば、そのような光学マーカによって放出される光は、人間の目に見えない紫外光でもよい。1つ以上の実施形態において、追跡デバイス106は、Oculus VRから入手可能なOculus Riftシステムの一部である、Constellationセンサである。1つ以上の実施形態において、追跡デバイス106は、レーザ式追跡デバイスである。例えば、追跡デバイス106は、HTC Corporationから入手可能なHTC Viveシステムの一部である、SteamVRベースステーション2.0である。
可視化デバイス108は、処理デバイス104によって生成された可視化データを処理し、対応する画像を表示する。1つ以上の実施形態において、可視化デバイス108は、ヘッドマウントディスプレイデバイスである。1つ以上の実施形態において、可視化デバイス108は、HTC Corporationから入手可能なHTC Viveシステムの一部である、HTC Vive Pro仮想現実ヘッドセットである。1つ以上の実施形態において、可視化デバイス108は、Oculus VRから入手可能なOculus Riftシステムの一部である、Oculus Rift仮想現実ヘッドセットである。1つ以上の実施形態において、可視化デバイス108は、Microsoft Corporationから入手可能なHoloLens拡張現実ヘッドセットである。他のタイプのヘッドセット、とりわけ、例えば、Magic Leapヘッドセット及びMetaヘッドセットが使用されてもよい。
1つ以上の実施形態において、可視化デバイス108は、センサ109を含み、センサ109を使用して、センサ109の視野内の物理オブジェクトのロケーションを追跡する。例えば、可視化デバイス108はヘッドマウントディスプレイであり、センサ109は一対のカメラを含み、各カメラは、可視化デバイス108のユーザの一方の目の近くに位置し、その目と実質的に同じ視野を有する。加えて、可視化デバイス108は、カメラによって撮像された画像に対応する画像データを処理デバイス104に送信するトランスミッタを含み、処理デバイス104は、画像データを処理し、カメラによって撮像されたオブジェクトの座標を、例えば従来の画像処理手法を使用して決定する。例えば、1つ以上の実施形態において、処理デバイス104は、特許文献1に記載されたオブジェクト認識エンジン(例えば、段落87を参照)と同様の方式で構成されたオブジェクト認識ソフトウェアを含む。特許文献1は、参照によってその全体が本明細書に組み込まれる。あるいは、可視化デバイス108は、プロセッサ、及び命令を記憶したメモリを含み、命令は、プロセッサによって実行されると、可視化デバイス108に、カメラによって撮像されたオブジェクトの座標を決定させ、かつそれらの座標を処理デバイス104へ送信させる。
可視化システム100の概説を提供したところで、次に、位置指示器102について、本開示の1つ以上の実施形態による、位置指示器102のブロック図を示す図2を参照して、より詳細に記載する。位置指示器102は、動作時に、例えばユーザが処理デバイス104の入力面116に対して芯体114の先端部を押圧したときに、芯体114の先端部に加えられる圧力を検出する、圧力検出器118を含む。1つ以上の実施形態において、圧力検出器118は、特許文献2に記載された圧力検知コンポーネント(例えば、13欄、49行~22欄、13行を参照)と同様の方式で構成されている。特許文献2は、参照によってその全体が本明細書に組み込まれる。
1つ以上の実施形態において、位置指示器102は、動作時に複数の位置のうちの1つにあるスイッチ120を含む。ユーザは、処理デバイス104に入力を与えるために、スイッチ120を作動させて、スイッチ120の位置を変化させることができる。例えば、スイッチ120は、ユーザがスイッチ120を押下している間、「閉」または「オン」位置にあり、ユーザがスイッチ120を押下しない間、「開」または「オフ」位置にある。1つ以上の実施形態において、スイッチ120は、特許文献2に記載されたサイドスイッチ(例えば、11欄、24~49行を参照)と同様の方式で構成されている。1つ以上の実施形態において、位置指示器102は、コンピュータマウスの左ボタン及び右ボタンを操作することによって与えられる入力と同様の入力を与えるようにユーザが操作することができる、2つのスイッチ120を含む。
1つ以上の実施形態において、位置指示器102は、動作時に位置指示器102の加速度を示す信号を出力する加速度計122を含む。1つ以上の実施形態において、加速度計122は、微細加工された微小電気機械システム(MEMS)として構成されている。
位置指示器102はまた、圧力検出器118に結合されたトランスミッタ124を含み、トランスミッタ124は、動作時に、圧力検出器118によって検出された、芯体114の先端部に加えられた圧力を示す信号を送信する。1つ以上の実施形態において、トランスミッタ124は、Bluetooth通信規格のうちの1つ以上に従って動作する。1つ以上の実施形態において、トランスミッタ124は、IEEE802.11ファミリーの通信規格のうちの1つ以上に従って動作する。1つ以上の実施形態において、トランスミッタ124は、芯体114の先端部及び処理デバイス104のセンサ140を介して、信号を電磁誘導する。1つ以上の実施形態において、トランスミッタ124は、スイッチ120に結合されており、トランスミッタ124は、動作時に、スイッチ120の位置を示す信号を送信する。1つ以上の実施形態において、トランスミッタ124は、加速度計122に結合されており、トランスミッタ124は、動作時に、加速度計122によって検出された位置検出デバイス102の加速度を示す信号を送信する。
1つ以上の実施形態において、位置指示器102は、複数の参照タグ126a、126b、及び126cを含む。参照タグ126a、126b、及び126cを、本明細書では参照タグ126と総称する。参照タグ126は、追跡デバイス106によって追跡される。1つ以上の実施形態において、参照タグ126は、図1に関連して上述したように、位置指示器102の筐体110の外面に固設された受動光学マーカである。これに代えて、またはこれに加えて、1つ以上の実施形態において、参照タグ126は、追跡デバイス106によって検出される光または電波を能動的に放出する。図2に示す実施形態は3つの参照タグ126を含むが、位置指示器102は、異なる数の参照タグ126を含んでもよい。例えば、位置指示器102は、本開示による、4つ、5つ、6つ、またはそれよりも多い参照タグ126を含んでもよい。
位置指示器102についてより詳細に記載したところで、次に、処理デバイス104について、本開示の1つ以上の実施形態による、処理デバイス104のブロック図を示す図3を参照して、より詳細に記載する。処理デバイス104は、メモリ130及び中央処理装置(CPU)132を有するマイクロプロセッサ128、メモリ134、入力/出力(I/O)回路136、ディスプレイデバイス138、センサ140、トランスミッタ142、並びにレシーバ144を含む。
メモリ134は、プロセッサ実行可能命令を記憶しており、プロセッサ実行可能命令は、CPU132によって実行されると、処理デバイス104に、図4、5A、5B、及び7に関連して記載した処理デバイス104の動作を実行させる。CPU132は、命令を実行している間、メモリ130を作業メモリとして使用する。1つ以上の実施形態において、メモリ130は、1つ以上のランダムアクセスメモリ(RAM)モジュール、及び/または、例えば電気的消去可能プログラム可能読み取り専用メモリ(EEPROM)またはFlashメモリモジュールなどの、1つ以上の不揮発性ランダムアクセスメモリ(NVRAM)モジュールからなる。
1つ以上の実施形態において、I/O回路136は、処理デバイス104に対するコマンドを入力するための、ボタン、スイッチ、ダイアル、ノブ、マイクロフォン、または他のユーザインターフェース要素を含んでもよい。I/O回路136はまた、処理デバイス104からの情報または指示を出力するための、1つ以上のスピーカ、1つ以上の発光デバイス、または他のユーザインターフェース要素を含んでもよい。
ディスプレイデバイス138は、操作者に対して情報をグラフィック表示する。マイクロプロセッサ128は、ディスプレイデバイス138を制御して、処理デバイス104によって生成された可視化データに基づいて情報を表示させる。1つ以上の実施形態において、ディスプレイデバイス138は、液晶ディスプレイ(LCD)デバイスである。1つ以上の実施形態において、ディスプレイデバイス138は、適当なアイウェアを装着したユーザが、例えば3D対応テレビを介して3次元(3D)画像を見るのと同様のやり方で多次元画像を知覚することができるように、2つの画像を同時に表示する。
センサ140は、位置指示器102を検出し、センサ140の入力面(例えば、表面116)に対する位置指示器102の位置を示す信号を出力する。1つ以上の実施形態において、マイクロプロセッサ128は、センサ140から受信された信号を処理し、位置指示器102によって示される位置に対応するセンサ140の入力面上の(X,Y)座標を取得する。1つ以上の実施形態において、マイクロプロセッサ128は、センサ140から受信された信号を処理し、位置指示器102が位置するセンサ140の入力面の上方の高さ(例えば、Z座標)に加えて、位置指示器102によって示される位置に対応するセンサ140の入力面上の(X,Y)座標を取得する。1つ以上の実施形態において、センサ140は、特許文献3に記載された位置検出センサ(例えば、7欄、35行~10欄、27行を参照)と同様の方式で構成された誘導タイプのセンサである。特許文献3は、参照によってその全体が本明細書に組み込まれる。1つ以上の実施形態において、センサ140は、特許文献4に記載された位置検出センサ(例えば、6欄、5行~8欄、17行を参照)と同様の方式で構成された容量タイプのセンサである。特許文献4は、参照によってその全体が本明細書に組み込まれる。
トランスミッタ142は、マイクロプロセッサ128に結合されており、トランスミッタ142は、動作時に、マイクロプロセッサ128によって生成された可視化データを可視化デバイス108に送信する。例えば、1つ以上の実施形態において、トランスミッタ142は、Bluetooth及び/またはIEEE802.11ファミリーの通信規格のうちの1つ以上に従って動作する。レシーバ144は、マイクロプロセッサ128に結合されており、レシーバ144は、動作時に、追跡デバイス106及び可視化デバイス108から信号を受信する。例えば、1つ以上の実施形態において、レシーバ144は、Bluetooth及び/またはIEEE802.11ファミリーの通信規格のうちの1つ以上に従って動作する。1つ以上の実施形態において、レシーバ144は、位置指示器102から信号を受信する。1つ以上の実施形態において、レシーバ144は、センサ140に含まれ、電磁誘導によって、位置指示器102の芯体114の先端部から1つ以上の信号を受信する。
可視化システム100の構造について記載したところで、次に、可視化システム100によって実行される方法200の例について、本開示の1つ以上の実施形態による、方法200のフローチャートを示す図4に関連して記載する。方法200は、202において、例えば処理デバイス104の電源投入時に、始まる。
202において、3次元空間における位置指示器102の1つ以上の空間位置を示す1つ以上の信号が受信される。例えば、処理デバイス104のレシーバ144は、追跡デバイス106から1つ以上の信号を受信する。これに加えて、またはこの代わりに、マイクロプロセッサ128は、処理デバイス104のセンサ140から1つ以上の信号を受信する。次いで、方法200は、204に進む。
204において、位置指示器102のスイッチ120の位置を示す信号が受信される。例えば、処理デバイス104のレシーバ144は、位置指示器102のトランスミッタ124から、スイッチ120の位置を示す信号を受信する。次いで、方法200は、206に進む。
任意選択で、206において、位置指示器102の加速度を示す信号が受信される。例えば、処理デバイス104のレシーバ144は、位置指示器102のトランスミッタ124から、位置指示器102の加速度を示す信号を受信する。次いで、方法200は、208に進む。
208において、芯体114の先端部に加えられた圧力を示す信号が受信される。例えば、処理デバイス104のレシーバ144は、位置指示器102のトランスミッタ124から、芯体114の先端部に加えられた圧力を示す信号を受信する。これに加えて、またはこの代わりに、処理デバイス104のセンサ140は、電磁誘導によって、位置指示器102の芯体114の先端部から、芯体114の先端部に加えられた圧力を示す信号を受信する。次いで、方法200は、210に進む。
210において、可視化システム100のユーザの近傍に位置する1つ以上の物理オブジェクトを示す1つ以上の信号が受信される。1つ以上の実施形態において、処理デバイス104のレシーバ144は、可視化デバイス108のセンサ109から、ユーザの近傍の3次元空間に位置する1つ以上の物理オブジェクトを示す信号を受信する。例えば、レシーバ144は、センサ109の一対のカメラによって生成された画像データを受信し、マイクロプロセッサ128は、画像データを処理し、カメラによって撮像されたオブジェクトの外面に対応する座標群を取得する。次いで、方法200は、212に進む。
212において、202、204、206、208、及び210において受信された信号が処理される。1つ以上の実施形態において、それらの信号によって送信されたデータは、タイムスタンプを付与されて、処理デバイス104のメモリ130に記憶され、CPU132は、このデータを、データと関連付けられたタイムスタンプに基づいて、時系列順に処理する。図5A、5B、7に示すフローチャートに対応する処理が、以下で説明するように、212において実行されてもよい。次いで、方法200は、214に進む。
214において、終了処理命令が受信されたかどうかの判定が行われる。例えば、マイクロプロセッサ128は、位置指示器102を使用して、処理デバイス104のディスプレイデバイス138によって表示される所定のアイコンまたはオブジェクトを選択したかどうかを判定する。他の一例として、マイクロプロセッサ128は、214において、終了操作に対応する音声コマンドが受信されたかどうかを判定する。214において終了操作が受信されたという判定が行われた場合、方法200は、終了する。そうでない場合、方法200は、202に戻る。
図5A及び5Bは、本開示の1つ以上の実施形態による、上述した方法200の212において可視化システム100によって実行され得る方法300のフローチャートを示す。方法300は、302において、マイクロプロセッサ128が、入力面を定義するための命令が受信されたと判定することに応答して、始まる。例えば、マイクロプロセッサ128は、位置指示器102を使用して、処理デバイス104のディスプレイデバイス138によって表示される所定のアイコンまたはオブジェクトを選択したと判定する。他の一例として、方法300は、302において、マイクロプロセッサ128が、入力面を定義するための命令に対応する音声コマンドが受信されたと判定することに応答して、始まる。
302において、入力面の記述が、取得される。1つ以上の実施形態において、マイクロプロセッサ128は、上述した方法200の202において受信された位置指示器102の1つ以上の空間位置を示す1つ以上の信号を使用して、入力面として使用されることとなる表面の輪郭または境界の座標群を決定する。例えば、マイクロプロセッサ128は、位置指示器102の1つ以上の空間位置を示す1つ以上の信号を使用して、可視化デバイス108によって使用される基準ロケーション(例えば、座標系の原点)を基準とする「ローカル」座標系における、入力面に対応する領域の輪郭を取得する。次いで、方法300は、304に進む。
304において、入力面が、仮想面として仮想環境に固定される。入力面が仮想面として仮想環境に固定されると、仮想面は、可視化デバイス108を装着したユーザが異なる物理ロケーションに移動しても、仮想環境に対して静止したままである。1つ以上の実施形態において、可視化システム100は、特許文献5に記載されたもの(例えば、段落[0074]を参照)と同様の位置検出部を含み、処理デバイス104は、特許文献5の図5に示され、かつ段落[0074]~[0099]に記載された方法を実行することによって、仮想面を表示する。特許文献5は、参照によってその全体が本明細書に組み込まれる。
1つ以上の実施形態において、マイクロプロセッサ128は、上述した方法200の210において受信された可視化システム100のユーザの近傍に位置する1つ以上の物理オブジェクトを示す1つ以上の信号を使用して、仮想環境において物理オブジェクトのモデルを構築する。例えば、マイクロプロセッサ128は、上述した方法300の302において取得された入力面を記述する座標群を、可視化デバイス108の位置によって使用される基準ロケーションを基準とする「ローカル」座標系から、可視化システム100のユーザの近傍の物理ロケーションに対応する仮想基準ロケーションを使用する仮想環境に対応する「グローバル」座標系に、変換または他の方法で変えて、変換された座標群を使用して、可視化システム100のユーザの近傍の物理表面を分割または境界付けする。言い換えると、マイクロプロセッサ128は、302において取得された入力面の記述(例えば、輪郭)上及び/または内にある物理表面の座標群を、境界付けされた物理表面に対応する仮想入力面に割り当てる。次いで、方法300は、306に進む。
306において、304において取得された仮想入力面を記述するデータが送信される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、トランスミッタ142に、仮想入力面を記述するデータを可視化デバイス108に送信させる。1つ以上の実施形態において、マイクロプロセッサ128は、仮想入力面を記述するデータを処理デバイス104のディスプレイデバイス138に送信する。次いで、方法300は、308に進む。
308において、仮想入力面を記述するデータがレンダリングされ、仮想入力面が表示される。1つ以上の実施形態において、可視化デバイス108は、2次元画像のレンダリングを実行して、仮想入力面の3次元(3D)表現を取得する。1つ以上の実施形態において、マイクロプロセッサ128は、処理デバイス104のディスプレイデバイス138に、可視化データをレンダリングさせ、仮想入力面を表示させる。次いで、方法300は、310に進む。
310において、位置指示器102が入力面上または入力面の上方に位置するかどうかの判定が行われる。1つ以上の実施形態において、マイクロプロセッサ128は、上述した方法200の202において受信された位置指示器102の1つ以上の空間位置を示す1つ以上の信号を使用して、位置指示器102が入力面上または入力面の上方に位置するかどうかを判定する。位置指示器102が入力面上または入力面の上方に位置するとの判定が行われた場合、方法300は、312に進む。そうでない場合、方法300は、308に戻る。
312において、位置指示器102のスイッチが押下されたかどうかの判定が行われる。例えば、マイクロプロセッサ128は、上述した方法200の204において受信されたスイッチ120の位置を示す信号に基づいて、位置指示器102のスイッチ120が「オン」位置または「閉」位置にあるかどうかを判定する。位置指示器102のスイッチ120が「オン」位置または「閉」位置にあるとの判定が行われた場合、方法300は、314に進む。そうでない場合、方法300は、308に戻る。
314において、入力ジェスチャに対応する座標群が取得される。1つ以上の実施形態において、マイクロプロセッサ128は、位置指示器102が入力面上または入力面の上方に配置されている状態で上述した方法200の202において受信された位置指示器102の1つ以上の空間位置を示す1つ以上の信号を使用して、入力ジェスチャに対応する座標群を取得する。次いで、方法300は、316に進む。
316において、入力ジェスチャに対応する変換された座標群を取得するために、入力ジェスチャに対応する座標群が変換される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、314において取得された入力ジェスチャを記述する座標群を、仮想環境に対応する「グローバル」座標系から、可視化デバイス108によって使用される基準位置を基準とする「ローカル」座標系に、変換または他の方法で変える。次いで、方法300は、318に進む。
318において、314または316において取得された入力ジェスチャに対応する座標群が送信される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、トランスミッタ142に、314または316において取得された入力ジェスチャに対応する座標群を可視化デバイス108に送信させる。1つ以上の実施形態において、マイクロプロセッサ128は、314または316において取得された入力ジェスチャに対応する座標群を処理デバイス104のディスプレイデバイス138に送信する。次いで、方法300は、320に進む。
320において、入力ジェスチャがレンダリング及び表示される。1つ以上の実施形態において、可視化デバイス108は、2次元画像のレンダリングを実行して、入力ジェスチャの3次元(3D)表現を取得する。1つ以上の実施形態において、マイクロプロセッサ128は、処理デバイス104のディスプレイデバイス138に、入力ジェスチャをレンダリング及び表示させる。次いで、方法300は、322に進む。
322において、位置指示器のスイッチが解放されたかどうかの判定が行われる。例えば、マイクロプロセッサ128は、上述した方法200の204において受信されたスイッチ120の位置を示す信号に基づいて、位置指示器102のスイッチ120が「オフ」位置または「開」位置にあるかどうかを判定する。位置指示器102のスイッチ120が「オフ」位置または「開」位置にあるとの判定が行われた場合、入力ジェスチャに対応する座標群の取得を終了し、方法300は、324に進む。そうでない場合、方法300は、314に戻り、入力ジェスチャに対応する追加の座標群が取得される。
324において、314または316において取得された入力ジェスチャに対応する座標群が記憶される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、314または316において取得された入力ジェスチャに対応する座標群をメモリ130及び/またはメモリ134に記憶させる。次いで、方法300は、終了する。
図6A、6B、6C、及び6Dは、本開示の1つ以上の実施形態による、上述した方法300の間の可視化システム100の動作を説明するための図である。図6Aに示すように、ユーザ144は、テーブル146を含む環境に物理的に位置するものとする。追跡デバイス106a及び106bもまた、この環境において、ユーザ144の近傍に物理的に位置する。さらに、ユーザ144は、可視化デバイス108を装着している。
図6Bに示すように、ユーザ144は、位置指示器102を使用してテーブル146の上面150上にパターン148をスケッチすることで、テーブル146の上面150上の部分152を入力面として指定する。処理デバイス104は、位置指示器102を使用して上述した方法300の302においてパターン148をスケッチする間、位置指示器102の座標を受信する。次いで、ユーザ144は、処理デバイス104に、例えば、位置指示器102のスイッチ120を使用して「ダブルクリック」操作を実行することによって、または対応する音声コマンドを発行することによって、テーブル146の上面150の部分152が入力面として使用されることを示す。
これに応答して、処理デバイス104は、上述した方法300の304において、テーブル146の上面150の部分152を入力面として固定する。次いで、処理デバイス104は、上述した方法300の306において、テーブル146の上面150の部分152の対応する位置データを可視化デバイス108に送信する。可視化デバイス108は、上述した方法300の308において、テーブル146の上面150の部分152の仮想表現を表示する。テーブル146の上面150の部分152を、以後、入力面152と称する。図6Cは、可視化デバイス108によって表示される、位置指示器102の仮想表現102'、テーブル146の仮想表現146'、及びテーブル146の上面150の仮想表現150'に固定された入力面152の仮想表現152'の例を示す。
1つ以上の実施形態において、可視化デバイス108は、視覚的に識別可能な方式で、入力面152の仮想表現152'を表示する。例えば、可視化デバイス108は、ユーザ144が可視化デバイス108の出力を見ながら入力面152の仮想表現152'を容易に識別することができるように、識別可能な色で、または識別可能な明るさで、入力面152の仮想表現152'を表示する。
図6Dに示すように、ユーザ144は、次いで、位置指示器102を入力面152上または入力面152の上方で移動させ、処理デバイス104のセンサ140の入力面116上または入力面116の上方で位置指示器102を使用するのと同様の方式で、入力面152を使用することができる。例えば、入力面152上または入力面152の上方で位置指示器102を使用しながら、ユーザ144は、位置指示器102のスイッチ120を押下して、処理デバイス104に、位置指示器102の後続のロケーション群の座標群を入力ジェスチャとして記憶するように示してもよい。処理デバイス104は、上述した方法300の310及び312のそれぞれにおいて、位置指示器102が入力面152上または入力面152の上方に位置すること、ユーザ144が位置指示器102のスイッチ120を押下したこと、を判定する。
続いて、処理デバイス104は、上述した方法300の314において、入力ジェスチャに対応する座標群を取得するが、この座標は、仮想環境に対応する「グローバル」座標系でのものである。処理デバイス104はまた、上述した方法300の316において、この座標群を、可視化デバイス108の「ローカル」座標系での対応する座標群に、変換または他の方法で変える。処理デバイス104は、上述した方法300の318において、この座標群を可視化デバイス108に送信する。可視化デバイス108は、入力ジェスチャを、例えば、入力ジェスチャに対応する座標群を相互接続する線分として表示する。次いで、ユーザ144は、位置指示器102のスイッチ120を解放して、処理デバイス104に、位置指示器102のロケーション群の座標群を入力ジェスチャとして記憶することを停止するように示してもよい。処理デバイス104は、上述した方法300の322において、ユーザ144が位置指示器102のスイッチ120を解放したと判定する。次いで、処理デバイス104は、上述した方法300の324において、入力ジェスチャに対応する座標群を記憶する。
図7は、本開示の1つ以上の実施形態による、上述した方法200の212において可視化システム100によって実行され得る方法400のフローチャートを示す。方法400は、402において、例えば、マイクロプロセッサ128が、誇張された入力処理を実行するための命令が受信されたと判定することに応答して、始まる。例えば、マイクロプロセッサ128は、位置指示器102を使用して、処理デバイス104のディスプレイデバイス138によって表示される所定のアイコンまたはオブジェクトを選択したと判定する。他の一例として、方法400は、402において、マイクロプロセッサ128が、誇張された入力処理を実行するための命令に対応する音声コマンドが受信されたと判定することに応答して、始まる。さらに他の例として、マイクロプロセッサ128は、位置指示器102の加速度データを評価するか、または位置指示器102によってなされた入力ジェスチャに対応する座標データを評価し、評価されたデータから、誇張された入力処理を実行する命令が受信されたと判定してもよい。
402において、位置指示器102のスイッチ120が押下されたかどうかの判定が行われる。例えば、マイクロプロセッサ128は、204において受信されたスイッチ120の位置を示す信号に基づいて、位置指示器102のスイッチ120が「オン」位置または「閉」位置にあるかどうかを判定する。位置指示器102のスイッチ120が「オン」位置または「閉」位置にあるとの判定が行われた場合、方法400は、404に進む。そうでない場合、方法400は、402に戻る。
404において、位置指示器102を使用して実行された入力ジェスチャに対応する座標群が取得される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、上述した方法200の202において受信された位置指示器102の位置を示す信号に基づいて、入力ジェスチャに対応する座標群を取得する。次いで、方法400は、406に進む。
406において、位置指示器102のスイッチ120が解放されたかどうかの判定が行われる。例えば、マイクロプロセッサ128は、方法200の204において受信されたスイッチ120の位置を示す信号に基づいて、位置指示器102のスイッチ120が「オフ」位置または「開」位置にあるかどうかを判定する。位置指示器102のスイッチ120が「オフ」位置または「開」位置にあるとの判定が行われた場合、方法400は、408に進む。そうでない場合、方法400は、404に戻る。
408において、404において取得された入力ジェスチャに対応する座標群がスケーリングされる。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、所定の倍率を使用して、入力ジェスチャに対応する座標群をスケーリングする。例えば、マイクロプロセッサ128は、位置指示器102を使用して処理デバイス104のディスプレイデバイス138によって表示される所定のアイコンまたはオブジェクトが選択されたことに応答して、倍率を示す1つ以上の信号を取得してもよい。次いで、方法400は、410に進む。
例えば、倍率が「10」に設定される場合、マイクロプロセッサ128は、実際の入力ジェスチャが10の倍率で拡大されるように、座標群をスケーリングする。言い換えると、入力ジェスチャが、ユーザが1メートルの長さを有する弧をなして位置指示器102を初期ロケーションから移動させることに対応する場合、マイクロプロセッサ128は、スケーリングされた座標群が、実際の入力ジェスチャと同じ相対形状をなす、対応する初期ロケーションから10メートルの長さに延在する弧を定義するように、座標群をスケーリングする。
同様に、例えば、倍率が「-10」または「1/10」に設定される場合、マイクロプロセッサ128は、実際の入力ジェスチャが10の倍率で縮小されるように、座標群をスケーリングする。言い換えると、入力ジェスチャが、ユーザが1メートルの長さを有する弧をなして位置指示器102を初期ロケーションから移動させることに対応する場合、マイクロプロセッサ128は、スケーリングされた座標群が、実際の入力ジェスチャと同じ相対形状をなす、対応する初期ロケーションから1メートルの10分の1の長さに延在する弧を定義するように、座標群をスケーリングする。したがって、倍率を、ユーザが相対的に小さいオブジェクトをより正確にスケッチすることを可能にするように設定することができる。
1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、位置指示器102の筐体110の側面に形成された開口部から延在し得る芯体114の先端部に加えられた圧力の量に基づいて動的に取得される倍率を使用して、入力ジェスチャに対応する座標群をスケーリングする。例えば、マイクロプロセッサ128は、上述した方法200の208において受信された芯体114の先端部に加えられた圧力を示す信号に基づいて、倍率を動的に取得する。したがって、ユーザは、芯体114の先端部に圧力を加えることによって、処理デバイス104に倍率を示すことができる。1つ以上の実施形態において、処理デバイス104は、可視化デバイス108及び/またはディスプレイデバイス138に、倍率を表示させる。したがって、表示された倍率を見るユーザは、所望の倍率を設定するために、芯体114の先端部に加えられる圧力を増加、減少、または維持するべきかどうかを判定することができる。
1つ以上の実施形態において、倍率は、芯体114の先端部に加えられる圧力に正比例する。例えば、倍率は、ユーザが芯体114の先端部に加える圧力が増加するにつれて増加する。他の一例として、倍率は、ユーザが芯体114の先端部に加える圧力が増加するにつれて減少する。
1つ以上の実施形態において、ユーザが、入力ジェスチャの種々のセグメントの間に所定の閾量よりも大きく、芯体114の先端部に加えられる圧力の量を変化させる場合、マイクロプロセッサ128は、倍率を動的に調整する。したがって、マイクロプロセッサ128は、入力ジェスチャの種々のセグメントに対して種々の倍率を使用してもよい。
1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、位置指示器102の加速度に基づいて動的に取得される倍率を使用して、入力ジェスチャに対応する座標群をスケーリングする。マイクロプロセッサ128は、上述した方法200の206において受信された位置指示器102の加速度を示す信号に基づいて、倍率を動的に取得してもよい。例えば、ユーザは、位置指示器102を加速させることによって処理デバイス104に倍率を示すことができ、位置指示器102の加速度が大きいほど、処理デバイス104によって使用される倍率が大きい。
410において、408においてスケーリングされた入力ジェスチャに対応する座標群が記憶される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、408においてスケーリングされた入力ジェスチャに対応する座標群をメモリ130及び/またはメモリ134に記憶させる。次いで、方法400は、412に進む。
412において、410において記憶された入力ジェスチャに対応する座標群が送信される。1つ以上の実施形態において、処理デバイス104のマイクロプロセッサ128は、トランスミッタ142に、408においてスケーリングされた入力ジェスチャに対応する座標群を可視化デバイス108に送信させる。1つ以上の実施形態において、マイクロプロセッサ128は、408においてスケーリングされた入力ジェスチャに対応する座標群を処理デバイス104のディスプレイデバイス138に送信する。次いで、方法400は、414に進む。
414において、入力ジェスチャの仮想表現が表示される。1つ以上の実施形態において、可視化デバイス108は、2次元画像のレンダリングを実行して、入力ジェスチャの3次元(3D)表現を取得する。1つ以上の実施形態において、マイクロプロセッサ128は、処理デバイス104のディスプレイデバイス138に、入力ジェスチャの仮想表現を表示させる。次いで、方法400は、終了する。
図8A及び8Bは、本開示の1つ以上の実施形態による、上述した方法400の間の可視化システム100の動作を説明するための図である。位置指示器102のスイッチ120を押下しながら、ユーザ144は、図8Aに示すように、位置指示器102を、入力ジェスチャ158に対応する弧をなして初期位置154から最終位置156まで移動させ、位置指示器102のスイッチ120を解放する。処理デバイス104は、上述した方法400の402において位置指示器102のスイッチ120が押下されたと判定する。これに応答して、処理デバイス104は、上述した方法400の406において位置指示器102のスイッチ120が解放されたと判定するまで、上述した方法400の404において入力ジェスチャ158に対応する座標群を取得する。次いで、処理デバイス104は、上述した方法400の408において、入力ジェスチャ158に対応する座標群をスケーリングする。次いで、処理デバイス104は、上述した方法400の410において、入力ジェスチャ158に対応するスケーリングされた座標群を記憶する。処理デバイス104はまた、上述した方法400の412において、入力ジェスチャ158に対応するスケーリングされた座標群を送信する。
可視化デバイス108は、上述した方法400の414において、スケーリングされた入力ジェスチャ160の仮想表現を表示する。図8Bは、可視化デバイス108によって表示される仮想環境を示す。仮想環境は、縮尺に従ったユーザ144の仮想表現144'と、スケーリングされた入力ジェスチャ160の仮想表現とを含む。図8Aと図8Bとを比較することによって分かるように、スケーリングされた入力ジェスチャ160は、実際の入力ジェスチャ158の何倍も大きい。上述した方法400の414において、可視化デバイス108は、スケーリングされた入力ジェスチャ160を作るのに使用された倍率を示すメッセージ162を表示してもよい。さらに、上述した方法400の414において、可視化デバイス108は、倍率に基づく符号164を表示して、スケーリングされた入力ジェスチャ160のスケーリングされたディメンジョンをユーザ144に視覚的に示してもよい。したがって、方法400が実行される場合、ユーザ144は、位置指示器102の簡易な操作を通じて、相対的に大きいオブジェクトを容易にスケッチすることができる。
上述した様々な実施形態を組み合わせて、さらなる実施形態を提供することができる。本明細書において参照される様々な特許の概念を採用する必要がある場合、実施形態の態様を改変して、またさらなる実施形態を提供することができる。
上記に詳述した説明に照らして、これら及び他の変更を実施形態に行うことができる。一般に、以下の特許請求の範囲において、使用される用語は、特許請求の範囲を、明細書及び特許請求の範囲に開示された特定の実施形態に限定すると解釈されるものではなく、すべての可能な実施形態を、そのような特許請求の範囲に与えられるものと均等な全範囲とともに含むように解釈されるものである。したがって、特許請求の範囲は、本開示によって限定されない。

Claims (20)

  1. 方法であって、
    3次元空間における位置指示器の複数の空間位置を示す1つ以上の信号を受信することと、
    前記3次元空間における物理オブジェクトの表面を示す1つ以上の信号を受信することと、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号と、前記物理オブジェクトの前記表面を示す前記1つ以上の信号とに基づいて、前記物理オブジェクトの前記表面の一部分の記述を取得することと、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあるかどうかを判定することと、
    前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあると判定することに応答して、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、入力ジェスチャに対応する座標群を取得することと、
    前記入力ジェスチャに対応する前記座標群を記憶することと、
    を含む方法。
  2. 前記位置指示器の仮想表現を、前記物理オブジェクトの前記表面の前記一部分の仮想表現とともに表示すること、
    をさらに含む請求項1に記載の方法。
  3. 前記位置指示器のスイッチの状態を示す1つ以上の信号を受信することと、
    前記位置指示器の前記スイッチの前記状態を示す前記1つ以上の信号に基づいて、前記位置指示器の前記スイッチが第1の位置にあるかどうかを判定することと、をさらに含み、
    前記入力ジェスチャに対応する前記座標群を取得することは、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあると判定することに応答したものであり、かつ前記位置指示器の前記スイッチが前記第1の位置にあると判定することに応答したものである、
    請求項1に記載の方法。
  4. 前記物理オブジェクトの前記表面の前記一部分に対応する座標群を、第1の座標系から、前記第1の座標系とは異なる第2の座標系に変換すること、
    をさらに含む請求項1に記載の方法。
  5. 前記位置指示器は、複数の参照タグを含み、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記複数の参照タグそれぞれの位置を示す、請求項1に記載の方法。
  6. 前記複数の参照タグそれぞれの表面には、視覚的に識別可能なパターンが形成されており、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記複数の参照タグそれぞれの画像に対応する画像データを含む、
    請求項5に記載の方法。
  7. 前記参照タグの各々は発光し、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記複数の参照タグそれぞれの画像に対応する画像データを含む、
    請求項5に記載の方法。
  8. 方法であって、
    3次元空間における位置指示器の複数の空間位置を示す1つ以上の信号を受信することと、
    倍率を示す1つ以上の信号を取得することと、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、前記3次元空間における入力ジェスチャに対応する座標群を取得することと、
    前記倍率を示す前記1つ以上の信号に基づいて、前記入力ジェスチャに対応する前記座標群をスケーリングすることと、
    前記入力ジェスチャに対応する前記座標群の前記スケーリングに基づいて、前記入力ジェスチャの仮想表現を表示することと、
    を含む方法。
  9. 前記倍率を表示すること、
    をさらに含む請求項8に記載の方法。
  10. 前記位置指示器の一部に加えられた圧力を示す信号を受信すること、をさらに含み、
    前記倍率は、前記位置指示器の前記一部に加えられた前記圧力を示す前記信号に基づくものである、
    請求項8に記載の方法。
  11. 前記位置指示器の加速度を示す信号を受信すること、をさらに含み、
    前記倍率は、前記位置指示器の前記加速度を示す前記信号に基づくものである、
    請求項8に記載の方法。
  12. 前記位置指示器のスイッチの状態を示す1つ以上の信号を受信することと、
    前記位置指示器の前記スイッチの前記状態を示す前記1つ以上の信号に基づいて、前記位置指示器の前記スイッチが第1の位置にあるかどうかを判定することと、をさらに含み、
    前記入力ジェスチャに対応する前記座標群を取得することは、前記位置指示器の前記スイッチが前記第1の位置にあると判定することに応答したものである、
    請求項8に記載の方法。
  13. 前記位置指示器の前記スイッチの前記状態を示す前記1つ以上の信号に基づいて、前記位置指示器の前記スイッチが第2の位置にあるかどうかを判定すること、をさらに含み、
    前記入力ジェスチャに対応する前記座標群を取得することは、前記位置指示器の前記スイッチが前記第2の位置にあると判定することに応答して終了する、
    請求項12に記載の方法。
  14. 前記位置指示器は、複数の参照タグを含み、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記複数の参照タグそれぞれの位置を示す、
    請求項8に記載の方法。
  15. 前記複数の参照タグそれぞれの表面には、視覚的に識別可能なパターンが形成されており、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記複数の参照タグそれぞれの画像に対応する画像データを含む、
    請求項14に記載の方法。
  16. 前記参照タグの各々は発光し、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号は、前記複数の参照タグそれぞれの画像に対応する画像データを含む、
    請求項14に記載の方法。
  17. システムであって、
    3次元空間における位置指示器の複数の空間位置を示す1つ以上の信号、及び、前記3次元空間における物理オブジェクトの表面を示す1つ以上の信号を受信する、1つ以上のレシーバと、
    前記1つ以上のレシーバに結合された1つ以上のプロセッサと、
    前記1つ以上のプロセッサに結合された1つ以上のメモリデバイスと、を備え、
    前記1つ以上のメモリデバイスは、前記1つ以上のプロセッサによって実行される命令を記憶しており、
    前記命令は、前記システムに、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号と、前記物理オブジェクトの前記表面を示す前記1つ以上の信号とに基づいて、前記物理オブジェクトの前記表面の一部分の記述を取得させ、
    前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあるかどうかを判定させ、
    前記位置指示器が前記物理オブジェクトの前記表面の前記一部分上または前記一部分の上方にあると判定することに応答して、前記位置指示器の前記複数の空間位置を示す前記1つ以上の信号に基づいて、入力ジェスチャに対応する座標群を取得させ、
    前記入力ジェスチャに対応する前記座標群を記憶させる、
    システム。
  18. 前記1つ以上のメモリデバイスは、前記システムに、前記位置指示器の仮想表現を、前記物理オブジェクトの前記表面の前記一部分の仮想表現とともに表示させる命令を記憶している、
    請求項17に記載のシステム。
  19. 前記1つ以上のメモリデバイスは、前記システムに、
    倍率の指示を取得させ、
    前記倍率と前記入力ジェスチャに対応する前記座標群とに基づいて、スケーリングされた入力ジェスチャに対応する座標群を取得させる
    命令を記憶している、
    請求項17に記載のシステム。
  20. 前記1つ以上のメモリデバイスは、前記システムに、前記スケーリングされた入力ジェスチャの仮想表現を表示させる命令を記憶している、
    請求項19に記載のシステム。
JP2022580859A 2020-07-01 2021-06-25 誇張されたコンテンツを用いた動的なスケッチのためのシステム及び方法 Pending JP2023531303A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US16/918,941 2020-07-01
US16/918,941 US20220004262A1 (en) 2020-07-01 2020-07-01 Systems and methods for dynamic sketching with exaggerated content
PCT/IB2021/055650 WO2022003512A1 (en) 2020-07-01 2021-06-25 Systems and methods for dynamic sketching with exaggerated content

Publications (1)

Publication Number Publication Date
JP2023531303A true JP2023531303A (ja) 2023-07-21

Family

ID=79166749

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022580859A Pending JP2023531303A (ja) 2020-07-01 2021-06-25 誇張されたコンテンツを用いた動的なスケッチのためのシステム及び方法

Country Status (5)

Country Link
US (2) US20220004262A1 (ja)
EP (1) EP4176338A4 (ja)
JP (1) JP2023531303A (ja)
CN (1) CN115720652A (ja)
WO (1) WO2022003512A1 (ja)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10269011A (ja) * 1997-03-26 1998-10-09 Matsushita Electric Ind Co Ltd ポインティングシステム
JP2000102036A (ja) * 1998-09-22 2000-04-07 Mr System Kenkyusho:Kk 複合現実感提示システム、複合現実感提示方法、マン・マシーンインタフェース装置、およびマン・マシーンインタフェース方法
JP2005147894A (ja) * 2003-11-17 2005-06-09 Canon Inc 計測方法、計測装置
JP2011107738A (ja) * 2009-11-12 2011-06-02 Univ Of Electro-Communications ポインティング装置、入力処理装置、入力処理方法、及び、プログラム
JP5428943B2 (ja) * 2010-03-02 2014-02-26 ブラザー工業株式会社 ヘッドマウントディスプレイ
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
JP2018195112A (ja) * 2017-05-18 2018-12-06 富士通株式会社 入力装置、入力支援プログラム、及び入力支援方法
US10444703B2 (en) * 2017-07-28 2019-10-15 International Business Machines Corporation Method and system for simulation of forces using holographic objects
US10509489B2 (en) 2017-09-26 2019-12-17 Yong Bum Kim Systems and related methods for facilitating pen input in a virtual reality environment
US10297088B2 (en) 2017-09-26 2019-05-21 Adobe Inc. Generating accurate augmented reality objects in relation to a real-world surface via a digital writing device
JP2019128693A (ja) * 2018-01-23 2019-08-01 セイコーエプソン株式会社 頭部装着型表示装置、及び頭部装着型表示装置の制御方法
EP3770732B1 (en) * 2018-03-23 2023-06-14 Wacom Co., Ltd. Three-dimensional pointing device and three-dimensional position detection system
US11017231B2 (en) * 2019-07-10 2021-05-25 Microsoft Technology Licensing, Llc Semantically tagged virtual and physical objects

Also Published As

Publication number Publication date
US20220004262A1 (en) 2022-01-06
WO2022003512A1 (en) 2022-01-06
CN115720652A (zh) 2023-02-28
US20230136269A1 (en) 2023-05-04
EP4176338A1 (en) 2023-05-10
EP4176338A4 (en) 2024-03-06

Similar Documents

Publication Publication Date Title
CN110603509B (zh) 计算机介导的现实环境中直接和间接交互的联合
US10698535B2 (en) Interface control system, interface control apparatus, interface control method, and program
US20220026984A1 (en) Porting physical object into virtual reality
KR102222974B1 (ko) 홀로그램 스냅 그리드
CN105659295B (zh) 用于在移动设备上的真实环境的视图中表示兴趣点的方法以及用于此方法的移动设备
US10007351B2 (en) Three-dimensional user interface device and three-dimensional operation processing method
JP2022540315A (ja) 人工現実環境において周辺デバイスを使用する仮想ユーザインターフェース
CN108027654B (zh) 输入设备、输入方法和程序
CN111344663B (zh) 渲染装置及渲染方法
JP2017146651A (ja) 画像処理方法及び画像処理プログラム
JP6344530B2 (ja) 入力装置、入力方法、及びプログラム
KR101470757B1 (ko) 증강현실 서비스 제공 방법 및 장치
US20240281087A1 (en) Systems and methods for dynamic shape sketching using position indicator and processing device that displays visualization data based on position of position indicator
US11409364B2 (en) Interaction with artificial reality based on physical objects
CN111316059A (zh) 使用邻近设备确定对象尺寸的方法和装置
JP2023531303A (ja) 誇張されたコンテンツを用いた動的なスケッチのためのシステム及び方法
US12001646B2 (en) Computer-implemented method, computer, and program for rendering a three-dimensional object in a virtual reality space
JP5533311B2 (ja) 展示物用情報提示装置および提示方法
CN110083226B (zh) 虚空间定位方法及装置
CN110389691A (zh) 应用三维场景计算机图形学原理的增强现实设备
CN110390729A (zh) 针对人工标志检测识别的增强现实系统
CN110389648A (zh) 基于安卓平台的增强现实系统
KR20110068512A (ko) 3차원 공간 입출력 장치 및 방법

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240618