JP2005527872A - 3次元コンピュータモデルと相互作用するための方法および装置 - Google Patents
3次元コンピュータモデルと相互作用するための方法および装置 Download PDFInfo
- Publication number
- JP2005527872A JP2005527872A JP2003527689A JP2003527689A JP2005527872A JP 2005527872 A JP2005527872 A JP 2005527872A JP 2003527689 A JP2003527689 A JP 2003527689A JP 2003527689 A JP2003527689 A JP 2003527689A JP 2005527872 A JP2005527872 A JP 2005527872A
- Authority
- JP
- Japan
- Prior art keywords
- model
- virtual plane
- user
- tool
- input device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2021—Shape modification
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
3次元コンピュータモデルと相互作用するためのシステムである。このシステムはワークスペース内にモデルを表示する。システムの処理装置が、(i)表示されたモデルと交差する仮想平面、および(ii)仮想平面と表面との間の対応を規定する。ユーザは、該表面にツールを配置して、その表面上の一点を選択し、仮想平面上の対応する位置が、モデル内の位置を規定し、ここでモデルへの変更が行なわれる。ユーザが表面上でツールを動かすので、ツールの位置決めはより正確である。特に、ユーザがツール上の制御装置(例えばボタン)を操作する場合、ツールがその所望の位置から揺れ動く傾向は低くなる。
Description
本発明は、3次元コンピュータモデルと相互作用するための方法および装置に関する。
3次元モデルを表示する1つの既存の技術として、デキストロスコープ(Dextroscope)があり、該デキストロスコープは、視覚化のために単一人により使用される。デキストロスコープの変形として、聴衆、および、さらに多くの視聴者に対するプレゼンテーションで使用するデキストロビーム(Dextrobeam)がある。デキストロスコープの技術は、高解像度で立体仮想イメージをユーザの前に表示できる。
デキストロスコープのソフトウェアは、入力がユーザのデバイスから読み取られ、それに対応して操作がなされるメインループを有するアルゴリズムを使用する。該ソフトウェアは、仮想「オブジェクト」が集結した「仮想世界」を作成する。ユーザは、一式の入力装置を自分の手で制御し、デキストロスコープはこれらの入力装置が仮想「ツール」に対応するように操作することにより、オブジェクトと相互作用が可能となる。例えば、オブジェクトが仮想的な生体組織である場合、ツールは該生体組織を切断しうる仮想のメスとなりうる。
デキストロスコープの動作には、以下の3つの主要なステージがある。
(1)初期化:システムが準備される。アップデートのエンドレスループが続く。(2)アップデート:すべての入力装置からの入力がなされ、オブジェクトがアップデートされる。(3)ディスプレイ:仮想世界においてアップデートされた各オブジェクトが順に表示される。
アップデートステージにおけるメインタスクは以下のとおりである。
・システムに接続されているすべての入力装置を読み取る。
・仮想世界内のオブジェクトに、仮想ツールがどのように関連しているのかを確かめる。
・前記ツールのプログラミングされた機能に従ってオブジェクトに作用する。
・すべてのオブジェクトをアップデートする。
ユーザによって制御されるツールには、4つの状態、つまり「チェック」、「スタート・アクション」、「ドゥー・アクション」および「エンド・アクション」がある。ツールの動作をプログラミングするために、該4つの状態に対応するコールバック機能が備えられる。
「チェック」は、ツールがパッシブで、どのオブジェクトにも作用しない状態である。スタイラス(スイッチ付きの3次元入力装置)の場合、これは「ボタンが押されていない」状態に相当する。ツールはこの時間を使用して、例えばオブジェクトに触れているかどうかなど、オブジェクトに関する位置をチェックする。
「スタート・アクション」は、パッシブからアクティブへのツールの移行状態であり、その結果、該ツールは任意のオブジェクトに作用できる。スタイラスの場合、これは「ちょうどボタンが押された」状態に相当する。これにより、例えば「描画開始」などのツールの動作の開始がマークされる。
「ドゥー・アクション」は、ツールがアクティブに保たれている状態である。スタイラスの場合、これは「ボタンがいまだに押されている」状態に相当する。これは、ツールが例えば「描画」などの動作をまだ実行していることを示す。
「エンド・アクション」は、アクティブからパッシブへのツールの移行状態である。スタイラスの場合、これは「ちょうどボタンが離された」状態に相当する。これにより、例えば「描画の停止」などのツールの動作の終了がマークされる。
ツールは、通常、その先端がオブジェクト座標の(0,0,0)に位置し、それが正のZ軸方向を指すようにモデル化される。ツールのサイズは約10cm程度がよい。ツールには、パッシブ形状とアクティブ形状があり、それがどの状態にいるのかに関して視覚的な手掛かりが与えられる。パッシブ形状はツールがパッシブであるときの形状であり、アクティブ形状はツールがアクティブであるときの形状である。ツールには、デフォルトのパッシブ形状とアクティブ形状がある。
ツールは、それがオブジェクトに近接しているときに、それらに作用する。ツールがオブジェクトをピッキングしたといわれる。
一般的に、ツールは、その先端がオブジェクトのバウンディングボックスの内側にある場合に、オブジェクトの「中」にあるとされる。代替的に、プログラマは、拡大されたバウンディングボックスを規定し、それぞれの方向で選択されたマージン(「ゆとり」)でオブジェクトを取り囲むようにして、ツールの先端が拡大バウンディングボックスに入ると、ツールがオブジェクトの「中」にあると、ソフトウェアが認識するように設定してもよい。拡大バウンディングボックスは、ピッキングを容易にする。例えば、(仮想世界のではなく、現実世界の座標系で)2mmにゆとりを設定すると、ツールは、それがオブジェクトの近接の2mm内にある場合には、オブジェクトをピッキングする。デフォルトのゆとりは0である。
デキストロスコープは非常に成功してきたが、ユーザが3次元でツールを正確に操作することに困難を感じることがあるという短所を免れない。特に、ボタンを押したときに、ツールが揺れ動くことがある。これにより、様々な種類の位置決め誤差が生じうる。
本発明は、3次元のコンピュータ生成モデルと効率的に相互作用する、新規かつ有用な方法を提供することを目的とする。
概して、本発明は、モデル表示システムの処理装置が、(i)表示されたモデルと交差する仮想平面、および(ii)仮想平面と表面との間の対応を規定することを提案する。ユーザは、該表面にツールを配置して、その表面上の一点を選択し、仮想平面上の対応する位置が、モデル内の位置であり、ここでモデルへの変更が行なわれる。ユーザが表面上でツールを動かすので、ツールの位置決めはより正確である。特に、ユーザがツール上の制御装置(例えばボタン)を操作する場合、ツールがその所望の位置から揺れ動く傾向は低くなる。
特に、本発明は、ユーザが3次元コンピュータモデルと相互作用することを可能にするためのコンピュータ実行型の方法であって、
モデルと、モデルの部分と現実世界のワークスペースのそれぞれの部分との間の幾何学的対応を規定するマッピングと、および、ワークスペース内で仮想平面を規定するデータとを記憶し、かつ、
モデルの少なくとも一部分の画像を生成するステップと、
固体表面上の入力装置の位置を決定するステップと、
仮想平面上の対応する位置を決定するステップと、
マッピングに基づき、仮想平面上の決定された位置に対応するモデルの部分を修正するステップと、
からなる一連のステップを繰返し実行する、
ことを含む方法を提案する。
モデルと、モデルの部分と現実世界のワークスペースのそれぞれの部分との間の幾何学的対応を規定するマッピングと、および、ワークスペース内で仮想平面を規定するデータとを記憶し、かつ、
モデルの少なくとも一部分の画像を生成するステップと、
固体表面上の入力装置の位置を決定するステップと、
仮想平面上の対応する位置を決定するステップと、
マッピングに基づき、仮想平面上の決定された位置に対応するモデルの部分を修正するステップと、
からなる一連のステップを繰返し実行する、
ことを含む方法を提案する。
さらに、本発明は、ユーザが3次元コンピュータモデルと相互作用することを可能にするための装置であって、
モデルと、モデルの部分と現実世界のワークスペースのそれぞれの部分との間の幾何学的対応を規定するマッピングと、および、ワークスペース内で仮想平面を定義するデータとを格納するための処理装置と、
処理装置によって制御され、モデルの少なくとも一部分の画像を生成するための表示手段と、
固体表面で作動する入力装置と、
該表面における入力装置の位置を決定するための位置センサと、
を含み、
前記処理装置が、前記表面における決定された位置を使用して、仮想平面上の対応する位置を決定し、かつ、マッピングに基づき、仮想平面上の位置に対応するモデルの部分を修正するように構成されている、
装置を提供する。
モデルと、モデルの部分と現実世界のワークスペースのそれぞれの部分との間の幾何学的対応を規定するマッピングと、および、ワークスペース内で仮想平面を定義するデータとを格納するための処理装置と、
処理装置によって制御され、モデルの少なくとも一部分の画像を生成するための表示手段と、
固体表面で作動する入力装置と、
該表面における入力装置の位置を決定するための位置センサと、
を含み、
前記処理装置が、前記表面における決定された位置を使用して、仮想平面上の対応する位置を決定し、かつ、マッピングに基づき、仮想平面上の位置に対応するモデルの部分を修正するように構成されている、
装置を提供する。
前記処理装置は、前記表面の位置からユーザの目を表わす位置まで伸長する仮想線(「仮想視線」)を定義し、かつ、仮想平面上の対応する位置を、前記線と仮想平面の交点として決定することによって、仮想平面上の対応する位置を決定することができる。
例えば、特にデキストロスコープシステムに適した本発明の一形態では、ユーザの目を表わす位置(3D位置および向き)は、公知の位置追跡技術を使用してコンピュータに示されるユーザの目の実際の位置、または、ユーザの目の想定位置(例えば、ユーザの頭が既知の位置にあるときに、ユーザが装置を使用するように指示される場合)である。この場合、表示手段はマッピングによって与えられるワークスペースの見かけの位置にモデルを表示することが好ましい。
代替的に、例えばデキストロビームシステム用に特に適した本発明の一形態では、目(「仮想目」)の位置は、通常、目の実際の位置と一致しない。代わりに、マッピングに基づき、仮想目、表面、ツール、仮想平面、およびモデルの位置を含むワークスペースの第一領域を考慮すればよい。この第一領域は、実際の目を含む第二領域との関係(第二マッピング)を持つ。第二領域における実際の目の位置(3D位置および向き)は、第二マッピングに基づき、第一領域の仮想目の位置に対応する。同様に、第二領域におけるモデルの画像の見かけの位置は、第二マッピングに基づき、第一マッピングによる第一領域のモデルの位置に対応する。
本発明は、モデルへ修正を加えることにも適用可能である。例えば、これらの修正は、仮想線と面の交差によって特定されるポイントでモデルにデータを加えることによるモデルの補足(例えば、モデル上に輪郭を描くこと)により可能である。代替的に、修正は、モデルからデータを除去することによっても可能である。さらに、該修正は、処理装置内でモデルのラベリングを変更することだけでも可能であり、該ラベリングの変更により、処理装置がモデルを表示する方法が変更される。例えば、ユーザは、本発明によりモデルのセクションごとに異なる色を施して表示したり、全く表示しないようにすることができる。
仮想平面は、ユーザに表示されなくてもよい。さらに、ユーザはツールを見ることができなくてもよく、また、ツールを表わす仮想ツールは表示してもしなくてもよい。
以下、図面を参照しながら、本発明の実施形態について詳しく説明するが、本発明は本実施形態に限られない。
図1および2は、本発明の実施形態を示す二つの図である。図2は、図1の一方の側面の方向から見た図である。該実施形態の構成の多くの特徴は、公知のデキストロスコープシステムと同じである。しかし、実施形態は、ユーザが、ツール(スタイラス)1の先端を表面3(通常、机の天板または傾斜面)に当てながら、ツール1を動かすことによって、3次元モデルと相互作用することを可能にする。ツール1の先端の位置は、公知の位置追跡技術を用いてモニタされ、ワイヤ2によってコンピュータ(図示せず)に送信される。
ユーザの目の位置を表わす位置が5で示される。これは、公知の位置追跡技術を用いてコンピュータに示されるユーザの目の実際の位置でもよく、または、例えば、ユーザの頭が既知の位置にあるときに、ユーザが装置を使用するように指示される場合には、ユーザの目の想定位置でもよい。
コンピュータは、3次元コンピュータモデルを記憶しており、従来の方法に従って、コンピュータモデルを使用してワークスペース内に表示(例えば、立体表示)を生成する。マッピングによって与えられたワークスペース内の見かけの位置に、モデルの少なくとも一部分が示される。ユーザは、例えば公知の技術に従って、マッピング、または表示されるモデルの部分を変更できるようにしてもよい。簡明化のために、この表示は図1および2では図示しない。モデルは、ラベリングを含むことができ、モデルの特定部分を所定の方法で表示したり、あるいは全く表示しないことを指示することができる。
コンピュータは、さらに、境界(図7では矩形として示される)を有する仮想平面7を定義するデータ(平面方程式)を記憶する。仮想平面は表面3と対応しており、仮想平面7上の各点は、表面3とツール1との間の可能な接点に対応する。表面3とツール1との間の接点、および点P、ならびに位置5は全て単一の線上、すなわちVで示される点5から点Pまでの視線上にあるのが好ましい。
点Pは、マッピングに基づき、3次元モデル上の点に対応する。コンピュータは、該モデルの点を登録し、該モデルの点を選択的に変更することができる。例えば、その点に関連付けられたデータによりモデルを補足することができる。ユーザは、2次元表面3上で、3次元で作業することに注目されたい。
例えば、該実施形態を使用して3次元モデルの輪郭を編集する場合、コンピュータはスタイラスが底面を超えてモデル上の位置Pまで移動するように、スタイラスの位置をマッピングする。ツールが表面3の多数の点9の各々の位置にあるときに行なわれるユーザの動作(例えば、ツールのボタン4をクリックするか、あるいは、ツールまたは表面内のセンサなど圧力センサによって測定されるしきい値を超す力で表面3を押す)は、モデルに対応するノード11を生じ、それらが結合されて編集輪郭線を形成する。該実施形態は、3D空間で編集するときに、ノード上で確実にクリックすることを可能にする。
ツール1の動作は、他の点では、上述した公知のツールの動作と類似しており、ツールは上述した四つの状態で動作することができる。本発明の投影が適用される状態は、チェックおよびドゥー・アクション状態である。
これらの状態で、コンピュータは次の四つのステップを実行する。
−仮想平面7について平面方程式を計算して格納する。
−ユーザの目の位置からツールの先端までのベクトルVを計算して格納する。
−Vと仮想平面7の交点Pを計算して格納する。
−Pが輪郭面7の境界の外側にあるかどうかを決定する。そうである場合には、Pは無効な投影点である。そうでなければ、点Pは有効である。
システムが上述した公知のシステムの四つの状態を持つ場合、投影技術はチェックおよびドゥー・アクション状態で使用される。
ユーザが仮想平面7を選択できる様々な方法がある。ワークスペース内で平面を選択する方法は、当業界で公知である。代替的に、(ツール1のような)指示ツールを使用して、仮想平面をワークスペースに及ぼさせることによって、仮想平面を選択するようにしてもよい。
当該実施形態の動作中に、ユーザはツール1も自分の手も見ない。本発明の一形態では、実施形態のグラフィックスシステムが、ツール1のグラフィック表現を生成することができる。例えば、ツール1を仮想平面上の対応する位置に、ペンまたは外科用メスなどの仮想ツールとして表示してもよい。しかし、ユーザは仮想ツールを見ず、モデルおよび実行された特定のアプリケーションの結果、たとえば輪郭編集アプリケーションで描画された輪郭だけを見る方がより好適である。これが好適であるのは、第一に、モデルがほとんどの時間仮想ツールを目立たなくするからであり、第二に、行なわれるジョブが、仮想ツールの3D位置ではなく、投影点およびモデルの位置に関係するためである。例えば、実施形態が一片の骨のコンピュータモデルを表示するために使用され、ツール1の動きが骨片を切断するレーザメスの動きに対応する場合、ユーザはレーザツールを表面3に当てて安定して保持し、骨におけるレーザ光線の効果だけを見るようにする。
図1および2は、デキストロビームの場合の実施形態をも正しく説明するが、この場合、位置5は実際の目の位置ではない。代わりに、位置5は予め定められた「仮想目」であり、図1および2に示されるものは、仮想目を含む第一領域、仮想平面7、表面3、およびツール1である。第一領域は、実際の目を含む第二領域と1対1の関係(第二マッピング)を持つ。モデルは、第二領域の見かけの位置でユーザに表示されることが好ましく、この場合、実際の目とモデルとの関係は、図1および2に示した第一領域における第一マッピングに基づく、位置5とモデルの位置との間の関係に等しくなる。
Claims (9)
- ユーザが3次元コンピュータモデルと相互作用することを可能とするコンピュータにより実行される方法であって、
モデルと、前記モデルの部分とこれに対応する現実世界のワークスペースの部分の間の幾何学的対応を規定するマッピングと、該ワークスペース内の仮想平面を規定するデータを記憶し、
少なくとも前記モデルの一部の画像を生成し、固体表面上の入力装置の位置を決定し、前記仮想平面上の対応する位置を決定し、前記マッピングに基づき、前記仮想平面上の決定された位置に対応するモデルの部分を修正することからなる一連のステップを繰返し実行する、
ことを含む方法。 - 前記固体表面上の決定された位置および仮想平面上の決定された位置の両方が、さらに前記ユーザの目を表す位置をさらに含むライン上に位置する請求項1に記載の方法。
- ユーザが、前記表面上の複数の孤立点を指し示すための入力装置を作動させることにより、前記モデルの対応する点を指し示すことができる請求項1または2に記載の方法。
- 前記入力装置が操作ボタンを含み、前記作動に該ボタンを操作することを含む請求項3に記載の方法。
- 前記画像が立体画像である請求項1〜4のいずれかに記載の方法。
- ユーザが3次元コンピュータモデルと相互作用することを可能とする装置であって、
モデルと、前記モデルの部分とこれに対応する現実世界のワークスペースの部分の間の幾何学的対応を規定するマッピングと、該ワークスペース内の仮想平面を規定するデータを記憶するための処理装置、
該処理装置により制御され、前記モデルの少なくとも一部の画像を生成するための表示装置、
固体表面上で作動するための入力装置、
前記表面上における入力装置の位置を決定するための位置センサ、
を含み、
前記処理装置が、前記表面上において決定された位置を使用して、前記仮想平面上の対応位置を決定し、前記マッピングに基づき、該仮想平面上の位置に対応するモデルの部分を修正するように、構成されていることを特徴とする装置。 - 前記処理装置が、(i)前記表面上の位置からユーザの目を表す位置まで伸長する視線を規定し、(ii)前記視線と仮想平面の交点として、前記仮想平面上の対応位置を決定することにより、前記仮想平面上の対応位置を決定するように構成されている請求項6に記載の装置。
- 前記入力装置が、ユーザにより実行された制御動作に応答する制御装置でもある請求項6または7に記載の装置。
- 前記表示手段が立体画像を生成する請求項6〜8のいずれかに記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/SG2001/000182 WO2003023720A1 (en) | 2001-09-12 | 2001-09-12 | Interaction with a three-dimensional computer model |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005527872A true JP2005527872A (ja) | 2005-09-15 |
Family
ID=20428987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003527689A Pending JP2005527872A (ja) | 2001-09-12 | 2001-09-12 | 3次元コンピュータモデルと相互作用するための方法および装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20040243538A1 (ja) |
EP (1) | EP1425721A1 (ja) |
JP (1) | JP2005527872A (ja) |
CA (1) | CA2496773A1 (ja) |
TW (1) | TW569155B (ja) |
WO (1) | WO2003023720A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140060534A (ko) * | 2011-09-08 | 2014-05-20 | 이에이디에스 도이치란트 게엠베하 | 3차원 가상의 시나리오 내 물체의 선택 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060284871A1 (en) * | 2004-11-27 | 2006-12-21 | Bracco Imaging, S.P.A. | Systems and methods for generating and measuring surface lines on mesh surfaces and volume objects and for mesh cutting techniques ("curved measurement") |
US20090167843A1 (en) * | 2006-06-08 | 2009-07-02 | Izzat Hekmat Izzat | Two pass approach to three dimensional Reconstruction |
US8819591B2 (en) * | 2009-10-30 | 2014-08-26 | Accuray Incorporated | Treatment planning in a virtual environment |
US10445946B2 (en) * | 2013-10-29 | 2019-10-15 | Microsoft Technology Licensing, Llc | Dynamic workplane 3D rendering environment |
CN106325500B (zh) * | 2016-08-08 | 2019-04-19 | 广东小天才科技有限公司 | 信息框选方法及装置 |
CN111626803A (zh) * | 2019-02-28 | 2020-09-04 | 北京京东尚科信息技术有限公司 | 一种物品虚拟化定制方法、装置以及其存储介质 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4742473A (en) * | 1985-07-16 | 1988-05-03 | Shugar Joel K | Finite element modeling system |
US5237647A (en) * | 1989-09-15 | 1993-08-17 | Massachusetts Institute Of Technology | Computer aided drawing in three dimensions |
US5631973A (en) * | 1994-05-05 | 1997-05-20 | Sri International | Method for telemanipulation with telepresence |
US5412563A (en) * | 1993-09-16 | 1995-05-02 | General Electric Company | Gradient image segmentation method |
US5877779A (en) * | 1995-07-06 | 1999-03-02 | Sun Microsystems, Inc. | Method and apparatus for efficient rendering of three-dimensional scenes |
EP0804022B1 (en) * | 1995-11-14 | 2002-04-10 | Sony Corporation | Device and method for processing image |
US5798761A (en) * | 1996-01-26 | 1998-08-25 | Silicon Graphics, Inc. | Robust mapping of 2D cursor motion onto 3D lines and planes |
JPH1046813A (ja) * | 1996-08-08 | 1998-02-17 | Hitachi Ltd | 建築計画の支援装置及び支援方法 |
US6061051A (en) * | 1997-01-17 | 2000-05-09 | Tritech Microelectronics | Command set for touchpad pen-input mouse |
US6409504B1 (en) * | 1997-06-20 | 2002-06-25 | Align Technology, Inc. | Manipulating a digital dentition model to form models of individual dentition components |
US6608628B1 (en) * | 1998-11-06 | 2003-08-19 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) | Method and apparatus for virtual interactive medical imaging by multiple remotely-located users |
US6342886B1 (en) * | 1999-01-29 | 2002-01-29 | Mitsubishi Electric Research Laboratories, Inc | Method for interactively modeling graphical objects with linked and unlinked surface elements |
US6842175B1 (en) * | 1999-04-22 | 2005-01-11 | Fraunhofer Usa, Inc. | Tools for interacting with virtual environments |
CN1378677A (zh) * | 1999-08-09 | 2002-11-06 | 韦克森林大学 | 生成电子多媒体报告的一种方法和计算机实现程序 |
JP2001175883A (ja) * | 1999-12-16 | 2001-06-29 | Sony Corp | バーチャルリアリティ装置 |
JP2002092646A (ja) * | 2000-09-14 | 2002-03-29 | Minolta Co Ltd | 3次元形状データから面を抽出する方法および装置並びに記録媒体 |
US6718193B2 (en) * | 2000-11-28 | 2004-04-06 | Ge Medical Systems Global Technology Company, Llc | Method and apparatus for analyzing vessels displayed as unfolded structures |
-
2001
- 2001-09-12 JP JP2003527689A patent/JP2005527872A/ja active Pending
- 2001-09-12 WO PCT/SG2001/000182 patent/WO2003023720A1/en active Application Filing
- 2001-09-12 US US10/489,463 patent/US20040243538A1/en not_active Abandoned
- 2001-09-12 CA CA002496773A patent/CA2496773A1/en not_active Abandoned
- 2001-09-12 EP EP01967924A patent/EP1425721A1/en not_active Withdrawn
-
2002
- 2002-09-12 TW TW091120907A patent/TW569155B/zh not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20140060534A (ko) * | 2011-09-08 | 2014-05-20 | 이에이디에스 도이치란트 게엠베하 | 3차원 가상의 시나리오 내 물체의 선택 |
KR101997298B1 (ko) * | 2011-09-08 | 2019-07-05 | 에어버스 디펜스 앤드 스페이스 게엠베하 | 3차원 가상의 시나리오 내 물체의 선택 |
Also Published As
Publication number | Publication date |
---|---|
US20040243538A1 (en) | 2004-12-02 |
EP1425721A1 (en) | 2004-06-09 |
CA2496773A1 (en) | 2003-03-20 |
TW569155B (en) | 2004-01-01 |
WO2003023720A1 (en) | 2003-03-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110603509B (zh) | 计算机介导的现实环境中直接和间接交互的联合 | |
JP7492558B2 (ja) | 視野周辺の視覚的背光 | |
EP2755194B1 (en) | 3d virtual training system and method | |
CN116719413A (zh) | 用于操纵环境中的对象的方法 | |
US8917240B2 (en) | Virtual desktop coordinate transformation | |
US5973678A (en) | Method and system for manipulating a three-dimensional object utilizing a force feedback interface | |
US20150097777A1 (en) | 3D Motion Interface Systems and Methods | |
US7353081B2 (en) | Method and a system for programming an industrial robot | |
JP4356983B2 (ja) | 画像処理方法、画像処理装置 | |
EP3283938B1 (en) | Gesture interface | |
CN111862333B (zh) | 基于增强现实的内容处理方法、装置、终端设备及存储介质 | |
CN101426446A (zh) | 用于触觉表达的装置和方法 | |
JP2009276996A (ja) | 情報処理装置、情報処理方法 | |
JP7480388B2 (ja) | ヘッドマウント情報処理装置 | |
JP2010257081A (ja) | 画像処理方法及び画像処理装置 | |
US7477232B2 (en) | Methods and systems for interaction with three-dimensional computer models | |
JP2004362218A (ja) | 三次元物体操作方法 | |
JP2005527872A (ja) | 3次元コンピュータモデルと相互作用するための方法および装置 | |
JP3413145B2 (ja) | 仮想空間の編集方法及び仮想空間の編集装置 | |
JP2006343954A (ja) | 画像処理方法、画像処理装置 | |
JP7451084B2 (ja) | 情報処理装置および情報処理方法 | |
WO2021235316A1 (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
EP1131792A1 (en) | Method and device for creating and modifying digital 3d models | |
JP2023017438A (ja) | 表示画像生成装置 | |
CN118034484A (zh) | 立体影像互动仿真系统与运行方法 |