JP2004341924A - Display device and method - Google Patents

Display device and method Download PDF

Info

Publication number
JP2004341924A
JP2004341924A JP2003139039A JP2003139039A JP2004341924A JP 2004341924 A JP2004341924 A JP 2004341924A JP 2003139039 A JP2003139039 A JP 2003139039A JP 2003139039 A JP2003139039 A JP 2003139039A JP 2004341924 A JP2004341924 A JP 2004341924A
Authority
JP
Japan
Prior art keywords
image
axis
screen
dragged
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003139039A
Other languages
Japanese (ja)
Inventor
Masashi Nakamura
昌志 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003139039A priority Critical patent/JP2004341924A/en
Publication of JP2004341924A publication Critical patent/JP2004341924A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform the operation of dragging an object within a three-dimensional space while using no additional device other than two-dimensional pointing devices such as a mouse. <P>SOLUTION: An image of an object dragged and dropped into a predetermined area in proximity to one of two opposite sides of a screen is moved in the normal direction with respect to one axis for which no dragging and dropping is to be carried out. An image of an object dragged and dropped into a predetermined area in proximity to the other of the two sides is moved in the negative direction with respect to the one axis for which no dragging and dropping is to be carried out. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、3次元GUI(Graphical User Interface)システムに利用するに適する。特に、マウスなどの2次元ポインティングデバイスによりユーザがGUI中の物体を自在の位置にドラッグできる技術に関する。
【0002】
【従来の技術】
従来から非特許文献2のように3次元GUIまたは3次元アプリケーションが多数存在する。そのようなシステムにおいて、3次元空間内の点を指示する手法についてはさまざまな検討、発明がなされている。特許文献1に記載されている方法と同様にアプリケーションなどの拘束条件を利用して2次元ポインティングのみを用いて3次元GUI中のポインティングや操作を実現しているシステムが多い中で、本質的に3次元のポインティングが必要な場合の解決法としては特許文献2、特許文献3、特許文献4に記載されているように、専用のポインティングデバイスを用いる方法が知られている。
【0003】
しかし、このような専用デバイスを要する方法はコストがかさむ点とユーザが使用法に習熟する必要がある点で問題があった。ソフトウェア的に実現する方法は非特許文献1に見られるように2段階入力による方法が知られているが、人間の直感的な3次元空間内のポインティングと異なるため、GUIとしての利用には問題があった。また、ソフトウェア中に付加的なツールを用意することで段階的に3次元ポインティングする方法は特許文献5のように座標軸を指定し、指定されていない2本の座標軸で規定される2次元面内での位置を順次ポイントする方法やキー操作などにより移動する2次元平面を指定する方法が3次元CADシステムをはじめとする多数のアプリケーションで多数用いられている。
【0004】
【特許文献】
特開平10−333819号公報
【特許文献2】
特開2001−311058号公報
【特許文献3】
特開平10−171591号公報
【特許文献4】
特開平09−288541号公報
【特許文献5】
特開平10−293864号公報
【非特許文献1】
「3次元CGをベースとしたUIMSの実現」、朝日 宣雄 他3名著、情報処理学会、研究報告「ソフトウェア工学」No.093−014,1993年発行
【非特許文献2】
「光時代のネット空間クルージング技術InfoLead」、川村 享 他3名著、NTTR&D Vol.49 No.10,2000.
【0005】
【発明が解決しようとする課題】
第一の問題点は、専用入力デバイスによる3次元ポインティングの実現によるコスト増加ということである。その理由は、付加的なハードウェアを要するためである。
【0006】
第二の問題点は、初心者には使い始めづらいということである。その理由は、マニュアルなどを参照しないとわからないキー入力などによる移動面の切り替えを併用しないと3次元移動できないためである。また、この切り替えの操作がマウスをいじっているうちに気づく程度の簡易なものでないということもある。
【0007】
本発明は、このような背景に行われたものであって、マウスなどの2次元ポインティングデバイス以外に付加的なデバイスを用いることなく3次元空間内でオブジェクトをドラッグ操作できる表示装置および表示方法を提供することを目的とする。また、本発明は、上記機能をキーボード操作などの付加的操作による2次元移動面の切り替えなしに2次元ポインティングデバイスのみで可能とする表示装置および表示方法を提供することを目的とする。
【0008】
【課題を解決するための手段】
本発明の第一の観点は、画面上に3次元空間の映像を表示する手段と、マウスポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸方向にそれぞれドラッグ&ドロップする手段とを備えた表示装置である。
【0009】
ここで、本発明の特徴とするところは、前記画面は四辺形であり、前記画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について負方向に移動させる移動手段を備えたところにある(請求項1)。
【0010】
すなわち、マウスなどの2次元ポインティングデバイスは、3次元空間の映像中の物体の映像を2軸方向にしか動かすことができない。本発明では、残りの1軸方向への移動を画面の側端に設けた所定の領域への被移動物体の映像のドラッグ&ドロップを契機に行うことを特徴とする。これにより、ユーザは、単に、画面の左右あるいは上下に、移動させたい物体の映像をドラッグ&ドロップすることにより、残りの1軸方向の移動を実現することができる。
【0011】
また、前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、前記移動手段は、前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変する手段を備えることもできる(請求項2)。
【0012】
これによれば、ユーザは、移動速度を任意に可変することができる。例えば、画面の辺に物体の映像を接触させたときが、最も移動速度が速くなるようにしておき、反対に、前記所定の領域の範囲内で、画面の辺から物体の映像を最も離したときが、最も移動速度が遅くなるようにしておく。これにより、ユーザは、ユーザが望む移動速度が得られる位置に物体の映像をドラッグ&ドロップすればよい。
【0013】
前記移動手段により前記物体の映像が前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸上を移動するに伴い、当該1軸以外の2軸により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示する手段を備えることもできる(請求項3)。
【0014】
これによれば、ユーザは、物体の映像を1軸上に移動させながら、他の2軸との位置関係を容易に把握することができるため、例えば、物体の映像が所望する位置より行き過ぎたり、手前だったりといった操作上の失敗を回避することができる。
【0015】
さらに、前記2次元平面に含まれる他の物体の映像を明示する手段を備えることもできる(請求項4)。これによれば、ユーザは、自分が今移動させている物体の映像と他の物体の映像との位置関係を視覚的に把握することができるため、例えば、物体の映像が所望する位置より行き過ぎたり、手前だったりといった操作上の失敗を回避することができる。
【0016】
本発明の第二の観点は、画面上に3次元空間の映像を表示する手段と、マウスポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸方向にそれぞれドラッグ&ドロップする手段とを備えた表示装置に適用されるプログラムである。
【0017】
ここで、本発明の特徴とするところは、情報処理装置にインストールすることにより、その情報処理装置に、前記画面は四辺形であり、前記画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について負方向に移動させる移動機能を実現させるところにある(請求項5)。
【0018】
また、前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、前記移動機能として、前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変する機能を実現させることもできる(請求項6)。
【0019】
また、前記移動機能により前記物体の映像が前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸上を移動するに伴い、当該1軸以外の2軸により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示する機能を実現させることもできる(請求項7)。さらに、前記2次元平面に含まれる他の物体の映像を明示する機能を実現させることもできる(請求項8)。
【0020】
本発明の第三の観点は、本発明のプログラムが記録された前記情報処理装置読取可能な記録媒体である(請求項9)。本発明のプログラムは本発明の記録媒体に記録されることにより、前記情報処理装置は、この記録媒体を用いて本発明のプログラムをインストールすることができる。あるいは、本発明のプログラムを保持するサーバからネットワークを介して直接前記情報処理装置に本発明のプログラムをインストールすることもできる。
【0021】
これにより、コンピュータ装置等の情報処理装置を用いて、マウスなどの2次元ポインティングデバイス以外に付加的なデバイスを用いることなく3次元空間内でオブジェクトをドラッグ操作できる表示装置および表示方法を実現することができる。また、上記機能をキーボード操作などの付加的操作による2次元移動面の切り替えなしに2次元ポインティングデバイスのみで可能とする表示装置および表示方法を実現することができる。
【0022】
本発明の第四の観点は、3次元空間の映像が表示された画面上で、マウスポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸方向にそれぞれドラッグ&ドロップする表示方法である。
【0023】
ここで、本発明の特徴とするところは、前記画面は四辺形であり、前記画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、ドラッグ&ドロップの対象外とした前記1軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、ドラッグ&ドロップの対象外とした前記1軸について負方向に移動させるところにある(請求項10)。
【0024】
また、前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変することもできる(請求項11)。
【0025】
また、前記物体の映像がドラッグ&ドロップの対象外とした前記1軸上を移動するに伴い、当該1軸以外の2軸により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示することもできる(請求項12)。さらに、前記2次元平面に含まれる他の物体の映像を明示することもできる(請求項13)。
【0026】
【発明の実施の形態】
本発明実施形態の表示装置の構成を図1および図2を参照して説明する。図1は本実施形態の表示装置の構成図である。図2は本実施形態のZ軸制御部のブロック構成図である。
【0027】
本実施形態は、図1に示すように、ディスプレイ10の画面上に3次元空間の映像を表示する表示部1と、マウス5のポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸(X、Y)方向にそれぞれドラッグ&ドロップする映像移動部2のX,Y軸制御部3とを備えた表示装置である。
【0028】
ここで、本実施形態の特徴とするところは、ディスプレイ10の画面は四辺形であり、この画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、X,Y軸制御部3がドラッグ&ドロップの対象外としたZ軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、X,Y軸制御部3がドラッグ&ドロップの対象外としたZ軸について負方向に移動させるZ軸制御部4を備えたところにある(請求項1、10)。
【0029】
本実施形態では、マウス5のポインタの操作に応じてX軸およびY軸による2次元平面上の物体の映像をドラッグ&ドロップするとして説明するが、2次元平面を構成する軸の組み合わせはこれに限定されるものではない。
【0030】
また、前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、Z軸制御部4は、前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変する移動速度制御部6を備える(請求項2、11)。
【0031】
また、Z軸制御部4により前記物体の映像がZ軸上を移動するに伴い、当該Z軸以外の2軸(X,Y)により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示する補助線制御部7を備える(請求項3、12)。さらに、この補助線制御部7は、前記2次元平面に含まれる他の物体の映像を明示する手段を備える(請求項4、13)。
【0032】
本発明は、汎用の情報処理装置にインストールすることにより、上述の表示装置として機能させるプログラムとして実現することができる(請求項5〜8)。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ(請求項9)、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置をそれぞれ表示部1、映像移動部2(X,Y軸制御部3、Z軸制御部4(移動速度制御部6、補助線制御部7))として機能させ、マウスなどの2次元ポインティングデバイス以外に付加的なデバイスを用いることなく3次元空間内でオブジェクトをドラッグ操作できる表示装置および表示方法を実現することができる。また、上記機能をキーボード操作などの付加的操作による2次元移動面の切り替えなしに2次元ポインティングデバイスのみで可能とする表示装置および表示方法を実現することができる。
【0033】
以下では、本実施形態をさらに詳細に説明する。図3、図6、図7は2次元平面のドラッグ&ドロップを示す図である。図4および図5は本実施形態の3次元空間内のドラッグ&ドロップを示す図である。図8は視野錘を示す図である。図9は本実施形態の円筒領域半径を示す図である。図10は本実施形態の上昇気流/下降気流を示す図である。図11および図12は本実施形態のマウス移動面を示す図である。図13は投影面拡張部を示す図である。図14は本実施形態のドラッグ&ドロップの動作を示すフローチャートである。
【0034】
一般にマウスデバイスによる入力は2次元動作の入力であり、3次元の位置を指示するためには付加的な仕組みまたは方法が必要である。マウスデバイスにボタン類が数多くある場合は、マウス操作による3次元空間内の移動可能な2次元領域であるマウス移動面をマウスボタンにより切り替える方法が簡易に実現可能である。しかし、マウスボタン類に多くの操作が割り当てられて空きがない場合など、この方法を用いるのが困難な状況がある。本発明では、このような状況のもとでもマウスデバイスによる3次元GUI中でのドラッグ&ドロップを実現することを目的としている。本発明の方法によると、マウスに必要なボタン類はドラッグのための1ボタンのみで実現可能であり、付加的なハードウェアデバイスを必要としない。
【0035】
本発明では3次元GUI中のカメラ投影面の両側端付近を利用する。図8の視野錘中において、カメラ投影面の両端付近には通常のGUIではこの領域はゲーム、シミュレーションなどの特殊な用途を除き、アイコンなどの物体は配置されないことが多い。そこで、図10のように、この部分にある一定速度の上昇/下降気流(上下移動)を導入する。
【0036】
マウスによるアイコンなど3次元GUI中の物体のドラッグの際には、図3から図4のようにマウス操作に応じて被ドラッグ物体を通り水平線に平行する面(マウス移動面)の上を移動する。なお、マウス移動面の取り方には実施例において述べるように複数種類あり得る。被ドラッグ物体がカメラ投影面の側端に達すると予め設定された速度で上昇/下降する。適度な高度に達した時点で側端より離れると、図5から図6および図7のように上昇/下降は止まり、新たなマウス移動面により移動が可能となる。
【0037】
物体の上下位置の調整はマウスによる物体移動のタイミングに依存するため細かな調整は困難であり、形状のモデリング、デザインなど詳細な位置調整が必要となる作業には向かないが、通常のGUI操作としてのドラッグ&ドロップのようにある程度の誤差が許容される状況では特に問題とはならない。
【0038】
ドラッグ&ドロップ操作においてはドロップ先物体と上下位置を合わせることが可能であれば十分であり、これは上下移動中に図4および図5のようにドラッグ中物体を通るマウス移動面のグリッドを表示、図5のようにグリッド面に当たった物体のハイライト表示などを併用して行うことで容易に可能となる。
【0039】
ユーザが物体を上下方向移動する作業は3ステップ(カメラ投影面両端への移動、上下移動、カメラ投影面両端からの移動)から成り、このうち上下移動以外はユーザの習熟による時間短縮が期待できる。上下移動に関してはユーザの習熟度が反映されないステップのため、習熟者によるドラッグ&ドロップの操作時間はこのステップに大きく依存することとなる。
【0040】
上下移動の速度は上下位置合わせに必要な精度と上下移動時間との間のトレードオフとなっており、位置合わせの精度に関してはアプリケーションの種類やユーザの習熟度にも依存するため一意に最適な値を決定することは難しい。これに対処するため場による上昇/下降気流の速度差を導入する。すなわち、カメラ投影面両端からマウス移動面上で一定の距離内に入ると上昇/下降気流に遭遇しその速度はカメラ投影面両端からの距離に応じて速くなるものとする。これにより、ユーザはカメラ投影面両端からの距離を調整することで上昇/下降の速度を調整することが可能となり、上下位置調整の精度を保ちつつ、上下方向に大きく移動する際の移動時間を短縮することが可能となる。
【0041】
ユーザ視界の端となる、カメラ投影面両側端近傍にある速度の上昇/下降気流(上下移動)を導入することで、マウスによる2次元移動と上下方向へのもう1次元の移動を可能とする。同時に、上下移動中は、ドラッグする物体の2次元移動面のグリッドを表示すると共に、グリッドと交差しているドロップ可能物体をハイライト表示することにより、ユーザに移動面の動きを認識させると共に、ドラッグ先との上下位置を比較できるようにして上下方向移動の精度を充分に高くできるようにする。
【0042】
従来技術とは、付加的なハードウェアデバイスを要しない点、一回のドラッグ操作で3次元空間内を移動可能な点が異なる。
【0043】
(第一実施例)
マウス移動面をドラッグ開始時に次のように設定する。つまり、図9のようにカメラ、ドラッグ物体の2点を通り水平線(カメラ投影面の下端の辺)に平行な面をマウス操作による2次元移動面とする。図9のカメラ投影面両端を軸とし、円筒領域半径で決まる円柱領域に物体が入った時点で上下移動が始まる。
【0044】
この方法ではマウス移動面の計算は簡単であり、視野内の全ての物体を視野内の全ての位置に移動可能であるが、ユーザ視点から見たマウス移動面が直線となってしまうため、慣れるまではユーザの使い勝手に多少の難がある。
【0045】
この2次元移動の実装法は図14のようにマウス移動イベントにより呼び出されるコールバックルーチンに、ドラッグされている物体の3次元座標を動かすコードを埋め込むだけである。具体的にはマウス移動のイベントが届くたびに視点とマウスポインタを結ぶ直線と、マウス移動面との交点を計算し、物体の新たな3次元座標とする。マウスポインタがカメラ投影面の側端を中心とする円柱領域に入った場合には、タイマ起動されるルーチン(タイマイベント)に物体を登録する。タイマ起動されるルーチンは一定時間毎に登録された物体の3次元座標を上または下に規定された速度で動かす。同時にマウスポインタも同じく移動させる。マウスポインタが円筒領域を脱出した場合にはタイマ起動ルーチンへの登録を外す。また、物体がドロップされた場合にも物体の登録を外す。物体がドラッグ開始された時点で既に円筒領域内であった場合にはドラッグ開始時点で直ちに登録を行う。
【0046】
ドラッグ中の物体に対してはマウス移動面を表す網目状の別物体のデータを定義してグリッドを表示する。このグリッド表示はドロップの時点でデータ定義を外し、止める。グリッド表示の平面と他の物体との交差判定は、平面と物体の重心との距離に基づいてタイマルーチンが呼ばれる度に行い、ドロップ対象となり得る物体で平面と交差していると判定された場合はハイライト属性をオンに、そうでない場合はオフにする。
【0047】
すなわち、図14に示すように、イベントが発生し、マウスボタンが押下されると(ステップ1)、2次元画面上のマウスカーソルと重なる最手前オブジェクトのドラッグを開始する(ステップ5)。マウスボタンを離すと(ステップ2)、ドラッグを終了する(ステップ6)。また、マウスボタンを離さずに(ステップ2)、マウスを移動すると(ステップ3)、マウスカーソル位置を計算して修正する(ステップ7)。まだドラッグ中ならばこの処理を繰り返す(ステップ8)。ドラッグ中でなければ、オブジェクト位置を計算して修正する(ステップ9)。また、マウスボタンを離さず(ステップ2)、マウスを移動させないときには(ステップ3)、タイマイベントであれば(ステップ4)、円筒領域内のマウスカーソル、オブジェクト位置を計算して修正する(ステップ10)。
【0048】
(第二実施例)
タイマ起動されるルーチン以外の部分については第一実施例と同じ方法で実現可能である。タイマ起動されるルーチンにおいては図10のカメラ投影面両端の円筒領域のように上昇/下降気流を導入する。すなわち、物体の重心座標と円筒領域中心線との距離を計算し、円筒側面で速度0、円筒中心で予め設定された比較的大きい速度となるよう線形補間で距離に応じた速度を決定し、決定された速度に応じた上下移動を行う。
【0049】
(第三実施例)
マウス移動面を、図11のようにドラッグされる物体を通り地平面に平行な面とする実施例である。基本的な実現方法は第一実施例、第二実施例と同じである。ユーザ視点からは地平面に平行なマウス移動面が見えるため、初心ユーザでも直感的に扱い易い構成となる。ただし、カメラ投影面より遠く離れた物体に関しては、物体を円筒領域に入れるためには一旦、物体をカメラの視野外に出す必要があり、このような物体のドラッグ&ドロップを扱うGUIには適用が困難である。
【0050】
(第四実施例)
図12のように、カメラ点に対しカメラマンの足に相当する着地点をカメラ点の下方に定義し、ドラッグされる物体と着地点を通り水平線に平行な面をマウス移動面とする実施例である。
【0051】
基本的な実現方法は第一実施例、第二実施例と同様である。第三実施例と同様に物体を円筒領域に入れるためには、一旦視野外にドラッグしなければならない場合が生じる。しかし、物体の3次元座標は視野外であっても視野錘から着地点で規定される距離以上には離れないため、物体の仮想的な影を視野に落とせば物体の位置を容易に推測可能となる。
【0052】
また図13のように、カメラ投影面より少し広い範囲(投影面拡張部)のマウスイベントを捕らえれば視野外でのドラッグを追い続けることも可能となる。この実施例ではカメラ投影面とカメラ点との間にある物体(視野錘と着地点からの錘が重ならない部分の物体)を円筒領域にドラッグすることが困難となるため、このような物体のドラッグ&ドロップを扱うGUIの場合には適用困難である。
【0053】
(実施例まとめ)
マウス装置による2次元平面内のドラッグに加え、上昇/下降気流のメタファーによる上下移動により、3次元空間内での物体を移動させることが可能となる。また、この操作は比較的初心者でも短時間で習得可能である。さらに、2次元移動面のグリッド表示と、物体のハイライト効果により比較的初心者でも3次元空間内での物体を別の物体へドラッグ&ドロップする操作を容易に行えるようになる。
【0054】
【発明の効果】
以上説明したように、本発明によれば、マウスなどの2次元ポインティングデバイス以外に付加的なデバイスを用いることなく3次元空間内でオブジェクトをドラッグ操作できる。また、上記機能をキーボード操作などの付加的操作による2次元移動面の切り替えなしに2次元ポインティングデバイスのみで可能とする。
【図面の簡単な説明】
【図1】本実施形態の表示装置の構成図。
【図2】本実施形態のZ軸制御部のブロック構成図。
【図3】2次元平面のドラッグ&ドロップを示す図。
【図4】本実施形態の3次元空間内のドラッグ&ドロップを示す図。
【図5】本実施形態の3次元空間内のドラッグ&ドロップを示す図。
【図6】2次元平面のドラッグ&ドロップを示す図。
【図7】2次元平面のドラッグ&ドロップを示す図。
【図8】視野錘を示す図。
【図9】本実施形態の円筒領域半径を示す図。
【図10】本実施形態の上昇気流/下降気流を示す図。
【図11】本実施形態のマウス移動面を示す図。
【図12】本実施形態のマウス移動面を示す図。
【図13】投影面拡張部を示す図。
【図14】本実施形態のドラッグ&ドロップの動作を示すフローチャート。
【符号の説明】
1 表示部
2 映像移動部
3 X,Y軸制御部
4 Z軸制御部
5 マウス
6 移動速度制御部
7 補助線制御部
10 ディスプレイ
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention is suitable for use in a three-dimensional GUI (Graphical User Interface) system. In particular, the present invention relates to a technique that allows a user to drag an object in a GUI to an arbitrary position using a two-dimensional pointing device such as a mouse.
[0002]
[Prior art]
Conventionally, there are many three-dimensional GUIs or three-dimensional applications as in Non-Patent Document 2. In such a system, various studies and inventions have been made on a method of designating a point in a three-dimensional space. Similar to the method described in Patent Document 1, there are many systems that realize pointing and operation in a three-dimensional GUI using only two-dimensional pointing using constraint conditions such as an application. As a solution in the case where three-dimensional pointing is required, a method using a dedicated pointing device as described in Patent Literature 2, Patent Literature 3, and Patent Literature 4 is known.
[0003]
However, such a method requiring a dedicated device has a problem in that the cost is increased and the user needs to master the usage. As a method realized by software, a method using two-step input is known as in Non-Patent Document 1, but it is different from human intuitive pointing in a three-dimensional space. was there. Also, a method of performing three-dimensional pointing step by step by preparing an additional tool in the software is to specify a coordinate axis as in Patent Literature 5, and to specify a two-dimensional plane defined by two unspecified coordinate axes. Many methods, such as a method of sequentially pointing a position at a location and a method of specifying a two-dimensional plane to be moved by key operation or the like, are used in many applications such as a three-dimensional CAD system.
[0004]
[Patent Document]
JP-A-10-333819
[Patent Document 2]
JP 2001-311058 A
[Patent Document 3]
JP-A-10-171591
[Patent Document 4]
JP-A-09-288541
[Patent Document 5]
JP-A-10-293864
[Non-patent document 1]
"Realization of UIMS based on 3D CG", Nobuo Asahi and three other authors, Information Processing Society of Japan, research report "Software Engineering" No. 093-014, 1993
[Non-patent document 2]
"Net space cruising technology InfoLead in the light age", Takashi Kawamura et al., 3 authors, NTTR & D Vol. 49 No. 10, 2000.
[0005]
[Problems to be solved by the invention]
The first problem is that the cost is increased by realizing three-dimensional pointing using a dedicated input device. The reason is that additional hardware is required.
[0006]
The second problem is that it is difficult for beginners to start using. The reason is that three-dimensional movement cannot be performed unless switching of the moving surface is performed by key input or the like which cannot be understood without referring to a manual or the like. Further, there is a case where this switching operation is not so simple as to be noticed while playing with the mouse.
[0007]
The present invention has been made in such a background, and provides a display device and a display method capable of dragging an object in a three-dimensional space without using an additional device other than a two-dimensional pointing device such as a mouse. The purpose is to provide. It is another object of the present invention to provide a display device and a display method which enable the above-described functions only with a two-dimensional pointing device without switching a two-dimensional moving surface by an additional operation such as a keyboard operation.
[0008]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided means for displaying an image in a three-dimensional space on a screen, and forming an image of an object placed in the image in the three-dimensional space in response to an operation of a mouse pointer. And a means for dragging and dropping in two axis directions excluding one axis from three axes (X, Y, Z).
[0009]
Here, the feature of the present invention is that the screen is a quadrilateral, and the image of the object dragged and dropped into a predetermined area close to one of two opposite sides of the screen is the same as the image. For the image of the object dragged and dropped in a predetermined area close to the other of the two opposite sides, the means for dragging and dropping moves in the positive direction about the one axis excluded from the object of dragging and dropping. The means for dragging and dropping includes moving means for moving in a negative direction about the one axis excluded from the object of dragging and dropping (claim 1).
[0010]
That is, a two-dimensional pointing device such as a mouse can move an image of an object in an image in a three-dimensional space only in two axial directions. The present invention is characterized in that the movement in the remaining one axis direction is triggered by the drag and drop of the image of the moving object to a predetermined area provided at the side edge of the screen. Thus, the user can realize the movement in the remaining one axis direction simply by dragging and dropping the image of the object to be moved to the left or right or up and down of the screen.
[0011]
Further, the predetermined area includes an area extending from a side of the screen constituting the predetermined area to a position away from the side of the screen by a predetermined distance in the side direction, and the moving unit is dragged and dropped into the predetermined area. Means for varying a moving speed of the image of the object according to a positional relationship from a side of the screen constituting the predetermined region of the image of the object (claim 2).
[0012]
According to this, the user can arbitrarily change the moving speed. For example, when the image of the object is brought into contact with the side of the screen, the moving speed is set to be the fastest, and conversely, within the range of the predetermined area, the image of the object is farthest from the side of the screen. At this time, the moving speed is set to be the slowest. This allows the user to drag and drop the image of the object to a position where the moving speed desired by the user can be obtained.
[0013]
As the image of the object is moved by the dragging and dropping means on the one axis excluded from the drag and drop object by the moving means, the image of the object is constituted by two axes other than the one axis. Means may be provided for displaying an image of an auxiliary line for specifying the two-dimensional plane including the auxiliary line.
[0014]
According to this, since the user can easily grasp the positional relationship with the other two axes while moving the image of the object on one axis, for example, the image of the object goes too far from a desired position. Operational failure such as near-hand can be avoided.
[0015]
Further, it is possible to provide a means for clearly displaying an image of another object included in the two-dimensional plane (claim 4). According to this, since the user can visually grasp the positional relationship between the image of the object he is moving and the image of another object, for example, the image of the object goes too far from a desired position. Operation failure, such as a short or near side, can be avoided.
[0016]
According to a second aspect of the present invention, there is provided means for displaying an image in a three-dimensional space on a screen, and forming an image of an object placed in the image in the three-dimensional space according to an operation of a mouse pointer. And a means for dragging and dropping in two axis directions excluding one axis from three axes (X, Y, Z).
[0017]
Here, the feature of the present invention is that, by installing the information processing device in the information processing device, the screen has a quadrilateral shape, and a predetermined area close to one of two opposite sides of the screen. With respect to the image of the object dragged and dropped inside, the dragging and dropping means moves in a positive direction about the one axis excluded from the dragging and dropping, and moves the predetermined axis close to the other of the two opposite sides. For the image of the object dragged and dropped in the area of the above, the drag and drop means realizes a movement function of moving in a negative direction about the one axis excluded from the object of the drag and drop (claim). Item 5).
[0018]
Further, the predetermined area includes an area from a side of the screen constituting the predetermined area to a position away from the side of the screen by a predetermined distance in the opposite side direction, and is dragged and dropped into the predetermined area as the movement function. Further, a function of varying the moving speed of the image of the object according to the positional relationship from the side of the screen constituting the predetermined region of the image of the object can be realized.
[0019]
Further, as the means for dragging and dropping the image of the object by the moving function moves on the one axis excluded from the object of the drag and drop, the image of the object is constituted by two axes other than the one axis. It is also possible to realize a function of displaying an image of an auxiliary line for specifying a two-dimensional plane including an image (claim 7). Further, it is possible to realize a function of clearly displaying an image of another object included in the two-dimensional plane (claim 8).
[0020]
A third aspect of the present invention is a recording medium readable by the information processing device, on which the program of the present invention is recorded (claim 9). Since the program of the present invention is recorded on the recording medium of the present invention, the information processing apparatus can install the program of the present invention using the recording medium. Alternatively, the program of the present invention can be directly installed on the information processing apparatus from a server holding the program of the present invention via a network.
[0021]
Accordingly, a display device and a display method capable of dragging an object in a three-dimensional space using an information processing device such as a computer device without using an additional device other than a two-dimensional pointing device such as a mouse are realized. Can be. Further, it is possible to realize a display device and a display method in which the above function can be performed only by a two-dimensional pointing device without switching a two-dimensional moving surface by an additional operation such as a keyboard operation.
[0022]
According to a fourth aspect of the present invention, on a screen on which a three-dimensional space image is displayed, an image of an object placed in the three-dimensional space image is configured in a three-dimensional space according to an operation of a mouse pointer. This is a display method of dragging and dropping in each of two axes directions excluding one axis from three axes (X, Y, Z).
[0023]
Here, the feature of the present invention is that the screen is a quadrilateral, and the image of the object dragged and dropped into a predetermined area close to one of two opposite sides of the screen is dragged. The image of the object dragged and dropped in a predetermined area close to the other of the two opposing sides is moved in the positive direction with respect to the one axis excluded from the object of the drag & drop. The above one axis is moved in the negative direction (claim 10).
[0024]
The predetermined area includes an area extending from a side of the screen constituting the predetermined area to a position separated from the side of the screen by a predetermined distance in the opposite side direction, and the image of the object dragged and dropped into the predetermined area. The moving speed of the image of the object can be varied according to the positional relationship from the side of the screen constituting the predetermined area.
[0025]
Further, as the image of the object moves on the one axis which is excluded from the object of drag and drop, the image of the object is constituted by two axes other than the one axis, and specifies a two-dimensional plane including the image of the object. The image of the auxiliary line can be displayed (claim 12). Furthermore, the image of another object included in the two-dimensional plane can be specified (claim 13).
[0026]
BEST MODE FOR CARRYING OUT THE INVENTION
The configuration of the display device according to the embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a configuration diagram of the display device of the present embodiment. FIG. 2 is a block diagram of the Z-axis control unit of the present embodiment.
[0027]
In the present embodiment, as shown in FIG. 1, a display unit 1 that displays a three-dimensional space image on a screen of a display 10, and is placed in the three-dimensional space image in response to a mouse 5 pointer operation. X and Y axis control of the image moving unit 2 for dragging and dropping the image of the object in two axes (X, Y) directions excluding one axis from three axes (X, Y, Z) constituting a three-dimensional space And a display device including the unit 3.
[0028]
Here, a feature of the present embodiment is that the screen of the display 10 is a quadrilateral, and the image of the object dragged and dropped into a predetermined area close to one of two opposite sides of the screen. Is moved in the positive direction about the Z-axis, which is excluded from the drag-and-drop target by the X- and Y-axis control units 3, and the object dragged and dropped into a predetermined area close to the other of the two opposite sides. For the image, the X, Y axis control unit 3 is provided with a Z axis control unit 4 for moving the Z axis excluded from the drag and drop target in the negative direction (claims 1 and 10).
[0029]
In the present embodiment, a description will be given assuming that an image of an object on a two-dimensional plane by the X axis and the Y axis is dragged and dropped in accordance with the operation of the pointer of the mouse 5, but the combination of axes constituting the two-dimensional plane is It is not limited.
[0030]
Further, the predetermined area includes an area extending from the side of the screen constituting the predetermined area to a position separated from the side of the screen by a predetermined distance in the side direction, and the Z-axis control unit 4 drags and drags into the predetermined area. A moving speed control unit configured to change a moving speed of the image of the object in accordance with a positional relationship from a side of the screen configuring the predetermined region of the image of the dropped object (claims 2 and 11); .
[0031]
Further, as the image of the object moves on the Z axis by the Z axis control unit 4, a two-dimensional plane including two images (X, Y) other than the Z axis and including the image of the object is specified. And an auxiliary line control unit 7 for displaying an image of an auxiliary line for the display (claims 3 and 12). Further, the auxiliary line control unit 7 includes means for clearly displaying an image of another object included in the two-dimensional plane (claims 4 and 13).
[0032]
The present invention can be realized as a program that functions as the above-described display device by being installed in a general-purpose information processing device (claims 5 to 8). The program is recorded on a recording medium and installed in the information processing apparatus (Claim 9), or installed in the information processing apparatus via a communication line, so that the information processing apparatus is displayed on the display unit 1 and the video moving unit, respectively. 2 (X, Y axis control unit 3, Z axis control unit 4 (movement speed control unit 6, auxiliary line control unit 7)) without using additional devices other than a two-dimensional pointing device such as a mouse. A display device and a display method capable of dragging an object in a three-dimensional space can be realized. Further, it is possible to realize a display device and a display method in which the above function can be performed only by a two-dimensional pointing device without switching a two-dimensional moving surface by an additional operation such as a keyboard operation.
[0033]
Hereinafter, the present embodiment will be described in more detail. FIGS. 3, 6, and 7 are views showing drag and drop on a two-dimensional plane. 4 and 5 are views showing drag and drop in a three-dimensional space according to the present embodiment. FIG. 8 is a diagram showing the field weight. FIG. 9 is a diagram showing the radius of the cylindrical region of the present embodiment. FIG. 10 is a diagram showing an updraft / downdraft according to the present embodiment. FIG. 11 and FIG. 12 are views showing the mouse moving surface of the present embodiment. FIG. 13 is a diagram illustrating the projection plane extension unit. FIG. 14 is a flowchart showing the drag and drop operation of the present embodiment.
[0034]
Generally, an input by a mouse device is an input of a two-dimensional operation, and an additional mechanism or method is required to specify a three-dimensional position. When the mouse device has a large number of buttons, it is possible to easily realize a method of switching a mouse moving surface, which is a movable two-dimensional area in a three-dimensional space, by a mouse button by a mouse operation. However, there are situations where it is difficult to use this method, for example, when many operations are assigned to mouse buttons and there is no room. An object of the present invention is to realize drag and drop in a three-dimensional GUI using a mouse device even in such a situation. According to the method of the present invention, the buttons required for the mouse can be realized with only one button for dragging, and no additional hardware device is required.
[0035]
In the present invention, the vicinity of both ends of the camera projection plane in the three-dimensional GUI is used. In the field weight shown in FIG. 8, an object such as an icon is often not arranged near the both ends of the camera projection plane in a normal GUI except for a special use such as a game or a simulation. Thus, as shown in FIG. 10, a rising / lowering airflow (vertical movement) at a constant speed in this portion is introduced.
[0036]
When dragging an object such as an icon with a mouse in a three-dimensional GUI, the mouse moves on a plane (mouse moving plane) that passes through the dragged object and is parallel to a horizontal line according to the mouse operation as shown in FIGS. . It should be noted that there may be a plurality of types of mouse moving surfaces as described in the embodiments. When the dragged object reaches the side edge of the camera projection plane, it moves up / down at a preset speed. When the vehicle reaches the appropriate altitude and moves away from the side edge, the ascent / descent stops as shown in FIGS. 5 to 6 and 7, and movement is possible with a new mouse movement surface.
[0037]
Adjustment of the vertical position of the object depends on the timing of the movement of the object with the mouse, so it is difficult to make fine adjustments. It is not suitable for work that requires detailed position adjustment such as shape modeling and design, but ordinary GUI operation There is no particular problem in situations where some error is allowed, such as in drag and drop.
[0038]
In the drag-and-drop operation, it is sufficient if the vertical position can be aligned with the object to which the drop is performed. This is to display the grid of the mouse moving plane passing through the object being dragged as shown in FIGS. 5, it can be easily realized by performing the highlight display of the object hitting the grid surface in combination.
[0039]
The operation of moving the object up and down by the user consists of three steps (movement to both ends of the camera projection plane, up and down movement, movement from both ends of the camera projection plane). Except for the up and down movement, it is expected that the user's skill can shorten the time. . Since the vertical movement is a step in which the user's skill level is not reflected, the drag-and-drop operation time by the skilled person greatly depends on this step.
[0040]
The vertical movement speed is a trade-off between the accuracy required for vertical positioning and the vertical movement time, and the positioning accuracy depends on the type of application and the user's proficiency. It is difficult to determine the value. In order to cope with this, a speed difference between the up / down airflow depending on the field is introduced. That is, if the vehicle enters a certain distance on the mouse movement plane from both ends of the camera projection plane, it encounters an upward / downward airflow, and its speed increases in accordance with the distance from both ends of the camera projection plane. This allows the user to adjust the ascending / descending speed by adjusting the distance from both ends of the camera projection plane, and to maintain the accuracy of the up / down position adjustment while reducing the moving time when moving largely in the up / down direction. It can be shortened.
[0041]
Introducing the upward / downward airflow (vertical movement) near the both sides of the camera projection plane, which is the end of the user's field of view, enables two-dimensional movement by the mouse and another one-dimensional movement in the vertical direction. . At the same time, while moving up and down, the grid of the two-dimensional moving surface of the object to be dragged is displayed, and the droppable object that intersects the grid is highlighted to allow the user to recognize the movement of the moving surface, The vertical position with the drag destination can be compared so that the accuracy of the vertical movement can be sufficiently increased.
[0042]
It differs from the prior art in that no additional hardware device is required and that it can be moved in a three-dimensional space by a single drag operation.
[0043]
(First embodiment)
Set the mouse movement plane as follows when dragging starts. That is, as shown in FIG. 9, a plane that passes through two points of the camera and the drag object and is parallel to a horizontal line (the lower side of the camera projection plane) is defined as a two-dimensional movement plane by mouse operation. The vertical movement starts when an object enters a cylindrical area determined by the radius of the cylindrical area with both ends of the camera projection plane in FIG. 9 as axes.
[0044]
In this method, the calculation of the mouse movement plane is easy, and all objects in the field of view can be moved to all positions in the field of view, but the mouse movement plane viewed from the user's viewpoint becomes a straight line, Until then, there are some difficulties in user convenience.
[0045]
This two-dimensional movement implementation method simply embeds a code for moving the three-dimensional coordinates of the object being dragged into a callback routine called by a mouse movement event as shown in FIG. Specifically, each time a mouse movement event arrives, the intersection of the straight line connecting the viewpoint and the mouse pointer and the mouse movement plane is calculated, and the calculated three-dimensional coordinates of the object are set. When the mouse pointer enters a cylindrical area centered on the side end of the camera projection plane, the object is registered in a timer-activated routine (timer event). The routine started by the timer moves the three-dimensional coordinates of the registered object at a predetermined speed at regular intervals. At the same time, move the mouse pointer. When the mouse pointer escapes from the cylindrical area, the registration to the timer start routine is removed. Also, when the object is dropped, the registration of the object is removed. If the object is already in the cylindrical area at the time of starting dragging, registration is performed immediately at the time of starting dragging.
[0046]
For an object being dragged, data of another mesh-like object representing the plane on which the mouse is moved is defined and a grid is displayed. This grid display removes the data definition at the time of the drop and stops. The intersection between the plane of the grid display and another object is determined each time the timer routine is called based on the distance between the plane and the center of gravity of the object, and it is determined that the object that can be a drop target intersects the plane. Turns the highlight attribute on, otherwise turns it off.
[0047]
That is, as shown in FIG. 14, when an event occurs and the mouse button is pressed (step 1), the dragging of the foreground object overlapping the mouse cursor on the two-dimensional screen is started (step 5). When the mouse button is released (step 2), the drag ends (step 6). When the mouse is moved without releasing the mouse button (step 2) (step 3), the position of the mouse cursor is calculated and corrected (step 7). If dragging is still in progress, this process is repeated (step 8). If it is not dragging, the object position is calculated and corrected (step 9). When the mouse button is not released (step 2) and the mouse is not moved (step 3), if it is a timer event (step 4), the mouse cursor and the object position in the cylindrical area are calculated and corrected (step 10). ).
[0048]
(Second embodiment)
Parts other than the routine started by the timer can be realized by the same method as in the first embodiment. In the routine started by the timer, an ascending / descending airflow is introduced as in the cylindrical regions at both ends of the camera projection plane in FIG. That is, the distance between the center of gravity coordinates of the object and the center line of the cylindrical region is calculated, and the speed according to the distance is determined by linear interpolation so that the speed becomes 0 at the side of the cylinder and a relatively large speed set in advance at the center of the cylinder. Move up and down according to the determined speed.
[0049]
(Third embodiment)
In this embodiment, the mouse movement surface is a surface that passes through the object to be dragged and is parallel to the ground plane as shown in FIG. The basic implementation method is the same as the first and second embodiments. Since the mouse movement plane parallel to the ground plane can be seen from the user's viewpoint, even a novice user can easily and intuitively handle. However, for an object farther from the camera projection plane, it is necessary to once move the object out of the field of view of the camera in order to put the object in the cylindrical area. This method is applied to a GUI that handles such object drag and drop. Is difficult.
[0050]
(Fourth embodiment)
As shown in FIG. 12, in the embodiment, a landing point corresponding to the cameraman's foot is defined below the camera point with respect to the camera point, and a plane passing through the dragged object and the landing point and parallel to the horizontal line is defined as a mouse movement plane. is there.
[0051]
The basic implementation method is the same as in the first and second embodiments. As in the third embodiment, in order to put the object in the cylindrical area, there is a case where the object must be once dragged out of the visual field. However, even if the object's three-dimensional coordinates are outside the field of view, it will not be more than the distance defined by the landing point from the field weight, so if the virtual shadow of the object is dropped on the field of view, the position of the object can be easily estimated. It becomes.
[0052]
In addition, as shown in FIG. 13, if a mouse event in a range slightly wider than the camera projection plane (projection plane expansion unit) is captured, dragging outside the field of view can be continued. In this embodiment, it is difficult to drag an object located between the camera projection plane and the camera point (an object in which the weight from the field of view and the weight from the landing point do not overlap) to the cylindrical area. It is difficult to apply to a GUI that handles drag and drop.
[0053]
(Example summary)
In addition to the drag in the two-dimensional plane by the mouse device, it is possible to move the object in the three-dimensional space by moving the up / down airflow up and down by the metaphor. Also, this operation can be learned in a relatively short time by even a beginner. In addition, the grid display of the two-dimensional moving surface and the highlight effect of the object enable relatively beginners to easily perform the operation of dragging and dropping the object in the three-dimensional space to another object.
[0054]
【The invention's effect】
As described above, according to the present invention, an object can be dragged in a three-dimensional space without using an additional device other than a two-dimensional pointing device such as a mouse. Further, the above function can be performed only by the two-dimensional pointing device without switching the two-dimensional moving surface by an additional operation such as a keyboard operation.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a display device according to an embodiment.
FIG. 2 is a block diagram of a Z-axis control unit according to the embodiment.
FIG. 3 is a diagram showing drag and drop of a two-dimensional plane.
FIG. 4 is an exemplary view showing drag and drop in a three-dimensional space according to the embodiment;
FIG. 5 is a view showing drag and drop in a three-dimensional space according to the embodiment;
FIG. 6 is a diagram showing drag and drop of a two-dimensional plane.
FIG. 7 is a view showing drag and drop of a two-dimensional plane.
FIG. 8 is a diagram showing a field weight.
FIG. 9 is a diagram showing a radius of a cylindrical region according to the embodiment.
FIG. 10 is a diagram showing an ascending airflow / a descending airflow according to the embodiment.
FIG. 11 is a view showing a mouse moving surface according to the embodiment;
FIG. 12 is a view showing a mouse moving surface according to the embodiment;
FIG. 13 is a diagram showing a projection plane extension unit.
FIG. 14 is a flowchart showing a drag-and-drop operation according to the embodiment;
[Explanation of symbols]
1 Display
2 Video moving unit
3 X, Y axis control unit
4 Z axis controller
5 mice
6 Moving speed controller
7 Auxiliary line control unit
10 Display

Claims (13)

画面上に3次元空間の映像を表示する手段と、
マウスポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸方向にそれぞれドラッグ&ドロップする手段と
を備えた表示装置において、
前記画面は四辺形であり、前記画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について負方向に移動させる移動手段を備えた
ことを特徴とする表示装置。
Means for displaying an image in a three-dimensional space on a screen;
In response to the operation of the mouse pointer, the image of the object placed in the image of the three-dimensional space is dragged and dragged in two axis directions except one axis from three axes (X, Y, Z) constituting the three-dimensional space. A display device comprising:
The screen is a quadrilateral, and for an image of the object dragged and dropped in a predetermined area near one of two opposite sides of the screen, the dragging and dropping means is excluded from the drag and drop object. The image of the object dragged and dropped in a predetermined area close to the other of the two opposing sides is moved in the positive direction about the one axis. A display device comprising moving means for moving the one axis excluded from the object in the negative direction.
前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、
前記移動手段は、前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変する手段を備えた
請求項1記載の表示装置。
The predetermined area includes an area from a side of the screen constituting the predetermined area to a position separated by a predetermined distance in the side direction,
The moving unit changes a moving speed of the image of the object according to a positional relationship from a side of the screen constituting the predetermined region of the image of the object dragged and dropped into the predetermined region. The display device according to claim 1, further comprising:
前記移動手段により前記物体の映像が前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸上を移動するに伴い、当該1軸以外の2軸により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示する手段を備えた請求項1または2記載の表示装置。As the image of the object is moved by the dragging and dropping means on the one axis excluded from the object of the drag and drop by the moving means, the image of the object is constituted by two axes other than the one axis. 3. The display device according to claim 1, further comprising: means for displaying an image of an auxiliary line for specifying a two-dimensional plane including the auxiliary line. 前記2次元平面に含まれる他の物体の映像を明示する手段を備えた請求項3記載の表示装置。The display device according to claim 3, further comprising: a unit that explicitly displays an image of another object included in the two-dimensional plane. 画面上に3次元空間の映像を表示する手段と、
マウスポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸方向にそれぞれドラッグ&ドロップする手段と
を備えた表示装置に適用されるプログラムにおいて、
情報処理装置にインストールすることにより、その情報処理装置に、
前記画面は四辺形であり、前記画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸について負方向に移動させる移動機能を実現させる
ことを特徴とするプログラム。
Means for displaying an image in a three-dimensional space on a screen;
In response to the operation of the mouse pointer, the image of the object placed in the image of the three-dimensional space is dragged and dragged in two axis directions except one axis from three axes (X, Y, Z) constituting the three-dimensional space. In a program applied to a display device having means for dropping,
By installing it on an information processing device,
The screen is a quadrilateral, and for an image of the object dragged and dropped in a predetermined area near one of two opposite sides of the screen, the dragging and dropping means is excluded from the drag and drop object. The image of the object dragged and dropped in a predetermined area close to the other of the two opposing sides is moved in the positive direction about the one axis. A program for realizing a movement function of moving the one axis excluded from the object in the negative direction.
前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、
前記移動機能として、前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変する機能を実現させる
請求項5記載のプログラム。
The predetermined area includes an area from a side of the screen constituting the predetermined area to a position separated by a predetermined distance in the side direction,
A function of changing a moving speed of the image of the object according to a positional relationship from a side of the screen constituting the predetermined region of the image of the object dragged and dropped into the predetermined region as the moving function The program according to claim 5, which realizes:
前記移動機能により前記物体の映像が前記ドラッグ&ドロップする手段がドラッグ&ドロップの対象外とした前記1軸上を移動するに伴い、当該1軸以外の2軸により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示する機能を実現させる請求項5または6記載のプログラム。With the moving function, the image of the object is configured by two axes other than the one axis as the means for dragging and dropping moves on the one axis excluded from the drag and drop. The program according to claim 5, which realizes a function of displaying an image of an auxiliary line for specifying a two-dimensional plane including the auxiliary line. 前記2次元平面に含まれる他の物体の映像を明示する機能を実現させる請求項7記載のプログラム。The program according to claim 7, wherein the program realizes a function of clearly displaying an image of another object included in the two-dimensional plane. 請求項5ないし8のいずれかに記載のプログラムが記録された前記情報処理装置読み取り可能な記録媒体。A recording medium readable by the information processing device, wherein the program according to claim 5 is recorded. 3次元空間の映像が表示された画面上で、マウスポインタの操作に応じて当該3次元空間の映像中に置かれた物体の映像を3次元空間を構成する3軸(X、Y、Z)から1軸を除いた2軸方向にそれぞれドラッグ&ドロップする表示方法において、
前記画面は四辺形であり、前記画面の相対する二辺の一方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、ドラッグ&ドロップの対象外とした前記1軸について正方向に移動させ、前記相対する二辺の他方に近接した所定の領域内にドラッグ&ドロップされた前記物体の映像については、ドラッグ&ドロップの対象外とした前記1軸について負方向に移動させる
ことを特徴とする表示方法。
On the screen on which the image of the three-dimensional space is displayed, the image of the object placed in the image of the three-dimensional space according to the operation of the mouse pointer is converted into three axes (X, Y, Z) constituting the three-dimensional space. In the display method of dragging and dropping in two axes directions except one axis from,
The screen is a quadrilateral, and an image of the object dragged and dropped in a predetermined area near one of two opposite sides of the screen is positive with respect to the one axis which is excluded from the drag and drop. Moving the image in the direction, and moving the image of the object dragged and dropped into a predetermined area close to the other of the two opposite sides in the negative direction with respect to the one axis excluded from the drag and drop target. The display method characterized by the above.
前記所定の領域は、当該所定の領域を構成する前記画面の辺から一定の距離対辺方向に離れた位置までの領域を含み、
前記所定の領域内にドラッグ&ドロップされた前記物体の映像の前記所定の領域を構成する前記画面の辺からの位置関係に応じて当該物体の映像の移動速度を可変する
請求項10記載の表示方法。
The predetermined area includes an area from a side of the screen constituting the predetermined area to a position separated by a predetermined distance in the side direction,
The display according to claim 10, wherein a moving speed of the image of the object dragged and dropped in the predetermined region is changed according to a positional relationship from a side of the screen that forms the predetermined region of the image of the object dragged and dropped. Method.
前記物体の映像がドラッグ&ドロップの対象外とした前記1軸上を移動するに伴い、当該1軸以外の2軸により構成され、前記物体の映像を含む2次元平面を明示するための補助線の映像を表示する請求項10または11記載の表示方法。As the image of the object moves on the one axis, which is excluded from the object of drag and drop, an auxiliary line configured by two axes other than the one axis and specifying a two-dimensional plane including the image of the object The display method according to claim 10, wherein the image is displayed. 前記2次元平面に含まれる他の物体の映像を明示する請求項12記載の表示方法。13. The display method according to claim 12, wherein an image of another object included in the two-dimensional plane is specified.
JP2003139039A 2003-05-16 2003-05-16 Display device and method Pending JP2004341924A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003139039A JP2004341924A (en) 2003-05-16 2003-05-16 Display device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003139039A JP2004341924A (en) 2003-05-16 2003-05-16 Display device and method

Publications (1)

Publication Number Publication Date
JP2004341924A true JP2004341924A (en) 2004-12-02

Family

ID=33528243

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003139039A Pending JP2004341924A (en) 2003-05-16 2003-05-16 Display device and method

Country Status (1)

Country Link
JP (1) JP2004341924A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7828660B2 (en) 2005-05-09 2010-11-09 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
US8619025B2 (en) 2004-10-19 2013-12-31 Nintendo Co., Ltd. Storage medium having input processing program stored thereon and input processing device
JP2018120598A (en) * 2014-06-27 2018-08-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8619025B2 (en) 2004-10-19 2013-12-31 Nintendo Co., Ltd. Storage medium having input processing program stored thereon and input processing device
US8907896B2 (en) 2004-10-19 2014-12-09 Nintendo Co. Ltd. Storage medium having input processing program stored thereon and input processing device
US7828660B2 (en) 2005-05-09 2010-11-09 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
US8419540B2 (en) 2005-05-09 2013-04-16 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
US8690674B2 (en) 2005-05-09 2014-04-08 Nintendo Co., Ltd. Storage medium having game program stored thereon and game apparatus
JP2018120598A (en) * 2014-06-27 2018-08-02 キヤノンマーケティングジャパン株式会社 Information processing device, information processing system, control method thereof, and program

Similar Documents

Publication Publication Date Title
US11551410B2 (en) Multi-modal method for interacting with 3D models
US10290155B2 (en) 3D virtual environment interaction system
JP5752715B2 (en) Projector and depth camera for deviceless augmented reality and interaction
US8836646B1 (en) Methods and apparatus for simultaneous user inputs for three-dimensional animation
WO2017222208A1 (en) Remote hover touch system and method
US11068155B1 (en) User interface tool for a touchscreen device
JP7241462B2 (en) Fast manipulation of objects in 3D scenes
CN107003804B (en) Method, system and non-transitory computer readable recording medium for providing prototype design tool
JP2009516293A (en) Shadows that can be gripped in the 3D model
CN105103112A (en) Apparatus and method for manipulating the orientation of object on display device
EP3179451B1 (en) A computer-implemented method for drawing a polyline in a three-dimensional scene
CN107924268B (en) Object selection system and method
JP2006039872A (en) Information processing method and information processor
JP2004341924A (en) Display device and method
JPH11232010A (en) Method and device for three-dimensional instruction
JP2020068007A (en) Building facility display system, terminal device, and program
US20130090895A1 (en) Device and associated methodology for manipulating three-dimensional objects
JP5229141B2 (en) Display control apparatus and display control method
WO2009104227A1 (en) Game device, game control method, and game control program
JP5506158B2 (en) GAME DEVICE, GAME CONTROL METHOD, AND GAME CONTROL PROGRAM
JP6239581B2 (en) Information processing apparatus, information processing method, and program
JP6002346B1 (en) Program, method, electronic apparatus and system for displaying object image in game
JP2021157696A (en) Review device, review system, and review method
CN116431035A (en) Interactive method, device, electronic equipment, medium and product
JPH01100621A (en) Three-dimensional coordinates input device