JP2004110358A - Method of controlling selection of object - Google Patents

Method of controlling selection of object Download PDF

Info

Publication number
JP2004110358A
JP2004110358A JP2002271461A JP2002271461A JP2004110358A JP 2004110358 A JP2004110358 A JP 2004110358A JP 2002271461 A JP2002271461 A JP 2002271461A JP 2002271461 A JP2002271461 A JP 2002271461A JP 2004110358 A JP2004110358 A JP 2004110358A
Authority
JP
Japan
Prior art keywords
selection candidate
selection
candidate group
function
mouse
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002271461A
Other languages
Japanese (ja)
Inventor
Yasushi Wakabayashi
若林 泰
Katsutoshi Horii
堀井 克敏
Yusuke Totsuka
戸塚 裕介
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2002271461A priority Critical patent/JP2004110358A/en
Publication of JP2004110358A publication Critical patent/JP2004110358A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To efficiently decide an object to be selected among various kinds of objects by freely switching regulations for deciding candidates to be selected. <P>SOLUTION: This method of controlling selection of object is provided with a first step for selecting one of a plurality of regulations for deciding candidates to be selected and a second step for deciding the candidates to be selected on the basis of the selected regulation. The first step selects the regulation corresponding to a click button upon operation of a mouse for clicking the button. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータプログラムによって表示装置画面上に表示された2次元または3次元のオブジェクト群のうちユーザの操作対象とするオブジェクトを選択する際に、どのオブジェクトを選択候補オブジェクトとして決定するかを制御するオブジェクトの選択制御方法に関するものである。
【0002】
【従来の技術】
従来において、2次元または3次元形状オブジェクトを操作するコンピュータグラフィックスのアプリケーションにおいては、通常、マウス操作によって操作対象のオブジェクトを指定する。
従来、このようなアプリケーションにおいては、操作対象とするオブジェクトをユーザが指定するためのインタフェースの多くは、「視点と画面上のマウスイベント発生位置とを結ぶ直線上に存在するオブジェクト群の中から選択候補群が抽出される」というものであった。
したがって、例えば1本のパイプの中に内包されるオブジェクト群のように、論理的には関連の深いオブジェクト間同士であっても、他オブジェクトを排他してそれらに限定して選択候補群となるということはなく、パイプが不透明で内包オブジェクトが可視化されていない等、マウスの反応対象となりにくいオブジェクトは、選択候補になりにくい状況にあった。すなわち「マウスに反応できない状況にあるオブジェクトは選択不可」という規則で固定化されていた。
そこで、従来において、オブジェクトの存在環境に応じて自在に選択候補に含めるといった選択制御方法について本願出願人が提案したものがある(例えば、特許文献1参照)。
【0003】
【特許文献1】
特願2001−172416号
【0004】
【発明が解決しようとする課題】
しかしながら、上記の従来技術にあっては、選択候補として決定する規則を固定しているために、多種多様のオブジェクトに対し効率良く対応できないという問題があることが判明した。
例えば、人体の内部の観察をシミュレーションする3次元アプリケーションにおいて、血管中に混入したある物質オブジェクト(混入オブジェクト)をマウスで選択して操作したい場合に、血管は種々臓器や骨格、筋肉、皮膚で覆われ、ユーザからはそのオブジェクトが見えていない場合を想定する。このような状況において、混入オブジェクトを選択しようとすると、ユーザから見て手前に位置する臓器等のオブジェクト及び混入オブジェクトを内包している血管オブジェクトを一時的に非表示もしくは半透明にする等して、当該混入オブジェクトを可視化する必要がある。すなわち、「確実に血管内にある。」とわかっているにも拘わらず、混入オブジェクトを選択する操作が非常に面倒になるという問題が生じている。これは、選択候補を決定する規則が一律に固定化され、切り替えることができないために生じている問題である。
【0005】
本発明の目的は、選択候補を決定する規則を自在に切り替え、多種多様なオブジェクトに対し効率良く選択対象のオブジェクトを決定することができるオブジェクトの選択制御方法を提供することにある。
【0006】
【課題を解決するための手段】
上記目的を達成するために、本発明に係るオブジェクトの選択制御方法は、選択候補となるオブジェクトを決定する複数の規則のうち1つを選択する第1のステップと、選択された規則に従い、選択候補とするオブジェクトを決定する第2のステップとを備えることを特徴とする。
また、前記第1のステップが、マウスのクリックボタン操作を受け、操作されたクリックボタンに対応付けられた規則を選択するものであることを特徴とする。
【0007】
【発明の実施の形態】
以下、本発明を実施する場合の一形態を図面を参照して具体的に説明する。
図1は、本発明を適用したシステムの一実施形態を示す全体構成図である。
図1において、100は本発明に係るオブジェクトの選択制御方法方を実現する処理を行う計算機である。この計算機100は、キーボード101とディスプレイ102、CPU103、マウス104、プログラムメモリ105、データメモリ106とから構成される。
計算機100のプログラムメモリ105には、計算機全体を制御するオペレーティングシステム105aと、ユーザによるマウス操作などのイベントを各オブジェクトに配送するイベントディスパッチャ105b、データメモリ106に格納された各種3次元オブジェクト(1)〜(n)106a〜106cに対応するオブジェクト(1)〜オブジェクト(n)プログラム105c〜105eが格納されている。オブジェクトi(i=1〜n)プログラムは、オブジェクトの動作を規定するプログラムである。
【0008】
データメモリ206には、3次元オブジェクト(1)106a、オブジェクト(2)106b、...オブジェクト(n)106cといった各種オブジェクトが格納されている。
【0009】
3次元オブジェクトを表示装置画面に表示する際には、視点から見える視野を設定するが、視点から見て投影面の手前側で見える範囲を前平面の位置で設定し、奥行き方向に見える範囲を後平面の位置で設定する。本実施形態では、図2に示すように、視点位置201を基準として、投影面203と後平面205の位置(ワールド座標系でのZ軸方向の位置)D1,D2を設定し、ローカル座標系で定義された3次元オブジェクトをワールド座標系上の投影面座標系の2次元投影像に透視変換を行って投影面203に表示する。前平面204と後平面205の間の四角錘形状の3次元空間が3次元オブジェクトのビューバリューである。投影面203に投影される3次元オブジェクト206は注視点202を原点とし、z軸を支軸方向とする始点座標系での支軸方向に応じて変化する。
なお、本実施形態で扱う3次元オブジェクトの生成方法については、本願出願人が先に出願した特願2001−172416号に詳しく記載しているので、その説明は省略する。
【0010】
図3は、本発明で用いられるアプリケーション例のオブジェクトの概念図である。301はシステムのグローバルなメモリ領域を示す。302は、選択対象候補オブジェクト群(以下、選択候補群と称す)を取得するカレントの有効な関数のアドレス領域である。303は、302の関数により取得された選択候補群オブジェクトを保持しておくための領域である。304は現在有効な選択候補群取得規則を定義する関数を設定する関数のアドレス領域である。305は選択候補群取得デフォルト関数のアドレスである。306a、b、cはオブジェクトである。
307a、bは選択候補群取得関数定義ボタン(1)、(2)であり、これらが個々にメンバ変数、選択候補群取得関数及びその他のメンバ関数を持っている。
【0011】
図4は、2次元、3次元グラフィックスアプリケーションにおける選択対象オブジェクトの構造を示す図である。
各オブジェクトは、401に示すように色、透明度、座標変換行列、形状データ等の共通属性を有し、402で示されるメンバ関数群においてこれら共通属性を参照、更新可能となる。なお、図4に示すオブジェクトの属性や関数については、本願出願人が先に出願した特願2001−172416号に詳しく記載しているので、その説明は省略する。
以下、本実施形態における処理の流れについて説明する。
【0012】
図5は、オペレーティングシステム105aから起動されるイベントディスパッチャ105bの処理を示すフローチャートである。
まず、イベントディスパッチャ105bは、オブジェクト選択に関するマウスイベント(e)が発生した場合に、選択候補群取得関数設定関数(e)を実行する(ステップ501)。必要に応じて選択候補群取得カレント関数アドレス領域302を変更する。
次に、ステップ501で設定された選択候補群取得関数設定関数(e)により設定された選択候補群取得関数を用いて選択候補群となるオブジェクトを抽出し、選択候補群保持領域303に保持する(ステップ502)。
その後、抽出された選択候補群のオブジェクト中から、ある規則に対応したオブジェクト選択関数(e)を実行する、もしくはユーザインタフェース等を介して最終的な選択オブジェクトが1つ決定され(ステップ503)、それを返却する(ステップ504)。
【0013】
図6は、デフォルトの選択候補群取得関数の処理を示すフローチャートであり、最も典型的な選択候補群取得ロジックを適用している。
まず、選択候補群保持領域303を空にする(ステップ601)。そして、ステップ602と605で形成される以下の処理を、全選択候補群の個々のオブジェクトに対して実行する。
すなわち、個々のオブジェクトaについてマウスカーソルにより貫通されるオブジェクトかどうか判定し(ステップ603)、真ならば当該オブジェクトaは選択対象候補となり得るということであり、これを選択候補群に追加する(ステップ604)。そして最終的に選択候補群を返却する(ステップ606)。
【0014】
図7は、「自身の内包オブジェクトのみを選択候補群とする。」というオブジェクトに独自に定義された選択候補群取得カレント関数の処理を示すフローチャートである。
まず、選択候補群保持領域303を空にする(ステップ701)。そして、ステップ702と705で形成される以下の処理を、全選択候補群の個々のオブジェクトaに対して実行する。
すなわち、個々のオブジェクトaについて、自身に内包されているオブジェクトならば当該オブジェクトは選択対象候補となり得るということであり、これを選択候補群に追加する(ステップ704)。そして、最終的に選択候補群を返却する(ステップ706)。
【0015】
図8は、「自身の隣接オブジェクトのみを選択候補群とする。」というオブジェクトに独自に定義された選択候補群取得カレント関数の処理を示すフローチャートである。
まず、選択候補群保持領域303を空にする(ステップ801)。そして、ステップ802と805で形成される以下の処理を、全選択候補群の個々のオブジェクトaに対して実行する。個々のオブジェクトaについて、自身に隣接しているオブジェクトならば当該オブジェクトaは選択対象候補となり得るということであり、これを選択候補群に追加する(ステップ804)。そして、最終的に選択候補群を返却する(ステップ806)。
【0016】
図9は、カレントの選択候補群取得関数を設定する処理関数(選択候補群取得設定関数(e)の処理を示すフローチャートである。
まず、マウスが押下されているかどうかを判定し(ステップ901)、されていなければ関数処理から抜けて、選択候補群取得関数設定処理は行わない(ステップ906)。マウスが押下されていた場合は、その時点でマウス直下に選択候補群取得関数fを独自に定義しているボタンオブジェクトpが存在するかを判定し(ステップ903)、その選択候補群取得関数のアドレスを選択候補群取得関数アドレス領域302に設定し(ステップ903)、関数の処理から抜ける(ステップ906)。
しかし、そのようなボタンオブジェクトが直下に存在しない場合には、マウス直下に選択候補群取得関数をデフォルトに戻すリセットボタンオブジェクトがあるかどうか判定し(ステップ904)、存在しなければ、関数の処理から抜け(ステップ906)、存在すればデフォルト選択候補群取得関数アドレスを選択候補群取得カレント関数アドレス領域302に設定し、関数の処理から抜ける(ステップ906)。
【0017】
図10は、人体の観察シミュレーションの例であり、1001を胃オブジェクト、1002を大腸オブジェクト、1003を小腸オブジェクトとする。今、小腸オブジェクト1003に有害な物質オブジェクト1004、1005、1006が混入されたとして、小腸1003内に確実に存在するが、どこにあるかはわからないものとする。この場合、選択候補群取得関数定義オブジェクト1007には、図7のフローチャートで示した選択候補群取得カレント関数が定義されているとすると、1007をクリックすることにより、この選択候補群取得カレント関数が有効となり、マウスカーソルを小腸オブジェクト1003上で左クリックすることにより、1004等の内包オブジェクトが検出され、内包オブジェクト1〜3として一覧表示され、容易にユ外物質オブジェクト1004を選択することができる。
リセットボタン1009を押下することにより、変更前の選択候補群取得カレント関数による選択規則に戻すことができる。
【0018】
図11も同様の例であり、1101を胃オブジェクト、1102を大腸オブジェクト、1103を小腸オブジェクトとする。今、選択候補群取得カレント関数定義オブジェクトには、図8のフローチャートで示した選択候補群取得カレント関数が定義されているとすると、選択候補群取得カレント関数定義オブジェクト1105をマウスクリックすることにより、この選択候補群取カレント関数が有効となり、マウスカーソルを大腸オブジェクト1102上で左クリックすることにより、小腸オブジェクト1103、胃オブジェクト1101等の隣接オブジェクトが検出され一覧表示され、容易に目的オブジェクトを選択することができる。そして、リセットボタン1006を押下することにより、変更前の選択候補群取得規則に戻すことができる。
【0019】
図12および図13も人体の観察シミュレーションの例であるが、押下するマウスボタンの切り替えにより、有効となる選択候補群取得規則を切り替える例を示す。1201、1301を胃オブジェクト、1202、1302を大腸オブジェクト、1203、1303を小腸オブジェクトとする。
今マウス1204の左ボタンクリックにより、その直下のオブジェクトが選択されるとすると、胃オブジェクト1201の上にマウスカーソルがある状態で、左ボタンをクリックすると胃オブジェクト1201が選択候補群として一覧表示される。
図13においては、マウスの右クリックにより、当該オブジェクトの内包オブジェクトが選択候補群となる規則が定義されているとすると、マウス右クリックを行うと、マウスカーソルが重なっているオブジェクト内の内包オブジェクト(1)〜(3)が選択候補群として抽出される。
【0020】
なお、上記の実施形態では、選択候補のオブジェクトを選択する規則を2つの場合について説明したが、本発明では2つ以上の場合にも適用可能であることは言うまでもない。
【0021】
【発明の効果】
以上の説明から明らかなように、本発明によれば、選択候補となるオブジェクトを決定する複数の規則を用意しておき、その中の1つを選択し、その選択された規則に従い、選択候補とするオブジェクトを決定するようにしたため、選択候補を決定する規則を自在に切り替え、多種多様なオブジェクトに対し効率良く選択対象のオブジェクトを決定することができる。
【図面の簡単な説明】
【図1】本発明を適用したシステムの一実施の形態を示す全体構成図である。
【図2】3次元オブジェクトを表示装置画面に表示する際に設定する投影面と後平面の位置の説明図である。
【図3】本発明の実施形態で使用するオブジェクト選択制御用の関数の例を示す図である。
【図4】本発明の実施形態で使用する選択対象オブジェクトの構造を示す図である。
【図5】イベントディスパッチャの処理を示すフローチャートである。
【図6】選択候補を取得する規則を元に戻すリセットボタンが操作された時に起動されるデフォルト選択候補群取得関数の処理を示すフローチャートである。
【図7】自身の内包オブジェクトを選択候補とする規則の選択候補群取得カレント関数の処理を示すフローチャートである。
【図8】自身の隣接オブジェクトを選択候補とする規則の選択候補群取得カレント関数の処理を示すフローチャートである。
【図9】選択候補を決定する複数の規則のうちいずれを使用するかを設定する選択候補群取得関数設定関数の処理を示すフローチャートである。
【図10】本発明を使用して人体の内臓オブジェクトを選択して観察する場合に、マウスカーソルが位置するオブジェクトの内包オブジェクトを選択候補として決定し表示した例を示す説明図である。
【図11】本発明を使用して人体の内臓オブジェクトを選択して観察する場合に、マウスカーソルが位置するオブジェクトの隣接オブジェクトを選択候補として決定し表示した例を示す説明図である。
【図12】本発明を使用して人体の内臓オブジェクトを選択して観察する場合に、マウス左ボタンによって選択候補として決定する規則を切り替える例を示す説明図である。
【図13】本発明を使用して人体の内臓オブジェクトを選択して観察する場合に、マウス右ボタンによって選択候補として決定する規則を切り替える例を示す説明図である。
【符号の説明】
101…キーボード、102…ディスプレイ、103…CPU、104…マウス、302…選択候補群取得カレント関数アドレス領域、303…選択候補群保持領域、304…選択候補群取得関数設定関数アドレス領域、305…デフォルト選択候補群取得関数アドレス、307a…選択候補群取得関数定義ボタン1、307b…選択候補群取得関数定義ボタン2。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention controls which object is determined as a selection candidate object when an object to be operated by a user is selected from a two-dimensional or three-dimensional object group displayed on a display device screen by a computer program. The present invention relates to a method for controlling selection of an object to be executed.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in a computer graphics application for operating a two-dimensional or three-dimensional object, an object to be operated is usually specified by a mouse operation.
Conventionally, in such an application, many of the interfaces for the user to specify an object to be operated are “selection from a group of objects existing on a straight line connecting a viewpoint and a mouse event occurrence position on the screen”. A candidate group is extracted. "
Therefore, even if the objects are logically closely related to each other, such as an object group included in one pipe, other objects are excluded and limited to those objects to form a selection candidate group. That is to say, objects that are difficult to respond to with the mouse, such as the pipe being opaque and the contained objects not being visualized, were not likely to be selection candidates. In other words, it is fixed by the rule that "objects that cannot respond to the mouse cannot be selected".
Therefore, in the related art, there has been proposed a selection control method in which the present applicant freely includes it in a selection candidate according to the existence environment of the object (for example, see Patent Document 1).
[0003]
[Patent Document 1]
Japanese Patent Application No. 2001-172416 [0004]
[Problems to be solved by the invention]
However, it has been found that the conventional technique described above has a problem that it is not possible to efficiently handle a wide variety of objects because the rules determined as selection candidates are fixed.
For example, in a three-dimensional application that simulates the observation of the inside of a human body, when a user wants to select and operate a certain substance object (contaminated object) mixed in a blood vessel with a mouse, the blood vessel is covered with various organs, skeletons, muscles, and skin. Assume that the object is not visible to the user. In such a situation, when trying to select a mixed object, an object such as an organ located in front of the user and a blood vessel object containing the mixed object are temporarily hidden or translucent. It is necessary to visualize the mixed object. In other words, there is a problem that the operation of selecting the mixed object becomes very troublesome despite the fact that "it is surely in the blood vessel." This is a problem that arises because rules for determining selection candidates are fixed uniformly and cannot be switched.
[0005]
An object of the present invention is to provide an object selection control method that can freely switch rules for determining selection candidates and efficiently determine an object to be selected for various objects.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, an object selection control method according to the present invention includes a first step of selecting one of a plurality of rules for determining an object as a selection candidate, and a selection step according to the selected rule. And a second step of determining an object to be a candidate.
Also, the first step is to receive a click operation of a mouse and select a rule associated with the operated click button.
[0007]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, an embodiment of the present invention will be specifically described with reference to the drawings.
FIG. 1 is an overall configuration diagram showing an embodiment of a system to which the present invention is applied.
In FIG. 1, reference numeral 100 denotes a computer that performs processing for realizing an object selection control method according to the present invention. The computer 100 includes a keyboard 101, a display 102, a CPU 103, a mouse 104, a program memory 105, and a data memory 106.
The program memory 105 of the computer 100 includes an operating system 105a for controlling the entire computer, an event dispatcher 105b for delivering an event such as a mouse operation by a user to each object, and various three-dimensional objects (1) stored in the data memory 106. Object (1) to object (n) programs 105c to 105e corresponding to .about. (N) 106a to 106c are stored. The object i (i = 1 to n) program is a program that defines the operation of the object.
[0008]
The data memory 206 has a three-dimensional object (1) 106a, an object (2) 106b,. . . Various objects such as an object (n) 106c are stored.
[0009]
When displaying the three-dimensional object on the display device screen, the visual field seen from the viewpoint is set. The area seen from the viewpoint on the near side of the projection plane is set by the position of the front plane, and the area seen in the depth direction is set. Set at the position of the rear plane. In the present embodiment, as shown in FIG. 2, the positions (the positions in the Z-axis direction in the world coordinate system) D1 and D2 of the projection plane 203 and the rear plane 205 are set based on the viewpoint position 201, and the local coordinate system is set. Is perspective-transformed to a two-dimensional projected image of the projection plane coordinate system on the world coordinate system and displayed on the projection plane 203. The square pyramid-shaped three-dimensional space between the front plane 204 and the rear plane 205 is the view value of the three-dimensional object. The three-dimensional object 206 projected on the projection plane 203 changes in accordance with the direction of the support axis in the starting point coordinate system with the point of gaze 202 as the origin and the z-axis as the support axis.
The method of generating a three-dimensional object handled in the present embodiment is described in detail in Japanese Patent Application No. 2001-172416 previously filed by the present applicant, and therefore the description thereof is omitted.
[0010]
FIG. 3 is a conceptual diagram of an object of an application example used in the present invention. Reference numeral 301 denotes a global memory area of the system. Reference numeral 302 denotes an address area of a current valid function for acquiring a selection target candidate object group (hereinafter, referred to as a selection candidate group). Reference numeral 303 denotes an area for holding the selection candidate group object acquired by the function of 302. Reference numeral 304 denotes an address area of a function for setting a function that defines a currently valid selection candidate group acquisition rule. Reference numeral 305 denotes the address of a selection candidate group acquisition default function. 306a, b, and c are objects.
Reference numerals 307a and 307b denote selection candidate group acquisition function definition buttons (1) and (2), each of which has a member variable, a selection candidate group acquisition function, and other member functions.
[0011]
FIG. 4 is a diagram illustrating the structure of a selection target object in a two-dimensional or three-dimensional graphics application.
Each object has common attributes such as color, transparency, a coordinate conversion matrix, and shape data as indicated by 401, and these member attributes can be referred to and updated in a member function group indicated by 402. The attributes and functions of the objects shown in FIG. 4 are described in detail in Japanese Patent Application No. 2001-172416 previously filed by the present applicant, and therefore the description thereof will be omitted.
Hereinafter, the flow of processing in the present embodiment will be described.
[0012]
FIG. 5 is a flowchart showing a process of the event dispatcher 105b started from the operating system 105a.
First, when a mouse event (e) relating to object selection occurs, the event dispatcher 105b executes a selection candidate group acquisition function setting function (e) (step 501). The selection candidate group acquisition current function address area 302 is changed as necessary.
Next, an object to be a selection candidate group is extracted using the selection candidate group acquisition function set by the selection candidate group acquisition function setting function (e) set in step 501, and is stored in the selection candidate group holding area 303. (Step 502).
Thereafter, an object selection function (e) corresponding to a certain rule is executed from among the objects of the extracted selection candidate group, or one final selection object is determined via a user interface or the like (step 503). It is returned (step 504).
[0013]
FIG. 6 is a flowchart showing the processing of the default selection candidate group acquisition function, in which the most typical selection candidate group acquisition logic is applied.
First, the selection candidate group holding area 303 is emptied (step 601). Then, the following processing formed in steps 602 and 605 is executed for each object of the all selection candidate group.
That is, it is determined whether or not each object a is an object that can be penetrated by the mouse cursor (step 603). If true, the object a can be a selection target candidate, and this is added to the selection candidate group (step 603). 604). Finally, the selection candidate group is returned (step 606).
[0014]
FIG. 7 is a flowchart showing processing of a selection candidate group acquisition current function uniquely defined for an object "only its own included object is set as a selection candidate group."
First, the selection candidate group holding area 303 is emptied (step 701). Then, the following processing formed in steps 702 and 705 is executed for each object a in the all selection candidate group.
That is, for each object a, if the object is included in itself, the object can be a selection target candidate, and this is added to the selection candidate group (step 704). Then, the selection candidate group is finally returned (step 706).
[0015]
FIG. 8 is a flowchart showing processing of a selection candidate group acquisition current function uniquely defined for an object "only its own adjacent object is set as a selection candidate group."
First, the selection candidate group holding area 303 is emptied (step 801). Then, the following processing formed in steps 802 and 805 is executed for each object a of the all selection candidate group. For each object a, if the object is an object adjacent to itself, the object a can be a selection target candidate, and this is added to the selection candidate group (step 804). Finally, the selection candidate group is returned (step 806).
[0016]
FIG. 9 is a flowchart showing processing of a processing function for setting a current selection candidate group acquisition function (selection candidate group acquisition setting function (e)).
First, it is determined whether or not the mouse is pressed (step 901). If not, the process exits from the function process and does not perform the selection candidate group acquisition function setting process (step 906). If the mouse has been pressed, it is determined whether or not a button object p uniquely defining the selection candidate group acquisition function f exists immediately below the mouse at that time (step 903). The address is set in the selection candidate group acquisition function address area 302 (step 903), and the processing exits from the function (step 906).
However, if such a button object does not exist immediately below, it is determined whether or not there is a reset button object immediately below the mouse that returns the selection candidate group acquisition function to the default (step 904). (Step 906), and if it exists, the default selection candidate group acquisition function address is set in the selection candidate group acquisition current function address area 302, and the processing exits from the function (step 906).
[0017]
FIG. 10 is an example of a human body observation simulation, in which 1001 is a stomach object, 1002 is a large intestine object, and 1003 is a small intestine object. Now, it is assumed that the harmful substance objects 1004, 1005, and 1006 are mixed in the small intestine object 1003, but the harmful substance objects 1004, 1005, and 1006 exist in the small intestine 1003, but it is unknown where they are. In this case, assuming that the selection candidate group acquisition current function shown in the flowchart of FIG. 7 is defined in the selection candidate group acquisition function definition object 1007, the selection candidate group acquisition current function is clicked by clicking 1007. When the mouse cursor is activated and left-clicked on the small intestine object 1003, an included object such as 1004 is detected, displayed as a list of included objects 1 to 3, and the foreign substance object 1004 can be easily selected.
By pressing the reset button 1009, it is possible to return to the selection rule based on the selection candidate group acquisition current function before the change.
[0018]
FIG. 11 is a similar example, in which 1101 is a stomach object, 1102 is a large intestine object, and 1103 is a small intestine object. Assuming that the selection candidate group acquisition current function definition object shown in the flowchart of FIG. 8 is defined in the selection candidate group acquisition current function definition object, the selection candidate group acquisition current function definition object 1105 is clicked with a mouse. This selection candidate grouping current function becomes effective. By left-clicking the mouse cursor on the large intestine object 1102, adjacent objects such as the small intestine object 1103 and the stomach object 1101 are detected and displayed in a list, and the target object is easily selected. be able to. By pressing the reset button 1006, it is possible to return to the selection candidate group acquisition rule before the change.
[0019]
FIGS. 12 and 13 are also examples of the human body observation simulation, but show an example in which the effective selection candidate group acquisition rule is switched by switching the mouse button to be pressed. 1201 and 1301 are stomach objects, 1202 and 1302 are large intestine objects, and 1203 and 1303 are small intestine objects.
If it is assumed that an object immediately below the mouse 1204 is selected by clicking the left button of the mouse 1204, and the mouse button is clicked on the stomach object 1201 when the left button is clicked, a list of the stomach objects 1201 is displayed as a selection candidate group. .
In FIG. 13, assuming that a rule that the included object of the object is a selection candidate group is defined by a right mouse click, when the right mouse button is clicked, the included object ( 1) to (3) are extracted as a selection candidate group.
[0020]
In the above embodiment, two rules for selecting a selection candidate object have been described. However, it is needless to say that the present invention can be applied to two or more rules.
[0021]
【The invention's effect】
As is clear from the above description, according to the present invention, a plurality of rules for determining objects to be selection candidates are prepared, one of them is selected, and the selection candidate is selected according to the selected rule. Since the object to be selected is determined, the rule for determining the selection candidate can be freely switched, and the object to be selected can be efficiently determined for various objects.
[Brief description of the drawings]
FIG. 1 is an overall configuration diagram showing an embodiment of a system to which the present invention is applied.
FIG. 2 is an explanatory diagram of positions of a projection plane and a rear plane set when displaying a three-dimensional object on a display device screen.
FIG. 3 is a diagram illustrating an example of an object selection control function used in the embodiment of the present invention.
FIG. 4 is a diagram showing a structure of a selection target object used in the embodiment of the present invention.
FIG. 5 is a flowchart illustrating a process of an event dispatcher.
FIG. 6 is a flowchart illustrating processing of a default selection candidate group acquisition function that is activated when a reset button for restoring a rule for acquiring selection candidates is operated.
FIG. 7 is a flowchart showing processing of a selection candidate group acquisition current function of a rule that uses its own included object as a selection candidate.
FIG. 8 is a flowchart showing a process of a selection candidate group acquisition current function of a rule that uses its own adjacent object as a selection candidate.
FIG. 9 is a flowchart illustrating processing of a selection candidate group acquisition function setting function for setting which of a plurality of rules for determining a selection candidate is to be used.
FIG. 10 is an explanatory diagram showing an example in which, when selecting and observing a built-in object of a human body using the present invention, an object including a mouse cursor is determined as a selection candidate and displayed.
FIG. 11 is an explanatory diagram showing an example in which, when selecting and observing a built-in object of a human body using the present invention, an object adjacent to an object on which a mouse cursor is positioned is determined and displayed as a selection candidate.
FIG. 12 is an explanatory diagram showing an example of switching a rule determined as a selection candidate by a left mouse button when selecting and observing a built-in object of a human body using the present invention.
FIG. 13 is an explanatory diagram showing an example of switching a rule determined as a selection candidate by a right mouse button when selecting and observing a built-in object of a human body using the present invention.
[Explanation of symbols]
101: keyboard, 102: display, 103: CPU, 104: mouse, 302: selection candidate group acquisition current function address area, 303: selection candidate group holding area, 304: selection candidate group acquisition function setting function address area, 305: default Selection candidate group acquisition function address, 307a ... selection candidate group acquisition function definition button 1, 307b ... selection candidate group acquisition function definition button 2.

Claims (2)

選択操作イベントに対する被選択基準を保持した複数の2次元または3次元オブジェクト群を表示装置に表示させ、その表示されたオブジェクト群への選択操作に対しいずれのオブジェクトを選択候補とするかを制御するオブジェクトの選択制御方法であって、
選択候補となるオブジェクトを決定する複数の規則のうち1つを選択する第1のステップと、
選択された規則に従い、選択候補とするオブジェクトを決定する第2のステップと
を備えることを特徴とするオブジェクトの選択制御方法。
A plurality of two-dimensional or three-dimensional objects holding a selection criterion for a selection operation event are displayed on a display device, and which object is selected as a selection candidate for a selection operation on the displayed object group is controlled. An object selection control method,
A first step of selecting one of a plurality of rules for determining an object as a selection candidate;
A second step of determining an object as a selection candidate in accordance with the selected rule.
前記第1のステップが、マウスのクリックボタン操作を受け、操作されたクリックボタンに対応付けられた規則を選択するものであることを特徴とする請求項1に記載のオブジェクトの選択制御方法。2. The object selection control method according to claim 1, wherein the first step receives a click operation of a mouse and selects a rule associated with the operated click button.
JP2002271461A 2002-09-18 2002-09-18 Method of controlling selection of object Pending JP2004110358A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002271461A JP2004110358A (en) 2002-09-18 2002-09-18 Method of controlling selection of object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002271461A JP2004110358A (en) 2002-09-18 2002-09-18 Method of controlling selection of object

Publications (1)

Publication Number Publication Date
JP2004110358A true JP2004110358A (en) 2004-04-08

Family

ID=32268763

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002271461A Pending JP2004110358A (en) 2002-09-18 2002-09-18 Method of controlling selection of object

Country Status (1)

Country Link
JP (1) JP2004110358A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5199266B2 (en) * 2007-09-14 2013-05-15 インターナショナル・ビジネス・マシーンズ・コーポレーション A method, apparatus, and program for facilitating selection of an object on a display screen.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5199266B2 (en) * 2007-09-14 2013-05-15 インターナショナル・ビジネス・マシーンズ・コーポレーション A method, apparatus, and program for facilitating selection of an object on a display screen.

Similar Documents

Publication Publication Date Title
Gallo et al. 3D interaction with volumetric medical data: experiencing the Wiimote
JP6392881B2 (en) Low latency visual response to input by pre-generation of alternative graphic representations of application elements and input processing of graphic processing units
RU2409856C2 (en) Virtual magnifying glass having real-time control functionalities
US7492362B2 (en) Virtual space rendering/display apparatus and virtual space rendering/display method
JP5661382B2 (en) Image display device
JPH10508403A (en) Method and apparatus for modifying data by manipulating a display graph
JP2006127158A (en) Image processing method and image processor
JPH10283158A (en) Stereoscopic display device for window and method therefor
WO2004081871A1 (en) Image segmentation in a three-dimensional environment
JP2006146473A (en) Image processing program
KR20160041898A (en) Reducing control response latency with defined cross-control behavior
Maslych et al. Toward intuitive acquisition of occluded vr objects through an interactive disocclusion mini-map
CN115769305A (en) Adaptable user interface for medical imaging system
Oh et al. A system for desktop conceptual 3D design
JP2004110358A (en) Method of controlling selection of object
Hicks et al. Comparison of 2D and 3D representations for visualising telecommunication usage
WO2019127325A1 (en) Information processing method and apparatus, cloud processing device, and computer program product
Dyck et al. Groupspace: a 3D workspace supporting user awareness
CA2415912A1 (en) Animation editing apparatus
JPH03211686A (en) Computer control display method and apparatus
JP2009266209A (en) Final framework
Trevisan et al. Model-based approach and augmented reality systems
JPH07141140A (en) Multi-window type computer system
JP2001338306A (en) Device and method for changing processing of editing tool attribute, device and method for processing three- dimensional model, and program providing medium
Chittaro et al. 3d object arrangement for novice users: the effectiveness of combining a first-person and a map view