JPH1125290A - System for grasping size in three-dimensional space - Google Patents

System for grasping size in three-dimensional space

Info

Publication number
JPH1125290A
JPH1125290A JP17350697A JP17350697A JPH1125290A JP H1125290 A JPH1125290 A JP H1125290A JP 17350697 A JP17350697 A JP 17350697A JP 17350697 A JP17350697 A JP 17350697A JP H1125290 A JPH1125290 A JP H1125290A
Authority
JP
Japan
Prior art keywords
data
dimensional space
measurement
processing
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17350697A
Other languages
Japanese (ja)
Inventor
Yoshie Manome
美江 馬目
Osamu Asai
治 浅井
Masahiro Watanabe
將弘 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Control Systems Inc
Original Assignee
Hitachi Ltd
Hitachi Process Computer Engineering Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Process Computer Engineering Inc filed Critical Hitachi Ltd
Priority to JP17350697A priority Critical patent/JPH1125290A/en
Publication of JPH1125290A publication Critical patent/JPH1125290A/en
Pending legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily grasp the size of space and to perform a more real and effective presentation by displaying a person model, measuring the size of space, operating a person so that a measurement result may be displayed and measuring the distance between two optional points in a three-dimensional space. SOLUTION: An input recognition processing part 5 selects data to be synthesized from person model data 8 and an operation data group 9 according to an input operation instruction, instructs read and synthetic editing reads these data for operation edit processing 4. Operation data which is edited through the processing 4 expresses a person model that three-dimensionally operates by transferring it to a display 2, overlapping it on spatial model data 7 and displaying it. A measurement operation decides a start point of a measurement object, fixes one end of a measurement instrument and displays a line segment that extends and contracts between the start point and the other which moves by operating a person model. There, a user can measures the distance between two optional points in a three-dimensional space.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、3次元の各種プレ
ゼンテーションシステムに関する。
The present invention relates to various three-dimensional presentation systems.

【0002】[0002]

【従来の技術】従来、建築分野でのシミュレーション等
の3次元のプレゼンテーションでは、公知例のように等
身大の人間板を表現することにより、空間の大きさを表
現している。この例では、人間の大きさと表示位置は固
定であり、人間モデル自体も3次元でなく臨場感に欠け
る。また、モデルは動作しないので、静的な空間表現に
止まっている。現在、ゲーム分野等では3次元の人間モ
デルが使用者の意思に従い、画面上で動作する技術があ
るが、精巧なモデルデータを必要とする建築分野では、
ハードウェアの表示性能等の問題から静的空間の表現で
あった。
2. Description of the Related Art Conventionally, in a three-dimensional presentation such as a simulation in the field of architecture, the size of a space is expressed by expressing a human-sized human board as in a known example. In this example, the size and display position of the human are fixed, and the human model itself is not three-dimensional and lacks a sense of reality. Also, since the model does not work, it is only a static spatial representation. At present, in the game field, etc., there is a technology in which a three-dimensional human model operates on the screen according to the user's intention, but in the architectural field that requires sophisticated model data,
It was a representation of a static space due to problems such as hardware display performance.

【0003】しかしながら、現在の技術レベルを考える
と、建築分野での景観シミュレーション等でもモデルの
動作を含むプレゼンテーションが可能なレベルである。
そこで、本発明では、景観シミュレーション等に、動作
するモデルを表現し、より臨場感がある3次元空間の表
現を可能とする。同種の技術はVR(Virtal Reality)、
シミュレーションの分野で実現されつつある。また、3
次元空間での任意の2点間の距離の測定するでは、3次
元CAD等で見られるように、ラバーバンドカーソル等
でリアルタイムで距離の測定が可能であった。しかしな
がら、この方式では、工業的なイメージがあり、住宅等
でのプレゼンテーションでは違和感があった。また、一
般に測定値の表示位置が画面の片隅であるため、必要以
上の視点の移動を強いられ、必ずしも直感的な距離の把
握には適していない。
[0003] However, considering the current technical level, it is a level at which a presentation including the operation of a model can be made even in a landscape simulation or the like in the architectural field.
Therefore, in the present invention, an operating model is expressed in a landscape simulation or the like, and a more realistic three-dimensional space can be expressed. Similar technologies are VR (Virtal Reality),
It is being realized in the field of simulation. Also, 3
In measuring the distance between any two points in a dimensional space, the distance can be measured in real time with a rubber band cursor or the like, as seen in three-dimensional CAD or the like. However, this method has an industrial image and has a sense of incongruity in presentations at houses and the like. In addition, since the display position of the measured value is generally located at one corner of the screen, it is necessary to move the viewpoint more than necessary, which is not always suitable for intuitive grasp of the distance.

【0004】[0004]

【発明が解決しようとする課題】本発明は、3次元空間
を表現し、3次元空間内に人間モデルを動作させること
により空間の大きさの把握を助ける。本発明では、3次
元空間内の任意の2点間の距離を測定する場合、従来の
ラバーバンド等による手法ではなく、実際に人間モデル
がメジャーを持って3次元空間を動作または移動するこ
とにより任意の2点間の距離を測定する。その際、測定
動作に伴い、メジャーが伸縮し、測定値を伸縮するメジ
ャーの近傍に表示することにより、より直感的に距離を
把握することが可能となる。このため、住宅等の3次元
プレゼンテーション等でも違和感が少なく、プレゼンテ
ーションを害することがない。
The present invention assists in grasping the size of a space by expressing a three-dimensional space and operating a human model in the three-dimensional space. In the present invention, when measuring the distance between any two points in a three-dimensional space, the human model actually moves or moves in the three-dimensional space with a measure, instead of the conventional method using a rubber band or the like. Measure the distance between any two points. At this time, the measure expands and contracts with the measurement operation, and the distance can be more intuitively grasped by displaying the measured value near the measure that expands and contracts. Therefore, even in a three-dimensional presentation of a house or the like, there is little discomfort and the presentation is not hindered.

【0005】[0005]

【課題を解決するための手段】本発明の3次元空間での
大きさ把握方式は、3次元空間で、人間等のモデルを表
現するプレゼンテーションシステム等において、人間モ
デルを表示し、空間の大きさを測定する動作を生成する
仕組みと、測定結果を表示する仕組みを具備し、人間を
動作させることにより、3次元空間での任意の2点間の
距離を測定することにある。
According to the present invention, in a presentation system or the like for expressing a model of a human or the like in a three-dimensional space, a human model is displayed and the size of the space is determined. An object of the present invention is to measure a distance between any two points in a three-dimensional space by providing a mechanism for generating an operation for measuring the distance and a mechanism for displaying a measurement result, and operating a human.

【0006】[0006]

【発明の実施の形態】本発明の概要を図1を用いて説明
する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The outline of the present invention will be described with reference to FIG.

【0007】本発明は、システム装置1,表示装置2,
入力装置3から構成され、3次元表現による各種プレゼ
ンテーションを行うシステムである。更に、システム装
置1は、動作編集処理4,入力認識装置5,測定距離表
示処理6,空間モデルデータ7,人間モデルデータ8及
び、動作データ群9,測定機具データ10を具備する。
The present invention provides a system device 1, a display device 2,
This is a system that includes the input device 3 and performs various presentations in a three-dimensional expression. Further, the system device 1 includes a motion editing process 4, an input recognition device 5, a measurement distance display process 6, a spatial model data 7, a human model data 8, a motion data group 9, and a measuring device data 10.

【0008】(1)動作編集処理 本システムの中枢となる処理部分であり、入力装置3か
ら入力された動作指示を、入力認識処理5で認識,解釈
する。入力認識処理5は、この入力動作指示により、合
成すべきデータを、人間モデルデータ8と動作データ群
9から選択し、動作編集処理4に対して、これらのデー
タの読み込み、合成編集を指示する。動作編集処理4で
編集された動作データ16は表示装置2に転送され、空
間モデルデータ7と重ねて表示することにより、3次元
空間で動作する人間モデルを表現する。
(1) Action editing processing This is a central processing part of the present system, and recognizes and interprets an operation instruction input from the input device 3 in an input recognition processing 5. The input recognition processing 5 selects data to be synthesized from the human model data 8 and the operation data group 9 in accordance with the input operation instruction, and instructs the operation editing processing 4 to read and synthesize and edit these data. . The motion data 16 edited in the motion editing process 4 is transferred to the display device 2 and displayed by superimposing it on the space model data 7 to express a human model operating in a three-dimensional space.

【0009】(2)入力認識装置 本システムへの入力情報である、モデルの動作指示15
を認識,解釈し、動作編集処理4に連絡する。モデルの
動作指示とは、動作の方向の指示,腕の上げ下げ,視点
(カメラ位置)の制御等であり、キーボード,ジョイス
ティックなど等の入力装置3から入力される。
(2) Input recognition device Model operation instruction 15 which is input information to the system.
Is recognized and interpreted, and operation editing processing 4 is notified. The operation instruction of the model is an instruction of an operation direction, raising / lowering of an arm, control of a viewpoint (camera position), and the like, and is input from an input device 3 such as a keyboard and a joystick.

【0010】(3)測定距離表示処理 3次元空間の任意の2点間の距離を測定する処理であ
る。
(3) Measurement distance display processing This is a processing for measuring the distance between any two points in a three-dimensional space.

【0011】動作編集処理4で合成生成された動作に、
伸縮する測定機具を表示する。
[0011] In the operation synthesized and generated in the operation editing process 4,
Display the measuring instrument that expands and contracts.

【0012】測定動作では、測定対象の始点を決めるこ
とにより測定機具の一端を固定し、人間モデルを動作さ
せることにより他方が動き始点との間に伸縮する線分を
表示する。この際、線分の長さを線分近傍に表示するこ
とにより、使用者は3次元空間の任意の2点間の距離を
測定することができる。
In the measuring operation, one end of the measuring instrument is fixed by determining the starting point of the object to be measured, and by operating the human model, the other is displayed as a line segment which expands and contracts with the starting point. At this time, by displaying the length of the line segment near the line segment, the user can measure the distance between any two points in the three-dimensional space.

【0013】本発明の実施例を図2,図3,図4,図
5,図6を用いて詳細に説明する。
An embodiment of the present invention will be described in detail with reference to FIGS. 2, 3, 4, 5, and 6. FIG.

【0014】1.動作編集処理 図2及び、図3を用いて、動作編集処理4の詳細を説明
する。
1. Operation Editing Process The operation editing process 4 will be described in detail with reference to FIGS.

【0015】動作編集処理4は、動作スケジュール処理
11,干渉チェック処理12,動作合成,編集処理13
及び、合成比率制御14から構成される。
The operation editing processing 4 includes an operation schedule processing 11, an interference check processing 12, an operation synthesis and editing processing 13
And a composition ratio control 14.

【0016】(1)動作スケジュール処理 図3を用いて、動作スケジュール処理11の処理の流れ
を説明する。
(1) Operation Schedule Processing The flow of the operation schedule processing 11 will be described with reference to FIG.

【0017】動作スケジュール処理11は、入力認識処
理5から連絡される動作指示情報を入力確認し動作の種
類を決定(17)する。次に、動作の方向に空間モデル
等の障害物の有無を確認し、障害物がある場合、干渉チ
ェック処理(18)を行う。干渉がない場合、動作の種
類を決定(20)更に合成比率を決定(21)し、動作
合成,編集処理を呼び出す(22)。
The operation schedule processing 11 confirms the input of the operation instruction information transmitted from the input recognition processing 5 and determines the type of operation (17). Next, the presence or absence of an obstacle such as a space model is checked in the direction of the operation, and if there is an obstacle, an interference check process (18) is performed. If there is no interference, the type of operation is determined (20), and the combination ratio is determined (21), and the operation combination and editing processing is called (22).

【0018】(2)干渉チェック処理 干渉チェック処理18では、動作の種類,動作の方向に
関する情報から、3次元空間での干渉の検出をする。こ
の際、空間モデルデータを読み込み、3次元上空間での
幾何学的演算によりモデルとの干渉を行い、干渉の可否
を報告する。干渉する場合、必要に応じて、回避行動処
理(19)を行う。
(2) Interference Check Process In the interference check process 18, interference in a three-dimensional space is detected from information on the type of operation and the direction of the operation. At this time, the spatial model data is read, and the model and the model are interfered by a geometric operation in a three-dimensional space, and whether or not the interference is possible is reported. In the case of interference, avoidance action processing (19) is performed as necessary.

【0019】尚、干渉する場合、回避行動処理(19)
を行わず、モデルの動作を停止する等の代替処理も考え
られるが、回避行動処理の可否については、該当アプリ
ケーションの種類により判断する。
In case of interference, avoidance action processing (19)
Alternatively, alternative processing such as stopping the operation of the model may be considered, but whether to perform the avoidance action processing is determined based on the type of the corresponding application.

【0020】(3)動作合成,編集処理 動作合成,編集処理13では、動作スケジュール処理1
1から、動作の種類,動作の方向,動作の早さ等に関す
る情報の連絡を受け、人間モデルを動作させるための動
作データを選択する。ここで、「歩き始める」等、静止
しているデータと歩行しているデータを合成することに
よって生成できる動作については、両データの合成比率
を制御することによりスムースな動作を合成編集する。
合成編集した動作データは、表示装置2に転送され、入
力で指示された動作を画面上に表現する。
(3) Behavioral synthesis and editing processing In the behavioral synthesis and editing processing 13, the operation schedule processing 1
From 1, information on the type of motion, the direction of motion, the speed of motion, etc., is received, and motion data for operating the human model is selected. Here, for operations that can be generated by synthesizing data that is stationary and data that is walking, such as “start walking”, a smooth operation is synthesized and edited by controlling the synthesizing ratio of both data.
The synthesized and edited operation data is transferred to the display device 2, and the operation specified by the input is expressed on the screen.

【0021】2.入力認識処理 図4を用いて、入力認識処理5を説明する。2. Input recognition processing The input recognition processing 5 will be described with reference to FIG.

【0022】昨今のプレゼンテーションでは、インタラ
クティブ(双方向性)であることが要求され、入力装置
は重要な位置を占める。本発明でも、インタラクティブ
であることが要求され、3次元空間内で、人間モデルを
使用者の意思通りに動作させ、リアルな空間を表現する
ことを可能とする。入力装置としては、各種の入力デバ
イスが考えられるが、ここでは、便宜的にジョイスティ
ックを例にして説明する。使用者は表示装置2上に表現
される3次元空間と人間モデルを見ながら、入力装置3
であるジョイスティックを操作する。
In recent presentations, it is required to be interactive (interactive), and the input device occupies an important position. Also in the present invention, it is required to be interactive, and it is possible to operate a human model as desired by a user in a three-dimensional space, and to express a real space. Although various input devices can be considered as the input device, a joystick will be described as an example here for convenience. The user looks at the three-dimensional space and the human model represented on the display device 2 while viewing the input device 3.
Operate the joystick.

【0023】例えば、ジョイスティックを右に倒すとモ
デルを右方向に歩行させる動作指示15となり入力認識
処理5に入力される。このような操作で、歩行の方向の
指示が可能であるが、キーボード等の他の入力装置との
併用することにより、首の動き、腕の動き等も定義可能
であり、入力可能である。
For example, when the joystick is tilted to the right, an operation instruction 15 for walking the model in the right direction is input to the input recognition processing 5. By such an operation, the direction of walking can be instructed, but when used in combination with another input device such as a keyboard, the movement of the neck, the movement of the arm, and the like can be defined and input.

【0024】測定対象物の始点を指定する場合、ジョイ
ステックを腕の動作に切り替え、ジョイステックを操作
することにより、手先を測定物の始点に移動し、始点を
指定する旨をボタン等により指示する。続いて、同様な
手段でジョイスティックを操作し、測定対象物の終点に
手先を移動する。この操作の間、始点と手先の間に、線
分が表示され、動作に伴い伸縮し、更に、線分の近傍に
線分の長さを表示する。
When designating the starting point of the object to be measured, the joystick is switched to the arm movement, and the joystick is operated to move the hand to the starting point of the object to be measured and to designate the starting point with a button or the like. I do. Subsequently, the joystick is operated by the same means, and the hand is moved to the end point of the measurement object. During this operation, a line segment is displayed between the starting point and the hand, expands and contracts with the operation, and furthermore, the length of the line segment is displayed near the line segment.

【0025】3.動作合成,編集処理 図5を用いて、動作合成,編集処理13を説明する。3. Behavioral synthesis and editing processing The behavioral synthesis and editing processing 13 will be described with reference to FIG.

【0026】動作合成,編集処理13では、指示された
動作に従い、動作データ群9より必要な動作データ9を
読み込み合成する。その際、動作の合成比率制御14を
行う。合成比率制御14では、指示された合成比率に従
い動作を合成する。例えば、「歩き出す」動作を生成す
る場合、「歩く」動作と「静止」動作を読み込み、それ
ぞれの合成比率として「歩く」の成分を増加させ「静
止」の成分を減少させながら合成することにより、「歩
き出す」動作を生成する。「止まる」動作は「歩く」の
成分を減少させ「静止」の成分を増加させることにより
生成可能である。同様に、「元気よく歩く」「寒そうに
歩く」など特徴を持った動作を生成することも可能であ
る。
In the action synthesizing / editing process 13, necessary action data 9 is read from the action data group 9 and synthesized according to the designated action. At this time, the synthesis ratio control 14 of the operation is performed. In the combination ratio control 14, the operations are combined according to the specified combination ratio. For example, when generating a “walking” motion, the “walking” motion and the “stationary” motion are read, and the composition is performed by increasing the “walking” component and decreasing the “still” component as the respective composition ratios. , "Walk out" action. The "stop" action can be generated by decreasing the "walking" component and increasing the "still" component. Similarly, it is possible to generate a motion having features such as “walking fine” and “walking cold”.

【0027】4.測定距離表示処理 図6を用いて測定動作と測定距離表示処理を説明する。4. Measurement distance display processing The measurement operation and the measurement distance display processing will be described with reference to FIG.

【0028】測定動作は前述の歩行動作と同様、入力装
置から指示された動作の一環として動作を生成する。測
定動作27では、先ず、測定対象物23の測定開始位置
24を指定し、続いて腕26を動かすことにより、測定
動作27を行なう。測定終了を指示するまでの間、測定
動作27に伴い、測定開始位置24から直線的に線分を
表示し、線分の長さを線分の近傍に測定値25を表示す
る。
The measurement operation generates an operation as part of the operation instructed from the input device, similarly to the above-described walking operation. In the measurement operation 27, first, the measurement operation position 27 of the measurement target 23 is designated, and then the arm 26 is moved to perform the measurement operation 27. Until the measurement end is instructed, a line segment is displayed linearly from the measurement start position 24 along with the measurement operation 27, and the length of the line segment is displayed near the line segment with the measured value 25.

【0029】[0029]

【発明の効果】本発明により、3次元のプレゼンテーシ
ョンで、空間の大きさの把握が容易になり、よりリアル
で効果的でプレゼンテーションを可能となる。
According to the present invention, in a three-dimensional presentation, it is easy to grasp the size of the space, and the presentation can be made more realistic and effective.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例の全体構成を示す図。FIG. 1 is a diagram showing an overall configuration of an embodiment of the present invention.

【図2】本発明の実施例の動作編集処理を示す図。FIG. 2 is a diagram showing an operation editing process according to the embodiment of the present invention.

【図3】本発明の実施例の動作スケジュール処理の流れ
を示す図。
FIG. 3 is a diagram showing a flow of an operation schedule process according to the embodiment of the present invention.

【図4】本発明の実施例の入力認識処理を示す図。FIG. 4 is a diagram showing an input recognition process according to the embodiment of the present invention.

【図5】本発明の実施例の動作合成,編集処理を示す
図。
FIG. 5 is a diagram showing behavioral synthesis and editing processing according to the embodiment of the present invention.

【図6】本発明の実施例の測定距離表示処理を示す図。FIG. 6 is a diagram showing a measurement distance display process according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1…システム装置、2…表示装置、3…入力情報、4…
動作編集処理、5…入力認識処理、6…測定距離表示処
理、7…空間モデルデータ、8…人間モデルデータ、9
…動作データ群、10…測定機具データ、11…動作ス
ケジュール処理、12…干渉チェック処理、13…動作
合成,編集処理、14…合成比率制御、15…動作指
示、16…動作データ、17…動作種類決定、18…干
渉チェック、19…回避行動処理、20…合成動作選
択、21…合成比率決定、22…動作合成,編集処理呼
び出し、23…測定対象物、24…測定開始位置、25
…測定値、26…腕、27…測定動作。
DESCRIPTION OF SYMBOLS 1 ... System apparatus, 2 ... Display apparatus, 3 ... Input information, 4 ...
Motion editing processing, 5: input recognition processing, 6: measured distance display processing, 7: spatial model data, 8: human model data, 9
... operation data group, 10 ... measurement equipment data, 11 ... operation schedule processing, 12 ... interference check processing, 13 ... operation synthesis and editing processing, 14 ... synthesis ratio control, 15 ... operation instruction, 16 ... operation data, 17 ... operation Type determination, 18 interference check, 19 avoidance action processing, 20 synthesis action selection, 21 synthesis rate determination, 22 action synthesis, editing processing call, 23 measurement object, 24 measurement start position, 25
... Measured value, 26 ... Arm, 27 ... Measurement operation.

フロントページの続き (72)発明者 浅井 治 茨城県日立市大みか町五丁目2番1号 日 立プロセスコンピュータエンジニアリング 株式会社内 (72)発明者 渡邊 將弘 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内Continued on the front page (72) Inventor Osamu Asai 5-2-1 Omikacho, Hitachi City, Ibaraki Prefecture Inside Hitachi Process Computer Engineering Co., Ltd. (72) Inventor Masahiro Watanabe 5-2-1 Omikacho, Hitachi City, Ibaraki Prefecture Inside the Omika Plant of Hitachi, Ltd.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】3次元空間で、人間等のモデルを表現する
プレゼンテーションシステム等において、人間モデルを
表示し、空間の大きさを測定する動作を生成する仕組み
と、測定結果を表示する仕組みを具備し、人間を動作さ
せることにより、3次元空間での任意の2点間の距離を
測定することができることを特徴とする3次元空間での
大きさ把握方式。
In a presentation system or the like for expressing a model of a human or the like in a three-dimensional space, there are provided a mechanism for displaying a human model and generating an operation for measuring the size of the space, and a mechanism for displaying a measurement result. A size grasping method in a three-dimensional space, wherein a distance between any two points in a three-dimensional space can be measured by operating a human.
【請求項2】請求項1の3次元空間での大きさを把握す
る方式において、人間モデルに測定動作の表示と、動作
に伴って伸縮するメジャーと測定値をリアルタイムに表
示することにより、より臨場感を表現できることを特徴
とする3次元空間でのプレゼンテーションシステム。
2. The method according to claim 1, wherein the measurement operation is displayed on the human model, and the measure and the measured value which expand and contract with the operation are displayed in real time. A presentation system in a three-dimensional space characterized by the ability to express a sense of reality.
JP17350697A 1997-06-30 1997-06-30 System for grasping size in three-dimensional space Pending JPH1125290A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17350697A JPH1125290A (en) 1997-06-30 1997-06-30 System for grasping size in three-dimensional space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17350697A JPH1125290A (en) 1997-06-30 1997-06-30 System for grasping size in three-dimensional space

Publications (1)

Publication Number Publication Date
JPH1125290A true JPH1125290A (en) 1999-01-29

Family

ID=15961799

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17350697A Pending JPH1125290A (en) 1997-06-30 1997-06-30 System for grasping size in three-dimensional space

Country Status (1)

Country Link
JP (1) JPH1125290A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015730A (en) * 2007-07-06 2009-01-22 Location View:Kk Image display system with streoscopic measure display function and program of image display with stereoscopic measure display function
JP2014013527A (en) * 2012-07-05 2014-01-23 East Japan Railway Co Image forming apparatus, image forming system, and image forming program
EP3220098A1 (en) 2016-03-16 2017-09-20 Fujitsu Limited Dimenional measurement in augmented reality

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009015730A (en) * 2007-07-06 2009-01-22 Location View:Kk Image display system with streoscopic measure display function and program of image display with stereoscopic measure display function
JP2014013527A (en) * 2012-07-05 2014-01-23 East Japan Railway Co Image forming apparatus, image forming system, and image forming program
EP3220098A1 (en) 2016-03-16 2017-09-20 Fujitsu Limited Dimenional measurement in augmented reality

Similar Documents

Publication Publication Date Title
JP3841439B2 (en) Robot jog feed method
KR100492215B1 (en) Image processor and game machine
Mackinlay et al. A semantic analysis of the design space of input devices
WO2006134778A1 (en) Position detecting device, position detecting method, position detecting program, and composite reality providing system
JP2000504450A (en) Cursor control by user feedback mechanism
US5982353A (en) Virtual body modeling apparatus having dual-mode motion processing
JPH07271546A (en) Image display control method
JP2010257081A (en) Image procession method and image processing system
Zaldívar-Colado et al. A mixed reality for virtual assembly
Thalmann Using virtual reality techniques in the animation process
JPH08101758A (en) Data operation device for virtual space
JP2001216015A (en) Operation teaching device for robot
Pausch et al. Tailor: creating custom user interfaces based on gesture
JPH1125290A (en) System for grasping size in three-dimensional space
JP3341734B2 (en) Video display device
JPH10228231A (en) Pseudo experience device
EP0797173A1 (en) Virtual environment navigation and interaction apparatus and method
George et al. Nomad devices for interactions in immersive virtual environments
Alcañiz et al. Technological background of VR
JP2006343954A (en) Image processing method and image processor
JP3939444B2 (en) Video display device
JPH1049701A (en) Method for fetching operation of articulated structural body
JPH07160310A (en) Controller
Kim et al. A tangible user interface system for CAVE applicat
Broll et al. The Mixed Reality Stage-an interactive collaborative pre-production environment