JPH07239750A - モデリング方法とその装置 - Google Patents

モデリング方法とその装置

Info

Publication number
JPH07239750A
JPH07239750A JP32910894A JP32910894A JPH07239750A JP H07239750 A JPH07239750 A JP H07239750A JP 32910894 A JP32910894 A JP 32910894A JP 32910894 A JP32910894 A JP 32910894A JP H07239750 A JPH07239750 A JP H07239750A
Authority
JP
Japan
Prior art keywords
data
modeling
dimensional
basic
ultrasonic wave
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP32910894A
Other languages
English (en)
Inventor
Shigeki Yamada
茂樹 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP32910894A priority Critical patent/JPH07239750A/ja
Publication of JPH07239750A publication Critical patent/JPH07239750A/ja
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

(57)【要約】 【目的】 簡単でかつ人間の操作感覚に近い形でモデリ
ングを行うことができるモデリング方法とその装置を提
供することを目的とする。 【構成】 CPU101は、ROM102に格納されて
いる3次元モデリング処理プログラムを実行し装置全体
の制御を行う。CPU101は、3次元形状データの入
力を可能とするために、グローブ1の超音波発振器A
2、超音波発振器B3に対して発振出力開始信号を与え
る。そして、超音波発振器A2、超音波発振器B3は超
音波の発振出力を開始する。また、ストレインゲージ1
04に対して、指曲げデータの入力を開始する。また、
超音波センサA5、超音波センサB5、超音波センサC
7からのセンスデータの入力を行う。CPU101は、
ユーザに仮想立体画面を見せるため、液晶シャッタ眼鏡
9の液晶シャッタの開閉と表示用モニタ4への画像表示
の同期制御を行う。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、コンピュータ・グラフ
ィック(CG)分野における、モデリング方法とその装
置に関する。
【0002】
【従来の技術】従来、CGのモデリング装置において、
モデリングを行なう場合、操作者はコンピュータのモニ
タに表示される、3面図(正面図、上面図、側面図)の
それぞれのウインドウに対して、マウスやキーボードを
用いて3次元座標を入力して、それをモデリングのため
のモデリングデータとしていた。
【0003】
【発明が解決しようとする課題】しかし、上述従来例の
場合、構成しようとする立体と3面図の関係を常に考え
ながらモデリングを行なわなければならず、専門的な知
識と熟練した技術を必要としていた。従って、人間が実
際に、積み木を重ねていく様な簡単なモデリング作業
や、粘土で物体を形作る様な単純なモデリング作業で
も、手で作業する感覚での作業とは全く異なる方法によ
ってモデリングを行なわなければならず、人間に大きな
負担を負わせており、従来のモデリング方法は極めて非
効率であった。
【0004】本発明は上記従来例に鑑みてなされたもの
で、簡単でかつ人間の操作感覚に近い形でモデリングを
行うことができるモデリング方法とその装置を提供する
ことを目的とする。
【0005】
【課題を解決するための手段】上記目的を達成するた
め、本発明のモデリング方法とその装置は以下の構成を
備える。即ち、3次元空間内で、座標を指示する指示手
段と、前記指示手段により指示された座標に基づいて、
付属情報を付与する付属情報付与手段と、前記座標と付
属情報に基づいて、3次元データを作成する3次元デー
タ作成手段と、前記3次元データを表示する表示手段と
を備える。
【0006】また、別の発明は、3次元空間内で、座標
を指示する指示工程と、前記指示工程により指示された
座標に基づいて、付属情報を付与する付属情報付与工程
と、前記座標と付属情報に基づいて、3次元データを作
成する3次元データ作成工程と、前記3次元データを表
示する表示工程とを備える。
【0007】
【作用】以上の構成において、指示手段が、3次元空間
内で座標を指示し、前記指示手段により指示された座標
に基づいて、付属情報付与手段が、付属情報を付与し、
前記座標と付属情報に基づいて、3次元データ作成手段
が、3次元データを作成し、表示手段が、前記3次元デ
ータを表示する。
【0008】また、別の発明は、3次元空間内で、座標
を指示し、前記指示工程により指示された座標に基づい
て、付属情報を付与し、前記座標と付属情報に基づい
て、3次元データを作成し、前記3次元データを表示す
る。
【0009】
【実施例1】図1は、第1の実施例のモデリング装置の
外観図である。1は、グローブで、操作者はこれを手に
装着する。そして、操作者が手の位置を移動すると、グ
ローブ1は、3次元空間における手の座標データを生成
して、データ演算装置8に出力する。グローブ1には、
超音波発信器2、超音波発信器3がそれぞれ取り付けら
れており、指先の方向へ向けて超音波を発信する。超音
波センサ5、超音波センサ6、そして超音波センサ7
は、表示用モニタ4のそれぞれ異なる位置に取り付けら
れている。グローブ1から出力される超音波を、各超音
波センサで受信する。そして、3箇所の各超音波センサ
で受ける超音波の強度から、グローブ1の3次元位置を
計算することができる。また、超音波発信器2と超音波
発信器3は、それぞれ互いに異なる周波数の超音波を発
信しているので、超音波センサ5、超音波センサ6、そ
して超音波センサ7に対する手のひらの角度を変化させ
ると、各超音波センサで受ける超音波の強度がそれぞれ
の周波数ごとに変化する。その値から、掌のロール角
(指先と手首を結ぶ直線を軸として回転する左右の傾き
角)とピッチ角(前後の傾き角)とヨー角(手のひらに
垂直な軸の回りに回転する傾き角)を求めることができ
る。また、グローブ1の各指部には、不図示のストレイ
ンゲージが装着されている。このストレインゲージは、
曲げによってその抵抗値が変化する。従って、操作者が
指を曲げると、抵抗値が変化するので、その変化値から
どの指がどれくらい曲げられたかを検出することができ
る。
【0010】4は表示用モニタであり、任意の時間間
隔、例えば1/60秒間隔で交互に右目用画像と左目用
画像を表示する。この表示制御は、演算装置8によって
行なわれるものであり、内部には右目用と左目用のVR
AMが設けられていて、所定間隔で切り替える。この所
定間隔は、人間が認識できない程度が望ましく、上記の
如く1/60秒とした。9は液晶シャッタ眼鏡で、表示
用モニタ4の表示間隔に同期して、液晶シャッタの開閉
を行なう。右目用の画像が表示されている時は、右目の
シャッタが開き、左目用の画像が表示されている時は、
左目のシャッタが開くように同期制御されるので、観察
者は、表示用モニタ4の前面に立体映像を見ることがで
きる。演算装置8は、その詳細構成の例を図3に示す
が、本実施例の3次元モデリング装置全体の制御を行
う。演算装置8は、グローブ1から送られる3次元座標
データ、指の角度データ、掌の角度データを解析し、そ
れを元に、3次元立体データを作成する。その結果の立
体表示を行なうために、右目用画像、左目用画像を作成
し、表示用モニタに一定の時間間隔で交互に画像を表示
する。キーボード100は、本実施例の3次元モデリン
グ装置に対する各種コマンドやデータを入力する。
【0011】図2は、本実施例の3次元モデリング装置
のより詳細な構成を示す。この図を参照して、CPU1
01は、ROM102に予め格納されている本実施例の
3次元モデリング処理プログラムを実行することで、装
置全体の制御を行う。RAM103は、3次元モデリン
グ処理プログラム実行のための各種データを格納した
り、作業用領域として使用される。CPU101は、3
次元形状データの入力を可能とするために、グローブ1
の超音波発振器A2、超音波発振器B3に対して発振出
力開始信号を与える。そして、超音波発振器A2、超音
波発振器B3は超音波の発振出力を開始する。また、ス
トレインゲージ104に対して、指曲げデータの入力を
開始する。また、超音波センサA5、超音波センサB
5、超音波センサC7からのセンスデータの入力を行
う。CPU101は、ユーザに仮想立体画面を見せるた
め、液晶シャッタ眼鏡9の液晶シャッタの開閉と表示用
モニタ4への画像表示の同期制御を行う。尚、この制御
は、定期的なものであるので、タイマーからの信号を用
いても良い。
【0012】図3は、第1の実施例の3次元モデリング
処理プログラムの処理の概念図である。3次元モデリン
グ処理プログラムは、データグローブからのデータ入力
処理部400、データ解析部13、3次元データ作成部
11、立体画像表示処理部15から構成される。データ
入力処理部400は、3次元座標入力処理部10、指角
度入力処理部11と手角度入力処理部12を備える。こ
こで、3次元座標入力処理部10は、超音波発信器A
2、超音波発信器B3の発振出力制御と、超音波センサ
A5、超音波センサB6、超音波センサC7からの超音
波データの入力処理を行う。指角度入力処理部11は、
ストレインゲージ104からの指曲げデータの入力処理
を行う。手角度入力処理部12は、手の角度計測のため
に、超音波センサA5、超音波センサB6、超音波セン
サC7からの超音波データの入力処理を行う。データ解
析部13は、3次元座標入力処理部10、指角度入力処
理部11、手角度入力処理部12からの信号を解析し、
3次元座標データ(x,y,z)、5本の指角度(α
1、α2、α3、α4、α5)、手角度(β、γ、θ)
を算出する。3次元データ作成部14は、上記各種デー
タを元に3次元データを作成する。立体画像表示処理部
15は、上記3次元データから、右目用、左目用それぞ
れの陰影付けを行なった画像を生成し、表示用モニタ4
に一定時間間隔で右目用と左目用の画像を表示させる。
【0013】まず、本実施例の特徴を明確にするため、
3次元立体のモデリング、レンダリングの概要を説明す
る。
【0014】(1)モデリング これは、モデリング座標系において、物体の3次元形状
のデータの入力を行なうことである。但し、モデリング
座標系とは物体の形状を定義し操作するための座標系の
ことである。例えば、図4に示す様な立方体の形状モデ
リングを行なう場合、まず図のように立方体のある一つ
の頂点を原点30としたモデリング座標系31を考え
る。そして、この座標系における立方体の8個の頂点の
座標データを例えば次のように表現する。(頂点番号は
上から順番につける) 8 (行1) (0.0 0.0 0.0) (行2) (1.0 0.0 0.0) (1.0 1.0 0.0) (0.0 1.0 0.0) (0.0 1.0 0.0) (0.0 0.0 -1.0) (1.0 0.0 -1.0) (1.0 1.0 -1.0) (0.0 1.0 -1.0) (行10) ここで、(行1)の「8」は、頂点数が8個であること
を示す。また、(行2)から(行10)の各行のデータ
は、立方体の8個の頂点の座標データのそれぞれを示
す。さらに、(行2)から(行10)の各行のデータ
は、左から順に各頂点のx座標値,y座標値,z座標値
を示す。
【0015】次に、どの点とどの点を結んで面を作るか
という面ループデータを、次のように表現する。 6 (行1’) 4 (行2’) 1 2 3 4 (行3’) 4 (行4’) 5 6 7 8 (行5’) 4 (行6’) 4 3 7 8 (行7’) 4 (行8’) 1 5 8 4 (行9’) 4 (行10’) 1 2 6 5 (行11’) 4 (行12’) 2 6 7 3 (行13’) ここで、(行1’)の「6」は、物体が6面から構成さ
れていることを示す。続く(行2’)と(行3’)のデ
ータは、6面のうちの第1の面に関するデータを示す。
同様に、続く(行4’)と(行5’)のデータは、6面
のうちの第2の面に関するデータを示す。同様に、(行
6’)と(行7’)、(行8’)と(行9’)、(行1
0’)と(行11’)、(行12’)と(行13’)の
各データは、それぞれ、第2、第3、第4、第5、第6
の面に関するデータを示す。(行2’)の「4」は、1
番目の面ループを構成する頂点数が「4」であることを
示す。また、(行3’)のデータは、1番目の面が1、
2、3、4の4つの頂点番号を持つ各頂点から構成され
ることを示す。同様に、(行4’)と(行5’)、(行
6’)と(行7’)、(行8’)と(行9’)、(行1
0’)と(行11’)、(行12’)と(行13’)の
各データは、2番目、3番目、4番目、5番目、6番目
の各面の面ループを構成する頂点数と頂点番号のセット
を持つ。
【0016】以上に示した頂点の座標データと面ループ
データによって、図4の物体の構成を表現することがで
きる。これらのデータを、モデリングデータと呼ぶ。 (2)レンダリング 物体の3次元形状のモデリングが終わったら、次に投影
変換を行なう。これは写真撮影に例えると、レンズの選
定や撮影する場所、即ち、視点41、カメラの向き(視
軸45)の決定に相当する。図5は、投影変換のための
4つの座標系を示した図である。
【0017】まず、モデリング座標系31において定義
された物体の形状データはワールド座標系40(物体の
形を表す時にモデル内の各座標を表現する座標系)にお
けるデータに変換される。そして、対象となる物体を見
ることができるように、選定したカメラをいろいろな方
向に向けることでビューイング変換(視野変換)を行な
う。この際、ワールド座標系40で表された物体のデー
タが視点座標系44のデータに変換されることになる。
また、この変換のためにワールド座標系40の中にスク
リーン(視野窓)を指定し、このスクリーンが物体の最
終的な投影面となる。そして、このスクリーンを定義す
るための座標系は、UVN座標系42(スクリーン座標
系)と呼ばれる。但し、視点前方のすべてのものを描く
と、不必要な計算時間をとる場合があるので作画領域を
限定することも必要である。尚、この作画領域は、ビュ
ーボリューム43(視野空間)と呼ばれ、またこの作業
はクリッピングと呼ばれる。
【0018】次に、投影変換についてより詳細に説明す
る。図6は投影変換を示した図である。同図において、
まず空間に投影の中心となる視点41を置き、その視点
41からの視軸45(視点を端として人間が見ている方
向に向う半直線)及び視角(画角)θを考える。そし
て、視軸45に対して直交し、視点41からの距離がf
である平面を投影面(スクリーン)とすると、投影面5
1と視錐(視点を中心として視軸45を軸とする円錐
面)の交わる部分は円形をしている。そして、同図のよ
うに、この円弧上に4つの頂点を持ち、横の長さをh、
縦の長さがvである矩形領域を考え、この領域をスクリ
ーン51とする。
【0019】ここで、このhとvをθとfから計算する
方法を考える。但し、hとvの比率は表示画像の横と縦
の比率と同じであるとする。同図において、まず、区間
OEは前述の円弧の半径であるので、 ∠OPE=θ/2 (式1) となり、この結果、 len(OE)=f*tan (θ/2) (式2) ここで、len(x):区間xの長さを返す関数 また、点Oは区間EGの中点であるので、 len(EG)=2・len(OE) =2・f・tan(θ/2) (式3) となる。次に、表示画像の横と縦の画素数をそれぞれa
とbの既知値であるとすると、この2つの比率はhとv
の比率と同じであるので、 a:b=h:v (式4) となる。また、ピタゴラスの定理により、 h2+v2=len(EG)2 (式5) 故に、(式3)、(式4)、(式5)から、 h=2・f・tan(θ/2)/sqrt(1+(a/b)・(a/b)) (式6) v=2・f・tan(θ/2)/sqrt(1+(b/a)・(b/a)) (式7) ここで、sqrt(x):xの平方根を返す関数 そして、スクリーン51をいろいろな方向に動かすこと
で、視野変換を行なう。視野変換後、空間に存在する物
体の3次元形状の各点に対し、視点41と投影面51の
交点を求める操作を行なうことで、図6に示す様に、ス
クリーン51上に物体の投影図52を得る。従って、投
影変換が行なわれると、視点座標系44で表されたデー
タは、UVN座標系42におけるデータに変換されたこ
とになる。
【0020】次に、この投影変換によってUVN座標系
42で示された図形は最終的なデバイス座標系に変換さ
れ表示装置に表示される。ここで、デバイス座標系と
は、画像の中でピクセルやドットの位置を表すときに用
いる座標系のことをいい、表示画像における座標系と同
一であるとする。
【0021】以上説明した座標系での処理方法を、以下
具体的に説明する。
【0022】まず、X、Y、Zの互いに直交する座標軸
で定義されたワールド座標系40で、視点41の位置と
方向、対象となる物体の位置が表現される。また、視点
座標系44のx軸は視軸45と垂直に、y軸はUVN座
標系42のV軸に平行となるように設定する。ここでワ
ールド座標空間における任意の点Pの座標を(X,Y,
Z)とする。視点Pe41の座標を(Xe 、Ye 、Ze
)、ワールド座標系40における方位角(左右の角
度)をα、仰角(上下の角度)をβ、点Pの視点座標系
44での座標を(x,y,z)で示すと、それら座標値
間には次の関係が成立する。
【0023】
【数1】 ここで、
【数2】
【数3】 そして、3次元立体を投影する投影面51は、視点座標
系44のz軸に垂直であるとし、また、視距離は前述の
ようにfであるとすると、空間内の点Pを、UとVの座
標軸をもつ投影面51に投影した点P’の座標(x’,
y’)は、 x’=−f・(x/y) y’=−f・(y/z) で示される。
【0024】そして、最終的に投影面51の画像データ
が、表示画像(デバイス座標系)におけるピクセル(画
素)の列に変換されるが、その際の投影面51内の点
P’に対応する表示画像上の点P”の座標値を(x”,
y”)とすると、座標値x”,y”はそれぞれ、 x”=a・x’/h+a/2 y”=b・x’/v+b/2 で与えられる。但し、hとvはそれぞれ投影面51の横
と縦の長さを、また、aとbはそれぞれ表示画像(デバ
イス座標系)の横と縦の画素数を示す。そして、この座
標系を用いて最終的な出力画像内の画素に対応する投影
面51上のサンプル点を考え、まず物体の内部に含まれ
るサンプル点を探し出し、さらにそれに対応する表示画
像中の画素をその点における物体上のテクスチャの色の
値で塗りつぶしていくことにより、UVN座標系42に
変換された物体が最終的な2次元画像のピクセルの列に
変換されることになる。なお、このような方法で複数個
の物体を描く場合、表示デバイスの画素毎に奥行き情報
を格納する領域(zバッファ)を設け、この領域を用い
て複数個の物体の奥行きを比較し隠れた面を消去する手
法(隠面消去法)が用いるとよい。
【0025】次に、第1の実施例の3次元形状データの
モデリング処理を、図7のフローチャートを参照して説
明する。
【0026】まず、本実施例の3次元モデリング装置を
使用してモデリングする前に、操作者は、右手にグロー
ブ1を、頭部に液晶シャッタ眼鏡9を装着する。そし
て、3次元形状データ入力装置の電源を入れる。そし
て、ROM102に格納されている3次元モデリング処
理プログラムが起動される。以下、各ステップごとに、
3次元モデリング処理プログラムの処理手順を説明す
る。
【0027】ステップS1では、表示用モニタ4に図8
に示すようなメニュー200を表示する。そして、操作
者に、メニューを選択させる。この選択は、例えば、ポ
インテイングデバイスを用いて行う。
【0028】このメニューの意味を、以下簡単に説明す
る。「カーブ」は曲線を作成するためのメニューであ
り、曲線をつないで、平面を作成したり、曲線を任意の
軸の回りに回転させて立体を作成する場合に使用する。
「ポリゴン」は、予め基本となる3次元のデータが用意
されていて、それを加工したり、組み合わせたりするこ
とにより、立体形状を得ようとするものである。また、
このメニューは3次元情報を持ったメニューで、観察者
は液晶シャッタ眼鏡を装着することにより、空間に浮か
んでいるかのように表示される。操作者はグローブを装
着した人さし指を使って、メニュー200の中から、例
えば、「ポリゴン」のボタンを押す。すると、図8に示
す様なサブメニュー201が表示される。次に、メニュ
ー201の中から、例えばポリゴンの種類として「立方
体」を選択する。
【0029】ステップS2では、ステップS1で選択さ
れた基本図形を、表示用モニタ4に操作者が3次元空間
の基本図形と見えるように、図5で示した視点座標系4
1で視点の位置をx軸上で視点間隔分ずらすことによっ
て、その基本図形に対する3次元画像データの生成、即
ち右目用、左目用の基本図形画像データを生成する。3
次元データ作成部14がこの処理を行い、生成された3
次元の基本図形画像データを、立体表示処理部15に送
る。
【0030】ステップS3では、立体表示処理部15
が、受け取った3次元基本図形画像データに基づいて、
表示用モニタ4上に1/60秒間隔で右目用基本図形画
像と左目用基本図形画像を交互に表示させる。操作者
は、液晶シャッタ眼鏡9を装着して、表示用モニタ4上
の基本図形画像を見ているので、3次元空間に基本図形
が浮かんでいるかのように見える。
【0031】ステップS4では、超音波センサA5、超
音波センサB6、超音波センサC7とストレインゲージ
104からのセンスデータの入力を開始する。そして、
入力データを解析して、基本図形に対する指示内容を判
別する。そして、指示内容によってステップS6からス
テップS10へ進む。即ち、並行移動であればステップ
S6へ、回転であればステップS7へ、拡大であればス
テップS8へ、縮小であればステップS9へ、頂点移動
であればステップS10へ進む。
【0032】尚、操作者が基本図形に対する指示の方法
は、以下に説明する通りである。
【0033】まず、基本図形の移動指示方法から説明す
る。始めに、操作者は、グローブ1を用いて、空間に浮
かぶ基本図形を仮想的に掴んで移動することにより基本
図形の位置の移動を指示できる。操作者はグローブ1の
手を基本図形の位置まで持っていき、そこで、手を軽く
握る。この操作により、グローブの位置に立体が固定さ
れる。手を移動すると基本図形も一緒に移動する。希望
の位置に基本図形を移動したらグローブの手を開く。そ
の位置でグローブから基本図形が離れる。一方、本実施
例の3次元モデリング装置は、グローブ1の超音波発信
器A2、超音波発信器B3から超音波を出力し、超音波
センサA5、超音波センサB6、超音波センサC7で検
出される超音波パタンデータを解析して、実際の手の位
置と仮想3次元空間に浮かぶ基本図形の位置関係を計算
することができる。
【0034】次に、基本図形の回転指示方法を説明す
る。操作者は、仮想の基本図形を掴んで回転することに
より、基本図形の回転角の変更を指示できる。
【0035】次に、基本図形の拡大指示方法を説明す
る。操作者は、基本図形の大きさを拡大変更するため
に、仮想基本図形の位置までグローブを移動し、例えば
親指を曲げることで拡大の指示ができる。この操作によ
り、本実施例の3次元モデリング装置は、その指示を認
識して、拡大処理モードに入る。次に、操作者は、図9
に示すように拡大方向(x,y,z軸方向(300)の
いずれか)に親指と人差し指との間隔を広げることによ
り、拡大倍率を指定できる。
【0036】次に、基本図形の縮小指示方法を説明す
る。操作者は、基本図形の大きさを縮小変更するため
に、仮想基本図形の位置までグローブを移動し、そこ
で、例えば人差し指を曲げる。この操作により、縮小モ
ードとなる。操作者は、図9に示す様に縮小したい方向
(x,y,z軸方向の(300)のいづれか)に親指と
中指との間隔を挟めることにより縮小率を指示できる。
【0037】次に、基本図形の頂点移動指示方法を説明
する。操作者は、仮想基本図形の頂点を摘んで形状の変
形を指示する。例えば、グローブ1の親指と人差し指で
仮想基本図形の頂点を摘み、任意の方向に頂点を移動す
ることにより、仮想基本図形の形状の変形を指示する。
【0038】ステップS6では、データ解析部13が、
超音波センサA5、超音波センサB6、超音波センサC
7で検出される超音波パタンデータを解析して、実際の
手の位置と仮想3次元空間に浮かぶ仮想基本図形の位置
関係と移動量を計算し、そして、仮想基本図形の移動後
の各座標を求める。そして、3次元データ作成部14
は、その移動後の基本図形に対する3次元画像データの
生成、即ち右目用、左目用の基本図形画像データを生成
する。そして、生成された3次元の基本図形画像データ
を、立体表示処理部15に送る。
【0039】ステップS7では、データ解析部13が、
上述した基本図形の回転指示に対応する、超音波センサ
A5、超音波センサB6、超音波センサC7で検出され
る超音波パタンデータのデータを解析して、手の平の角
度を検出する。そして、回転方向と回転量データを生成
し、その角度分基本図形を回転させる回転変換を行い
(例えば、アフィン変換)回転後の基本図形の各座標を
求める。そして、3次元データ作成部14は、その回転
後の基本図形に対する3次元画像データの生成、即ち右
目用、左目用の基本図形画像データを生成する。そし
て、生成された3次元の基本図形画像データを、立体表
示処理部15に送る。
【0040】ステップS8では、データ解析部13が、
超音波センサA5、超音波センサB6、超音波センサC
7で検出される超音波信号パタンデータとストレインゲ
ージからの指曲げデータに基づいて、拡大方向と拡大率
を計算する。そして、その拡大方向と拡大率に従って、
基本図形を拡大変換し、拡大後の基本図形の各座標を求
める。そして、3次元データ作成部14は、その拡大後
の基本図形に対する3次元画像データの生成、即ち右目
用、左目用の基本図形画像データを生成する。そして、
生成された3次元の基本図形画像データを、立体表示処
理部15に送る。
【0041】ステップS9では、データ解析部13が、
超音波センサA5、超音波センサB6、超音波センサC
7で検出される超音波信号パタンデータとストレインゲ
ージからの指曲げデータに基づいて、縮小方向と縮小率
を計算する。そして、その縮小方向と縮小率に従って、
基本図形を縮小変換し、縮小後の基本図形の各座標を求
める。そして、3次元データ作成部14は、その縮小後
の基本図形に対する3次元画像データの生成、即ち右目
用、左目用の基本図形画像データを生成する。そして、
生成された3次元の基本図形画像データを、立体表示処
理部15に送る。
【0042】ステップS10では、データ解析部13
が、超音波センサA5、超音波センサB6、超音波セン
サC7で検出される超音波信号パタンデータとストレイ
ンゲージからの指曲げデータに基づいて、指定された基
本図形の頂点位置を識別する。そして、頂点の移動方向
と移動量を演算により求める。次に、それら頂点の移動
方向と移動量に基づいて、基本図形の形状の変形を行
い、変形後の各座標を求める。そして、3次元データ作
成部14は、その変形後の基本図形に対する3次元画像
データの生成、即ち右目用、左目用の基本図形画像デー
タを生成する。そして、生成された3次元の基本図形画
像データを、立体表示処理部15に送る。
【0043】ステップS11では、立体表示処理部15
が受信した3次元の基本図形画像データに基づき、表示
用モニタ4上に1/60秒間隔で右目用基本図形画像と
左目用基本図形画像を交互に表示させる。操作者は、液
晶シャッタ眼鏡9を装着して、表示用モニタ4上の基本
図形画像を見ているので、3次元空間に基本図形が浮か
んでいるかのように見える。
【0044】ステップS12では、基本図形に対する処
理が終了したかどうかチェックする。これは、例えば、
グローブ1を取り付けた操作者が「げんこつ」を作るこ
とが、基本図形に対する処理の終了を意味させてもよ
い。基本図形に対する処理の終了指示が検出されなけれ
ば、ステップS3からの処理へ戻り、基本図形に対する
モデリング処理を続行する。終了を検出すれば、ステッ
プS13で、モデリング処理を終了するかどうかチェッ
クする。操作者の指示の方法は、例えば、グローブ1を
取り付けた操作者がじゃんけんの「ちょき」を作ること
が、モデリング基本図形に対する処理の終了を意味させ
てもよい。基本図形に対する処理の終了指示が検出され
なければ、ステップS1からの処理へ戻り、次の図形に
対するモデリング処理を行う。
【0045】回転後のことにより実現される。従来の回
転方法では、上述した正面図、側面図、上面図の3個の
ウインドウを表示し、各ウインドの、回転の中心となる
軸を設定し、その傾きをまず変えてから、その軸の回り
に物体を回転させていた。この操作は、非常に困難を伴
い、熟練した操作者でも何度もやり直しを行なわなけれ
ばならなかった。しかしながら、本実施例の回転方法を
用いることにより、簡単に人間の操作感覚に近い形で、
物体の回転が行なえる。
【0046】尚、ステップS11、ステップS12で
は、終了の合図を操作者の手の形で行う例を示したが、
これは、表示用モニタ4に表示したメニュを用いてもよ
い。例えば、メニュのボタンの「終了」を押すことでも
よい。
【0047】以上説明したモデリング方法によれば、簡
単でかつ人間の操作感覚に近い形で、モデリング処理を
行うことができる。
【0048】(第2の実施例)第1の実施例では、球、
円柱、円錐、立方体などの基本物体を組み合わせて任意
の形状を作成しているが、図8のメニュの「カーブ」を
選択することにより、カーブを任意の軸を中心として回
転させることにより、回転体を得ることもできる。
【0049】また、カーブの始点と終点を連結すること
により、多角形を作成し、多角形どうしをつなげること
により、任意の形状を作成することも可能である。
【0050】また、第1の実施例では、すべての操作を
グローブ1を用いて行っているが、メニュの選択、細部
の位置指定、物体の拡大などは、マウスなどのポインテ
ィングデバイスを用いることも可能である。
【0051】また、第1の実施例では、表示用モニタ4
とそれに同期する液晶シャッタ眼鏡9を用いて立体効果
を得ているが、眼前に左右の映像を別々に表示する二つ
のモニタが取りつけられたヘルメット(ヘッド・マウウ
ント・ディスプレイ)を用いることも可能である。
【0052】さらに、第1の実施例では、グローブ1を
用いた位置検出、角度検出に超音波を用いているが、グ
ローブ1に磁気発生器を取り付け、磁気センサにより位
置検出、角度検出を行うことも可能である。
【0053】またさらに、第1の実施例では、グローブ
1を用いた指の角度検出に、ストレインゲージを用いて
いるが、光りファイバを各指部分に沿って取りつけるこ
とにより角度検出を行うことも可能である。光りファイ
バの一端を鏡面にし、他端からある強度の光を入力す
る。指と伸ばした状態、すなわちファイバがまっすぐの
状態では、光りはほぼ100%戻ってくる。しかし、指
を曲げた状態、すなわちファイバが曲がった状態になる
と、光りは、ファイバの外へ漏れて、戻ってくる光量が
減少する。したがって、その光量を測定することによ
り、それぞれの指の曲げ角を検出できる。
【0054】またさらに、第1の実施例では、物体の変
形を行うのに物体の頂点を指でつまんで移動する方法を
とっているが、手の平の位置、角度がわかっているの
で、粘土で物体を形づくるように手の平で物体の頂点を
押し潰すことにより、変形させることも可能である。
【0055】またさらに、第1の実施例では、片手だけ
にグローブを装着して作業を行っているが、両手に装着
することも可能であり、両手を用いて粘土をこねるよう
にして物体の変形を行うことも可能である。また、ろく
ろを回転して壷をつくるようにして、両手で物体を形づ
くることが可能である。
【0056】尚、本発明は、複数の機器から構成される
システムに適用しても1つの機器から成る装置に適用し
ても良い。また、本発明は、システム或は装置にプログ
ラムを供給することによって達成される場合にも適用で
きることはいうまでもない。
【0057】以上説明したように、第1、第2の実施例
の3次元モデリング装置を用いることによって、操作者
は、容易に仮想空間上に浮かぶ3次元物体を自分の手を
用いてモデリングできる。したがって、実際にものを手
で扱う感覚でモデリングが行えるようになる。
【0058】
【発明の効果】以上説明したように本発明によれば、簡
単でかつ人間の操作感覚に近い形でモデリングを行うこ
とができる。
【0059】
【図面の簡単な説明】
【図1】本実施例の3次元モデリング装置の外観図であ
る。
【図2】本実施例の3次元モデリング装置の構成図であ
る。
【図3】第1の実施例の3次元モデリング処理プログラ
ムの概念図である。
【図4】モデリング座標系を示す図である。
【図5】モデリング、レンダリングに必要な4つの座標
系を示す図である。
【図6】透視投影を説明するための図である。
【図7】第1の実施例の3次元モデリング処理プログラ
ムのフローチャートである。
【図8】操作メニューの構成を示す図である。
【図9】物体の拡大縮小の方法を説明する図である。
【符号の説明】
1 グローブ 2 超音波発信器A 3 超音波発信器B 4 表示用モニタ 5 超音波センサA 6 超音波センサB 7 超音波センサC 8 演算装置 9 液晶シャッタ眼鏡 100 キーボード 101 CPU 102 ROM 103 RAM 104 ストレインゲージ
───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G09G 5/36 520 D 9471−5G

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 物体のモデリングを行うモデリング装置
    であって、 3次元空間内で、座標を指示する指示手段と、 前記指示手段により指示された座標に基づいて、付属情
    報を付与する付属情報付与手段と、 前記座標と付属情報に基づいて、3次元データを作成す
    る3次元データ作成手段と、 前記3次元データを表示する表示手段と、を備えること
    を特徴とするモデリング装置。
  2. 【請求項2】 前記指示手段はさらに、曲がりの程度を
    指示することを特徴とする請求項1に記載のモデリング
    装置。
  3. 【請求項3】 前記付属情報は、前記3次元データの移
    動、あるいは回転、あるいは拡大縮小、あるいは変形情
    報であることを特徴とする請求項1に記載のモデリング
    装置。
  4. 【請求項4】 物体のモデリングを行うモデリング方法
    であって、 3次元空間内で、座標を指示する指示工程と、 前記指示工程により指示された座標に基づいて、付属情
    報を付与する付属情報付与工程と、 前記座標と付属情報に基づいて、3次元データを作成す
    る3次元データ作成工程と、 前記3次元データを表示する表示工程と、を備えること
    を特徴とするモデリング方法。
  5. 【請求項5】 前記指示工程はさらに、曲がりの程度を
    指示することを特徴とする請求項4に記載のモデリング
    方法。
  6. 【請求項6】 前記付属情報は、前記3次元データの移
    動、あるいは回転、あるいは拡大縮小、あるいは変形情
    報であることを特徴とする請求項4に記載のモデリング
    方法。
JP32910894A 1993-12-28 1994-12-28 モデリング方法とその装置 Pending JPH07239750A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32910894A JPH07239750A (ja) 1993-12-28 1994-12-28 モデリング方法とその装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP33738393 1993-12-28
JP5-337383 1993-12-28
JP32910894A JPH07239750A (ja) 1993-12-28 1994-12-28 モデリング方法とその装置

Publications (1)

Publication Number Publication Date
JPH07239750A true JPH07239750A (ja) 1995-09-12

Family

ID=26573095

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32910894A Pending JPH07239750A (ja) 1993-12-28 1994-12-28 モデリング方法とその装置

Country Status (1)

Country Link
JP (1) JPH07239750A (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207620A (ja) * 1997-01-28 1998-08-07 Atr Chinou Eizo Tsushin Kenkyusho:Kk 立体インタラクション装置および立体インタラクション方法
KR20020073890A (ko) * 2001-03-16 2002-09-28 한국전자통신연구원 손의 주물거림을 이용한 3 차원 모델링 시스템 및 그 방법
JP2003106861A (ja) * 2001-09-28 2003-04-09 Clarion Co Ltd ナビゲーション装置及び方法
JP2008014783A (ja) * 2006-07-05 2008-01-24 Denso Corp 車両用ナビゲーション装置
JP2012033043A (ja) * 2010-07-30 2012-02-16 Toshiba Corp 情報表示装置及び情報表示方法
JP2014513371A (ja) * 2011-05-09 2014-05-29 コーニンクレッカ フィリップス エヌ ヴェ スクリーン上のオブジェクトの回転
JP6140871B1 (ja) * 2016-08-09 2017-05-31 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10255658B2 (en) 2016-08-09 2019-04-09 Colopl, Inc. Information processing method and program for executing the information processing method on computer
JP2020192613A (ja) * 2019-05-24 2020-12-03 京セラドキュメントソリューションズ株式会社 電子装置、ロボットシステム、及び、仮想領域設定方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207620A (ja) * 1997-01-28 1998-08-07 Atr Chinou Eizo Tsushin Kenkyusho:Kk 立体インタラクション装置および立体インタラクション方法
KR20020073890A (ko) * 2001-03-16 2002-09-28 한국전자통신연구원 손의 주물거림을 이용한 3 차원 모델링 시스템 및 그 방법
JP2003106861A (ja) * 2001-09-28 2003-04-09 Clarion Co Ltd ナビゲーション装置及び方法
JP2008014783A (ja) * 2006-07-05 2008-01-24 Denso Corp 車両用ナビゲーション装置
JP2012033043A (ja) * 2010-07-30 2012-02-16 Toshiba Corp 情報表示装置及び情報表示方法
US8466894B2 (en) 2010-07-30 2013-06-18 Kabushiki Kaisha Toshiba Apparatus and method for displaying information
JP2014513371A (ja) * 2011-05-09 2014-05-29 コーニンクレッカ フィリップス エヌ ヴェ スクリーン上のオブジェクトの回転
US10102612B2 (en) 2011-05-09 2018-10-16 Koninklijke Philips N.V. Rotating an object on a screen
JP6140871B1 (ja) * 2016-08-09 2017-05-31 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
JP2018025955A (ja) * 2016-08-09 2018-02-15 株式会社コロプラ 情報処理方法及び当該情報処理方法をコンピュータに実行させるためのプログラム
US10255658B2 (en) 2016-08-09 2019-04-09 Colopl, Inc. Information processing method and program for executing the information processing method on computer
US10664950B2 (en) 2016-08-09 2020-05-26 Colopl, Inc. Information processing method and system for executing the information processing method
US10719911B2 (en) 2016-08-09 2020-07-21 Colopl, Inc. Information processing method and system for executing the information processing method
JP2020192613A (ja) * 2019-05-24 2020-12-03 京セラドキュメントソリューションズ株式会社 電子装置、ロボットシステム、及び、仮想領域設定方法

Similar Documents

Publication Publication Date Title
US5687307A (en) Computer graphic animation in which texture animation is independently performed on a plurality of objects in three-dimensional space
EP0451875B1 (en) Image displaying system
JP5791976B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US8917240B2 (en) Virtual desktop coordinate transformation
JP3769316B2 (ja) 実時間三次元指示装置及び被検体内の三次元位置を確認する際に操作者を支援する方法
TWI521469B (zh) Two - dimensional Roles Representation of Three - dimensional Action System and Method
US7382374B2 (en) Computerized method and computer system for positioning a pointer
CN105074617A (zh) 三维用户界面装置和三维操作处理方法
CA2550512A1 (en) 3d videogame system
EP1821258B1 (en) Method and apparatus for automated dynamics of three-dimensional graphics scenes for enhanced 3D visualization
JPH07239750A (ja) モデリング方法とその装置
JP4109745B2 (ja) 三次元空間表示システムにおける物体移動配置装置及び方法
CN106716500B (zh) 一种信息处理装置及深度定义方法
Ha et al. Automatic control of virtual mirrors for precise 3D manipulation in VR
JPH0628452A (ja) 3次元画像処理装置
Green et al. The datapaper: Living in the virtual world
EP1720090B1 (en) Computerized method and computer system for positioning a pointer
JPH11175758A (ja) 立体表示方法および装置
Schkolne Making digital shapes by hand
JP2005322097A (ja) 対象物像モデルのアニメーション表示装置、対象物像モデルのアニメーション表示方法および対象物像モデルのアニメーション表示プログラム
JP3132220B2 (ja) 3次元モデルの形状作成方法
JPH0765194A (ja) 情報処理装置
Kim et al. Tangible 3D: Immersive 3D modeling through hand gesture interaction
JP2573785B2 (ja) 3次元分子情報の表示における視線/光線方向変更装置
JP3544585B2 (ja) 3次元モデル処理装置

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20020206