JP2006277350A - Information processing method and information processor - Google Patents
Information processing method and information processor Download PDFInfo
- Publication number
- JP2006277350A JP2006277350A JP2005095704A JP2005095704A JP2006277350A JP 2006277350 A JP2006277350 A JP 2006277350A JP 2005095704 A JP2005095704 A JP 2005095704A JP 2005095704 A JP2005095704 A JP 2005095704A JP 2006277350 A JP2006277350 A JP 2006277350A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- instrument
- orientation
- foot
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Abstract
Description
本発明は、仮想物体の測定技術に関するものである。 The present invention relates to a virtual object measurement technique.
MR,AR技術は実写映像とCGを合成し、仮想のCG物体が利用者の前に存在するかのように見せる技術である。MR技術の典型的なアプリケーションでは、利用者はビデオシースルー型のHMDを装着し、HMDの前面のカメラからの映像と、計算機が作成したCG映像を合成した映像を見る。CG映像は、位置センサにより測定した利用者の視点から描かれるため、利用者にはあたかも現実空間に仮想のCGが存在するかのように見える。実際のMR技術の応用としては、工業デザインの検証が挙げられる。
しかしながら先に示したMRを使ったCADデザインのプレビューにおいて、CADモデルの寸法などを直感的かつ正確に測ることは難しかった。正確な寸法を得ようとした場合、CADモデルの2点を正確に指定する必要がある。従来のモニタ画面を使用したCADの場合には、それらの2点をマウスなどで指示していた。 However, it has been difficult to intuitively and accurately measure the dimensions of the CAD model in the CAD design preview using MR described above. In order to obtain an accurate dimension, it is necessary to specify two points of the CAD model accurately. In the case of CAD using a conventional monitor screen, these two points are indicated with a mouse or the like.
しかし、そのようにCADモデルの2点を指示してCADモデルの寸法を測ることは、MR技術を用いている場合には直感的とはいえない。MR技術を用いた場合、利用者にはCADモデルが目の前に存在するかのように見えている。もし利用者の前にあるのがCADモデルでなく実物だとしたら、2点間の寸法を測るためにはものさしなどを使用するはずである。利用者が手で持つことができるものさしをCADモデルにあてて寸法を測る方がより直感的なインタフェースである。 However, it is not intuitive to specify the two points of the CAD model and measure the dimensions of the CAD model in the case of using the MR technique. When MR technology is used, the CAD model appears to the user as if it exists in front of him. If it is not the CAD model but the real thing that is in front of the user, a measure or the like should be used to measure the dimension between the two points. A more intuitive interface is to measure the dimensions by applying a ruler that can be held by the user to the CAD model.
MR技術を用いた場合、本物のものさしをCADモデルにかざして寸法を測ることも可能である。だが正確な大きさを知ることは難しい。CADモデルには実体がないため、ものさしをCADモデルにあてることができないためである。 When the MR technique is used, it is possible to measure the size by holding the real ruler over the CAD model. However, it is difficult to know the exact size. This is because the CAD model has no substance, and the ruler cannot be applied to the CAD model.
本発明は以上の問題に鑑みて成されたものであり、観察者が直感的に分かりやすいように、仮想物体の測定を行うための技術を提供することを目的とする。 The present invention has been made in view of the above problems, and an object thereof is to provide a technique for measuring a virtual object so that an observer can intuitively understand it.
本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。 In order to achieve the object of the present invention, for example, an information processing method of the present invention comprises the following arrangement.
即ち、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得工程と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする。
That is, the first acquisition of the position and orientation of the instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed. Process,
A second acquisition step of acquiring an angle formed by the first member and the second member;
An instrument virtual object information setting step for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
A third acquisition step of acquiring the position and orientation of the user's viewpoint;
Generation step of generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the virtual object of the measurement target When,
An instrument virtual object information adjusting step of adjusting a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.
本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。 In order to achieve the object of the present invention, for example, an information processing apparatus of the present invention comprises the following arrangement.
即ち、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得手段と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする。
That is, the first acquisition of the position and orientation of the instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed. Means,
Second acquisition means for acquiring an angle formed by the first member and the second member;
Instrument virtual object information setting means for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
Third acquisition means for acquiring the position and orientation of the user's viewpoint;
Generation means for generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the measurement target virtual object When,
And an instrument virtual object information adjusting unit that adjusts a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.
本発明の構成により、観察者が直感的に分かりやすいように、仮想物体の測定を行うことができる。 With the configuration of the present invention, a virtual object can be measured so that an observer can easily understand intuitively.
以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。 Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.
図1は、現実空間と仮想空間とが融合された複合現実空間中に存在する仮想物体の測定を行うためのシステムを使用している様子を示す図である。同図において10は複合現実空間の観察者で、その頭部にはHMD(頭部装着型表示装置)100が装着されており、観察者10はこのHMD100を介して複合現実空間の画像を眼前に見ることができる。また、観察者の手には、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具、即ち、コンパス状の器具500が保持されている。
FIG. 1 is a diagram illustrating a state in which a system for measuring a virtual object existing in a mixed reality space in which a real space and a virtual space are fused is used. In the figure,
図4は、器具500の概略構成を示す図で、器具500は棒状の第1の部材501,棒状の第2の部材502、第1の部材501の位置姿勢を計測するための位置姿勢センサ510、第1の部材501と第2の部材502とが成す角度を計測するセンサ520により構成されている。器具500の使用方法については後述する。
FIG. 4 is a diagram showing a schematic configuration of the
図1に戻って、150は仮想物体としてのプリンタで、測定の対象となる仮想物体である。210は磁気の発信源で、HMD100、器具500にはこの磁気発信源210から発せられる磁気に従って自身の位置姿勢を計測するセンサが備わっている。
Returning to FIG. 1,
これらのセンサは磁気発信源210に接続されており、センサによる計測結果はこの磁気発信源210によって求まり、コンピュータ300に送出される。
These sensors are connected to the
以下、システムを構成する各部について説明する。 Hereinafter, each part which comprises a system is demonstrated.
図10は、本実施形態に係るシステムのハードウェア構成を示すブロック図である。 FIG. 10 is a block diagram showing a hardware configuration of the system according to the present embodiment.
HMD100はHMD内蔵センサ120,右目カメラ110、左目カメラ111、右目LCD130,左目LCD131により構成されている。
The HMD 100 includes an HMD built-in
HMD内蔵センサ120は、磁気発信源210から発せられる磁界において、自身の位置姿勢に応じた磁界の変化を検知し、検知した結果を示す信号を3次元センサ本体200に出力する。
The HMD built-in
右目カメラ110、左目カメラ111はそれぞれ、HMD100を頭部に装着する観察者の右目、左目から見える現実空間の動画像を撮像するものである。右目カメラ110、左目カメラ111のそれぞれにより撮像された動画像を構成する各フレームの画像データはコンピュータ300に出力する。
The right-
右目LCD130、左目LCD131はそれぞれ、右目カメラ110、左目カメラ111のそれぞれによって撮像された現実空間に、コンピュータ300が生成した仮想物体の画像を重畳させた画像(複合現実空間の画像)を表示するものであり、これにより、HMD100を頭部に装着した観察者は、自身の右目、左目に対応する複合現実空間の画像を眼前に見ることができる。
The right-
図2は、HMD100の外観を示す図であり、同図に示す如く、HMD100には右目カメラ110,左目カメラ111、右目LCD130、左目LCD131、そしてHMD内蔵センサ120が備わっている。
FIG. 2 is a diagram showing the appearance of the
図10に戻って、器具500は上述の通り、観察者の手に保持されているもので、その位置姿勢は観察者の手が動くことにより変化する。よって、デバイス内蔵センサ510は、磁気発信源210から発せられる磁界において、自身の位置姿勢に応じた磁界の変化を検知し、検知した結果を示す信号を3次元センサ本体200に出力する。
Returning to FIG. 10, the
3次元センサ本体200は、HMD内蔵センサ120、デバイス内蔵センサ510から受けた信号の強度に基づいて、センサ座標系(磁気発信源210の位置を原点とし、この原点で互いに直交する3軸をそれぞれx、y、z軸とする座標系)におけるHMD内蔵センサ120、デバイス内蔵センサ510の位置姿勢(第1の部材501の位置姿勢)を示すデータを求め、コンピュータ300に出力する。
The three-dimensional sensor
また、器具500にはデバイス内蔵ボリューム520が備わっており、器具500を構成する第1の部材501と第2の部材502とが成す角度に応じた信号をコンピュータ300に出力する。
The
次に、コンピュータ300について説明する。
Next, the
A/Dコンバータ340は、デバイス内蔵ボリューム520から出力される信号をA/D変換し、この信号を第1の部材501と第2の部材502とが成す角度を示すデータとしてメモリ302に出力する。
The A /
シリアルI/O310は、3次元センサ本体200から出力されるデータを受ける為のインターフェースとして機能するものであり、受けたデータはメモリ302に出力される。なお、このデータは上述の取り、HMD内蔵センサ120やデバイス内蔵センサ510のセンサ座標系における位置姿勢を示すデータである。本実施形態ではこの位置姿勢は、位置(x、y、z)を示すデータと、姿勢(roll,pitch,yaw)を示すデータにより構成されているものとする。すなわち、HMD内蔵センサ120、デバイス内蔵センサ510は、6自由度の計測センサである。なお、位置姿勢を表現する方法は他にも考えられ、これに限定するものではない。
The serial I /
ビデオキャプチャカード320、321はそれぞれ、右目カメラ110、左目カメラ111から入力される、各フレームの画像を受けるためのインターフェースとして機能するものであり、受けた画像は順次メモリ302に出力する。本実施形態では、各フレームの画像はNTSCに準拠したものであるとするが、これに限定するものではない。
Each of the
ビデオカード330,331はそれぞれ、CPU301が後述する処理により生成した右目、左目に対応する複合現実空間の画像を右目LCD130、左目LCD131に出力するためのインターフェースとして機能するものであり、右目、左目に対応する複合現実空間の画像はそれぞれ、VGAに準拠した画像信号としてビデオカード330、331を介して右目LCD130、左目LCD131に出力される。
Each of the
CPU301は、コンピュータ300全体の制御を行うと共に、コンピュータ300が行うべき後述の各処理を実行する。このような処理の実行は、メモリ302に記憶されている各種のプログラムやデータを実行することでなされる。
The
メモリ302は、CPU301が各種の処理を実行するために使用するワークエリアや、CPU301に各種の処理を実行させるためのプログラムやデータを記憶するためのエリア、また、シリアルI/O310、A/Dコンバータ340、ビデオキャプチャカード320、321を介して入力される各種のデータを一時的に記憶するためのエリアを備える。また、右目カメラ110とHMD内蔵センサ120との位置姿勢関係(右目用バイアス)、左目用カメラ111とHMD内蔵センサ120との位置姿勢関係(左目用バイアス)は予め測定されており、測定された右目用バイアス、左目用バイアスはメモリ302にに予め格納されているものとする。
The
PCIブリッジ303は、CPU301、メモリ302が繋がっているバスと、A/Dコンバータ340、シリアルI/O310、ビデオキャプチャカード320、321,ビデオカード330、331を繋ぐバスとを電気的に繋ぐためのものである。
The
次に、以上の構成を備えるコンピュータ300が、複合現実空間の映像を生成する為に行う処理について、同処理のフローチャートを示す図11を用いて以下説明する。なお、同図のフローチャートに従った処理をCPU301に実行させるためのプログラムやデータはメモリ302に格納されており、CPUCPU301はこれを用いて処理を行うことで、コンピュータ300は以下説明する各処理を実行することになる。
Next, a process performed by the
右目カメラ110(左目カメラ111)からは各フレームの撮像画像(現実空間の画像)がビデオキャプチャカード320(321)を介して本コンピュータ300に入力されるので、CPU301はこれを取得し(ステップS100)、メモリ302上に設けられているビデオメモリに順次格納する(ステップS101)。
From the right-eye camera 110 (left-eye camera 111), the captured image (real space image) of each frame is input to the
次に、A/Dコンバータ340を介して「第1の部材501と第2の部材502とが成す角度」(以下、「ボリューム値」と呼称)を示すデータが本コンピュータ300に入力されると共に、シリアルI/O310を介して「HMD内蔵センサ120のセンサ座標系における位置姿勢」を示すデータ、「デバイス内蔵センサ510のセンサ座標系における位置姿勢」を示すデータが本コンピュータ300に入力されるので、CPU301は、HMD内蔵センサ120のセンサ座標系における位置姿勢に左目用バイアス(右目用バイアス)を加算して、センサ座標系における左目カメラ111(右目カメラ110)の位置姿勢を求め、求めた位置姿勢を示すデータをメモリ302に格納する(ステップS102)。なお、以下では右目、左目を総称して「視点」と呼称する場合がある。
Next, data indicating “the angle formed by the
なお、デバイス内蔵センサ510のセンサ座標系における位置姿勢を示すデータ、ボリューム値を示すデータはそのままメモリ302に格納する。
Note that the data indicating the position and orientation in the sensor coordinate system of the device built-in
次に、CPU301は、ステップS102で求めた視点の位置姿勢を用いてモデリング行列を生成すると共に、予め測定しておいたカメラの焦点距離などのパラメータから、射影変換行列を作成する(射影行列の作成は最初の1回のみで、以降は使いまわす)処理を行う(ステップS103)。モデリング行列、射影変換行列を求める処理については周知の技術であるので、ここでの説明は省略する。要するに本ステップでは、視点から見える仮想空間の画像を生成するために用いる行列を生成する処理を行う。
Next, the
次に、CPU301は、先に求めた行列を用いて、右目(左目)から見える仮想空間の画像を生成し、上記ビデオメモリ上に描画する(ステップS104、S105)。より詳しくは、測定対象の仮想物体(本実施形態では図1に示すプリンタの仮想物体150)を所定の位置姿勢で配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS104)。
Next, the
次に、器具500の仮想物体を配置するのであるが、先ずデバイス内蔵センサ510が計測した位置姿勢に第1の部材501に相当する仮想物体(以下、第1の仮想物体と呼称)を配置する。そして次に、第2の部材502に相当する仮想物体(以下、第2の仮想物体と呼称)の配置を行うのであるが、第2の仮想物体の一端が第1の仮想物体の一端に一致しており、且つ、第1の仮想物体と第2の仮想物体とが成す角度がデバイス内蔵ボリューム520から取得したボリューム値が示す角度となるような位置姿勢(即ち第2の部材502の位置姿勢)を求め、求めた位置姿勢に第2の仮想物体を配置する。これにより、器具500の仮想物体を配置することができる。
Next, a virtual object of the
図19は、器具500の仮想物体の一例を示す図で、同図において1901は第1の部材501に相当する仮想物体で、第1の部材501の位置姿勢でもって配置される。1902は第2の部材502に相当する仮想物体で、第2の部材502の位置姿勢でもって配置される。
FIG. 19 is a diagram showing an example of a virtual object of the
よって図11のステップS105では、上述のようにして器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS105)。
Therefore, in step S105 in FIG. 11, the virtual object of the
なお、メモリ302には先に、右目カメラ110から取得した現実空間の画像、左目カメラ111から取得した現実空間の画像がステップS101で格納されているので、ステップS104,S105で、それぞれの画像上に、右目カメラ110から見える仮想空間の画像、左目カメラ111から見える仮想空間の画像を描画することで、メモリ302上には、右目カメラ110から見た複合現実空間の画像、左目カメラ111から見た複合現実空間の画像が生成されることになる。
Note that since the real space image acquired from the right-
図3は、現実空間の画像上に仮想空間の画像を描画することで、複合現実空間の画像を生成する過程を示す図で、同図に示す如く、現実空間の画像301上に仮想空間の画像302を重畳(合成)することで、複合現実空間画像303が生成される。
FIG. 3 is a diagram showing a process of generating a mixed reality space image by drawing a virtual space image on the real space image. As shown in FIG. 3, the
次にCPU301は、右目用複合現実空間画像、左目用複合現実空間画像をそれぞれ、ビデオカード330,331のフレームバッファに転送する(ステップS106)。転送されたそれぞれの画像は右目LCD130、131に送出され、それぞれで表示される。HMD100を頭部に装着した観察者は視点の位置姿勢に応じた複合現実空間の画像を観察することができる。
Next, the
次に、観察者が器具500を用いて測定対象仮想物体150を測定する場合に、コンピュータ300が行う処理について説明する。観察者が器具500を用いて測定対象仮想物体150を測定する場合、当然観察者はこの器具500を測定対象仮想物体150に近づけるのであるが、器具500の仮想物体と測定対象仮想物体150との距離に応じて器具500を構成する仮想物体(図19の場合、1901,1902)の位置姿勢を測定に適した位置姿勢に変更する。以下、様々な測定を行う場合について説明する。なお、器具500の仮想物体を用いてどのような測定を行うのか(換言すれば器具500の仮想物体をどのような測定器具として用いるのか)は、不図示の操作部を観察者や本コンピュータ300の操作者が操作して指示するようにしても良い。
Next, processing performed by the
<2点間の距離を測定する>
先ず、器具500の仮想物体を用いて、測定対象仮想物体150上の2点間の距離を測定する場合について説明する。
<Measure the distance between two points>
First, the case where the distance between two points on the measurement target
図12は、器具500の仮想物体を用いて2点間の距離を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理(即ち、ステップS105における処理)のフローチャートである。
FIG. 12 shows a case where the virtual object of the
先ず、CPU301は、デバイス内蔵センサ510から取得した第1の部材501の位置姿勢と、デバイス内蔵ボリューム520から取得したボリューム値を参照し、第1の仮想物体の先の位置、第2の仮想物体の先の位置を求める(ステップS200)。
First, the
第1の仮想物体、第2の仮想物体の先の位置を求める方法については特に限定しないが、例えば第1の仮想物体の先の位置については以下のようにして求める。予めデバイス内蔵センサ510の設置位置と第1の部材501の先の位置との位置関係(第1の位置関係)を求めておく。また、第1の部材501の先の位置と第1の仮想物体の先の位置との位置関係(第2の位置関係)は予め分かるので、デバイス内蔵センサ510により計測される位置、第1の位置関係、第2の位置関係を用いれば、第1の仮想物体の位置は求めることができる。これは第2の仮想物体の先の位置を求める場合についても同様である。なお、以下では、第1の仮想物体、第2の仮想物体を「足」と呼称する場合がある。
The method for obtaining the positions of the first virtual object and the second virtual object is not particularly limited. For example, the position of the first virtual object is obtained as follows. The positional relationship (first positional relationship) between the installation position of the device built-in
次に、一方の足(以下、第1の足)の先の位置から所定距離以内に測定対象仮想物体150を構成する特徴点が位置しているのかを判断する(ステップS201)。本実施形態では、測定対象仮想物体150を記述するCADデータには、仮想物体の特徴となる頂点や辺についての情報が付加されていることとする。ここでいう特徴点は、先に図3で示したプリンタで言えば、ボディの外形の角や稜線などである。これらの特徴点や辺は、利用者が手動で付加しても、コンピュータ300が自動的に付加してもよい。
Next, it is determined whether or not the feature point constituting the measurement target
そして第1の足の先の位置から所定距離以内に特徴点がある場合には処理をステップS201を介してステップS202に進め、この第1の足の先をこの特徴点の位置に一致させるように、第1の足を移動させる(ステップS202)。 If there is a feature point within a predetermined distance from the position of the tip of the first foot, the process proceeds to step S202 via step S201 so that the tip of the first foot matches the position of the feature point. Next, the first leg is moved (step S202).
図6は、足の先の位置を特徴点に一致させる処理を説明する図で、同図において601は測定対象仮想物体150上の特徴点で、600は第1の足である。同図では、第1の足600の先の位置から所定距離以内に特徴点601が存在するために、第1の足600は同図矢印で示す如く移動させ、610で示す位置に移動させる。
FIG. 6 is a diagram for explaining a process for matching the position of the tip of the foot with the feature point, in which 601 is a feature point on the measurement target
図12に戻って、ステップS201における判断で、第1の足の先の位置から所定距離以内に特徴点が無かった場合には処理をステップS203に進め、第1の足の先の位置から所定距離以内に測定対象仮想物体150を構成する特徴辺が位置しているのかを判断する(ステップS203)。存在する場合には処理をステップS204に進め、第1の足の先の位置を、第1の足の先の位置から特徴辺に垂線をひいたときの交点に一致させるように、第1の足を移動させる(ステップS204)。
Returning to FIG. 12, if it is determined in step S201 that there is no feature point within a predetermined distance from the position of the first foot, the process proceeds to step S203, and the predetermined position is determined from the position of the first foot. It is determined whether or not the characteristic side constituting the measurement target
図13は、足の先の位置を特徴辺上に一致させる処理を説明する図で、同図において1301は測定対象仮想物体150上の特徴辺で、1300は第1の足である。ここで、第1の足1300の先の位置から所定距離以内に特徴辺1301が存在するために、第1の足1300は同図矢印で示す如く移動させ、1310で示す位置に移動させる。なお、それぞれの足を移動させる方法については上記に限定するものではなく、様々な方法が考えられる。
FIG. 13 is a diagram for explaining processing for matching the position of the tip of the foot on the feature side. In FIG. 13, 1301 is the feature side on the measurement target
次に、処理をステップS205に進め、もう一方の足(以下、第2の足と呼称する)についても上記処理を行ったのかを判断し、行っていないのであれば処理をステップS201に戻し、第2の足の先の近傍に特徴点、特徴辺が存在するのかを判断し、存在する場合には上記処理を行い、第2の足の位置を移動させる。 Next, the process proceeds to step S205, and it is determined whether the above process has been performed for the other leg (hereinafter referred to as the second leg). If not, the process returns to step S201. It is determined whether a feature point or a feature side exists in the vicinity of the tip of the second foot. If the feature point or feature side exists, the above processing is performed to move the position of the second foot.
そしてそれぞれの足について上記処理を行ったのであれば、処理をステップS206に進める、ここで、それぞれの足について上記処理を行ったのであれば、それぞれの足は独立して移動するので、元々支持されていた一端が離れてしまうなどの問題が生じる。そこで、元々支持されていた一端を一致させるべく、それぞれの足の姿勢を変更する(ステップS206)。そして、上述のように変更された位置姿勢(それぞれの足が何れの特徴点、特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS206)。 If the above processing is performed for each foot, the process proceeds to step S206. Here, if the above processing is performed for each foot, each foot moves independently, so that it is originally supported. There arises a problem that one end that has been separated is separated. Therefore, the postures of the respective feet are changed so as to match one end originally supported (step S206). Then, the foot is placed at the position and orientation changed as described above (when each foot is not close to any feature point or feature side, the position and orientation are not changed at all), and the placed virtual object is An image that can be seen when viewed from the right-eye camera 110 (left-eye camera 111) is generated and rendered on the video memory (step S206).
そして、それぞれの足の先の位置を用いて、それぞれの位置の間の距離を求め、それを複合現実空間の画像上に表示すべく、距離を示す文字列を上記ビデメモリ上に描画する(ステップS207)。 Then, using the positions of the tips of the feet, the distance between the positions is obtained, and a character string indicating the distance is drawn on the bidet memory in order to display it on the image of the mixed reality space (step S207).
図5は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。同図において600は器具500の仮想物体で、それぞれの足の先は測定対象仮想物体54の特徴点51,52に一致するように位置している。これにより、観察者が足の先を特徴点に一致させる操作を行わなくても、特徴点51,52間の距離を正確に測定することができる。
FIG. 5 is a diagram illustrating a display example of an image of the mixed reality space generated by performing the above processing. In the figure,
また、測定した2点間の距離は同図610に示す如く、表示される。これにより、観察者は改めて目盛りを読むなどの動作を行わなくても測定結果を知ることができる。 The measured distance between the two points is displayed as shown in FIG. Thus, the observer can know the measurement result without performing an operation such as reading the scale again.
<2辺が成す角度を測定する>
次に、器具500の仮想物体を用いて、測定対象仮想物体150上の2辺が成す角度を測定する場合について説明する。
<Measure the angle between two sides>
Next, a case where the angle formed by two sides on the measurement target
図14は、器具500の仮想物体を用いて2辺が成す角度を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理のフローチャートである。
FIG. 14 shows the case where the virtual object of the
先ず、第1の足の位置、第2の足の位置を求める(ステップS300)。第1の足を第1の仮想物体、第2の足を第2の仮想物体とすると、第1の仮想物体の位置は即ち第1の部材501の位置であり、第1の部材501の位置はデバイス内蔵センサ510より取得される位置である。また、第2の仮想物体の位置は、上述の通り、第1の仮想物体の位置姿勢とボリューム値とを用いて周知の計算によって求まる。
First, the position of the first foot and the position of the second foot are obtained (step S300). Assuming that the first foot is the first virtual object and the second foot is the second virtual object, the position of the first virtual object is the position of the
次に、第1の足から所定の距離以内に特徴辺があり、且つ第1の足とこの特徴辺が略並行であるのかを判断する(ステップS301)。本ステップでは、第1の足の位置と特徴辺との距離を求め、求めた距離が所定距離以内であるのかを判断する。そして所定距離以内であれば次に、第1の足とこの特徴辺が略並行であるのかを判断するのであるが、これは例えば、第1の足が第1の仮想物体であれば、デバイス内蔵センサ510が計測した姿勢と特徴辺の姿勢とを比べ、それぞれの差が所定範囲内であれば、略並行と判断すればよい。また、第1の足が第2の仮想物体であれば、上述のようにして第2の仮想物体の姿勢を求め、求めた姿勢と特徴辺の姿勢とを比べ、それぞれの差が所定範囲内であれば、略並行と判断すればよい。
Next, it is determined whether there is a feature side within a predetermined distance from the first foot and whether the first foot and the feature side are substantially parallel (step S301). In this step, the distance between the position of the first foot and the feature side is obtained, and it is determined whether the obtained distance is within a predetermined distance. If it is within the predetermined distance, it is next determined whether the first foot and the feature side are substantially parallel. For example, if the first foot is the first virtual object, the device The posture measured by the built-in
そして、第1の足から所定の距離以内に特徴辺があり、且つ第1の足とこの特徴辺が略並行である場合には処理をステップS302に進め、第1の足の姿勢を特徴辺の姿勢に一致させ、その後、第1の足の先の位置を、この位置から特徴辺に垂線をひいたときの交点に一致させることで、第1の足の位置姿勢を変更する(ステップS302)。これにより、第1の足は、この特徴辺に沿うように位置することになる。なお、第1の足を、この特徴辺に沿うように位置させる方法についてはこれに限定するものではなく、様々な方法が考えられる。 If there is a feature side within a predetermined distance from the first foot and the first foot and the feature side are substantially parallel, the process proceeds to step S302, and the posture of the first foot is changed to the feature side. The position and orientation of the first foot are then changed by matching the position of the tip of the first foot with the intersection when the perpendicular is drawn from this position to the feature side (step S302). ). As a result, the first leg is positioned along this characteristic side. Note that the method of positioning the first foot along the characteristic side is not limited to this, and various methods are conceivable.
そして処理をステップS303に進め、もう一方の足(第2の足)について上記処理を行ったのかを判断し(ステップS303)、行っていないのであれば処理をステップS301に戻して以降の処理を繰り返す。 Then, the process proceeds to step S303, and it is determined whether the above process has been performed for the other leg (second leg) (step S303). If not, the process returns to step S301 to perform the subsequent processes. repeat.
一方、第2の足についても上記処理を行ったのであれば処理をステップS304に進める。図15は、それぞれの足の位置姿勢を移動させた様子を示す図で、同図において第1の足1501,第2の足1502をそれぞれ矢印で示す如く移動させることで、それぞれを特徴辺1510、1520に沿わせるように移動させることができる。
On the other hand, if the above process is performed for the second leg, the process proceeds to step S304. FIG. 15 is a diagram illustrating a state in which the position and orientation of each foot is moved. In FIG. 15, the
図14に戻って、次に、移動させた足を延長した線が交わる位置、もしくは最も近づく位置に両足の根元の側の端点を一致させるように、それぞれの足を移動させる(ステップS304)。これは図16に示すように、それぞれの足を一点で交わるようにすることに対応する。図16は、1点で交わる足を示す図である。 Returning to FIG. 14, next, the respective feet are moved so that the end points on the base side of both feet coincide with the position where the extended lines of the moved feet intersect or the closest position (step S <b> 304). As shown in FIG. 16, this corresponds to making each leg cross at one point. FIG. 16 is a diagram showing legs that meet at one point.
図14に戻って、上述のように変更された位置姿勢(それぞれの足が何れの特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した足を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS305)。 Returning to FIG. 14, the feet are arranged in the position / posture changed as described above (the position / posture is not changed at all when each foot is not close to any feature side). An image that can be seen when viewed from the right-eye camera 110 (left-eye camera 111) is generated and drawn on the video memory (step S305).
図8は、それぞれの足を特徴辺に沿わせるように、その位置姿勢を補正する様子を示す図である。そして、それぞれの足が成す角度を求め、それを複合現実空間の画像上に表示すべく、角度を示す文字列を上記ビデメモリ上に描画する(ステップS306)。 FIG. 8 is a diagram illustrating a state in which the position and orientation are corrected so that each foot is along the feature side. Then, an angle formed by each leg is obtained, and a character string indicating the angle is drawn on the bidet memory in order to display it on the mixed reality space image (step S306).
図7は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。同図において600は器具500の仮想物体で、それぞれの足は測定対象仮想物体54の特徴辺71,72に沿うように位置している。これにより、観察者が足を特徴辺に沿わせるように操作を行わなくても、特徴辺71,72が成す角度を正確に測定することができる。
FIG. 7 is a diagram illustrating a display example of an image of the mixed reality space generated by performing the above processing. In the figure,
また、測定した角度は同図710に示す如く、表示される。これにより、観察者は改めて目盛りを読むなどの動作を行わなくても測定結果を知ることができる。 The measured angle is displayed as shown in FIG. Thus, the observer can know the measurement result without performing an operation such as reading the scale again.
<サイズを測定する>
次に、器具500の仮想物体を用いて、測定対象仮想物体150のサイズを測定する場合について説明する。なお、本実施形態に係る器具500の仮想物体は、図20に示す如く、第1の仮想物体2001と第2の仮想物体2002とが、先の位置に近づくほど並行となるようなものとなっている。図20は、本実施形態で用いる器具500の仮想物体を示す図である。よって、第1の仮想物体、第2の仮想物体のそれぞれの形状は、ボリューム値が変更する毎に変わる。
<Measure the size>
Next, a case where the size of the measurement target
図17は、器具500の仮想物体を用いて測定対象仮想物体150のサイズを求める場合に、器具500の仮想物体を配置する処理のフローチャートである。
FIG. 17 is a flowchart of processing for arranging the virtual object of the
先ず、上記ステップS300と同様の処理を行い、第1の足の位置、第2の足の位置を求める(ステップS400)。 First, the same processing as in step S300 is performed to obtain the position of the first foot and the position of the second foot (step S400).
次に、第1の足から所定の距離以内に特徴辺があるのかを判断する(ステップS401)。本ステップでは、第1の足の位置と特徴辺との距離を求め、求めた距離が所定距離以内であるのかを判断する。 Next, it is determined whether there is a feature side within a predetermined distance from the first foot (step S401). In this step, the distance between the position of the first foot and the feature side is obtained, and it is determined whether the obtained distance is within a predetermined distance.
そして、第1の足から所定の距離以内に特徴辺がある場合には処理をステップS402に進め、第1の足と特徴辺との最短距離のベクトルを求め(ステップS402)、このベクトルに平行な直線に沿って足の先の位置を特徴辺上に移動させる(ステップS403)。その際、先の位置のみを移動させるので、足が曲線を描く形状となるのであるが、これは適宜所定の曲率でもって曲がった足(仮想物体)を作成することになる。図18は、第1の足を特徴辺に沿って移動させる様子を示す図である。なお、第1の足の先の位置を特徴辺上に移動させる方法についてはこれに限定するものではなく、様々な方法が考えられる。 If there is a feature side within a predetermined distance from the first foot, the process proceeds to step S402, a vector of the shortest distance between the first foot and the feature side is obtained (step S402), and parallel to this vector. The position of the tip of the foot is moved onto the feature side along a straight line (step S403). At that time, since only the previous position is moved, the foot has a curved shape, but this creates a foot (virtual object) bent with a predetermined curvature as appropriate. FIG. 18 is a diagram illustrating a state in which the first foot is moved along the feature side. Note that the method of moving the position of the tip of the first foot onto the feature side is not limited to this, and various methods are conceivable.
そして処理をステップS404に進め、もう一方の足(第2の足)について上記処理を行ったのかを判断し(ステップS404)、行っていないのであれば処理をステップS401に戻して以降の処理を繰り返す。 Then, the process proceeds to step S404, and it is determined whether the above process has been performed for the other leg (second leg) (step S404). If not, the process returns to step S401 to perform the subsequent processes. repeat.
一方、第2の足についても上記処理を行ったのであれば処理をステップS405に進める。そして、上述のように変更された位置姿勢(それぞれの足が何れの特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した足を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS405)。 On the other hand, if the above process is performed for the second leg, the process proceeds to step S405. Then, the foot is placed in the position and orientation changed as described above (when each foot is not close to any feature side, the position and orientation are not changed at all), and the placed foot is placed in the right eye camera 110 ( An image that can be seen when viewed from the left-eye camera 111) is generated and drawn on the video memory (step S405).
そして、それぞれの足の先の位置の間の距離を求め、それを複合現実空間の画像上に表示すべく、距離を示す文字列を上記ビデメモリ上に描画する(ステップS406)。 Then, the distance between the positions of the toes of the respective feet is obtained, and a character string indicating the distance is drawn on the bidet memory in order to display it on the mixed reality space image (step S406).
図9は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。 FIG. 9 is a diagram illustrating a display example of an image of the mixed reality space generated by performing the above processing.
以上のようにして、器具500の仮想物体と測定対象仮想物体150器具とが近づいた場合には、器具500の仮想物体の位置や姿勢、足間の角度などを調節して、測定対象仮想物体150に対する測定を行う。
As described above, when the virtual object of the
なお、本実施形態に係る処理は、複合現実空間の画像を生成するシステムに適用することに限定するものではなく、仮想空間の画像のみを生成するシステムにも適用可能であることはいうまでもない。 Note that the processing according to the present embodiment is not limited to being applied to a system that generates an image of a mixed reality space, but can be applied to a system that generates only an image of a virtual space. Absent.
また、本実施形態ではHMDとしてビデオシースルー型のものを用いたが、光学シースルー型のものを用いたシステムであっても良いことはいうまでもない。 In this embodiment, the video see-through type is used as the HMD, but it goes without saying that a system using an optical see-through type may be used.
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。 Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。 Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。 When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.
Claims (6)
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする情報処理方法。 A first acquisition step of acquiring a position and orientation of an instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed; ,
A second acquisition step of acquiring an angle formed by the first member and the second member;
An instrument virtual object information setting step for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
A third acquisition step of acquiring the position and orientation of the user's viewpoint;
Generation step of generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the virtual object of the measurement target When,
An information processing method comprising: an instrument virtual object information adjusting step of adjusting a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.
前記測定結果を表示させる工程と
を備えることを特徴とする請求項1記載の情報処理方法。 A measurement step of performing measurement on the measurement target virtual object based on a positional relationship between the virtual object of the instrument and the virtual object of the measurement target;
The information processing method according to claim 1, further comprising: displaying the measurement result.
前記変更工程では、
前記第1の部材の仮想物体を前記第1の箇所に沿わせると共に、前記第2の部材の仮想物体を前記第2の箇所に沿わせることを特徴とする請求項1に記載の情報処理方法。 When one end of the virtual object of the first member is brought close to the first location of the virtual object to be measured and one end of the virtual object of the second member is brought closer to the second location of the virtual object to be measured ,
In the changing step,
The information processing method according to claim 1, wherein the virtual object of the first member is set along the first location, and the virtual object of the second member is set along the second location. .
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする情報処理装置。 First acquisition means for acquiring the position and orientation of an instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed; ,
Second acquisition means for acquiring an angle formed by the first member and the second member;
Instrument virtual object information setting means for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
Third acquisition means for acquiring the position and orientation of the user's viewpoint;
Generation means for generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the measurement target virtual object When,
An information processing apparatus comprising: an instrument virtual object information adjusting unit that adjusts a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095704A JP2006277350A (en) | 2005-03-29 | 2005-03-29 | Information processing method and information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005095704A JP2006277350A (en) | 2005-03-29 | 2005-03-29 | Information processing method and information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006277350A true JP2006277350A (en) | 2006-10-12 |
Family
ID=37212046
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005095704A Withdrawn JP2006277350A (en) | 2005-03-29 | 2005-03-29 | Information processing method and information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006277350A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135697A1 (en) * | 2022-01-13 | 2023-07-20 | 株式会社日立製作所 | Dimension measuring method using augmented reality |
-
2005
- 2005-03-29 JP JP2005095704A patent/JP2006277350A/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023135697A1 (en) * | 2022-01-13 | 2023-07-20 | 株式会社日立製作所 | Dimension measuring method using augmented reality |
JP7457339B2 (en) | 2022-01-13 | 2024-03-28 | 株式会社日立製作所 | How to measure dimensions using augmented reality |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4677273B2 (en) | Information processing method and information processing apparatus | |
JP4677281B2 (en) | Image processing method and image processing apparatus | |
JP4667111B2 (en) | Image processing apparatus and image processing method | |
JP4137078B2 (en) | Mixed reality information generating apparatus and method | |
JP3805231B2 (en) | Image display apparatus and method, and storage medium | |
JP5845211B2 (en) | Image processing apparatus and image processing method | |
JP5248806B2 (en) | Information processing apparatus and information processing method | |
JP4356983B2 (en) | Image processing method and image processing apparatus | |
JP5709440B2 (en) | Information processing apparatus and information processing method | |
JP2005107970A (en) | Image display device and method | |
JP2006072903A (en) | Image compositing method and device | |
JP2009123018A (en) | Image processor and image processing method | |
JP2004062758A (en) | Information processor and information processing method | |
US8994729B2 (en) | Method for simulating operation of object and apparatus for the same | |
JP2004213355A (en) | Information processing method | |
JP2005107969A (en) | Image display method and image display system | |
JP2007004713A (en) | Image processing method and image processor | |
JP2007233971A (en) | Image compositing method and device | |
JP2005174021A (en) | Method and device for presenting information | |
JP2005327204A (en) | Image composing system, method, and device | |
JP2008146497A (en) | Image processor and image processing method | |
JP2007004714A (en) | Information processing method and information processing unit | |
JP6295296B2 (en) | Complex system and target marker | |
JP2009087161A (en) | Image processor and image processing method | |
JP2008070319A (en) | Object measurement device and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20080603 |