JP2006277350A - Information processing method and information processor - Google Patents

Information processing method and information processor Download PDF

Info

Publication number
JP2006277350A
JP2006277350A JP2005095704A JP2005095704A JP2006277350A JP 2006277350 A JP2006277350 A JP 2006277350A JP 2005095704 A JP2005095704 A JP 2005095704A JP 2005095704 A JP2005095704 A JP 2005095704A JP 2006277350 A JP2006277350 A JP 2006277350A
Authority
JP
Japan
Prior art keywords
virtual object
instrument
orientation
foot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005095704A
Other languages
Japanese (ja)
Inventor
Tomohiko Shimoyama
朋彦 下山
Kenji Morita
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005095704A priority Critical patent/JP2006277350A/en
Publication of JP2006277350A publication Critical patent/JP2006277350A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for performing measurement of a virtual object so that an observer can intuitively easily understand it. <P>SOLUTION: When a virtual object of an apparatus 500 is brought close to the vicinity of a virtual object 150 to be measured positional attitudes of a first virtual object and a second virtual object are changed (S202 and S204), measurement for the virtual object 150 is performed based on the positional attitude relation between the first virtual object and the second virtual object changed in positional attitude, and the measurement result is displayed (S207). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、仮想物体の測定技術に関するものである。   The present invention relates to a virtual object measurement technique.

MR,AR技術は実写映像とCGを合成し、仮想のCG物体が利用者の前に存在するかのように見せる技術である。MR技術の典型的なアプリケーションでは、利用者はビデオシースルー型のHMDを装着し、HMDの前面のカメラからの映像と、計算機が作成したCG映像を合成した映像を見る。CG映像は、位置センサにより測定した利用者の視点から描かれるため、利用者にはあたかも現実空間に仮想のCGが存在するかのように見える。実際のMR技術の応用としては、工業デザインの検証が挙げられる。
特開平11―88913号公報
The MR and AR technologies are technologies that synthesize a live-action video and CG, and make it appear as if a virtual CG object exists in front of the user. In a typical application of MR technology, a user wears a video see-through type HMD, and sees an image obtained by synthesizing an image from a camera in front of the HMD and a CG image created by a computer. Since the CG image is drawn from the viewpoint of the user measured by the position sensor, it appears to the user as if a virtual CG exists in the real space. An actual application of MR technology is verification of industrial design.
Japanese Patent Laid-Open No. 11-88913

しかしながら先に示したMRを使ったCADデザインのプレビューにおいて、CADモデルの寸法などを直感的かつ正確に測ることは難しかった。正確な寸法を得ようとした場合、CADモデルの2点を正確に指定する必要がある。従来のモニタ画面を使用したCADの場合には、それらの2点をマウスなどで指示していた。   However, it has been difficult to intuitively and accurately measure the dimensions of the CAD model in the CAD design preview using MR described above. In order to obtain an accurate dimension, it is necessary to specify two points of the CAD model accurately. In the case of CAD using a conventional monitor screen, these two points are indicated with a mouse or the like.

しかし、そのようにCADモデルの2点を指示してCADモデルの寸法を測ることは、MR技術を用いている場合には直感的とはいえない。MR技術を用いた場合、利用者にはCADモデルが目の前に存在するかのように見えている。もし利用者の前にあるのがCADモデルでなく実物だとしたら、2点間の寸法を測るためにはものさしなどを使用するはずである。利用者が手で持つことができるものさしをCADモデルにあてて寸法を測る方がより直感的なインタフェースである。   However, it is not intuitive to specify the two points of the CAD model and measure the dimensions of the CAD model in the case of using the MR technique. When MR technology is used, the CAD model appears to the user as if it exists in front of him. If it is not the CAD model but the real thing that is in front of the user, a measure or the like should be used to measure the dimension between the two points. A more intuitive interface is to measure the dimensions by applying a ruler that can be held by the user to the CAD model.

MR技術を用いた場合、本物のものさしをCADモデルにかざして寸法を測ることも可能である。だが正確な大きさを知ることは難しい。CADモデルには実体がないため、ものさしをCADモデルにあてることができないためである。   When the MR technique is used, it is possible to measure the size by holding the real ruler over the CAD model. However, it is difficult to know the exact size. This is because the CAD model has no substance, and the ruler cannot be applied to the CAD model.

本発明は以上の問題に鑑みて成されたものであり、観察者が直感的に分かりやすいように、仮想物体の測定を行うための技術を提供することを目的とする。   The present invention has been made in view of the above problems, and an object thereof is to provide a technique for measuring a virtual object so that an observer can intuitively understand it.

本発明の目的を達成するために、例えば本発明の情報処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing method of the present invention comprises the following arrangement.

即ち、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得工程と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする。
That is, the first acquisition of the position and orientation of the instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed. Process,
A second acquisition step of acquiring an angle formed by the first member and the second member;
An instrument virtual object information setting step for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
A third acquisition step of acquiring the position and orientation of the user's viewpoint;
Generation step of generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the virtual object of the measurement target When,
An instrument virtual object information adjusting step of adjusting a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.

本発明の目的を達成するために、例えば本発明の情報処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an information processing apparatus of the present invention comprises the following arrangement.

即ち、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得手段と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする。
That is, the first acquisition of the position and orientation of the instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed. Means,
Second acquisition means for acquiring an angle formed by the first member and the second member;
Instrument virtual object information setting means for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
Third acquisition means for acquiring the position and orientation of the user's viewpoint;
Generation means for generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the measurement target virtual object When,
And an instrument virtual object information adjusting unit that adjusts a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.

本発明の構成により、観察者が直感的に分かりやすいように、仮想物体の測定を行うことができる。   With the configuration of the present invention, a virtual object can be measured so that an observer can easily understand intuitively.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

図1は、現実空間と仮想空間とが融合された複合現実空間中に存在する仮想物体の測定を行うためのシステムを使用している様子を示す図である。同図において10は複合現実空間の観察者で、その頭部にはHMD(頭部装着型表示装置)100が装着されており、観察者10はこのHMD100を介して複合現実空間の画像を眼前に見ることができる。また、観察者の手には、棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具、即ち、コンパス状の器具500が保持されている。   FIG. 1 is a diagram illustrating a state in which a system for measuring a virtual object existing in a mixed reality space in which a real space and a virtual space are fused is used. In the figure, reference numeral 10 denotes an observer of the mixed reality space, and an HMD (head-mounted display device) 100 is attached to the head of the observer, and the observer 10 can view an image of the mixed reality space through the HMD 100. Can be seen. In addition, an instrument in which an end of the rod-shaped first member and one end of the rod-shaped second member are supported in the observer's hand so that the angle formed by each member can be changed, that is, A compass-like instrument 500 is held.

図4は、器具500の概略構成を示す図で、器具500は棒状の第1の部材501,棒状の第2の部材502、第1の部材501の位置姿勢を計測するための位置姿勢センサ510、第1の部材501と第2の部材502とが成す角度を計測するセンサ520により構成されている。器具500の使用方法については後述する。   FIG. 4 is a diagram showing a schematic configuration of the instrument 500. The instrument 500 is a position / orientation sensor 510 for measuring the position / orientation of the rod-shaped first member 501, the rod-shaped second member 502, and the first member 501. The sensor 520 measures the angle formed by the first member 501 and the second member 502. A method of using the instrument 500 will be described later.

図1に戻って、150は仮想物体としてのプリンタで、測定の対象となる仮想物体である。210は磁気の発信源で、HMD100、器具500にはこの磁気発信源210から発せられる磁気に従って自身の位置姿勢を計測するセンサが備わっている。   Returning to FIG. 1, reference numeral 150 denotes a virtual object printer, which is a virtual object to be measured. Reference numeral 210 denotes a magnetic transmission source, and the HMD 100 and the instrument 500 are provided with sensors that measure their position and orientation in accordance with the magnetism generated from the magnetic transmission source 210.

これらのセンサは磁気発信源210に接続されており、センサによる計測結果はこの磁気発信源210によって求まり、コンピュータ300に送出される。   These sensors are connected to the magnetic transmission source 210, and the measurement results by the sensors are obtained by the magnetic transmission source 210 and sent to the computer 300.

以下、システムを構成する各部について説明する。   Hereinafter, each part which comprises a system is demonstrated.

図10は、本実施形態に係るシステムのハードウェア構成を示すブロック図である。   FIG. 10 is a block diagram showing a hardware configuration of the system according to the present embodiment.

HMD100はHMD内蔵センサ120,右目カメラ110、左目カメラ111、右目LCD130,左目LCD131により構成されている。   The HMD 100 includes an HMD built-in sensor 120, a right eye camera 110, a left eye camera 111, a right eye LCD 130, and a left eye LCD 131.

HMD内蔵センサ120は、磁気発信源210から発せられる磁界において、自身の位置姿勢に応じた磁界の変化を検知し、検知した結果を示す信号を3次元センサ本体200に出力する。   The HMD built-in sensor 120 detects a change in the magnetic field according to the position and orientation of the magnetic field generated from the magnetic transmission source 210 and outputs a signal indicating the detected result to the three-dimensional sensor main body 200.

右目カメラ110、左目カメラ111はそれぞれ、HMD100を頭部に装着する観察者の右目、左目から見える現実空間の動画像を撮像するものである。右目カメラ110、左目カメラ111のそれぞれにより撮像された動画像を構成する各フレームの画像データはコンピュータ300に出力する。   The right-eye camera 110 and the left-eye camera 111 capture moving images in the real space that can be seen from the right and left eyes of an observer who wears the HMD 100 on the head. Image data of each frame constituting a moving image captured by each of the right eye camera 110 and the left eye camera 111 is output to the computer 300.

右目LCD130、左目LCD131はそれぞれ、右目カメラ110、左目カメラ111のそれぞれによって撮像された現実空間に、コンピュータ300が生成した仮想物体の画像を重畳させた画像(複合現実空間の画像)を表示するものであり、これにより、HMD100を頭部に装着した観察者は、自身の右目、左目に対応する複合現実空間の画像を眼前に見ることができる。   The right-eye LCD 130 and the left-eye LCD 131 display images (mixed reality space images) obtained by superimposing virtual object images generated by the computer 300 on the real spaces captured by the right-eye camera 110 and the left-eye camera 111, respectively. Thus, an observer wearing the HMD 100 on the head can see an image of the mixed reality space corresponding to his / her right eye and left eye in front of his / her eyes.

図2は、HMD100の外観を示す図であり、同図に示す如く、HMD100には右目カメラ110,左目カメラ111、右目LCD130、左目LCD131、そしてHMD内蔵センサ120が備わっている。   FIG. 2 is a diagram showing the appearance of the HMD 100. As shown in FIG. 2, the HMD 100 includes a right-eye camera 110, a left-eye camera 111, a right-eye LCD 130, a left-eye LCD 131, and an HMD built-in sensor 120.

図10に戻って、器具500は上述の通り、観察者の手に保持されているもので、その位置姿勢は観察者の手が動くことにより変化する。よって、デバイス内蔵センサ510は、磁気発信源210から発せられる磁界において、自身の位置姿勢に応じた磁界の変化を検知し、検知した結果を示す信号を3次元センサ本体200に出力する。   Returning to FIG. 10, the instrument 500 is held by the observer's hand as described above, and the position and orientation thereof change as the observer's hand moves. Therefore, the device built-in sensor 510 detects a change in the magnetic field according to its position and orientation in the magnetic field generated from the magnetic transmission source 210 and outputs a signal indicating the detected result to the three-dimensional sensor main body 200.

3次元センサ本体200は、HMD内蔵センサ120、デバイス内蔵センサ510から受けた信号の強度に基づいて、センサ座標系(磁気発信源210の位置を原点とし、この原点で互いに直交する3軸をそれぞれx、y、z軸とする座標系)におけるHMD内蔵センサ120、デバイス内蔵センサ510の位置姿勢(第1の部材501の位置姿勢)を示すデータを求め、コンピュータ300に出力する。   The three-dimensional sensor main body 200 is based on the intensity of the signals received from the HMD built-in sensor 120 and the device built-in sensor 510. Data indicating the position and orientation of the HMD built-in sensor 120 and device built-in sensor 510 (position and orientation of the first member 501) in the coordinate system with x, y, and z axes is obtained and output to the computer 300.

また、器具500にはデバイス内蔵ボリューム520が備わっており、器具500を構成する第1の部材501と第2の部材502とが成す角度に応じた信号をコンピュータ300に出力する。   The instrument 500 includes a device built-in volume 520, and outputs a signal corresponding to the angle formed by the first member 501 and the second member 502 constituting the instrument 500 to the computer 300.

次に、コンピュータ300について説明する。   Next, the computer 300 will be described.

A/Dコンバータ340は、デバイス内蔵ボリューム520から出力される信号をA/D変換し、この信号を第1の部材501と第2の部材502とが成す角度を示すデータとしてメモリ302に出力する。   The A / D converter 340 performs A / D conversion on the signal output from the device built-in volume 520, and outputs this signal to the memory 302 as data indicating the angle formed by the first member 501 and the second member 502. .

シリアルI/O310は、3次元センサ本体200から出力されるデータを受ける為のインターフェースとして機能するものであり、受けたデータはメモリ302に出力される。なお、このデータは上述の取り、HMD内蔵センサ120やデバイス内蔵センサ510のセンサ座標系における位置姿勢を示すデータである。本実施形態ではこの位置姿勢は、位置(x、y、z)を示すデータと、姿勢(roll,pitch,yaw)を示すデータにより構成されているものとする。すなわち、HMD内蔵センサ120、デバイス内蔵センサ510は、6自由度の計測センサである。なお、位置姿勢を表現する方法は他にも考えられ、これに限定するものではない。   The serial I / O 310 functions as an interface for receiving data output from the three-dimensional sensor main body 200, and the received data is output to the memory 302. This data is data indicating the position and orientation of the HMD built-in sensor 120 and the device built-in sensor 510 in the sensor coordinate system. In the present embodiment, this position and orientation is composed of data indicating the position (x, y, z) and data indicating the orientation (roll, pitch, yaw). That is, the HMD built-in sensor 120 and the device built-in sensor 510 are measurement sensors with six degrees of freedom. Note that there are other methods for expressing the position and orientation, and the present invention is not limited to this.

ビデオキャプチャカード320、321はそれぞれ、右目カメラ110、左目カメラ111から入力される、各フレームの画像を受けるためのインターフェースとして機能するものであり、受けた画像は順次メモリ302に出力する。本実施形態では、各フレームの画像はNTSCに準拠したものであるとするが、これに限定するものではない。   Each of the video capture cards 320 and 321 functions as an interface for receiving an image of each frame input from the right eye camera 110 and the left eye camera 111, and the received images are sequentially output to the memory 302. In the present embodiment, the image of each frame is assumed to conform to NTSC, but the present invention is not limited to this.

ビデオカード330,331はそれぞれ、CPU301が後述する処理により生成した右目、左目に対応する複合現実空間の画像を右目LCD130、左目LCD131に出力するためのインターフェースとして機能するものであり、右目、左目に対応する複合現実空間の画像はそれぞれ、VGAに準拠した画像信号としてビデオカード330、331を介して右目LCD130、左目LCD131に出力される。   Each of the video cards 330 and 331 functions as an interface for outputting the mixed reality space image corresponding to the right eye and the left eye generated by the processing described later by the CPU 301 to the right eye LCD 130 and the left eye LCD 131. The corresponding mixed reality space images are output to the right eye LCD 130 and the left eye LCD 131 via the video cards 330 and 331 as image signals compliant with VGA, respectively.

CPU301は、コンピュータ300全体の制御を行うと共に、コンピュータ300が行うべき後述の各処理を実行する。このような処理の実行は、メモリ302に記憶されている各種のプログラムやデータを実行することでなされる。   The CPU 301 controls the entire computer 300 and executes each process to be described later that should be performed by the computer 300. Execution of such processing is performed by executing various programs and data stored in the memory 302.

メモリ302は、CPU301が各種の処理を実行するために使用するワークエリアや、CPU301に各種の処理を実行させるためのプログラムやデータを記憶するためのエリア、また、シリアルI/O310、A/Dコンバータ340、ビデオキャプチャカード320、321を介して入力される各種のデータを一時的に記憶するためのエリアを備える。また、右目カメラ110とHMD内蔵センサ120との位置姿勢関係(右目用バイアス)、左目用カメラ111とHMD内蔵センサ120との位置姿勢関係(左目用バイアス)は予め測定されており、測定された右目用バイアス、左目用バイアスはメモリ302にに予め格納されているものとする。   The memory 302 is a work area used by the CPU 301 to execute various processes, an area for storing programs and data for causing the CPU 301 to execute various processes, a serial I / O 310, and an A / D. An area for temporarily storing various data input via the converter 340 and the video capture cards 320 and 321 is provided. In addition, the position / orientation relationship (right-eye bias) between the right-eye camera 110 and the HMD built-in sensor 120 and the position / orientation relationship (left-eye bias) between the left-eye camera 111 and the HMD built-in sensor 120 are measured in advance. Assume that the right-eye bias and the left-eye bias are stored in the memory 302 in advance.

PCIブリッジ303は、CPU301、メモリ302が繋がっているバスと、A/Dコンバータ340、シリアルI/O310、ビデオキャプチャカード320、321,ビデオカード330、331を繋ぐバスとを電気的に繋ぐためのものである。   The PCI bridge 303 is for electrically connecting a bus connecting the CPU 301 and the memory 302 to a bus connecting the A / D converter 340, the serial I / O 310, the video capture cards 320, 321, and the video cards 330 and 331. Is.

次に、以上の構成を備えるコンピュータ300が、複合現実空間の映像を生成する為に行う処理について、同処理のフローチャートを示す図11を用いて以下説明する。なお、同図のフローチャートに従った処理をCPU301に実行させるためのプログラムやデータはメモリ302に格納されており、CPUCPU301はこれを用いて処理を行うことで、コンピュータ300は以下説明する各処理を実行することになる。   Next, a process performed by the computer 300 having the above configuration to generate a mixed reality space image will be described below with reference to FIG. 11 showing a flowchart of the process. Note that programs and data for causing the CPU 301 to execute the processing according to the flowchart of FIG. 10 are stored in the memory 302, and the CPU CPU 301 performs processing using this, so that the computer 300 performs each processing described below. Will be executed.

右目カメラ110(左目カメラ111)からは各フレームの撮像画像(現実空間の画像)がビデオキャプチャカード320(321)を介して本コンピュータ300に入力されるので、CPU301はこれを取得し(ステップS100)、メモリ302上に設けられているビデオメモリに順次格納する(ステップS101)。   From the right-eye camera 110 (left-eye camera 111), the captured image (real space image) of each frame is input to the computer 300 via the video capture card 320 (321), so the CPU 301 acquires it (step S100). ) And sequentially stored in the video memory provided on the memory 302 (step S101).

次に、A/Dコンバータ340を介して「第1の部材501と第2の部材502とが成す角度」(以下、「ボリューム値」と呼称)を示すデータが本コンピュータ300に入力されると共に、シリアルI/O310を介して「HMD内蔵センサ120のセンサ座標系における位置姿勢」を示すデータ、「デバイス内蔵センサ510のセンサ座標系における位置姿勢」を示すデータが本コンピュータ300に入力されるので、CPU301は、HMD内蔵センサ120のセンサ座標系における位置姿勢に左目用バイアス(右目用バイアス)を加算して、センサ座標系における左目カメラ111(右目カメラ110)の位置姿勢を求め、求めた位置姿勢を示すデータをメモリ302に格納する(ステップS102)。なお、以下では右目、左目を総称して「視点」と呼称する場合がある。   Next, data indicating “the angle formed by the first member 501 and the second member 502” (hereinafter referred to as “volume value”) is input to the computer 300 via the A / D converter 340. Since the data indicating “position and orientation in the sensor coordinate system of the HMD built-in sensor 120” and data indicating “position and orientation in the sensor coordinate system of the device built-in sensor 510” are input to the computer 300 via the serial I / O 310. The CPU 301 adds the left-eye bias (right-eye bias) to the position and orientation in the sensor coordinate system of the HMD built-in sensor 120 to obtain the position and orientation of the left-eye camera 111 (right-eye camera 110) in the sensor coordinate system. Data indicating the posture is stored in the memory 302 (step S102). Hereinafter, the right eye and the left eye may be collectively referred to as “viewpoint”.

なお、デバイス内蔵センサ510のセンサ座標系における位置姿勢を示すデータ、ボリューム値を示すデータはそのままメモリ302に格納する。   Note that the data indicating the position and orientation in the sensor coordinate system of the device built-in sensor 510 and the data indicating the volume value are stored in the memory 302 as they are.

次に、CPU301は、ステップS102で求めた視点の位置姿勢を用いてモデリング行列を生成すると共に、予め測定しておいたカメラの焦点距離などのパラメータから、射影変換行列を作成する(射影行列の作成は最初の1回のみで、以降は使いまわす)処理を行う(ステップS103)。モデリング行列、射影変換行列を求める処理については周知の技術であるので、ここでの説明は省略する。要するに本ステップでは、視点から見える仮想空間の画像を生成するために用いる行列を生成する処理を行う。   Next, the CPU 301 generates a modeling matrix using the viewpoint position and orientation obtained in step S102, and creates a projective transformation matrix from parameters such as the focal length of the camera measured in advance (projection matrix The creation is performed only once for the first time, and is used again thereafter (step S103). Since the processing for obtaining the modeling matrix and the projective transformation matrix is a well-known technique, a description thereof is omitted here. In short, in this step, processing for generating a matrix used for generating an image of the virtual space that can be seen from the viewpoint is performed.

次に、CPU301は、先に求めた行列を用いて、右目(左目)から見える仮想空間の画像を生成し、上記ビデオメモリ上に描画する(ステップS104、S105)。より詳しくは、測定対象の仮想物体(本実施形態では図1に示すプリンタの仮想物体150)を所定の位置姿勢で配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS104)。   Next, the CPU 301 generates a virtual space image that can be seen from the right eye (left eye) using the previously obtained matrix and draws it on the video memory (steps S104 and S105). More specifically, when a virtual object to be measured (virtual object 150 of the printer shown in FIG. 1 in this embodiment) is arranged at a predetermined position and orientation, and the arranged virtual object is seen from the right-eye camera 110 (left-eye camera 111). A visible image is generated and drawn on the video memory (step S104).

次に、器具500の仮想物体を配置するのであるが、先ずデバイス内蔵センサ510が計測した位置姿勢に第1の部材501に相当する仮想物体(以下、第1の仮想物体と呼称)を配置する。そして次に、第2の部材502に相当する仮想物体(以下、第2の仮想物体と呼称)の配置を行うのであるが、第2の仮想物体の一端が第1の仮想物体の一端に一致しており、且つ、第1の仮想物体と第2の仮想物体とが成す角度がデバイス内蔵ボリューム520から取得したボリューム値が示す角度となるような位置姿勢(即ち第2の部材502の位置姿勢)を求め、求めた位置姿勢に第2の仮想物体を配置する。これにより、器具500の仮想物体を配置することができる。   Next, a virtual object of the instrument 500 is arranged. First, a virtual object corresponding to the first member 501 (hereinafter referred to as a first virtual object) is arranged at the position and orientation measured by the device built-in sensor 510. . Next, a virtual object corresponding to the second member 502 (hereinafter referred to as a second virtual object) is arranged. One end of the second virtual object is aligned with one end of the first virtual object. The position and orientation in which the angle formed by the first virtual object and the second virtual object is the angle indicated by the volume value acquired from the device built-in volume 520 (that is, the position and orientation of the second member 502) ) And the second virtual object is arranged at the obtained position and orientation. Thereby, the virtual object of the instrument 500 can be arranged.

図19は、器具500の仮想物体の一例を示す図で、同図において1901は第1の部材501に相当する仮想物体で、第1の部材501の位置姿勢でもって配置される。1902は第2の部材502に相当する仮想物体で、第2の部材502の位置姿勢でもって配置される。   FIG. 19 is a diagram showing an example of a virtual object of the instrument 500. In FIG. 19, reference numeral 1901 denotes a virtual object corresponding to the first member 501, which is arranged with the position and orientation of the first member 501. Reference numeral 1902 denotes a virtual object corresponding to the second member 502, which is arranged with the position and orientation of the second member 502.

よって図11のステップS105では、上述のようにして器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS105)。   Therefore, in step S105 in FIG. 11, the virtual object of the instrument 500 is arranged as described above, and an image that is seen when the arranged virtual object is viewed from the right-eye camera 110 (left-eye camera 111) is generated, and is stored on the video memory. (Step S105).

なお、メモリ302には先に、右目カメラ110から取得した現実空間の画像、左目カメラ111から取得した現実空間の画像がステップS101で格納されているので、ステップS104,S105で、それぞれの画像上に、右目カメラ110から見える仮想空間の画像、左目カメラ111から見える仮想空間の画像を描画することで、メモリ302上には、右目カメラ110から見た複合現実空間の画像、左目カメラ111から見た複合現実空間の画像が生成されることになる。   Note that since the real space image acquired from the right-eye camera 110 and the real space image acquired from the left-eye camera 111 are stored in step S101 in the memory 302 in advance, in steps S104 and S105, The virtual space image seen from the right-eye camera 110 and the virtual space image seen from the left-eye camera 111 are drawn on the memory 302, so that the mixed reality space image seen from the right-eye camera 110 and the left-eye camera 111 are viewed on the memory 302. An image of the mixed reality space is generated.

図3は、現実空間の画像上に仮想空間の画像を描画することで、複合現実空間の画像を生成する過程を示す図で、同図に示す如く、現実空間の画像301上に仮想空間の画像302を重畳(合成)することで、複合現実空間画像303が生成される。   FIG. 3 is a diagram showing a process of generating a mixed reality space image by drawing a virtual space image on the real space image. As shown in FIG. 3, the virtual space image 301 is displayed on the real space image 301. The mixed reality space image 303 is generated by superimposing (combining) the images 302.

次にCPU301は、右目用複合現実空間画像、左目用複合現実空間画像をそれぞれ、ビデオカード330,331のフレームバッファに転送する(ステップS106)。転送されたそれぞれの画像は右目LCD130、131に送出され、それぞれで表示される。HMD100を頭部に装着した観察者は視点の位置姿勢に応じた複合現実空間の画像を観察することができる。   Next, the CPU 301 transfers the right-eye mixed reality space image and the left-eye mixed reality space image to the frame buffers of the video cards 330 and 331, respectively (step S106). The transferred images are sent to the right-eye LCDs 130 and 131 and displayed on the respective screens. An observer wearing the HMD 100 on the head can observe an image of the mixed reality space according to the position and orientation of the viewpoint.

次に、観察者が器具500を用いて測定対象仮想物体150を測定する場合に、コンピュータ300が行う処理について説明する。観察者が器具500を用いて測定対象仮想物体150を測定する場合、当然観察者はこの器具500を測定対象仮想物体150に近づけるのであるが、器具500の仮想物体と測定対象仮想物体150との距離に応じて器具500を構成する仮想物体(図19の場合、1901,1902)の位置姿勢を測定に適した位置姿勢に変更する。以下、様々な測定を行う場合について説明する。なお、器具500の仮想物体を用いてどのような測定を行うのか(換言すれば器具500の仮想物体をどのような測定器具として用いるのか)は、不図示の操作部を観察者や本コンピュータ300の操作者が操作して指示するようにしても良い。   Next, processing performed by the computer 300 when the observer measures the measurement target virtual object 150 using the instrument 500 will be described. When the observer measures the measurement target virtual object 150 using the instrument 500, the observer naturally brings the instrument 500 close to the measurement target virtual object 150, but the virtual object of the instrument 500 and the measurement target virtual object 150 Depending on the distance, the position and orientation of the virtual object (1901, 1902 in the case of FIG. 19) constituting the instrument 500 are changed to a position and orientation suitable for measurement. Hereinafter, a case where various measurements are performed will be described. It should be noted that what kind of measurement is performed using the virtual object of the instrument 500 (in other words, what kind of measurement instrument is used as the virtual object of the instrument 500) depends on the operation unit (not shown) by the observer or the computer 300. The operator may operate and give instructions.

<2点間の距離を測定する>
先ず、器具500の仮想物体を用いて、測定対象仮想物体150上の2点間の距離を測定する場合について説明する。
<Measure the distance between two points>
First, the case where the distance between two points on the measurement target virtual object 150 is measured using the virtual object of the instrument 500 will be described.

図12は、器具500の仮想物体を用いて2点間の距離を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理(即ち、ステップS105における処理)のフローチャートである。   FIG. 12 shows a case where the virtual object of the instrument 500 is arranged when the distance between the two points is obtained using the virtual object of the instrument 500, and the arranged virtual object is viewed from the right-eye camera 110 (left-eye camera 111). It is a flowchart of the process which produces | generates an image and draws on the said video memory (namely, process in step S105).

先ず、CPU301は、デバイス内蔵センサ510から取得した第1の部材501の位置姿勢と、デバイス内蔵ボリューム520から取得したボリューム値を参照し、第1の仮想物体の先の位置、第2の仮想物体の先の位置を求める(ステップS200)。   First, the CPU 301 refers to the position and orientation of the first member 501 acquired from the device built-in sensor 510 and the volume value acquired from the device built-in volume 520, and the first virtual object position, the second virtual object The previous position is obtained (step S200).

第1の仮想物体、第2の仮想物体の先の位置を求める方法については特に限定しないが、例えば第1の仮想物体の先の位置については以下のようにして求める。予めデバイス内蔵センサ510の設置位置と第1の部材501の先の位置との位置関係(第1の位置関係)を求めておく。また、第1の部材501の先の位置と第1の仮想物体の先の位置との位置関係(第2の位置関係)は予め分かるので、デバイス内蔵センサ510により計測される位置、第1の位置関係、第2の位置関係を用いれば、第1の仮想物体の位置は求めることができる。これは第2の仮想物体の先の位置を求める場合についても同様である。なお、以下では、第1の仮想物体、第2の仮想物体を「足」と呼称する場合がある。   The method for obtaining the positions of the first virtual object and the second virtual object is not particularly limited. For example, the position of the first virtual object is obtained as follows. The positional relationship (first positional relationship) between the installation position of the device built-in sensor 510 and the previous position of the first member 501 is obtained in advance. Further, since the positional relationship (second positional relationship) between the previous position of the first member 501 and the previous position of the first virtual object is known in advance, the position measured by the device built-in sensor 510, the first If the positional relationship and the second positional relationship are used, the position of the first virtual object can be obtained. The same applies to the case of obtaining the previous position of the second virtual object. Hereinafter, the first virtual object and the second virtual object may be referred to as “foot”.

次に、一方の足(以下、第1の足)の先の位置から所定距離以内に測定対象仮想物体150を構成する特徴点が位置しているのかを判断する(ステップS201)。本実施形態では、測定対象仮想物体150を記述するCADデータには、仮想物体の特徴となる頂点や辺についての情報が付加されていることとする。ここでいう特徴点は、先に図3で示したプリンタで言えば、ボディの外形の角や稜線などである。これらの特徴点や辺は、利用者が手動で付加しても、コンピュータ300が自動的に付加してもよい。   Next, it is determined whether or not the feature point constituting the measurement target virtual object 150 is located within a predetermined distance from the position ahead of one foot (hereinafter referred to as the first foot) (step S201). In this embodiment, it is assumed that the CAD data describing the measurement target virtual object 150 is added with information about vertices and sides that are characteristics of the virtual object. The feature points here are, for the printer shown in FIG. 3, the corners and ridgelines of the outer shape of the body. These feature points and edges may be added manually by the user or automatically by the computer 300.

そして第1の足の先の位置から所定距離以内に特徴点がある場合には処理をステップS201を介してステップS202に進め、この第1の足の先をこの特徴点の位置に一致させるように、第1の足を移動させる(ステップS202)。   If there is a feature point within a predetermined distance from the position of the tip of the first foot, the process proceeds to step S202 via step S201 so that the tip of the first foot matches the position of the feature point. Next, the first leg is moved (step S202).

図6は、足の先の位置を特徴点に一致させる処理を説明する図で、同図において601は測定対象仮想物体150上の特徴点で、600は第1の足である。同図では、第1の足600の先の位置から所定距離以内に特徴点601が存在するために、第1の足600は同図矢印で示す如く移動させ、610で示す位置に移動させる。   FIG. 6 is a diagram for explaining a process for matching the position of the tip of the foot with the feature point, in which 601 is a feature point on the measurement target virtual object 150, and 600 is a first foot. In the figure, since the feature point 601 exists within a predetermined distance from the previous position of the first foot 600, the first foot 600 is moved as indicated by the arrow in the figure and moved to the position indicated by 610.

図12に戻って、ステップS201における判断で、第1の足の先の位置から所定距離以内に特徴点が無かった場合には処理をステップS203に進め、第1の足の先の位置から所定距離以内に測定対象仮想物体150を構成する特徴辺が位置しているのかを判断する(ステップS203)。存在する場合には処理をステップS204に進め、第1の足の先の位置を、第1の足の先の位置から特徴辺に垂線をひいたときの交点に一致させるように、第1の足を移動させる(ステップS204)。   Returning to FIG. 12, if it is determined in step S201 that there is no feature point within a predetermined distance from the position of the first foot, the process proceeds to step S203, and the predetermined position is determined from the position of the first foot. It is determined whether or not the characteristic side constituting the measurement target virtual object 150 is located within the distance (step S203). If it exists, the process proceeds to step S204, and the first foot tip position is matched with the intersection point when a perpendicular line is drawn from the first foot tip position to the feature side. The foot is moved (step S204).

図13は、足の先の位置を特徴辺上に一致させる処理を説明する図で、同図において1301は測定対象仮想物体150上の特徴辺で、1300は第1の足である。ここで、第1の足1300の先の位置から所定距離以内に特徴辺1301が存在するために、第1の足1300は同図矢印で示す如く移動させ、1310で示す位置に移動させる。なお、それぞれの足を移動させる方法については上記に限定するものではなく、様々な方法が考えられる。   FIG. 13 is a diagram for explaining processing for matching the position of the tip of the foot on the feature side. In FIG. 13, 1301 is the feature side on the measurement target virtual object 150, and 1300 is the first foot. Here, since the characteristic side 1301 exists within a predetermined distance from the position ahead of the first foot 1300, the first foot 1300 is moved as indicated by the arrow in the figure and moved to the position indicated by 1310. The method for moving each foot is not limited to the above, and various methods are conceivable.

次に、処理をステップS205に進め、もう一方の足(以下、第2の足と呼称する)についても上記処理を行ったのかを判断し、行っていないのであれば処理をステップS201に戻し、第2の足の先の近傍に特徴点、特徴辺が存在するのかを判断し、存在する場合には上記処理を行い、第2の足の位置を移動させる。   Next, the process proceeds to step S205, and it is determined whether the above process has been performed for the other leg (hereinafter referred to as the second leg). If not, the process returns to step S201. It is determined whether a feature point or a feature side exists in the vicinity of the tip of the second foot. If the feature point or feature side exists, the above processing is performed to move the position of the second foot.

そしてそれぞれの足について上記処理を行ったのであれば、処理をステップS206に進める、ここで、それぞれの足について上記処理を行ったのであれば、それぞれの足は独立して移動するので、元々支持されていた一端が離れてしまうなどの問題が生じる。そこで、元々支持されていた一端を一致させるべく、それぞれの足の姿勢を変更する(ステップS206)。そして、上述のように変更された位置姿勢(それぞれの足が何れの特徴点、特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS206)。   If the above processing is performed for each foot, the process proceeds to step S206. Here, if the above processing is performed for each foot, each foot moves independently, so that it is originally supported. There arises a problem that one end that has been separated is separated. Therefore, the postures of the respective feet are changed so as to match one end originally supported (step S206). Then, the foot is placed at the position and orientation changed as described above (when each foot is not close to any feature point or feature side, the position and orientation are not changed at all), and the placed virtual object is An image that can be seen when viewed from the right-eye camera 110 (left-eye camera 111) is generated and rendered on the video memory (step S206).

そして、それぞれの足の先の位置を用いて、それぞれの位置の間の距離を求め、それを複合現実空間の画像上に表示すべく、距離を示す文字列を上記ビデメモリ上に描画する(ステップS207)。   Then, using the positions of the tips of the feet, the distance between the positions is obtained, and a character string indicating the distance is drawn on the bidet memory in order to display it on the image of the mixed reality space (step S207).

図5は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。同図において600は器具500の仮想物体で、それぞれの足の先は測定対象仮想物体54の特徴点51,52に一致するように位置している。これにより、観察者が足の先を特徴点に一致させる操作を行わなくても、特徴点51,52間の距離を正確に測定することができる。   FIG. 5 is a diagram illustrating a display example of an image of the mixed reality space generated by performing the above processing. In the figure, reference numeral 600 denotes a virtual object of the instrument 500, and the tip of each foot is positioned so as to coincide with the feature points 51 and 52 of the measurement target virtual object 54. Thus, the distance between the feature points 51 and 52 can be accurately measured without the observer performing an operation of matching the tip of the foot with the feature point.

また、測定した2点間の距離は同図610に示す如く、表示される。これにより、観察者は改めて目盛りを読むなどの動作を行わなくても測定結果を知ることができる。   The measured distance between the two points is displayed as shown in FIG. Thus, the observer can know the measurement result without performing an operation such as reading the scale again.

<2辺が成す角度を測定する>
次に、器具500の仮想物体を用いて、測定対象仮想物体150上の2辺が成す角度を測定する場合について説明する。
<Measure the angle between two sides>
Next, a case where the angle formed by two sides on the measurement target virtual object 150 is measured using the virtual object of the instrument 500 will be described.

図14は、器具500の仮想物体を用いて2辺が成す角度を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理のフローチャートである。   FIG. 14 shows the case where the virtual object of the instrument 500 is arranged and the arranged virtual object is viewed from the right-eye camera 110 (left-eye camera 111) when the angle formed by the two sides is obtained using the virtual object of the instrument 500. It is a flowchart of the process which produces | generates an image and draws on the said video memory.

先ず、第1の足の位置、第2の足の位置を求める(ステップS300)。第1の足を第1の仮想物体、第2の足を第2の仮想物体とすると、第1の仮想物体の位置は即ち第1の部材501の位置であり、第1の部材501の位置はデバイス内蔵センサ510より取得される位置である。また、第2の仮想物体の位置は、上述の通り、第1の仮想物体の位置姿勢とボリューム値とを用いて周知の計算によって求まる。   First, the position of the first foot and the position of the second foot are obtained (step S300). Assuming that the first foot is the first virtual object and the second foot is the second virtual object, the position of the first virtual object is the position of the first member 501, and the position of the first member 501. Is a position obtained from the device built-in sensor 510. Further, as described above, the position of the second virtual object is obtained by a known calculation using the position and orientation of the first virtual object and the volume value.

次に、第1の足から所定の距離以内に特徴辺があり、且つ第1の足とこの特徴辺が略並行であるのかを判断する(ステップS301)。本ステップでは、第1の足の位置と特徴辺との距離を求め、求めた距離が所定距離以内であるのかを判断する。そして所定距離以内であれば次に、第1の足とこの特徴辺が略並行であるのかを判断するのであるが、これは例えば、第1の足が第1の仮想物体であれば、デバイス内蔵センサ510が計測した姿勢と特徴辺の姿勢とを比べ、それぞれの差が所定範囲内であれば、略並行と判断すればよい。また、第1の足が第2の仮想物体であれば、上述のようにして第2の仮想物体の姿勢を求め、求めた姿勢と特徴辺の姿勢とを比べ、それぞれの差が所定範囲内であれば、略並行と判断すればよい。   Next, it is determined whether there is a feature side within a predetermined distance from the first foot and whether the first foot and the feature side are substantially parallel (step S301). In this step, the distance between the position of the first foot and the feature side is obtained, and it is determined whether the obtained distance is within a predetermined distance. If it is within the predetermined distance, it is next determined whether the first foot and the feature side are substantially parallel. For example, if the first foot is the first virtual object, the device The posture measured by the built-in sensor 510 is compared with the posture of the feature side, and if the respective differences are within a predetermined range, it may be determined that they are substantially parallel. If the first foot is the second virtual object, the posture of the second virtual object is obtained as described above, and the obtained posture is compared with the posture of the feature side, so that the difference between them is within a predetermined range. If so, it may be determined to be substantially parallel.

そして、第1の足から所定の距離以内に特徴辺があり、且つ第1の足とこの特徴辺が略並行である場合には処理をステップS302に進め、第1の足の姿勢を特徴辺の姿勢に一致させ、その後、第1の足の先の位置を、この位置から特徴辺に垂線をひいたときの交点に一致させることで、第1の足の位置姿勢を変更する(ステップS302)。これにより、第1の足は、この特徴辺に沿うように位置することになる。なお、第1の足を、この特徴辺に沿うように位置させる方法についてはこれに限定するものではなく、様々な方法が考えられる。   If there is a feature side within a predetermined distance from the first foot and the first foot and the feature side are substantially parallel, the process proceeds to step S302, and the posture of the first foot is changed to the feature side. The position and orientation of the first foot are then changed by matching the position of the tip of the first foot with the intersection when the perpendicular is drawn from this position to the feature side (step S302). ). As a result, the first leg is positioned along this characteristic side. Note that the method of positioning the first foot along the characteristic side is not limited to this, and various methods are conceivable.

そして処理をステップS303に進め、もう一方の足(第2の足)について上記処理を行ったのかを判断し(ステップS303)、行っていないのであれば処理をステップS301に戻して以降の処理を繰り返す。   Then, the process proceeds to step S303, and it is determined whether the above process has been performed for the other leg (second leg) (step S303). If not, the process returns to step S301 to perform the subsequent processes. repeat.

一方、第2の足についても上記処理を行ったのであれば処理をステップS304に進める。図15は、それぞれの足の位置姿勢を移動させた様子を示す図で、同図において第1の足1501,第2の足1502をそれぞれ矢印で示す如く移動させることで、それぞれを特徴辺1510、1520に沿わせるように移動させることができる。   On the other hand, if the above process is performed for the second leg, the process proceeds to step S304. FIG. 15 is a diagram illustrating a state in which the position and orientation of each foot is moved. In FIG. 15, the first foot 1501 and the second foot 1502 are moved as indicated by arrows, respectively. , 1520 can be moved along.

図14に戻って、次に、移動させた足を延長した線が交わる位置、もしくは最も近づく位置に両足の根元の側の端点を一致させるように、それぞれの足を移動させる(ステップS304)。これは図16に示すように、それぞれの足を一点で交わるようにすることに対応する。図16は、1点で交わる足を示す図である。   Returning to FIG. 14, next, the respective feet are moved so that the end points on the base side of both feet coincide with the position where the extended lines of the moved feet intersect or the closest position (step S <b> 304). As shown in FIG. 16, this corresponds to making each leg cross at one point. FIG. 16 is a diagram showing legs that meet at one point.

図14に戻って、上述のように変更された位置姿勢(それぞれの足が何れの特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した足を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS305)。   Returning to FIG. 14, the feet are arranged in the position / posture changed as described above (the position / posture is not changed at all when each foot is not close to any feature side). An image that can be seen when viewed from the right-eye camera 110 (left-eye camera 111) is generated and drawn on the video memory (step S305).

図8は、それぞれの足を特徴辺に沿わせるように、その位置姿勢を補正する様子を示す図である。そして、それぞれの足が成す角度を求め、それを複合現実空間の画像上に表示すべく、角度を示す文字列を上記ビデメモリ上に描画する(ステップS306)。   FIG. 8 is a diagram illustrating a state in which the position and orientation are corrected so that each foot is along the feature side. Then, an angle formed by each leg is obtained, and a character string indicating the angle is drawn on the bidet memory in order to display it on the mixed reality space image (step S306).

図7は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。同図において600は器具500の仮想物体で、それぞれの足は測定対象仮想物体54の特徴辺71,72に沿うように位置している。これにより、観察者が足を特徴辺に沿わせるように操作を行わなくても、特徴辺71,72が成す角度を正確に測定することができる。   FIG. 7 is a diagram illustrating a display example of an image of the mixed reality space generated by performing the above processing. In the figure, reference numeral 600 denotes a virtual object of the instrument 500, and each leg is located along the characteristic sides 71 and 72 of the measurement target virtual object 54. This makes it possible to accurately measure the angle formed by the feature sides 71 and 72 without performing an operation so that the observer follows his / her foot along the feature side.

また、測定した角度は同図710に示す如く、表示される。これにより、観察者は改めて目盛りを読むなどの動作を行わなくても測定結果を知ることができる。   The measured angle is displayed as shown in FIG. Thus, the observer can know the measurement result without performing an operation such as reading the scale again.

<サイズを測定する>
次に、器具500の仮想物体を用いて、測定対象仮想物体150のサイズを測定する場合について説明する。なお、本実施形態に係る器具500の仮想物体は、図20に示す如く、第1の仮想物体2001と第2の仮想物体2002とが、先の位置に近づくほど並行となるようなものとなっている。図20は、本実施形態で用いる器具500の仮想物体を示す図である。よって、第1の仮想物体、第2の仮想物体のそれぞれの形状は、ボリューム値が変更する毎に変わる。
<Measure the size>
Next, a case where the size of the measurement target virtual object 150 is measured using the virtual object of the instrument 500 will be described. Note that, as shown in FIG. 20, the virtual object of the instrument 500 according to the present embodiment is such that the first virtual object 2001 and the second virtual object 2002 become parallel as they approach the previous position. ing. FIG. 20 is a diagram illustrating a virtual object of the instrument 500 used in the present embodiment. Accordingly, the shapes of the first virtual object and the second virtual object change each time the volume value changes.

図17は、器具500の仮想物体を用いて測定対象仮想物体150のサイズを求める場合に、器具500の仮想物体を配置する処理のフローチャートである。   FIG. 17 is a flowchart of processing for arranging the virtual object of the instrument 500 when the size of the measurement target virtual object 150 is obtained using the virtual object of the instrument 500.

先ず、上記ステップS300と同様の処理を行い、第1の足の位置、第2の足の位置を求める(ステップS400)。   First, the same processing as in step S300 is performed to obtain the position of the first foot and the position of the second foot (step S400).

次に、第1の足から所定の距離以内に特徴辺があるのかを判断する(ステップS401)。本ステップでは、第1の足の位置と特徴辺との距離を求め、求めた距離が所定距離以内であるのかを判断する。   Next, it is determined whether there is a feature side within a predetermined distance from the first foot (step S401). In this step, the distance between the position of the first foot and the feature side is obtained, and it is determined whether the obtained distance is within a predetermined distance.

そして、第1の足から所定の距離以内に特徴辺がある場合には処理をステップS402に進め、第1の足と特徴辺との最短距離のベクトルを求め(ステップS402)、このベクトルに平行な直線に沿って足の先の位置を特徴辺上に移動させる(ステップS403)。その際、先の位置のみを移動させるので、足が曲線を描く形状となるのであるが、これは適宜所定の曲率でもって曲がった足(仮想物体)を作成することになる。図18は、第1の足を特徴辺に沿って移動させる様子を示す図である。なお、第1の足の先の位置を特徴辺上に移動させる方法についてはこれに限定するものではなく、様々な方法が考えられる。   If there is a feature side within a predetermined distance from the first foot, the process proceeds to step S402, a vector of the shortest distance between the first foot and the feature side is obtained (step S402), and parallel to this vector. The position of the tip of the foot is moved onto the feature side along a straight line (step S403). At that time, since only the previous position is moved, the foot has a curved shape, but this creates a foot (virtual object) bent with a predetermined curvature as appropriate. FIG. 18 is a diagram illustrating a state in which the first foot is moved along the feature side. Note that the method of moving the position of the tip of the first foot onto the feature side is not limited to this, and various methods are conceivable.

そして処理をステップS404に進め、もう一方の足(第2の足)について上記処理を行ったのかを判断し(ステップS404)、行っていないのであれば処理をステップS401に戻して以降の処理を繰り返す。   Then, the process proceeds to step S404, and it is determined whether the above process has been performed for the other leg (second leg) (step S404). If not, the process returns to step S401 to perform the subsequent processes. repeat.

一方、第2の足についても上記処理を行ったのであれば処理をステップS405に進める。そして、上述のように変更された位置姿勢(それぞれの足が何れの特徴辺にも近くない場合には全く位置姿勢が変更されていない)に足を配置し、配置した足を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する(ステップS405)。   On the other hand, if the above process is performed for the second leg, the process proceeds to step S405. Then, the foot is placed in the position and orientation changed as described above (when each foot is not close to any feature side, the position and orientation are not changed at all), and the placed foot is placed in the right eye camera 110 ( An image that can be seen when viewed from the left-eye camera 111) is generated and drawn on the video memory (step S405).

そして、それぞれの足の先の位置の間の距離を求め、それを複合現実空間の画像上に表示すべく、距離を示す文字列を上記ビデメモリ上に描画する(ステップS406)。   Then, the distance between the positions of the toes of the respective feet is obtained, and a character string indicating the distance is drawn on the bidet memory in order to display it on the mixed reality space image (step S406).

図9は、以上の処理を行うことで生成される複合現実空間の画像の表示例を示す図である。   FIG. 9 is a diagram illustrating a display example of an image of the mixed reality space generated by performing the above processing.

以上のようにして、器具500の仮想物体と測定対象仮想物体150器具とが近づいた場合には、器具500の仮想物体の位置や姿勢、足間の角度などを調節して、測定対象仮想物体150に対する測定を行う。   As described above, when the virtual object of the instrument 500 and the measurement target virtual object 150 instrument approach each other, the position and posture of the virtual object of the instrument 500, the angle between the legs, and the like are adjusted, and the measurement target virtual object A measurement for 150 is made.

なお、本実施形態に係る処理は、複合現実空間の画像を生成するシステムに適用することに限定するものではなく、仮想空間の画像のみを生成するシステムにも適用可能であることはいうまでもない。   Note that the processing according to the present embodiment is not limited to being applied to a system that generates an image of a mixed reality space, but can be applied to a system that generates only an image of a virtual space. Absent.

また、本実施形態ではHMDとしてビデオシースルー型のものを用いたが、光学シースルー型のものを用いたシステムであっても良いことはいうまでもない。   In this embodiment, the video see-through type is used as the HMD, but it goes without saying that a system using an optical see-through type may be used.

また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。   Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and a computer (or CPU or CPU) of the system or apparatus. Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

現実空間と仮想空間とが融合された複合現実空間中に存在する仮想物体の測定を行うためのシステムを使用している様子を示す図である。It is a figure which shows a mode that the system for measuring the virtual object which exists in the mixed reality space with which real space and virtual space were united is used. HMD100の外観を示す図である。It is a figure which shows the external appearance of HMD100. 現実空間の画像上に仮想空間の画像を描画することで、複合現実空間の画像を生成する過程を示す図である。It is a figure which shows the process which produces | generates the image of mixed reality space by drawing the image of virtual space on the image of real space. 器具500の概略構成を示す図である。FIG. 3 is a diagram showing a schematic configuration of an instrument 500. 複合現実空間の画像の表示例を示す図である。It is a figure which shows the example of a display of the image of a mixed reality space. 足の先の位置を特徴点に一致させる処理を説明する図である。It is a figure explaining the process which makes the position of the tip of a foot correspond to a feature point. 複合現実空間の画像の表示例を示す図である。It is a figure which shows the example of a display of the image of a mixed reality space. それぞれの足を特徴辺に沿わせるように、その位置姿勢を補正する様子を示す図である。It is a figure which shows a mode that the position and orientation are correct | amended so that each leg may be along a feature side. 複合現実空間の画像の表示例を示す図である。It is a figure which shows the example of a display of the image of a mixed reality space. 本発明の実施形態に係るシステムのハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the system which concerns on embodiment of this invention. 複合現実空間の映像を生成する為に行う処理のフローチャートである。It is a flowchart of the process performed in order to produce | generate the image | video of mixed reality space. 器具500の仮想物体を用いて2点間の距離を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理(即ち、ステップS105における処理)のフローチャートである。When obtaining the distance between two points using the virtual object of the instrument 500, the virtual object of the instrument 500 is arranged, and an image that is seen when the arranged virtual object is viewed from the right-eye camera 110 (left-eye camera 111) is generated. FIG. 11 is a flowchart of a process of drawing on the video memory (that is, a process in step S105). 足の先の位置を特徴辺上に一致させる処理を説明する図である。It is a figure explaining the process which matches the position of the tip of a foot on a feature side. 器具500の仮想物体を用いて2辺が成す角度を求める場合に、器具500の仮想物体を配置し、配置した仮想物体を右目カメラ110(左目カメラ111)から見えた場合に見える画像を生成し、上記ビデオメモリ上に描画する処理のフローチャートである。When obtaining the angle formed by the two sides using the virtual object of the instrument 500, the virtual object of the instrument 500 is placed, and an image that is visible when the placed virtual object is viewed from the right-eye camera 110 (left-eye camera 111) is generated. 4 is a flowchart of processing for drawing on the video memory. それぞれの足の位置姿勢を移動させた様子を示す図である。It is a figure which shows a mode that the position and orientation of each leg | foot were moved. 1点で交わる足を示す図である。It is a figure which shows the leg | cross which cross | intersects at one point. 器具500の仮想物体を用いて測定対象仮想物体150のサイズを求める場合に、器具500の仮想物体を配置する処理のフローチャートである。12 is a flowchart of processing for arranging a virtual object of the instrument 500 when the size of the measurement target virtual object 150 is obtained using the virtual object of the instrument 500. 第1の足を特徴辺に沿って移動させる様子を示す図である。It is a figure which shows a mode that a 1st leg | foot is moved along a feature side. 器具500の仮想物体の一例を示す図である。6 is a diagram illustrating an example of a virtual object of the instrument 500. FIG. 本発明の実施形態で用いる器具500の仮想物体を示す図である。It is a figure which shows the virtual object of the instrument 500 used in embodiment of this invention.

Claims (6)

棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得工程と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得工程と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定工程と、
ユーザの視点の位置姿勢を取得する第3の取得工程と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成工程と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整工程と
を備えることを特徴とする情報処理方法。
A first acquisition step of acquiring a position and orientation of an instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed; ,
A second acquisition step of acquiring an angle formed by the first member and the second member;
An instrument virtual object information setting step for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
A third acquisition step of acquiring the position and orientation of the user's viewpoint;
Generation step of generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the virtual object of the measurement target When,
An information processing method comprising: an instrument virtual object information adjusting step of adjusting a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.
前記器具の仮想物体および前記測定対象の仮想物体の位置関係に基づき、前記測定対象仮想物体に対する測定を行う測定工程と、
前記測定結果を表示させる工程と
を備えることを特徴とする請求項1記載の情報処理方法。
A measurement step of performing measurement on the measurement target virtual object based on a positional relationship between the virtual object of the instrument and the virtual object of the measurement target;
The information processing method according to claim 1, further comprising: displaying the measurement result.
前記第1の部材の仮想物体の一端を前記測定対象の仮想物体の第1の箇所、前記第2の部材の仮想物体の一端を前記測定対象の仮想物体の第2の箇所に近づけた場合に、
前記変更工程では、
前記第1の部材の仮想物体を前記第1の箇所に沿わせると共に、前記第2の部材の仮想物体を前記第2の箇所に沿わせることを特徴とする請求項1に記載の情報処理方法。
When one end of the virtual object of the first member is brought close to the first location of the virtual object to be measured and one end of the virtual object of the second member is brought closer to the second location of the virtual object to be measured ,
In the changing step,
The information processing method according to claim 1, wherein the virtual object of the first member is set along the first location, and the virtual object of the second member is set along the second location. .
棒状の第1の部材の一端と、棒状の第2の部材の一端とが、それぞれの部材が成す角度が変更可能なように支持されている器具の位置姿勢を取得する第1の取得手段と、
前記第1の部材と前記第2の部材とが成す角度を取得する第2の取得手段と、
前記器具の位置姿勢および前記角度に基づき、前記器具の仮想物体情報を設定する器具仮想物体情報設定手段と、
ユーザの視点の位置姿勢を取得する第3の取得手段と、
前記器具の仮想物体情報、及び測定対象の仮想物体の仮想物体情報に基づき、前記ユーザの視点の位置姿勢に応じた、前記器具の仮想物体画像および前記測定対象の仮想物体画像を生成する生成手段と、
前記器具の仮想物体と前記測定対象仮想物体が近づいた場合に、前記器具の仮想物体の位置姿勢および角度を調整する器具仮想物体情報調整手段と
を備えることを特徴とする情報処理装置。
First acquisition means for acquiring the position and orientation of an instrument in which one end of the rod-shaped first member and one end of the rod-shaped second member are supported so that the angle formed by each member can be changed; ,
Second acquisition means for acquiring an angle formed by the first member and the second member;
Instrument virtual object information setting means for setting virtual object information of the instrument based on the position and orientation of the instrument and the angle;
Third acquisition means for acquiring the position and orientation of the user's viewpoint;
Generation means for generating a virtual object image of the instrument and a virtual object image of the measurement target according to the position and orientation of the viewpoint of the user based on the virtual object information of the instrument and the virtual object information of the measurement target virtual object When,
An information processing apparatus comprising: an instrument virtual object information adjusting unit that adjusts a position and orientation and an angle of the virtual object of the instrument when the virtual object of the instrument approaches the virtual object to be measured.
コンピュータに請求項1乃至3の何れか1項に記載の情報処理方法を実行させることを特徴とするプログラム。   A program for causing a computer to execute the information processing method according to any one of claims 1 to 3. 請求項5に記載のプログラムを格納したことを特徴とする、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 5.
JP2005095704A 2005-03-29 2005-03-29 Information processing method and information processor Withdrawn JP2006277350A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005095704A JP2006277350A (en) 2005-03-29 2005-03-29 Information processing method and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005095704A JP2006277350A (en) 2005-03-29 2005-03-29 Information processing method and information processor

Publications (1)

Publication Number Publication Date
JP2006277350A true JP2006277350A (en) 2006-10-12

Family

ID=37212046

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005095704A Withdrawn JP2006277350A (en) 2005-03-29 2005-03-29 Information processing method and information processor

Country Status (1)

Country Link
JP (1) JP2006277350A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023135697A1 (en) * 2022-01-13 2023-07-20 株式会社日立製作所 Dimension measuring method using augmented reality

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023135697A1 (en) * 2022-01-13 2023-07-20 株式会社日立製作所 Dimension measuring method using augmented reality
JP7457339B2 (en) 2022-01-13 2024-03-28 株式会社日立製作所 How to measure dimensions using augmented reality

Similar Documents

Publication Publication Date Title
JP4677273B2 (en) Information processing method and information processing apparatus
JP4677281B2 (en) Image processing method and image processing apparatus
JP4667111B2 (en) Image processing apparatus and image processing method
JP4137078B2 (en) Mixed reality information generating apparatus and method
JP3805231B2 (en) Image display apparatus and method, and storage medium
JP5845211B2 (en) Image processing apparatus and image processing method
JP5248806B2 (en) Information processing apparatus and information processing method
JP4356983B2 (en) Image processing method and image processing apparatus
JP5709440B2 (en) Information processing apparatus and information processing method
JP2005107970A (en) Image display device and method
JP2006072903A (en) Image compositing method and device
JP2009123018A (en) Image processor and image processing method
JP2004062758A (en) Information processor and information processing method
US8994729B2 (en) Method for simulating operation of object and apparatus for the same
JP2004213355A (en) Information processing method
JP2005107969A (en) Image display method and image display system
JP2007004713A (en) Image processing method and image processor
JP2007233971A (en) Image compositing method and device
JP2005174021A (en) Method and device for presenting information
JP2005327204A (en) Image composing system, method, and device
JP2008146497A (en) Image processor and image processing method
JP2007004714A (en) Information processing method and information processing unit
JP6295296B2 (en) Complex system and target marker
JP2009087161A (en) Image processor and image processing method
JP2008070319A (en) Object measurement device and method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603