JP2006267026A - Image processing method, and image processor - Google Patents

Image processing method, and image processor Download PDF

Info

Publication number
JP2006267026A
JP2006267026A JP2005088930A JP2005088930A JP2006267026A JP 2006267026 A JP2006267026 A JP 2006267026A JP 2005088930 A JP2005088930 A JP 2005088930A JP 2005088930 A JP2005088930 A JP 2005088930A JP 2006267026 A JP2006267026 A JP 2006267026A
Authority
JP
Japan
Prior art keywords
image
index
real space
orientation
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005088930A
Other languages
Japanese (ja)
Inventor
Hironori Yonezawa
博紀 米澤
Kenji Morita
憲司 守田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005088930A priority Critical patent/JP2006267026A/en
Publication of JP2006267026A publication Critical patent/JP2006267026A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique capable of reducing manhours for index initial setting work required for estimating a camera position and posture by an index image, such as an installation position of an index, a posture thereof, a shape thereof, investigation of a dimension, preparation of the index and installation of the index, and capable of installing the index proper for estimating the camera position and posture, in a short time. <P>SOLUTION: When a virtual space simulated with a real space is set to be conformed with a coordinate system defined in the real space, a position in the real space corresponding to an indication position for arranging the index is found on an image of the virtual space viewed from a desired view point (S400), and an area in the real space is found to correspond to an area occupied on the image by the index (S404). <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数の指標を配置した現実空間の画像を用いて、この画像を撮像した撮像装置の位置姿勢を求める為の技術に関するものである。   The present invention relates to a technique for obtaining the position and orientation of an image pickup apparatus that picks up an image of a real space in which a plurality of indices are arranged.

カメラの焦点距離、主点、レンズ歪みといったカメラ固有にカメラ内部に存在するカメラ内部パラメータ、もしくは、カメラの位置姿勢といったカメラが外界に対してどのように存在しているかを表すカメラ外部パラメータを校正するために、3次元空間座標内に置かれた座標値が既知の複数の指標をカメラで撮像して指標画像を生成し、各指標の空間座標値と指標の画像座標値を用いて、カメラ校正アルゴリズムに基づき推定する方法がある。   Camera internal parameters such as camera focal length, principal point, lens distortion, etc. that exist inside the camera or camera external parameters that indicate how the camera exists relative to the outside world, such as camera position and orientation, are calibrated In order to do this, a plurality of indices with known coordinate values placed in the three-dimensional space coordinates are imaged by the camera to generate an index image, and the camera uses the spatial coordinate values of each index and the image coordinate values of the indices. There is an estimation method based on a calibration algorithm.

カメラ校正アルゴリズムには、すべての指標が1平面上に分布していない(3次元的に分布した)指標を基にする方法、2次元的(平面上)に分布した指標を基にする方法があり、指標を空間に配置する容易さや、非線形な内部パラメータであるレンズ歪みの校正も行える方法へ発展できるなどの利点から広く一般的に利用されている。   The camera calibration algorithm includes a method based on an index in which all the indexes are not distributed on one plane (distributed three-dimensionally), and a method based on an index distributed in two dimensions (on a plane). It is widely used because of its advantages such as the ease of arranging indices in space and the development of a method that can also calibrate lens distortion, which is a nonlinear internal parameter.

これは、古くはロジャー・ツサイらの提案(非特許文献1を参照)をはじめとして、数多くの提案がなされている。
Roger Y。Tsai、”A Versatile Camera CalibrationTechnique for High−Accuracy 3D Machine Metrology Using Off−the Shelf TVCameras and Lenses”、IIIE J。Roboticsand Automation、Vol。RA−3、No。4、pp。323−344、1987
In the past, many proposals have been made, including the proposal by Roger Tsusai et al. (See Non-Patent Document 1).
Roger Y. Tsai, “A Versatile Camera Calibration Technique for High-Accuracy 3D Machine Metrology Using Off-the Shelf TVCameras and Lenses”, IIIE J. Roboticsand Automation, Vol. RA-3, No. 4, pp. 323-344, 1987

指標画像からカメラ位置姿勢を推定する処理をカメラの位置姿勢に依存せずに行うためには、常に使用する位置推定アルゴリズムに必要な数の指標が指標画像上に存在してなくてはならない。   In order to perform the process of estimating the camera position and orientation from the index image without depending on the position and orientation of the camera, the number of indices necessary for the position estimation algorithm that is always used must be present on the index image.

また、カメラ位置姿勢に依存せず、位置姿勢推定の精度を一定に保つためには、常に指標画像上に均一に指標が配置されてなくてはならない。   In addition, in order to keep the accuracy of position and orientation estimation constant regardless of the camera position and orientation, the indices must always be arranged uniformly on the index image.

これらの実現のために、カメラ位置姿勢を推定する環境において下記の指標初期設定作業を行っているのが現状である。   In order to realize these, the following index initial setting work is currently performed in an environment for estimating the camera position and orientation.

(1) カメラ位置姿勢の取り得る範囲を検討する。(カメラ位置姿勢可動範囲検討)
(2) (1)で検討した位置姿勢可動範囲にカメラを設置して撮像を行い、撮像画像から指標の設置位置を検討する。(指標位置検討)
(3) (2)で検討した指標設置位置に指標を設置した場合の撮像画像上の指標の形状を検討する。(指指標形状検討)
(4) (2)で検討した指標設置位置とカメラとの距離から、使用する位置姿勢推定アルゴリズムが認識可能であるように指標の大きさを検討する。(指標寸法検討)
(5) 以上の検討を踏まえて指標を作成する。(指標作成)
(6) 作成した指標を(2)で検討した位置に設置する。(指標設置)
(7) (1)で検討した位置姿勢可動範囲にカメラを設置して、撮像画像(指標画像)から位置姿勢推定可能か調べる。(カメラ位置姿勢推定確認)
(8) (1)で検討した位置姿勢可動範囲にカメラを設置して、カメラ位置姿勢推定の精度が均一であるか調べる。(カメラ位置姿勢推定精度確認)
(9) (7)において位置姿勢推定に失敗したり、(8)において位置姿勢推定精度が大きく変化したりする場合は(1)に戻って繰り返し行う。
(1) Examine the possible range of camera position and orientation. (Examination of camera position / posture movable range)
(2) A camera is installed in the position and orientation movable range examined in (1) and imaging is performed, and the installation position of the index is examined from the captured image. (Investigation of index position)
(3) Examine the shape of the index on the captured image when the index is installed at the index installation position studied in (2). (Finger index shape examination)
(4) The size of the index is examined so that the position and orientation estimation algorithm to be used can be recognized from the distance between the index setting position and the camera examined in (2). (Indicator dimension study)
(5) Prepare indicators based on the above considerations. (Indicator creation)
(6) Place the created index at the position examined in (2). (Indicator setting)
(7) A camera is installed in the position and orientation movable range examined in (1), and it is checked whether the position and orientation can be estimated from the captured image (index image). (Camera position and orientation estimation confirmation)
(8) A camera is installed in the position and orientation movable range examined in (1), and it is checked whether the accuracy of camera position and orientation estimation is uniform. (Camera position and orientation estimation accuracy check)
(9) If the position / orientation estimation fails in (7) or the position / orientation estimation accuracy changes greatly in (8), the process returns to (1) and is repeated.

指標初期設定作業は作業者の経験・慣れを必要とする上、十分経験を積んだ作業者であって繰り返し作業が必要となることが多く、時間と労力がかかるものであった。   The index initial setting work requires the experience and familiarity of the worker, and is a sufficiently experienced worker and often requires repeated work, which takes time and labor.

本発明は以上のような問題を鑑み、指標の設置位置、姿勢、形状、寸法の検討、指標作成、指標設置といった、指標画像によるカメラ位置姿勢推定に必要となる指標初期設定作業の工数を軽減し、短い時間でカメラ位置姿勢推定に適切な指標を設置可能とする為の技術を提供することを目的とする。   In view of the above problems, the present invention reduces the man-hours for initial setting work required for camera position and orientation estimation using index images, such as examination of index installation position, orientation, shape, and dimensions, index creation, and index installation. It is an object of the present invention to provide a technique for enabling an appropriate index for camera position and orientation estimation to be installed in a short time.

また、カメラ位置姿勢可動範囲において、指標画像による位置姿勢推定の精度を均一に保つことを目的とする。   It is another object of the present invention to maintain uniform accuracy of position and orientation estimation using an index image in a camera position and orientation movable range.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、現実空間を模した仮想空間を、当該現実空間中に定義された座標系に一致させて設定した場合に、所望の視点から見た当該仮想空間の画像を生成する生成工程と、
前記生成工程で生成した画像を所定の表示画面上に表示する表示工程と、
前記画像上で、指標を配置する箇所を指示する位置指示工程と、
前記画像上で指示された位置に対応する前記現実空間中の位置を求める第1の計算工程と、
前記指標が前記画像上で占める領域を設定する設定工程と、
前記設定工程で設定した領域に対応する前記現実空間中の領域を求める第2の計算工程と、
前記計算工程で計算した位置を示すデータ、及び前記第2の計算工程で計算した領域を示すデータをメモリに格納する格納工程と
を備えることを特徴とする。
That is, when a virtual space that imitates the real space is set to match the coordinate system defined in the real space, a generation step of generating an image of the virtual space viewed from a desired viewpoint;
A display step of displaying the image generated in the generation step on a predetermined display screen;
On the image, a position indicating step for indicating a position where an index is arranged;
A first calculation step of obtaining a position in the real space corresponding to the position indicated on the image;
A setting step for setting an area occupied by the index on the image;
A second calculation step for obtaining a region in the real space corresponding to the region set in the setting step;
A storage step of storing data indicating the position calculated in the calculation step and data indicating the area calculated in the second calculation step in a memory.

本発明の目的を達成するために、例えば、本発明の画像処理方法は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing method of the present invention comprises the following arrangement.

即ち、それぞれの位置姿勢で撮像して複数枚の画像を取得する取得工程と、
画像内に写っているそれぞれの指標の当該画像内におけるばらつきの度合いを計算する処理をそれぞれの画像について行う計算工程と、
それぞれの画像について求めたばらつきの度合いを報知する第1の報知工程と
を備えることを特徴とする。
That is, an acquisition step of acquiring a plurality of images by imaging at each position and orientation;
A calculation step of performing processing for each image for calculating the degree of variation in each image of each index shown in the image;
A first notification step of notifying a degree of variation obtained for each image.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、現実空間を模した仮想空間を、当該現実空間中に定義された座標系に一致させて設定した場合に、所望の視点から見た当該仮想空間の画像を生成する生成手段と、
前記生成手段が生成した画像を表示する表示手段と、
前記画像上で、指標を配置する箇所を指示する位置指示手段と、
前記画像上で指示された位置に対応する前記現実空間中の位置を求める第1の計算手段と、
前記指標が前記画像上で占める領域を設定する設定手段と、
前記設定手段が設定した領域に対応する前記現実空間中の領域を求める第2の計算手段と、
前記計算手段が計算した位置を示すデータ、及び前記第2の計算手段が計算した領域を示すデータを格納する格納手段と
を備えることを特徴とする。
That is, when a virtual space imitating a real space is set to match a coordinate system defined in the real space, a generation unit that generates an image of the virtual space viewed from a desired viewpoint;
Display means for displaying the image generated by the generating means;
On the image, position indicating means for indicating a position where an index is arranged;
First calculating means for obtaining a position in the real space corresponding to the position indicated on the image;
Setting means for setting an area occupied by the index on the image;
Second calculating means for obtaining an area in the real space corresponding to the area set by the setting means;
And storing means for storing data indicating the position calculated by the calculating means and data indicating the area calculated by the second calculating means.

本発明の目的を達成するために、例えば、本発明の画像処理装置は以下の構成を備える。   In order to achieve the object of the present invention, for example, an image processing apparatus of the present invention comprises the following arrangement.

即ち、それぞれの位置姿勢で撮像して複数枚の画像を取得する取得手段と、
画像内に写っているそれぞれの指標の当該画像内におけるばらつきの度合いを計算する処理をそれぞれの画像について行う計算手段と、
それぞれの画像について求めたばらつきの度合いを報知する第1の報知手段と
を備えることを特徴とする。
That is, an acquisition unit that captures images at each position and orientation and acquires a plurality of images;
A calculation means for performing processing for each image to calculate the degree of variation of each index in the image in the image;
First informing means for informing the degree of variation obtained for each image.

本発明の構成により、指標の設置位置、姿勢、形状、寸法の検討、指標作成、指標設置といった、指標画像によるカメラ位置姿勢推定に必要となる指標初期設定作業の工数を軽減し、短い時間でカメラ位置姿勢推定に適切な指標を設置することができる。   The configuration of the present invention reduces the man-hours for index initial setting work required for camera position and orientation estimation using index images, such as examination of index installation position, orientation, shape, dimensions, index creation, and index installation, in a short time. An index suitable for camera position and orientation estimation can be installed.

また、カメラ位置姿勢可動範囲において、指標画像による位置姿勢推定の精度を均一に保つことができる。   In addition, the accuracy of position / orientation estimation using the index image can be kept uniform in the camera position / orientation movable range.

以下添付図面を参照して、本発明を好適な実施形態に従って詳細に説明する。   Hereinafter, the present invention will be described in detail according to preferred embodiments with reference to the accompanying drawings.

[第1の実施形態]
本実施形態では、撮像装置の位置姿勢が固定されている場合において、現実空間中に配置する指標の配置位置を求める処理について説明する。なお、配置する指標の使用目的については上述の通り、複数の指標を配した現実空間の画像を用いて、この画像を撮像した撮像装置の位置姿勢を推定する(求めたり、補正したりする処理を含む)為に用いられるものである。
[First Embodiment]
In the present embodiment, a process for obtaining an arrangement position of an index to be arranged in the real space when the position and orientation of the imaging apparatus are fixed will be described. As described above, the purpose of use of the marker to be arranged is to estimate the position and orientation of the imaging device that captured the image using a real space image in which a plurality of markers are arranged (processing to obtain or correct). Used).

図1は、本実施形態に係る画像処理装置として機能するコンピュータのハードウェア構成を示すブロック図である。このコンピュータには一般のPC(パーソナルコンピュータ)やWS(ワークステーション)等が用いられる。   FIG. 1 is a block diagram illustrating a hardware configuration of a computer that functions as an image processing apparatus according to the present embodiment. As this computer, a general PC (personal computer), WS (workstation), or the like is used.

同図に示す如く、CPU110、メモリ120、HDD(ハードディスクドライブ)130、I/F(インターフェース)150、表示装置170、キーボード180、マウス190により構成されている。   As shown in the figure, it comprises a CPU 110, a memory 120, an HDD (hard disk drive) 130, an I / F (interface) 150, a display device 170, a keyboard 180, and a mouse 190.

CPU110は本コンピュータ全体の制御を行うと共に、本コンピュータが行う後述の各処理を実行する。   The CPU 110 controls the entire computer and executes processes described later performed by the computer.

メモリ120は、HDD130からロードされたプログラムやデータを一時的に記憶する為のエリア、CPU110が各処理を実行する際に用いるエリアなど、様々なエリアを提供することができる。   The memory 120 can provide various areas such as an area for temporarily storing programs and data loaded from the HDD 130 and an area used when the CPU 110 executes each process.

HDD130にはOS(オペレーティングシステム)や、本コンピュータが行う後述の各処理をCPU110に実行させるためのプログラムやデータが保存されており、これらの一部若しくは全部はCPU110による制御に従ってメモリ120にロードされ、CPU110による処理対象となる。   The HDD 130 stores an OS (operating system) and programs and data for causing the CPU 110 to execute processes described below performed by the computer. Some or all of these are loaded into the memory 120 according to control by the CPU 110. The CPU 110 is a processing target.

I/F150は、CPU110による処理結果である画像や文字を示す信号を表示装置170に出力する。   The I / F 150 outputs a signal indicating an image or a character that is a processing result of the CPU 110 to the display device 170.

表示装置170はCRTや液晶画面などにより構成されており、CPU110による処理結果を画像や文字などでもって表示する。   The display device 170 is configured by a CRT, a liquid crystal screen, or the like, and displays the processing result by the CPU 110 using images, characters, or the like.

キーボード180、マウス190は本コンピュータの操作者が操作することで、各種の指示をCPU110に対して入力することができる。   The keyboard 180 and the mouse 190 can be operated by an operator of the computer to input various instructions to the CPU 110.

次に、このような構成を備えるコンピュータが行う処理、即ち、現実空間中に配置する指標の配置位置を求める処理について、同処理のフローチャートを示す図2を用いて以下説明する。なお、同図のフローチャートに従った処理をCPU110に実行させるためのプログラムやデータはHDD130に保存されており、これは必要に応じてCPU110による制御に従って適宜メモリ120にロードされるので、CPU110がロードされたプログラムやデータを用いて処理を行うことで、本コンピュータは以下説明する各処理を実行することになる。   Next, processing performed by a computer having such a configuration, that is, processing for obtaining the placement position of an index placed in the real space will be described below with reference to FIG. 2 showing a flowchart of the processing. Note that programs and data for causing the CPU 110 to execute the processing according to the flowchart of FIG. 10 are stored in the HDD 130 and are loaded into the memory 120 as needed under the control of the CPU 110 as necessary. By performing processing using the programmed program and data, the computer executes each processing described below.

先ず、HDD130に保存されている「現実空間を模した仮想空間のデータ」をメモリ120にロードする(ステップS310)。ここで、「現実空間を模した仮想空間のデータ」とは、「指標を配置する現実空間の物理的状態を仮想空間中に構築するためのモデルデータ(以下、現実空間モデルデータと呼称する)」である。本実施形態ではこのモデルデータはポリゴンでもって構成されているものとして説明する。   First, “virtual space data imitating real space” stored in the HDD 130 is loaded into the memory 120 (step S310). Here, “virtual space data imitating real space” means “model data for constructing the physical state of the real space in which the index is placed in the virtual space (hereinafter referred to as real space model data)” Is. In the present embodiment, this model data will be described as being composed of polygons.

また、この仮想空間は、その座標系が、現実空間中に定義された座標系と一致するように設定されているものとする(即ち仮想空間における原点と、この原点で互いに直交する3軸(x軸、y軸、z軸)は、それぞれ、現実空間中に定義したそれらと一致している)。よって、仮想空間中におけるある1点と、この1点に対応する現実空間中の1点とは同じ座標値でもって表されることになる。   The virtual space is set so that its coordinate system matches the coordinate system defined in the real space (that is, the origin in the virtual space and the three axes orthogonal to each other at the origin ( (x-axis, y-axis, z-axis) are in agreement with those defined in the real space). Therefore, one point in the virtual space and one point in the real space corresponding to this one point are represented by the same coordinate value.

次に、CPU110は、仮想空間中に配置する撮像装置(視点)の位置姿勢を設定するためのGUIを表示装置170の表示画面上に表示し、位置姿勢の入力を受け付ける(ステップS314)。図3は、仮想空間中に配置する視点の位置姿勢を入力するためのGUIの表示例を示す図で、領域351〜356はそれぞれ、視点の位置(x、y、z)と姿勢(azimuth,elevation,roll)とを入力するための領域である。   Next, the CPU 110 displays a GUI for setting the position and orientation of the imaging device (viewpoint) arranged in the virtual space on the display screen of the display device 170, and receives an input of the position and orientation (step S314). FIG. 3 is a diagram showing a display example of a GUI for inputting the position and orientation of the viewpoint arranged in the virtual space, and the areas 351 to 356 are respectively the viewpoint position (x, y, z) and the attitude (azimuth, elevation, roll).

本コンピュータの操作者はキーボード180やマウス190を用いてそれぞれの領域351〜356に所望の数値を入力する。そして入力が完了し、ボタン画像357を指示すると、CPU110はこれを検知し、領域351〜356に入力された位置姿勢のデータをメモリ120に格納する。なお、同図のGUIでは位置姿勢はY-X-Zオイラー角で定義されるものとしているが、これに限るものではなく、回転軸と回転角などでもって表現するようにしてもよい。その場合、ステップS314で表示するGUIの構成は適宜変更する必要がある。   An operator of this computer inputs a desired numerical value in each of the areas 351 to 356 using the keyboard 180 and the mouse 190. When the input is completed and the button image 357 is designated, the CPU 110 detects this and stores the position and orientation data input to the areas 351 to 356 in the memory 120. In the GUI shown in the figure, the position and orientation is defined by the Y-X-Z Euler angle. However, the position and orientation are not limited to this, and may be expressed by a rotation axis and a rotation angle. In that case, the configuration of the GUI displayed in step S314 needs to be changed as appropriate.

また、視点の位置姿勢の入力方法についてはこのように数値を入力する形態に限定するものではなく、表示装置170の表示画面上でアイコンを操作することで視点の位置姿勢を設定するようにしても良い。その場合、ステップS314では、図4に示すGUIが表示装置170の表示画面上に表示されることになる。   Further, the input method of the viewpoint position and orientation is not limited to the form in which the numerical value is input as described above, and the viewpoint position and orientation is set by operating an icon on the display screen of the display device 170. Also good. In that case, the GUI shown in FIG. 4 is displayed on the display screen of the display device 170 in step S314.

図4は、視点の位置姿勢をアイコンでもって設定するためのGUIの表示例を示す図である。同図のGUIには、現実空間モデルを俯瞰する位置姿勢の視点から見える仮想空間の画像が表示されている。この画像上の210は、視点の位置姿勢を示すためのアイコンであり、このアイコン210の端部215の位置が視点の位置を示しており、アイコンの向きが視点の姿勢(視線方向)を示している。よって、本コンピュータの操作者は、キーボード180やマウス190を用いてこのアイコン210の位置や姿勢を変更させることで、仮想空間中に設定する視点の位置や姿勢を変更し、設定することができる。   FIG. 4 is a diagram showing a display example of a GUI for setting the position and orientation of the viewpoint with icons. In the GUI shown in the figure, an image of the virtual space that is seen from the viewpoint of the position and orientation overlooking the real space model is displayed. 210 on this image is an icon for indicating the position and orientation of the viewpoint, the position of the end 215 of the icon 210 indicates the position of the viewpoint, and the direction of the icon indicates the attitude of the viewpoint (gaze direction). ing. Therefore, the operator of this computer can change and set the position and orientation of the viewpoint set in the virtual space by changing the position and orientation of this icon 210 using the keyboard 180 and mouse 190. .

更に、図4に示したGUIが表示する画像に加えて、図5に示す如く、アイコン210の位置から、アイコン210の姿勢方向に延長した線分220を表示し、この線分の一端(線分220が現実空間モデルと交差する点)の位置を操作することで、アイコン210の姿勢を変更するようにしても良い。この場合、変更後の一端の位置とアイコン210の位置とを結ぶ線分を視線方向とするようにアイコン210の姿勢(視点の姿勢)は変更される。図5は、視点の位置姿勢をアイコンでもって設定するためのGUIの表示例を示す図である。   Further, in addition to the image displayed by the GUI shown in FIG. 4, a line segment 220 extending from the position of the icon 210 in the orientation direction of the icon 210 is displayed as shown in FIG. The position of the icon 210 may be changed by manipulating the position of the point 220 where the minute 220 intersects the real space model. In this case, the posture of the icon 210 (the posture of the viewpoint) is changed so that the line segment connecting the position of one end after the change and the position of the icon 210 is the line-of-sight direction. FIG. 5 is a diagram illustrating a display example of a GUI for setting the position and orientation of the viewpoint with icons.

このように、視点の位置姿勢の設定方法については様々なものが考えられ、1つの方法に限定するものではない。   As described above, various methods for setting the position and orientation of the viewpoint are conceivable, and the method is not limited to one method.

図2に戻って、処理をステップS316に進め、ステップS314で設定された位置姿勢を有する視点から見える仮想空間の画像を生成し、表示装置170の表示画面上に表示する(ステップS316)。なお、所定の位置姿勢を有する視点から見える仮想空間の画像を生成する処理については周知のであるので、これに関する説明は省略する。   Returning to FIG. 2, the process proceeds to step S316, and an image of the virtual space seen from the viewpoint having the position and orientation set in step S314 is generated and displayed on the display screen of the display device 170 (step S316). In addition, since the process which produces | generates the image of the virtual space seen from the viewpoint which has a predetermined position and orientation is known, the description regarding this is abbreviate | omitted.

図6は、ステップS316で生成する仮想空間の画像の一例を示す図である。この画像は、ステップS314で設定した位置姿勢を有する視点から見える現実空間を模した仮想空間の画像である。   FIG. 6 is a diagram illustrating an example of a virtual space image generated in step S316. This image is an image of a virtual space imitating a real space seen from the viewpoint having the position and orientation set in step S314.

次に、操作者はキーボード180やマウス190を用いて、現実空間中に配置する指標を、ステップS316で表示された仮想空間画像上で設定する。   Next, the operator uses the keyboard 180 and the mouse 190 to set an index to be arranged in the real space on the virtual space image displayed in step S316.

操作者は仮想空間画像上における所望の位置をマウス190でもってクリックすると、CPU110は、画像上におけるクリック位置に指標アイコンを表示する。当然、複数箇所をクリックした場合にはそれぞれのクリック位置に指標アイコンが表示される。図7は、仮想空間画像上で4カ所クリックした場合の表示例を示す図で、250a〜250dはそれぞれ、仮想空間画像上において操作者がクリックした位置を示す指標アイコンである。なお、指標アイコンは、クリック位置が視覚的に分かるようなものであれば、どのようなアイコンを用いても良い。   When the operator clicks a desired position on the virtual space image with the mouse 190, the CPU 110 displays an index icon at the click position on the image. Of course, when a plurality of locations are clicked, an index icon is displayed at each click position. FIG. 7 is a diagram illustrating a display example when four places are clicked on the virtual space image. Reference numerals 250a to 250d are index icons indicating positions clicked by the operator on the virtual space image. As the index icon, any icon may be used as long as the click position can be visually recognized.

また、表示した指標アイコン上にマウスカーソルを移動させ、ドラッグすることで、指標アイコンの表示位置を変更することもできる。また、画像外に指標アイコンを移動させることで、その指標アイコンを削除することもできる。このように、1以上の指標アイコンを仮想空間画像上に配置したり、画像上の位置を移動させたり、削除したりすることができる。なお、そのための操作方法については上述のようなものに限定しない。   In addition, the display position of the index icon can be changed by moving and dragging the mouse cursor on the displayed index icon. Further, the index icon can be deleted by moving the index icon outside the image. In this way, one or more index icons can be arranged on the virtual space image, the position on the image can be moved, or deleted. In addition, about the operation method for that, it is not limited to the above.

よってステップS318では、仮想空間画像上でクリックを検知すると、クリック位置をメモリ120に記録するし、指標アイコンの位置を移動させる操作を検知すると、メモリ120に記録しているこの指標アイコンの位置をその操作に応じて変更するし、指標アイコンを削除する操作を受けると、メモリ120に記録されているこの指標アイコンの位置を削除する。このようにして、CPU110は、操作者によって設定された指標アイコンの位置データをメモリ120内に管理する。   Accordingly, in step S318, when a click is detected on the virtual space image, the click position is recorded in the memory 120. When an operation for moving the position of the index icon is detected, the position of the index icon recorded in the memory 120 is recorded. When the operation is changed according to the operation and the operation for deleting the index icon is received, the position of the index icon recorded in the memory 120 is deleted. In this way, the CPU 110 manages the index icon position data set by the operator in the memory 120.

そして、ステップS318でメモリ120に関している各指標アイコンの仮想空間画像上の位置に、指標アイコンを表示する(ステップS320)。   In step S318, the index icon is displayed at the position on the virtual space image of each index icon related to the memory 120 (step S320).

そして、仮想空間画像上における指標の設定を終了する旨の操作、例えば、マウス190をダブルクリックする操作を検知すると、処理をステップS322を介してステップS324に進めるが、検知していない限りはステップS318、S320の処理を繰り返す。   When an operation for ending the setting of the index on the virtual space image, for example, an operation of double-clicking the mouse 190 is detected, the process proceeds to step S324 via step S322. The processes of S318 and S320 are repeated.

そして次に、メモリ120に管理しているそれぞれの指標アイコンの位置データを用いて、仮想空間画像上における指標アイコンが示す位置が、現実空間中のどの位置に対応するものであるのかを求める(ステップS324)。   Then, using the position data of each index icon managed in the memory 120, it is determined which position in the real space the position indicated by the index icon on the virtual space image corresponds to ( Step S324).

ステップS324における処理について詳細に説明する。図8は、仮想空間画像上における指標アイコンの位置に対応する現実空間中の位置を求める処理を説明する図である。同図において280は視点、282は視点280の視線、270は仮想空間画像、250aは指標アイコン、260aは視点280の位置と仮想空間画像270上における指標アイコン250aの位置とを通る直線と、現実空間モデル800との交点を示している。ここで、視線282は仮想空間画像270の中心位置を通っている。   The process in step S324 will be described in detail. FIG. 8 is a diagram illustrating processing for obtaining a position in the real space corresponding to the position of the index icon on the virtual space image. In the figure, 280 is the viewpoint, 282 is the line of sight of the viewpoint 280, 270 is the virtual space image, 250a is the index icon, 260a is a straight line passing through the position of the viewpoint 280 and the position of the index icon 250a on the virtual space image 270, An intersection with the space model 800 is shown. Here, the line of sight 282 passes through the center position of the virtual space image 270.

仮想空間画像270は、現実空間モデル800で表現される仮想空間を視点280から見た画像である。従って、260aの位置は、この位置と視点280の位置とを結ぶ直線と画像面(仮想空間画像270)との交点位置に投影される。この交点位置が250aの位置である。   The virtual space image 270 is an image obtained by viewing the virtual space represented by the real space model 800 from the viewpoint 280. Therefore, the position of 260a is projected to the intersection position between the straight line connecting this position and the position of the viewpoint 280 and the image plane (virtual space image 270). This intersection position is the position of 250a.

よって、視点280の位置と仮想空間画像270上における指標アイコン250aの位置とを通る直線と、現実空間モデル800との交点を求めれば、この交点の位置を、仮想空間画像270における指標アイコン250aの位置に対応する現実空間中の位置として求めることができる。ここで、求めた交点の座標位置は、仮想空間におけるものであるが、上述の通り、仮想空間と現実空間とは座標系を一致させているので、仮想空間において求めた座標値はそのまま現実空間における座標値とすることができる。   Therefore, if the intersection of the straight line passing through the position of the viewpoint 280 and the position of the index icon 250a on the virtual space image 270 and the real space model 800 is obtained, the position of this intersection is the position of the index icon 250a in the virtual space image 270. It can be obtained as a position in the real space corresponding to the position. Here, although the obtained coordinate position of the intersection is in the virtual space, as described above, the coordinate system of the virtual space and the real space is the same, so the coordinate value obtained in the virtual space is the real space as it is. It can be a coordinate value at.

このようにして、仮想空間画像270上における任意の点が、現実空間中のどの位置に対応するものであるのかを求めることができる。なお、交点を求める為の詳細な方法については広く一般に知られるところであり、詳細な説明はここでは省略する。   In this way, it is possible to determine to which position in the real space an arbitrary point on the virtual space image 270 corresponds. Note that a detailed method for obtaining the intersection is widely known, and a detailed description thereof is omitted here.

そしてステップS324で求めたそれぞれの指標アイコンの仮想空間画像上の位置に対応する現実空間中の位置を示すデータを保存する旨の指示がキーボード180やマウス190によって入力された場合には、CPU110はこれを検知して処理をステップS330を介してステップS332に進め、HDD130に保存する(ステップS332)。   When the instruction to save the data indicating the position in the real space corresponding to the position of each index icon obtained in step S324 in the virtual space image is input by the keyboard 180 or the mouse 190, the CPU 110 When this is detected, the process proceeds to step S332 via step S330, and is stored in the HDD 130 (step S332).

以上の説明により、本実施形態によって、実際に指標を現実空間に配置する前に、コンピュータ上で簡便な操作でもって現実空間における指標の配置をシミュレートすることができるので、結果として、指標の配置を行うまでの作業工程を軽減させることができる。   According to the above description, according to the present embodiment, the indicator placement in the real space can be simulated with a simple operation on the computer before the indicator is actually placed in the real space. It is possible to reduce the work process until the placement.

なお、本実施形態で説明したGUIの操作方法については上記限定するものではない。また、本実施形態では現実空間モデルはポリゴンでもって構成されているとして説明したが、これに限定するものではない。   Note that the GUI operation method described in this embodiment is not limited to the above. In the present embodiment, the real space model is described as being composed of polygons. However, the present invention is not limited to this.

[第2の実施形態]
本実施形態では、第1の実施形態で説明した現実空間における指標の配置位置の算出に加え、指標の形状をも求める。なお、このような処理を行うためのコンピュータについては第1の実施形態と同じものを用いるものとする。
[Second Embodiment]
In the present embodiment, in addition to the calculation of the index placement position in the real space described in the first embodiment, the index shape is also obtained. Note that the same computer as that of the first embodiment is used for such processing.

図9は、現実空間における指標の配置位置の算出に加え、指標の形状をも求める処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU110に実行させるためのプログラムやデータはHDD130に保存されており、これは必要に応じてCPU110による制御に従って適宜メモリ120にロードされるので、CPU110がロードされたプログラムやデータを用いて処理を行うことで、本コンピュータは以下説明する各処理を実行することになる。   FIG. 9 is a flowchart of processing for obtaining the shape of an index in addition to calculating the position of the index in the real space. Note that programs and data for causing the CPU 110 to execute the processing according to the flowchart of FIG. 10 are stored in the HDD 130 and are loaded into the memory 120 as needed under the control of the CPU 110 as necessary. By performing processing using the programmed program and data, the computer executes each processing described below.

先ず、上記ステップS310からステップS324の処理を行い、操作者が設定した各指標アイコンの現実空間における位置データをHDD130に保存する(ステップS400)。   First, the processing from step S310 to step S324 is performed, and the position data in the real space of each index icon set by the operator is stored in the HDD 130 (step S400).

ここで、上記処理で決定した指標配置位置に実際に指標を配置した現実空間を、上記視点の位置姿勢で配置した撮像装置によって撮像した場合に得られる指標画像には、1以上の指標が写っているのであるが、それぞれの指標は様々な形、サイズで写っている。以降の処理では、それぞれの指標は、撮像装置との距離、位置姿勢関係に関係なく、指標画像上では同じ形、サイズでもって写るように、それぞれの指標の形状(形、サイズ)を求める。   Here, the index image obtained when the real space in which the index is actually arranged at the index arrangement position determined in the above process is imaged by the imaging device arranged in the position and orientation of the viewpoint includes one or more indices. However, each index is reflected in various shapes and sizes. In the subsequent processing, the shape (shape, size) of each index is obtained so that each index appears in the same shape and size on the index image regardless of the distance to the imaging apparatus and the position and orientation relationship.

そのためには先ず、CPU110は表示装置170の表示画面上に、指標画像上で指標が写った場合に、全ての指標が写るべきサイズを入力するためのGUIを表示し、入力を待つ(ステップS402)。この入力は換言すれば、各指標が指標画像上で示す領域を設定することに相当する。本実施形態では、全ての指標は指標画像上で円形として写るとするので、入力すべき情報はこの円の面積とする。   For this purpose, first, the CPU 110 displays on the display screen of the display device 170 a GUI for inputting the size to which all the indices should be captured when the indices are captured on the index image, and waits for input (step S402). ). In other words, this input corresponds to setting an area indicated by each index on the index image. In the present embodiment, since all indexes appear as circles on the index image, the information to be input is the area of this circle.

図10は、指標画像上で指標が写った場合に、全ての指標が写るべきサイズを入力するためのGUIの表示例を示す図で、操作者はキーボード180やマウス190を用いて領域1001に所望のサイズを示す数値(本実施形態では円の面積)を入力する。そして入力後、ボタン画像1002を指示すると、CPU110はこれを検知し、処理をステップS404に進め、それぞれの指標が指標画像上でステップS402で入力された面積の円でもって表示されるように、それぞれの指標の形状を求める(ステップS404)。   FIG. 10 is a diagram showing a GUI display example for inputting the size at which all indices should be captured when the indices are captured on the index image. The operator uses the keyboard 180 and the mouse 190 to enter the area 1001. A numerical value indicating the desired size (in this embodiment, the area of a circle) is input. When the button image 1002 is instructed after input, the CPU 110 detects this, advances the processing to step S404, and displays each index as a circle of the area input in step S402 on the index image. The shape of each index is obtained (step S404).

ステップS404における処理の詳細について説明する。図11は、指標画像の一例を示す図である。同図に示す如く、画像上には4つの指標1101〜1104が写っているが、どれも視点との距離、位置姿勢関係が異なるため、サイズ、形が異なって写っている。これでは、例え指標を十分な大きさで作成したつもりであっても、画像上で指標と見なすための閾値を下回る為に、撮像装置位置姿勢推定に使えない可能性もある。また、撮像装置の視線方向と指標の設置される現実空間物体上の平面が正対していないかぎり、指標画像上の見かけの指標は歪んでしまう。撮像装置位置姿勢推定アルゴリズムにおいてほとんどの場合、指標の位置は指標画像における領域の重心で決定されることが多いが、この重心を領域から求める場合、歪んでいると誤差の原因となる。   Details of the processing in step S404 will be described. FIG. 11 is a diagram illustrating an example of the index image. As shown in the figure, four indicators 1101 to 1104 are shown on the image, but they are different in size and shape because they are different in distance and position / posture relationship from the viewpoint. In this case, even if the index is intended to be created with a sufficient size, it may not be used for estimating the position and orientation of the imaging apparatus because it falls below a threshold value to be regarded as an index on the image. In addition, the apparent index on the index image is distorted unless the line-of-sight direction of the imaging apparatus and the plane on the real space object on which the index is set face each other. In most cases in the imaging apparatus position / orientation estimation algorithm, the position of the index is often determined by the center of gravity of the area in the index image. However, when this center of gravity is obtained from the area, distortion may cause an error.

本実施形態ではこのことに鑑み、それぞれの指標の形状を、全て同じサイズ、同じ形で指標画像上に写るように、予め求めておき、求めた形状で指標を作成し、現実空間に配置する。   In this embodiment, in view of this, the shape of each index is obtained in advance so that it is reflected on the index image with the same size and the same shape, and the index is created with the obtained shape and arranged in the real space. .

図12は、ステップS404で形状が決まったそれぞれの指標を現実空間中に配置した場合に、指標画像上に移る指標を示す図である。同図において1201から1204はそれぞれ指標画像上に写っている指標で、同図に示す如く、それぞれの指標は全て同じサイズ、形で写っている。   FIG. 12 is a diagram showing indices that move onto the index image when the indices whose shapes are determined in step S404 are arranged in the real space. In the figure, reference numerals 1201 to 1204 denote indices shown on the index image. As shown in the figure, each index is shown in the same size and shape.

以下では、ステップS404における処理の詳細について説明する。   Details of the process in step S404 will be described below.

図13は、指標画像上で所望のサイズの円で表示される指標と撮像装置との関係を示す図である。同図においてPeは撮像装置(視点)、dは視点Peの視線、mは指標画像面、Cは指標画像面mの中心位置で、指標画像面mと視線dとの交点位置でもある。Wは所望のサイズの円で表示されている指標の表示領域、Mcは表示領域Wの中心位置、Mrは表示領域Wの半径、P1,P2,、、Pnはそれぞれ、表示領域Wの円周(輪郭)上に均等に配置された有限個数の点を示す。この点の数については特に限定するものではないが、多いほど最終的に得られる「指標の形状」をより正確に求めることができる。   FIG. 13 is a diagram illustrating a relationship between an index displayed in a circle of a desired size on the index image and the imaging device. In the figure, Pe is the imaging device (viewpoint), d is the line of sight of the viewpoint Pe, m is the index image plane, C is the center position of the index image plane m, and is also the intersection position of the index image plane m and the line of sight d. W is a display area of an index displayed in a circle of a desired size, Mc is the center position of the display area W, Mr is a radius of the display area W, P1, P2,. A finite number of points arranged uniformly on (contour) are shown. The number of points is not particularly limited, but the more the number of points, the more finally obtained “index shape” can be obtained more accurately.

CPU110は先ず、視点PeとP1,P2,、、Pnのそれぞれとを結ぶ線分PeP1、PeP2、、、PePnを求める。   First, the CPU 110 obtains line segments PeP1, PeP2,... PePn connecting the viewpoint Pe and each of P1, P2,.

図14は、線分PeP1、PeP2、、、PePnのそれぞれを延長した場合に、現実空間モデルと生ずる交点を示す図である。同図においてpはこの交点の存在するポリゴンを示す。   FIG. 14 is a diagram illustrating intersections that occur with the real space model when each of the line segments PeP1, PeP2,... PePn is extended. In the figure, p indicates a polygon where this intersection exists.

そして、第1の実施形態で用いた「線分と現実空間モデルとの交点を求める方法」を用いれば、線分PeP1と現実空間モデル(同図ではポリゴンp)との交点はP1’、線分PeP2と現実空間モデルとの交点はP2’、、、線分PePnと現実空間モデルとの交点はPn’として求めることができる。そして、P1’、P2’、、、Pn’を順に繋ぐと、同図m’で示す領域が得られる。この領域が、領域Wを現実空間に投影した領域に相当するものである。また、この領域m’の中心Mc’は、Mcを現実空間中に投影した位置にあるものである。このように、指標画像上における点を現実空間中に投影する処理については第1の実施形態で説明しているので、これに関する説明は省略する。   If the “method for obtaining the intersection of the line segment and the real space model” used in the first embodiment is used, the intersection point of the line segment PeP1 and the real space model (polygon p in the figure) is P1 ′, The intersection point between the segment PeP2 and the real space model can be obtained as P2 ′, and the intersection point between the line segment PePn and the real space model can be obtained as Pn ′. Then, when P1 ', P2', and Pn 'are connected in order, a region shown by m' is obtained. This area corresponds to an area obtained by projecting the area W into the real space. Further, the center Mc 'of the region m' is at the position where Mc is projected in the real space. Thus, since the process which projects the point on a parameter | index image in real space has been demonstrated in 1st Embodiment, the description regarding this is abbreviate | omitted.

よって、現実空間中にP1’、P2’、、、Pn’に相当する点を設け、それぞれの点を順に繋ぐことで得られる領域m’を指標として用いれば、この指標は指標画像上では領域Wとして写る。   Therefore, if a point corresponding to P1 ′, P2 ′,... Pn ′ is provided in the real space and an area m ′ obtained by sequentially connecting the points is used as an index, this index is an area on the index image. It appears as W.

このような処理をその他の指標についても同様にして行うことで、それぞれの指標が領域Wと同様の形状でもって指標画像上に写るように、それぞれの指標の形状を求めることができる。   By performing such processing for other indexes in the same manner, the shape of each index can be obtained so that each index appears on the index image with the same shape as the region W.

従ってステップS404では、表示装置170の表示画面上に表示されている仮想空間画像上の指標アイコンの位置にステップS402で指示された面積を有する円領域を設定し、この円領域の円周上に複数点を設定し、視点の位置から円領域の円周上に設定したそれぞれの点に向かう直線と現実空間モデルとの交点を求める。求めたそれぞれの交点の位置データは、この指標アイコンが示す指標の形状データである。   Accordingly, in step S404, a circular area having the area indicated in step S402 is set at the position of the index icon on the virtual space image displayed on the display screen of the display device 170, and on the circumference of this circular area. A plurality of points are set, and intersection points between the straight line from the viewpoint position and each point set on the circumference of the circular area and the real space model are obtained. The obtained position data of each intersection is the shape data of the index indicated by the index icon.

なお、図15に示すように、Mc’を通る水平線、鉛直線のpへの射影hlineおよびvline、hlineおよびvlineと指標輪郭の射影との交点Pv1’、Pv2’、Ph1’、Ph2’を計算し、図16に示すように指標の印刷画像上に印字すれば正確な姿勢で指標を設置することが可能である。   As shown in FIG. 15, the projections hline and vline, hline and vline on the horizontal and vertical lines passing through Mc ′ and the projections of the index contours Pv1 ′, Pv2 ′, Ph1 ′ and Ph2 ′ are calculated. However, as shown in FIG. 16, if the index is printed on the printed image, the index can be set with an accurate posture.

図9に戻って、ステップS404で求めたそれぞれの指標の形状を示すデータを保存する旨の指示がキーボード180やマウス190によって入力された場合には、CPU110はこれを検知して処理をステップS430を介してステップS432に進め、HDD130に保存する(ステップS432)。なお、保存するのはここでは位置データそのものであるが、これに限定するものではなく、上記説明の場合には領域m’を特定するデータであれば、その他の情報であっても良い。   Returning to FIG. 9, when an instruction to save the data indicating the shape of each index obtained in step S404 is input by the keyboard 180 or the mouse 190, the CPU 110 detects this and performs the process in step S430. Then, the process proceeds to step S432 and is stored in the HDD 130 (step S432). Note that what is stored here is the position data itself. However, the present invention is not limited to this, and in the case of the above description, other information may be used as long as the data specifies the region m ′.

よって、得られた形状データを用いて指標を作成する場合には、形状データが示す点群の位置データを用いて重心位置、重心位置を通る水平線、鉛直線を印した指標の画像を作成し、これを紙に印字したものを、計算された位置姿勢に設置してやれば良い。   Therefore, when creating an index using the obtained shape data, an image of the index with the center of gravity position, the horizontal line passing through the center of gravity position, and the vertical line is created using the position data of the point cloud indicated by the shape data. What is necessary is just to install what printed this on the paper in the calculated position and orientation.

また、全ての指標が均等の大きさでもって指標画像上に表示されるので、指標画像から指標らしきものが検出されても、この均等の大きさ以下であれば指標ではないと判断することができ、画像にノイズが付加されていても、問題なく対応することができる。   In addition, since all indexes are displayed on the index image with an equal size, even if an index-like object is detected from the index image, it can be determined that the index is not an index if the size is equal to or less than this equal size. Even if noise is added to the image, it can be handled without any problem.

なお、本実施形態では指標の形状は円形であるとして説明したが、円形に限定するものではない。また、本実施形態では指標画像上に写る指標の表示サイズの入力を数値入力でもって行うようにしたが、これに限定するものではなく、例えば、仮想空間画像上において指標アイコンの位置を含む領域を「指標が写る領域」として直接マウス190等でもって指定するようにしても良い。   In this embodiment, the shape of the index is described as being circular, but is not limited to being circular. Further, in the present embodiment, the display size of the index shown on the index image is input by numerical input. However, the present invention is not limited to this, for example, an area including the position of the index icon on the virtual space image. May be designated directly with the mouse 190 or the like as the “region where the index is shown”.

[第3の実施形態]
第1,2の実施形態では、撮像装置の位置姿勢が固定されているとして、指標の配置位置やその形状を求めていた。これにより、撮像装置の位置姿勢が固定されている場合には、その位置姿勢推定の精度を高めることができた。
[Third Embodiment]
In the first and second embodiments, the position and shape of the index are obtained assuming that the position and orientation of the imaging device are fixed. As a result, when the position and orientation of the imaging apparatus are fixed, the accuracy of the position and orientation estimation can be improved.

本実施形態では撮像装置がある範囲内でもって位置姿勢を変更する場合であっても、この撮像装置の位置姿勢推定精度を均一にする。なお、本実施形態で用いるコンピュータについては第1の実施形態と同じものを用いる。   In the present embodiment, even when the position and orientation are changed within a certain range, the position and orientation estimation accuracy of the imaging device is made uniform. Note that the computer used in the present embodiment is the same as that in the first embodiment.

なお、本実施形態では撮像装置の位置姿勢可動範囲については説明を容易にするために、連続値ではなく離散的な有限の値(図18に示すように、3組の位置姿勢(位置:Ei(i=1,2,3)、姿勢EiP(i=1,2,3))の場合について説明する。   In this embodiment, the position / orientation movable range of the imaging apparatus is not a continuous value but a discrete finite value (as shown in FIG. 18, three sets of position / orientation (position: Ei). The case of (i = 1, 2, 3) and posture EiP (i = 1, 2, 3)) will be described.

なお、上述した場合は明らかに離散値であるが、位置Ei(i=1,2,3,,,n)姿勢EiPj(i=1,2,3,,,n,j=1,2,3,,,m)として、n、mを十分大きな数にすれば離散間隔が小さくなり、実質的には連続的な可動範囲で位置姿勢推定精度を均一にすることが可能である。   In the case described above, it is clearly a discrete value, but the position Ei (i = 1, 2, 3,... N) posture EiPj (i = 1, 2, 3,..., N, j = 1, 2, (3,...) M), if n and m are made sufficiently large, the discrete interval becomes small, and the position and orientation estimation accuracy can be made uniform in a substantially continuous movable range.

図17は、撮像装置がある範囲内でもって位置姿勢を変更する場合であっても、この撮像装置の位置姿勢推定精度を均一にする為に行う処理のフローチャートである。なお、同図のフローチャートに従った処理をCPU110に実行させるためのプログラムやデータはHDD130に保存されており、これは必要に応じてCPU110による制御に従って適宜メモリ120にロードされるので、CPU110がロードされたプログラムやデータを用いて処理を行うことで、本コンピュータは以下説明する各処理を実行することになる。   FIG. 17 is a flowchart of processing performed to make the position and orientation estimation accuracy of the imaging apparatus uniform even when the position and orientation are changed within a certain range. Note that programs and data for causing the CPU 110 to execute the processing according to the flowchart of FIG. 10 are stored in the HDD 130 and are loaded into the memory 120 as needed under the control of the CPU 110 as necessary. By performing processing using the programmed program and data, the computer executes each processing described below.

先ず、上記ステップS310における処理と同様にして、現実空間モデルのデータをメモリ120にロードする(ステップS410)。次に、図4に示すようなGUIを用いて、撮像装置の位置の入力を受け付ける(ステップS414)。例えば、操作者がアイコン210の位置を所望の位置に移動させ、そこでキーボード180やマウス190の所定のボタンを押下すると、CPU110はこれを検知して、そのときの撮像装置の位置を示すデータをメモリ120に登録する。このような処理を複数回行えば、メモリ120には撮像位置を示すデータが複数個登録されていることになる。   First, the real space model data is loaded into the memory 120 in the same manner as the processing in step S310 (step S410). Next, an input of the position of the imaging device is received using a GUI as shown in FIG. 4 (step S414). For example, when the operator moves the position of the icon 210 to a desired position and then presses a predetermined button on the keyboard 180 or the mouse 190, the CPU 110 detects this, and provides data indicating the position of the imaging device at that time. Register in the memory 120. If such processing is performed a plurality of times, a plurality of pieces of data indicating the imaging position are registered in the memory 120.

次に、操作者はこのGUIにおいて、撮像対象とする点を1つ指示するので、CPU110は、ステップS414で設定したそれぞれの撮像位置からこの1点を見るための姿勢を計算し、計算したそれぞれの姿勢を示すデータをメモリ120に登録する(ステップS415)。以上のようにして複数組の撮像位置姿勢をメモリ120に登録するのであるが、その登録形態については特に限定するものではない。   Next, since the operator designates one point to be imaged in this GUI, the CPU 110 calculates an orientation for viewing this one point from each imaging position set in step S414, and calculates each calculated point. Is registered in the memory 120 (step S415). As described above, a plurality of sets of imaging positions and orientations are registered in the memory 120, but the registration form is not particularly limited.

本実施形態ではメモリ120には、撮像装置の位置の可動範囲Ei(i=1,2,3)、姿勢の可動範囲EiP(i=1,2,3)が登録されたことになる。   In this embodiment, the movable range Ei (i = 1, 2, 3) of the position of the imaging apparatus and the movable range EiP (i = 1, 2, 3) of the posture are registered in the memory 120.

次に、CPU110は、それぞれの位置姿勢から見える現実空間モデルの画像(仮想空間の画像)を生成し、表示装置170の表示画面上に表示する(ステップS416)。図19はそれぞれの位置姿勢から見える現実空間モデルの画像V1,V2,V3を示す図で、それぞれの画像V1〜V3は、表示装置170の表示画面上に一覧表示される。   Next, the CPU 110 generates an image of the real space model (virtual space image) that can be seen from each position and orientation, and displays it on the display screen of the display device 170 (step S416). FIG. 19 is a diagram showing real space model images V 1, V 2, and V 3 that can be seen from the respective positions and orientations. Each of the images V 1 to V 3 is displayed as a list on the display screen of the display device 170.

次に、操作者は、それぞれの画像上に、第1の実施形態で説明した操作方法でもって、指標アイコンを配置したり、移動させたり、削除したり等の操作を行うことができるので、CPU110はこの操作を受け付け、それぞれの指標アイコンの位置データをメモリ120内に管理する(ステップS418)。   Next, the operator can perform operations such as placing, moving, and deleting the index icon on each image by the operation method described in the first embodiment. The CPU 110 accepts this operation, and manages the position data of each index icon in the memory 120 (step S418).

そして、ステップS418でメモリ120に関している各指標アイコンの仮想空間画像上の位置に、指標アイコンを表示する(ステップS420)。   In step S418, the index icon is displayed at the position on the virtual space image of each index icon related to the memory 120 (step S420).

ここで、操作者が画像V1上に指標アイコンを配置したり、配置した指標アイコンの位置を移動させたりすると、CPU110は上記ステップS324における処理と同様の処理を行い、この指標アイコンの画像V1上における位置に対応する、現実空間中の位置を求める(ステップS418)。そして、求めた位置を画像V2,V3のそれぞれの画像面に投影し、画像V2、V3内に投影される場合には、この投影された位置に、指標アイコンを表示する(ステップS420)。   Here, when the operator places an index icon on the image V1 or moves the position of the placed index icon, the CPU 110 performs the same processing as the processing in step S324, and the index icon on the image V1. The position in the real space corresponding to the position at is obtained (step S418). Then, the obtained position is projected on the image planes of the images V2 and V3, and when projected into the images V2 and V3, an index icon is displayed at the projected position (step S420).

即ち、1つの画像内に指標アイコンを配置した場合に、配置した指標アイコンに対応する現実空間中の位置が他の画像にも写り得る場合には、写る位置に指標アイコンを配置する。   That is, when an index icon is arranged in one image and the position in the real space corresponding to the arranged index icon can be reflected in other images, the index icon is arranged at the position where the index icon appears.

これは指標アイコンを削除した場合についても同様で、1つの画像内で指標アイコンを削除すると、削除した指標アイコンの現実空間中における位置を求め、求めた位置をその他の画像の画像面に投影した場合に、画像内に投影される場合には、この投影された位置に表示されている指標アイコンを削除する。   The same applies to the case where the index icon is deleted. When the index icon is deleted in one image, the position of the deleted index icon in the real space is obtained, and the obtained position is projected on the image plane of the other image. In this case, when the image is projected in the image, the index icon displayed at the projected position is deleted.

図20は、現実空間とそれぞれの画像V1〜V3との関係を示す図である。このように、ある位置姿勢E1,E1Pで撮像した画像上に設置した指標が、他の位置姿勢E2、E2P、E3、E3Pで撮像した画像でどの位置に見えるのかを確認することができる。   FIG. 20 is a diagram illustrating the relationship between the real space and the images V1 to V3. In this way, it is possible to confirm in which position an index placed on an image captured at a certain position / orientation E1, E1P appears in an image captured at another position / orientation E2, E2P, E3, E3P.

図17に戻って、次に、仮想空間画像上における指標の設定を終了する旨の操作、例えば、マウス190をダブルクリックする操作を検知すると、処理をステップS422を介してステップS424に進めるが、検知していない限りはステップS418、S420の処理を繰り返す。   Returning to FIG. 17, when an operation for ending the setting of the index on the virtual space image, for example, an operation of double-clicking the mouse 190 is detected, the process proceeds to step S424 via step S422. Unless detected, the processes of steps S418 and S420 are repeated.

次に、それぞれの画像V1〜V3について、指標配置評価指数を求める(ステップS424)。指標配置評価指数は、画像内における指標のばらつきの度合いを示すものであり、画像内における指標アイコンの配置位置を(xk、yk)、k=1,2,、、nとすると、以下の式で定義される。 Next, an index arrangement evaluation index is obtained for each of the images V1 to V3 (step S424). The index arrangement evaluation index indicates the degree of variation of the index in the image. If the index icon arrangement position in the image is (x k , y k ), k = 1, 2,. It is defined by the formula of

n
D=Σ{(xk−xl)+(yk−yl)}
k,l=1
この指標配置評価指数は画像内におけるそれぞれの指標アイコン同士の距離の総和値であり、Dの値が大きいほど、画像内に配置されたそれぞれの指標アイコンはばらついており、逆にDの値が小さいほど、画像内に配置されたそれぞれの指標アイコンは密に配置されていることになる。
n
D = Σ {(x k −x l ) + (y k −y l )}
k, l = 1
This index arrangement evaluation index is the total value of the distances between the index icons in the image. The larger the value of D, the more the index icons arranged in the image vary. The smaller the indicator icons, the denser the indicator icons arranged in the image.

そして、計算した指標配置評価指数を画像の近傍位置に表示する(ステップS426)。即ち、画像V1について求めた指標配置評価指数D1を画像V1の表示位置近傍に表示し、画像V2について求めた指標配置評価指数D2を画像V2の表示位置近傍に表示し、画像V3について求めた指標配置評価指数D3を画像V3の表示位置近傍に表示する。   Then, the calculated index arrangement evaluation index is displayed in the vicinity of the image (step S426). That is, the index arrangement evaluation index D1 obtained for the image V1 is displayed in the vicinity of the display position of the image V1, the index arrangement evaluation index D2 obtained for the image V2 is displayed in the vicinity of the display position of the image V2, and the index obtained for the image V3. The arrangement evaluation index D3 is displayed near the display position of the image V3.

ここで、それぞれの指標配置評価指数D1〜D3同士の値が近い値である場合(換言すれば、それぞれの指標配置評価指数D1〜D3が所定の範囲内に収まっている場合)は、どの位置姿勢から見ても、画像内における指標の均一性があまり変わらないことを示している。   Here, when the values of the respective index arrangement evaluation indices D1 to D3 are close to each other (in other words, when the respective index arrangement evaluation indices D1 to D3 are within a predetermined range), which position This shows that the uniformity of the index in the image does not change much even when viewed from the posture.

よって、操作者は表示装置170の表示画面上に表示されているそれぞれの指標配置評価指数D1〜D3を見て均一性を判断し、更なる均一性が必要であると判断した場合には所望の均一性を得るべく、指標アイコンを更に配置したり配置済みのものを移動させたりして、再度指標配置評価指数を得、これを見て判断するといった操作を繰り返す。   Therefore, the operator determines the uniformity by looking at the respective index arrangement evaluation indices D1 to D3 displayed on the display screen of the display device 170, and is desired when it is determined that further uniformity is necessary. In order to obtain the uniformity, the index icons are further arranged or the arranged ones are moved to obtain the index arrangement evaluation index again, and the operation of judging by looking at this is repeated.

よって、CPU110は、操作者に対して均一性を数値として報知すべく、それぞれの指標配置評価指数D1〜D3同士の差を計算して表示装置170の表示画面上に表示するようにしても良いし、それぞれの指標配置評価指数D1〜D3が所定範囲内に収まっている場合には、その旨を表示装置170の表示画面上に表示することで報知するようにしても良い。なお、報知形態についてはこのほかにも音声を用いたものも考えられ、特に限定するものではない。   Therefore, the CPU 110 may calculate the difference between the index placement evaluation indices D1 to D3 and display the difference on the display screen of the display device 170 in order to notify the operator of the uniformity as a numerical value. And when each index arrangement | positioning evaluation index | exponent D1-D3 is settled in the predetermined range, you may make it alert | report by displaying that on the display screen of the display apparatus 170. FIG. In addition, about the alerting | reporting form, what used the audio | voice other than this can also be considered and it does not specifically limit.

よってCPU110は、指標アイコンの配置や移動、削除を行う処理を行う限りは処理をステップS418〜ステップS426の処理を繰り返すのであるが、このような処理の終了する旨の操作がキーボード180やマウス190を用いて入力され、且つこの時点でメモリ120に管理されている全ての指標の位置データを保存する旨の指示が入力された場合には、これを検知し、処理をステップS428,S440を介してステップS442に進め、この時点でメモリ120に管理されている全ての指標の位置データをHDD130に保存する(ステップS442)。   Therefore, the CPU 110 repeats the processing from step S418 to step S426 as long as the processing for arranging, moving, and deleting the index icon is performed. However, the operation to end such processing is performed by the keyboard 180 and the mouse 190. When an instruction to save the position data of all the indices managed in the memory 120 at this time is input, this is detected and the process is performed via steps S428 and S440. Then, the process proceeds to step S442, and the position data of all the indices managed in the memory 120 at this time are stored in the HDD 130 (step S442).

なお、本実施形態に係る処理は上記第2の実施形態と組み合わせても良く、例えば、1つの画像に対する指標の配置処理を様々な位置姿勢を有する視点からの画像に対して行った後、それぞれの画像に対して配置した指標の移動や削除、新たなる指標の配置など、指標の編集を行うようにしても良い。   The processing according to the present embodiment may be combined with the second embodiment. For example, after the index placement processing for one image is performed on images from viewpoints having various positions and orientations, The index may be edited, such as movement or deletion of the index placed on the image, or placement of a new index.

[第4の実施形態]
図21は、本実施形態に係るコンピュータのハードウェア構成を示す図で、同図に示す如く、本実施形態に係るコンピュータには、図1に示した第1の実施形態に係るコンピュータの構成に画像読み取り部140を加え、この画像読み取り部140に撮像装置160を接続する。
[Fourth Embodiment]
FIG. 21 is a diagram illustrating a hardware configuration of the computer according to the present embodiment. As illustrated in FIG. 21, the computer according to the present embodiment includes the configuration of the computer according to the first embodiment illustrated in FIG. 1. An image reading unit 140 is added, and the imaging device 160 is connected to the image reading unit 140.

撮像装置160は複数のレンズを有するステレオカメラ装置であり、撮影と共に撮影した画像上の被写体までの距離を取得することが可能な装置である。この距離と画像から自動的に現実空間モデルデータを作成する。作成するための具体的方法としては一般的に利用されている技術を用いればよい。また本実施形態ではステレオカメラ装置を想定したが、これに限られるものではなく、レーザースキャナーのような装置を使ってもよいもののとする。   The imaging device 160 is a stereo camera device having a plurality of lenses, and is a device capable of acquiring a distance to a subject on an image taken together with photographing. Real space model data is automatically created from this distance and image. As a specific method for creating, a generally used technique may be used. In this embodiment, a stereo camera device is assumed. However, the present invention is not limited to this, and a device such as a laser scanner may be used.

このようにして生成された現実空間モデルデータを利用することで、現実空間モデルデータを作成する際に必要となる現実空間の実測、データ入力の工程を行う必要がなくなり、労力を軽減することができる。   By using the real space model data generated in this way, it is not necessary to perform the actual space actual measurement and data input steps required when creating the real space model data, thereby reducing labor. it can.

また、上記各実施形態によって、事前に指標設置位置、寸法、形状を検討することが可能になり、カメラ設置現場の占有を不要にする効果が得られる。これは特に、複数の業者が入り混じって一斉に作業を行い、設置及び設定のための時間制約が厳しい展示会やイベントなどの会場に設置する場合に有効である。   In addition, according to each of the above-described embodiments, it is possible to examine the index installation position, dimensions, and shape in advance, and the effect of making it unnecessary to occupy the camera installation site is obtained. This is particularly effective when a plurality of vendors work together and work at the same time, and are set up at a venue such as an exhibition or event where time constraints for installation and setting are severe.

[その他の実施形態]
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Also, an object of the present invention is to supply a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded to a system or apparatus, and the computer (or CPU or Needless to say, this can also be achieved when the MPU) reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the recording medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係る画像処理装置として機能するコンピュータのハードウェア構成を示すブロック図である。1 is a block diagram illustrating a hardware configuration of a computer that functions as an image processing apparatus according to a first embodiment of the present invention. 現実空間中に配置する指標の配置位置を求める処理のフローチャートである。It is a flowchart of the process which calculates | requires the arrangement position of the parameter | index arrange | positioned in real space. 仮想空間中に配置する視点の位置姿勢を入力するためのGUIの表示例を示す図である。It is a figure which shows the example of a display of GUI for inputting the position and orientation of the viewpoint arrange | positioned in virtual space. 視点の位置姿勢をアイコンでもって設定するためのGUIの表示例を示す図である。It is a figure which shows the example of a display of GUI for setting the position and orientation of a viewpoint with an icon. 視点の位置姿勢をアイコンでもって設定するためのGUIの表示例を示す図である。It is a figure which shows the example of a display of GUI for setting the position and orientation of a viewpoint with an icon. ステップS316で生成する仮想空間の画像の一例を示す図である。It is a figure which shows an example of the image of the virtual space produced | generated by step S316. 仮想空間画像上で4カ所クリックした場合の表示例を示す図である。It is a figure which shows the example of a display when four places are clicked on a virtual space image. 仮想空間画像上における指標アイコンの位置に対応する現実空間中の位置を求める処理を説明する図である。It is a figure explaining the process which calculates | requires the position in the real space corresponding to the position of the index icon on a virtual space image. 現実空間における指標の配置位置の算出に加え、指標の形状をも求める処理のフローチャートである。It is a flowchart of the process which calculates | requires the shape of a parameter | index in addition to calculation of the arrangement | positioning position of the parameter | index in real space. 指標画像上で指標が写った場合に、全ての指標が写るべきサイズを入力するためのGUIの表示例を示す図である。It is a figure which shows the example of a display of GUI for inputting the size which should show all the indices, when an index is reflected on an index image. 指標画像の一例を示す図である。It is a figure which shows an example of a parameter | index image. ステップS404で形状が決まったそれぞれの指標を現実空間中に配置した場合に、指標画像上に移る指標を示す図である。It is a figure which shows the parameter | index which moves on a parameter | index image when each parameter | index determined in step S404 is arrange | positioned in real space. 指標画像上で所望のサイズの円で表示される指標と撮像装置との関係を示す図である。It is a figure which shows the relationship between the parameter | index displayed with the circle | round | yen of desired size on an parameter | index image, and an imaging device. 線分PeP1、PeP2、、、PePnのそれぞれを延長した場合に、現実空間モデルと生ずる交点を示す図である。It is a figure which shows the intersection which arises with a real space model when each of line segment PeP1, PeP2, and PePn is extended. Mc’を通る水平線、鉛直線のpへの射影hlineおよびvline、hlineおよびvlineと指標輪郭の射影との交点Pv1’、Pv2’、Ph1’、Ph2’を示す図である。It is a figure which shows the intersection Pv1 ', Pv2', Ph1 ', Ph2' of the projection of hline and vline, hline and vline, and the projection of an index outline to p of the horizontal line and vertical line which pass through Mc '. 指標の印刷画像の一例を示す図である。It is a figure which shows an example of the printing image of a parameter | index. 撮像装置がある範囲内でもって位置姿勢を変更する場合であっても、この撮像装置の位置姿勢推定精度を均一にする為に行う処理のフローチャートである。10 is a flowchart of processing performed to make the position and orientation estimation accuracy of the imaging apparatus uniform even when the position and orientation are changed within a certain range. 3組の位置姿勢を説明する図である。It is a figure explaining three sets of position and orientation. それぞれの位置姿勢から見える現実空間モデルの画像V1,V2,V3を示す図である。It is a figure which shows the image V1, V2, V3 of the real space model visible from each position and orientation. 現実空間とそれぞれの画像V1〜V3との関係を示す図である。It is a figure which shows the relationship between real space and each image V1-V3. 本発明の第4の実施形態に係るコンピュータのハードウェア構成を示す図である。It is a figure which shows the hardware constitutions of the computer which concerns on the 4th Embodiment of this invention.

Claims (9)

現実空間を模した仮想空間を、当該現実空間中に定義された座標系に一致させて設定した場合に、所望の視点から見た当該仮想空間の画像を生成する生成工程と、
前記生成工程で生成した画像を所定の表示画面上に表示する表示工程と、
前記画像上で、指標を配置する箇所を指示する位置指示工程と、
前記画像上で指示された位置に対応する前記現実空間中の位置を求める第1の計算工程と、
前記指標が前記画像上で占める領域を設定する設定工程と、
前記設定工程で設定した領域に対応する前記現実空間中の領域を求める第2の計算工程と、
前記計算工程で計算した位置を示すデータ、及び前記第2の計算工程で計算した領域を示すデータをメモリに格納する格納工程と
を備えることを特徴とする画像処理方法。
A generation step of generating an image of the virtual space viewed from a desired viewpoint when a virtual space imitating the real space is set to match the coordinate system defined in the real space;
A display step of displaying the image generated in the generation step on a predetermined display screen;
On the image, a position indicating step for indicating a position where an index is arranged;
A first calculation step of obtaining a position in the real space corresponding to the position indicated on the image;
A setting step for setting an area occupied by the index on the image;
A second calculation step for obtaining a region in the real space corresponding to the region set in the setting step;
An image processing method comprising: a storage step of storing data indicating a position calculated in the calculation step and data indicating a region calculated in the second calculation step in a memory.
前記第1の計算工程では、前記視点の位置と前記画像上で指示された位置とを結ぶ直線と前記仮想空間との交点位置を求め、
前記格納工程では、前記第1の計算工程で求めた当該交点位置を、前記画像上で指示された位置に対応する前記現実空間中の位置として前記メモリに格納することを特徴とする請求項1に記載の画像処理方法。
In the first calculation step, an intersection position between the virtual space and a straight line connecting the position of the viewpoint and the position designated on the image is obtained,
2. The storage step stores the intersection point obtained in the first calculation step in the memory as a position in the real space corresponding to the position indicated on the image. An image processing method described in 1.
前記第2の計算工程では、
前記画像上における前記指標の輪郭上に有限個数の点を設定する点設定工程と、
前記点設定工程で設定した点と前記視点とを結ぶ直線と、前記仮想空間との交点を求める処理を、前記輪郭上のそれぞれの点について行う交点計算工程とを備え、
前記格納工程では、前記交点計算工程が求めた交点群で表現される形状の領域を、前記設定工程で設定した領域に対応する前記現実空間中の領域とすべく、前記交点計算工程が求めたそれぞれの交点の位置を示すデータを前記メモリに格納することを特徴とする請求項1又は2に記載の画像処理方法。
In the second calculation step,
A point setting step of setting a finite number of points on the contour of the index on the image;
An intersection calculation step of performing a process for obtaining an intersection between the virtual space and the straight line connecting the point set in the point setting step and the viewpoint, for each point on the contour,
In the storing step, the intersection calculation step has been determined so that a region represented by the intersection group obtained in the intersection calculation step is a region in the real space corresponding to the region set in the setting step. 3. The image processing method according to claim 1, wherein data indicating the position of each intersection is stored in the memory.
それぞれの位置姿勢で撮像して複数枚の画像を取得する取得工程と、
画像内に写っているそれぞれの指標の当該画像内におけるばらつきの度合いを計算する処理をそれぞれの画像について行う計算工程と、
それぞれの画像について求めたばらつきの度合いを報知する第1の報知工程と
を備えることを特徴とする画像処理方法。
An acquisition step of capturing images at each position and orientation to acquire a plurality of images;
A calculation step of performing processing for each image for calculating the degree of variation in each image of each index shown in the image;
An image processing method comprising: a first notification step of notifying a degree of variation obtained for each image.
更に、それぞれの画像について求めたばらつきの度合いが所定範囲内に収まっている場合には、その旨を報知する第2の報知工程を備えることを特徴とする請求項4に記載の画像処理方法。   The image processing method according to claim 4, further comprising a second notification step of notifying that when the degree of variation obtained for each image is within a predetermined range. 現実空間を模した仮想空間を、当該現実空間中に定義された座標系に一致させて設定した場合に、所望の視点から見た当該仮想空間の画像を生成する生成手段と、
前記生成手段が生成した画像を表示する表示手段と、
前記画像上で、指標を配置する箇所を指示する位置指示手段と、
前記画像上で指示された位置に対応する前記現実空間中の位置を求める第1の計算手段と、
前記指標が前記画像上で占める領域を設定する設定手段と、
前記設定手段が設定した領域に対応する前記現実空間中の領域を求める第2の計算手段と、
前記計算手段が計算した位置を示すデータ、及び前記第2の計算手段が計算した領域を示すデータを格納する格納手段と
を備えることを特徴とする画像処理装置。
Generating means for generating an image of the virtual space viewed from a desired viewpoint when a virtual space imitating the real space is set to coincide with a coordinate system defined in the real space;
Display means for displaying the image generated by the generating means;
On the image, position indicating means for indicating a position where an index is arranged;
First calculating means for obtaining a position in the real space corresponding to the position indicated on the image;
Setting means for setting an area occupied by the index on the image;
Second calculating means for obtaining an area in the real space corresponding to the area set by the setting means;
An image processing apparatus comprising: storage means for storing data indicating a position calculated by the calculation means and data indicating an area calculated by the second calculation means.
それぞれの位置姿勢で撮像して複数枚の画像を取得する取得手段と、
画像内に写っているそれぞれの指標の当該画像内におけるばらつきの度合いを計算する処理をそれぞれの画像について行う計算手段と、
それぞれの画像について求めたばらつきの度合いを報知する第1の報知手段と
を備えることを特徴とする画像処理装置。
Acquisition means for capturing images at each position and orientation to acquire a plurality of images;
A calculation means for performing processing for each image to calculate the degree of variation of each index in the image in the image;
An image processing apparatus comprising: a first notification unit that notifies a degree of variation obtained for each image.
コンピュータに請求項1乃至5の何れか1項に記載の画像処理方法を実行させることを特徴とするプログラム。   A program for causing a computer to execute the image processing method according to any one of claims 1 to 5. 請求項8に記載のプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 8.
JP2005088930A 2005-03-25 2005-03-25 Image processing method, and image processor Withdrawn JP2006267026A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005088930A JP2006267026A (en) 2005-03-25 2005-03-25 Image processing method, and image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005088930A JP2006267026A (en) 2005-03-25 2005-03-25 Image processing method, and image processor

Publications (1)

Publication Number Publication Date
JP2006267026A true JP2006267026A (en) 2006-10-05

Family

ID=37203152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005088930A Withdrawn JP2006267026A (en) 2005-03-25 2005-03-25 Image processing method, and image processor

Country Status (1)

Country Link
JP (1) JP2006267026A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
WO2021145244A1 (en) * 2020-01-16 2021-07-22 ソニーグループ株式会社 Display device, image generation method, and program
WO2023095392A1 (en) * 2021-11-24 2023-06-01 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10127687B2 (en) 2014-11-13 2018-11-13 Olympus Corporation Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
WO2021145244A1 (en) * 2020-01-16 2021-07-22 ソニーグループ株式会社 Display device, image generation method, and program
WO2023095392A1 (en) * 2021-11-24 2023-06-01 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program

Similar Documents

Publication Publication Date Title
JP4599184B2 (en) Index placement measurement method, index placement measurement device
US9767563B2 (en) Image processing apparatus and method for obtaining position and orientation of imaging apparatus
US8350897B2 (en) Image processing method and image processing apparatus
JP4926817B2 (en) Index arrangement information measuring apparatus and method
US6975326B2 (en) Image processing apparatus
US20150062123A1 (en) Augmented reality (ar) annotation computer system and computer-readable medium and method for creating an annotated 3d graphics model
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP5030953B2 (en) Method and system for determining the relative position of a first object with respect to a second object, a corresponding computer program and a corresponding computer-readable recording medium
JP2017129992A (en) Information processor and control method thereof
JP2015228215A (en) Positional information processing method
US20200166409A1 (en) Temperature processing apparatus and temperature processing method
US20230418431A1 (en) Interactive three-dimensional representations of objects
JP2006267026A (en) Image processing method, and image processor
JP4926598B2 (en) Information processing method and information processing apparatus
US20200364933A1 (en) Image processing apparatus, image processing method and storage medium
KR20210149658A (en) Method for measuring Real length in 3D tour and 3D tour system therefor
WO2005073669A1 (en) Semi and fully-automatic camera calibration tools using laser-based measurement devices
JP4810403B2 (en) Information processing apparatus and information processing method
JP2008140047A (en) Information processing method and information processor
Wöldecke et al. Flexible registration of multiple displays
EP3674660A2 (en) A computer-implemented method, a computer program product, and an apparatus for facilitating placement of a surveying tool
Zhu et al. An automatic laser sheet calibration method for laser scan range measurement system
US20090248353A1 (en) System and method for simulating movement of an image measuring machine
JP2003177019A (en) Method for camera posture calculation by free photographing
JP6192157B2 (en) Measuring device and program thereof

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603