JP4991395B2 - Information processing method and information processing apparatus - Google Patents

Information processing method and information processing apparatus Download PDF

Info

Publication number
JP4991395B2
JP4991395B2 JP2007140567A JP2007140567A JP4991395B2 JP 4991395 B2 JP4991395 B2 JP 4991395B2 JP 2007140567 A JP2007140567 A JP 2007140567A JP 2007140567 A JP2007140567 A JP 2007140567A JP 4991395 B2 JP4991395 B2 JP 4991395B2
Authority
JP
Japan
Prior art keywords
orientation
image
unit
processing unit
imaging device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007140567A
Other languages
Japanese (ja)
Other versions
JP2008292407A (en
Inventor
憲司 守田
清秀 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007140567A priority Critical patent/JP4991395B2/en
Publication of JP2008292407A publication Critical patent/JP2008292407A/en
Application granted granted Critical
Publication of JP4991395B2 publication Critical patent/JP4991395B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理方法及び情報処理装置に関し、特に、複数の撮像装置の位置姿勢を取得するために、撮像装置間の位置姿勢変換情報の較正を行う情報処理方法及び情報処理装置に関する。   The present invention relates to an information processing method and an information processing apparatus, and more particularly, to an information processing method and an information processing apparatus for calibrating position / orientation conversion information between image capturing apparatuses in order to acquire the position and orientation of a plurality of image capturing apparatuses.

近年、現実空間と仮想空間の繋ぎ目のない結合を目的とした、複合現実感に関する研究が盛んに行われている。複合現実感の提示を行う画像表示装置は、ビデオカメラなどの撮像装置によって撮影された現実空間の画像に、仮想空間(例えばコンピュータ・グラフィックスにより描画された仮想物体や文字情報等)の画像を重畳表示することで実現される。   In recent years, research on mixed reality has been actively conducted for the purpose of seamless connection between the real space and the virtual space. An image display device that presents a mixed reality presents an image of a virtual space (for example, a virtual object or character information drawn by computer graphics) on a real space image captured by an imaging device such as a video camera. This is realized by superimposing display.

このような画像表示装置の応用としては、患者の体表面に体内の様子を重畳表示する手術支援や、現実空間に浮遊する仮想の敵と戦う複合現実感ゲーム等、今までのバーチャルリアリティとは異なった新たな分野が期待されている。   Applications of such image display devices include virtual reality such as surgical support that superimposes the state of the body on the patient's body surface and mixed reality games that fight virtual enemies floating in real space. Different new fields are expected.

これらの応用に対して共通に要求されるのは、現実空間と仮想空間の間の位置合わせをいかに正確に行うかということであり、従来から多くの取り組みが行われてきた。   A common requirement for these applications is how to accurately align the real space and the virtual space, and many efforts have been made in the past.

また立体感のある映像を提示するため、左右のそれぞれの視点に対応する現実空間の画像をステレオカメラで撮影し、それぞれに対応する仮想空間の画像を重畳表示するという取り組みもされている。   In addition, in order to present a stereoscopic image, efforts are being made to take a real space image corresponding to each of the left and right viewpoints with a stereo camera and to superimpose and display the corresponding virtual space image.

この場合、左右の視点から見たそれぞれの画像を生成するため、負荷が重く処理時間が遅くなってしまうのを防ぐため、それぞれの処理演算部を独立させるという取り組みもされている。その場合それぞれの処理演算部として、それぞれ独立した汎用コンピュータが利用されることがよく行われている。   In this case, since each image viewed from the left and right viewpoints is generated, efforts are made to make each processing operation unit independent in order to prevent a heavy load and a slow processing time. In that case, an independent general-purpose computer is often used as each processing operation unit.

また、このようなシステムには、HMDとも呼ばれる撮像装置と表示装置を内蔵した頭部装着型のデバイスがよく用いられる。   Also, in such a system, a head-mounted device that incorporates an imaging device called a HMD and a display device is often used.

複合現実感における位置合わせの問題は、現実空間に設定した世界座標系(以後、単に世界座標系と呼ぶ)における、撮像装置の3次元位置姿勢を求める問題に帰結される。これらの問題を解決する方法として、磁気式センサや超音波式センサなどの3次元位置姿勢センサを利用することが一般的に行われている。   The problem of alignment in mixed reality results in the problem of obtaining the three-dimensional position and orientation of the imaging device in the world coordinate system (hereinafter simply referred to as the world coordinate system) set in the real space. As a method for solving these problems, a three-dimensional position and orientation sensor such as a magnetic sensor or an ultrasonic sensor is generally used.

3次元位置姿勢センサが出力する出力値は、センサ座標系における測点の位置姿勢を撮像装置の位置姿勢に変換する座標変換と、センサ座標系における変換後の位置姿勢を世界座標系における位置姿勢に変換する座標変換によって、変換されて用いられる。   The output value output from the three-dimensional position / orientation sensor includes coordinate conversion for converting the position / orientation of the measurement point in the sensor coordinate system to the position / orientation of the imaging apparatus, and the converted position / orientation in the sensor coordinate system in the world coordinate system. It is used after being converted by coordinate conversion to be converted into.

左右の撮像装置における片方の撮像装置の位置姿勢は上記のように求められるが、もう一方の撮像装置の位置姿勢は、2つの撮像装置の位置関係の変換情報によって位置姿勢を変換する事で求める。   The position and orientation of one imaging device in the left and right imaging devices are obtained as described above, but the position and orientation of the other imaging device are obtained by converting the position and orientation according to the conversion information of the positional relationship between the two imaging devices. .

正常な立体感を保つため、2つ撮像装置の位置姿勢を別々に求めて利用する事は望ましくなく、この変換は常に一定の変換情報を用いて行われる必要があり、予め較正された値が用いられる。   In order to maintain a normal stereoscopic effect, it is not desirable to separately obtain and use the positions and orientations of the two imaging devices, and this conversion must always be performed using constant conversion information. Used.

図4は、ユーザに複合現実感の提示を行う一般的な画像表示装置の構成を示す図である。   FIG. 4 is a diagram illustrating a configuration of a general image display device that presents mixed reality to the user.

大まかなブロックとしては、位置姿勢センサ130、マスタ演算処理装置170、スレーブ演算処理装置1170、頭部装着装置100によって構成されている。位置姿勢センサ130は、例えば、磁気式センサであるPolhemus社のFASTRAKにより構成される。マスタ演算処理装置170、スレーブ演算処理装置1170、それぞれは汎用コンピュータによって構成される。頭部装着装置100は、ステレオビデオシースルーHMDであり、磁気センサーであるFASTRAKのレシーバが固定されている。   A rough block includes a position / orientation sensor 130, a master processing unit 170, a slave processing unit 1170, and the head mounting device 100. The position / orientation sensor 130 is configured by, for example, Folstrak of Polhemus, which is a magnetic sensor. Each of the master processing unit 170 and the slave processing unit 1170 is constituted by a general-purpose computer. The head-mounted device 100 is a stereo video see-through HMD, and a FASTRAK receiver that is a magnetic sensor is fixed.

頭部装着装置100には、マスタ表示部110、マスタビデオカメラ120、スレーブ表示部1110、スレーブビデオカメラ1120が固定されている。ユーザが、マスタ表示部110とスレーブ表示部1110をユーザのそれぞれの眼前に位置するように頭部装着装置100を装着すると、ユーザのそれぞれの眼前の情景がマスタビデオカメラ120とスレーブビデオカメラ1120によって撮像される。   In the head-mounted device 100, a master display unit 110, a master video camera 120, a slave display unit 1110, and a slave video camera 1120 are fixed. When the user wears the head-mounted device 100 so that the master display unit 110 and the slave display unit 1110 are positioned in front of the user's eyes, the scene in front of the user's eyes is displayed by the master video camera 120 and the slave video camera 1120. Imaged.

従って、仮にマスタビデオカメラ120が撮像した画像を、マスタ表示部110に表示したとする。すると、ユーザは、頭部装着装置100を装着していなければ裸眼で観察するであろう眼前の情景を、マスタビデオカメラ120とマスタ表示部110を介して観察することになる。   Accordingly, it is assumed that an image captured by the master video camera 120 is displayed on the master display unit 110. Then, the user observes the scene in front of the eyes that would be observed with the naked eye if the head-mounted device 100 is not worn, via the master video camera 120 and the master display unit 110.

位置姿勢センサ130は、頭部装着装置100に固定された測点のセンサ座標系における位置姿勢を計測する装置である。   The position and orientation sensor 130 is a device that measures the position and orientation of a measurement point fixed to the head-mounted device 100 in the sensor coordinate system.

位置姿勢センサ30は、例えば、レシーバ131、センサ制御部132、トランスミッタ133よりなる磁気式センサであるPolhemus社のFASTRAKによって構成される。レシーバ131は測点として頭部装着装置100に固定されており、センサ制御部132は、トランスミッタ133の位置姿勢を基準としたセンサ座標系におけるレシーバ131の位置姿勢を計測し、計測値を出力する。   The position / orientation sensor 30 is configured by, for example, Polhemus FASTRAK, which is a magnetic sensor including a receiver 131, a sensor control unit 132, and a transmitter 133. The receiver 131 is fixed to the head-mounted device 100 as a measurement point, and the sensor control unit 132 measures the position and orientation of the receiver 131 in the sensor coordinate system with the position and orientation of the transmitter 133 as a reference, and outputs a measurement value. .

一方、マスタ演算処理装置170は、マスタ位置姿勢情報変換部140、メモリ150、画像生成部160、位置姿勢情報送信部180からなり、例えば1台の汎用コンピュータにより構成することが可能である。   On the other hand, the master processing unit 170 includes a master position / orientation information conversion unit 140, a memory 150, an image generation unit 160, and a position / orientation information transmission unit 180, and can be constituted by, for example, one general-purpose computer.

マスタ位置姿勢情報変換部140は、メモリ150が保持する較正情報に従って、位置姿勢センサ130より入力した計測値に変換を加え、世界座標系におけるビデオカメラ120の位置姿勢を算出しこれを位置姿勢情報として出力する。位置姿勢送信部180は、位置姿勢情報変換部140より入力された位置姿勢情報をスレーブ演算処理装置1170の位置姿勢情報受信部1180に送信する。   The master position / orientation information conversion unit 140 converts the measurement value input from the position / orientation sensor 130 in accordance with the calibration information stored in the memory 150, calculates the position / orientation of the video camera 120 in the world coordinate system, and calculates the position / orientation information. Output as. The position / orientation transmission unit 180 transmits the position / orientation information input from the position / orientation information conversion unit 140 to the position / orientation information reception unit 1180 of the slave processing unit 1170.

画像生成部160は、位置姿勢情報変換部140より入力された位置姿勢情報に基づいて仮想画像を生成し、これをビデオカメラ120が撮像した実写画像に重畳して出力する。表示部110は、画像生成部160から入力された画像をこれを表示画面に表示する。   The image generation unit 160 generates a virtual image based on the position / orientation information input from the position / orientation information conversion unit 140, and superimposes the virtual image on a real image captured by the video camera 120 and outputs the virtual image. The display unit 110 displays the image input from the image generation unit 160 on the display screen.

一方、スレーブマスタ演算処理装置1170は、スレーブ位置姿勢情報変換部1140、メモリ1150、画像生成部1160、位置姿勢情報受信部1180からなり、例えば1台の汎用コンピュータにより構成することが可能である。   On the other hand, the slave master processing unit 1170 includes a slave position / orientation information conversion unit 1140, a memory 1150, an image generation unit 1160, and a position / orientation information reception unit 1180, and can be configured by, for example, one general-purpose computer.

位置姿勢情報受信部1180は、マスタ演算処理装置170の位置姿勢情報送信部180から送信された位置姿勢情報を受け取り、スレーブ位置姿勢情報変換部1140に出力する。   The position / orientation information receiving unit 1180 receives the position / orientation information transmitted from the position / orientation information transmitting unit 180 of the master processor 170 and outputs the position / orientation information to the slave position / orientation information conversion unit 1140.

スレーブ位置姿勢情報変換部1140は、メモリ1150が保持する較正情報に従って、位置姿勢送信部180より入力されたマスタの位置姿勢情報に変換を加え、世界座標系におけるビデオカメラ1120の位置姿勢を算出する。そして、これを位置姿勢情報として出力する。   The slave position / orientation information conversion unit 1140 converts the position / orientation information of the master input from the position / orientation transmission unit 180 according to the calibration information stored in the memory 1150, and calculates the position / orientation of the video camera 1120 in the world coordinate system. . And this is output as position and orientation information.

画像生成部1160は、スレーブ位置姿勢情報変換部1140より入力された位置姿勢情報に基づいて仮想画像を生成し、これをビデオカメラ1120が撮像した実写画像に重畳して出力する。表示部1110は、画像生成部1160から入力された画像を表示画面に表示する。   The image generation unit 1160 generates a virtual image based on the position / orientation information input from the slave position / orientation information conversion unit 1140, and superimposes the virtual image on the real image captured by the video camera 1120 and outputs the virtual image. The display unit 1110 displays the image input from the image generation unit 1160 on the display screen.

以上の構成により、ユーザは、眼前の現実空間に仮想物体が立体的に存在するかのごとき感覚を得ることになる。   With the above configuration, the user can feel as if the virtual object is three-dimensionally present in the real space in front of him.

次に、図5を用いて、スレーブ位置姿勢情報変換部1140において、世界座標系におけるスレーブビデオカメラ1120の位置姿勢を算出する方法を説明する。   Next, a method for calculating the position and orientation of the slave video camera 1120 in the world coordinate system in the slave position and orientation information conversion unit 1140 will be described with reference to FIG.

図5において、世界座標系200におけるマスタビデオカメラ120の位置姿勢をMMWとし、スレーブビデオカメラ1120の位置姿勢をMSWとし、マスタビデオカメラ120の座標系からみたスレーブビデオカメラ1120の位置姿勢をMSMとする。なお、座標系Aにおける物体Bの位置姿勢を、座標系Aから座標系Bへのビューイング変換行列MBA(4×4)で表記するものとする。 5, the position and orientation of the master video camera 120 and M MW in the world coordinate system 200, the position and orientation of the slave video camera 1120 and M SW, the position and orientation of the slave video camera 1120 viewed from the coordinate system of the master video camera 120 Let MSM . Note that the position and orientation of the object B in the coordinate system A is expressed by a viewing transformation matrix M BA (4 × 4) from the coordinate system A to the coordinate system B.

このときMSWは、
SW=MSM・MMW (式A)
によって示すことができる。
At this time, MSW is
M SW = M SM · M MW (Formula A)
Can be indicated by

このうち、MMWがマスタ位置姿勢情報変換部140で算出され、位置姿勢情報送信部180と位置姿勢受信部1180を経てスレーブ位置姿勢情報変換部1140へ入力される。また、MSWがスレーブ位置姿勢情報変換部1140から画像生成部1160へ出力される。MSMが、MMWをMSWに変換するために必要な較正情報に相当する。スレーブ位置姿勢情報変換部1140は、位置姿勢情報受信部1180から入力されるMMWと、メモリ1150に保持されているMSMとを用いて、(式A)に基づいてMSWを算出し、これを画像生成部1160へ出力する。 Among them, M MW is calculated by the master position / orientation information conversion unit 140 and input to the slave position / orientation information conversion unit 1140 via the position / orientation information transmission unit 180 and the position / orientation reception unit 1180. Further, the MSW is output from the slave position / orientation information conversion unit 1140 to the image generation unit 1160. M SM corresponds to the calibration information required to convert the M MW to M SW. The slave position / orientation information conversion unit 1140 uses the M MW input from the position / orientation information reception unit 1180 and the M SM stored in the memory 1150 to calculate MSW based on (Equation A), This is output to the image generation unit 1160.

ユーザが自然な立体感を感じられる映像を見るためには、マスタビデオカメラ120とスレーブビデオカメラ1120間の正確な位置合わせを行うことが必要であり、何らかの手段によってメモリ1150に正確な較正情報が設定される必要がある。正確な較正情報が与えられてはじめて、立体感のある映像を見る事ができる。   In order for the user to view a video with a natural three-dimensional feeling, it is necessary to perform accurate alignment between the master video camera 120 and the slave video camera 1120, and accurate calibration information is stored in the memory 1150 by some means. Need to be set. Only when accurate calibration information is given, a stereoscopic image can be seen.

尚、メモリ1150における較正情報は、必ずしもビューイング変換行列である必要はなく、一方の座標系からみたもう一方の座標系の位置及び姿勢が定義できる情報であれば、いずれの形態をとってもよい。   Note that the calibration information in the memory 1150 is not necessarily a viewing transformation matrix, and may take any form as long as the information can define the position and orientation of the other coordinate system as viewed from one coordinate system.

例えば、位置を記述する3パラメータと、姿勢をオイラー角によって表現する3パラメータの計6パラメータで位置姿勢を表現してもよい。また、姿勢に関しては、回転軸を定義する3値のベクトルとその軸まわりの回転角という4パラメータで表現してもよいし、回転軸を定義するベクトルの大きさによって回転角を表現するような3パラメータによって表現してもよい。また、それらの逆変換を表わすパラメータによって表現しても良い。ただし、いずれの場合も、3次元空間中における物体の位置及び姿勢は、位置に3自由度、姿勢に3自由度の計6自由度を有しているのみである。よって、本画像表示装置の較正に必要な未知パラメータ数は、マスタビデオカメラの座標系120からスレーブカメラの座標系1120への変換に必要な6パラメータとなる。   For example, the position and orientation may be expressed by a total of six parameters including three parameters that describe the position and three parameters that express the posture by Euler angles. The posture may be expressed by four parameters, a ternary vector defining the rotation axis and a rotation angle around the axis, or the rotation angle may be expressed by the magnitude of the vector defining the rotation axis. It may be expressed by three parameters. Moreover, you may express by the parameter showing those inverse transformations. However, in any case, the position and orientation of the object in the three-dimensional space have only a total of 6 degrees of freedom, with 3 degrees of freedom in position and 3 degrees of freedom in orientation. Therefore, the number of unknown parameters necessary for calibration of the image display apparatus is six parameters necessary for conversion from the coordinate system 120 of the master video camera to the coordinate system 1120 of the slave camera.

較正情報を設定する公知の方法の一つとして、次の方法がある。即ち、ユーザ又はオペレータが、入力手段(不図示)を介して、メモリ1150に格納されたMSMを定義する6パラメータ(又はそれに等価な6以上のパラメータ)を対話的に変更し、正確な位置合わせが達成されるまで調整を試行錯誤的に行う方法がある。 One known method for setting calibration information is as follows. That is, the user or operator, via the input unit (not shown), and change interactively the 6 parameters defining M SM stored in the memory 1150 (or equivalent 6 or more parameters to it), the exact position There is a method in which adjustment is performed by trial and error until alignment is achieved.

また、マスタ演算処理装置170及び、スレーブ演算処理装置1170が1台の汎用コンピュータ内に構築されている場合であれば、マスタビデオカメラ120及びスレーブビデオカメラ1120の両方の画像を入力として、較正を行う事も可能である。この場合較正を行う時のみマスタビデオカメラ120をスレーブ演算処理装置1170に接続し、較正完了後に、図4の本来の接続状態に戻すという方法がある。
佐藤,内山,山本:UG+B法:主観及び客観視点カメラと姿勢センサを用いた位置合わせ手法,日本バーチャルリアリティ学会論文誌,vol.10,no.3,pp.391−400,2005. 佐藤,内山,田村: 複合現実感における位置合わせ手法,日本バーチャルリアリティ学会論文誌,vol.8,no.2,pp.171−180,2003. M.A.Fischler and R.C.Bolles(June 1981):RandomSample Consensus:A paradigm for model fitting with applications to image analysis and automated cartography,Comm.of the ACM,vol.24,no.6,pp.381−395,1981.
Further, if the master arithmetic processing unit 170 and the slave arithmetic processing unit 1170 are built in one general-purpose computer, calibration is performed using the images of both the master video camera 120 and the slave video camera 1120 as inputs. It is also possible to do it. In this case, there is a method in which the master video camera 120 is connected to the slave processing unit 1170 only when calibration is performed, and after the calibration is completed, the original connection state in FIG. 4 is restored.
Sato, Uchiyama, Yamamoto: UG + B method: Registration method using subjective and objective viewpoint cameras and posture sensors, Transactions of the Virtual Reality Society of Japan, vol. 10, no. 3, pp. 391-400, 2005. Sato, Uchiyama, Tamura: Registration method in mixed reality, Transactions of the Virtual Reality Society of Japan, vol. 8, no. 2, pp. 171-180, 2003. M.M. A. Fischler and R.M. C. Bolles (June 1981): Random Sample Consensus: A paradigm for model fitting with application to imaging analysis, Comm. of the ACM, vol. 24, no. 6, pp. 381-395, 1981.

しかし、前者の方法では、6の未知パラメータを同時に調整する必要があるため調整に著しく時間がかかり、必ずしも正確な較正情報が得られるとは限らないという問題点があった。また、後者の方法においても、較正を行うために接続状態を変更し、それをまた元に戻すという作業が必要になり、混乱するという問題があった。   However, in the former method, since it is necessary to adjust six unknown parameters at the same time, the adjustment takes a considerable time, and there is a problem that accurate calibration information is not always obtained. In the latter method, there is a problem that the connection state is changed in order to perform calibration, and the operation of returning it to the original state is necessary, which is confusing.

本発明は以上の問題に鑑みてなされたものであり、それぞれ別々の装置に接続されたマスタビデオカメラの位置姿勢を世界座標系におけるスレーブビデオカメラの位置姿勢に変換するための較正情報を、簡便に取得することを目的とする。   The present invention has been made in view of the above problems, and calibration information for converting the position and orientation of a master video camera connected to separate devices into the position and orientation of a slave video camera in the world coordinate system can be simplified. The purpose is to get to.

更に、本発明は、前述の較正情報を、物理的な接続の変更を行うことなく取得することを目的とする。   A further object of the present invention is to obtain the calibration information described above without changing the physical connection.

本発明の目的を達成する為に、本発明の情報処理方法は、
互いの位置関係が固定された第一の撮像装置と第二の撮像装置がそれぞれ第一の処理部と第二の処理部に接続されており、第一の撮像装置の位置姿勢から、第二の撮像装置の位置姿勢を求めるために必要な、前記第一の撮像装置と前記第二の撮像装置との間の較正情報を算出する情報処理方法であって、
前記第一の撮像装置が撮像した撮像画像上における複数の特徴点の画像座標を、前記第一の処理部の取得手段が取得する工程と、
前記特徴点の画像座標の取得値、および、当該特徴点の予め記憶されている世界座標系における座標に基づいて、前記第一の撮像装置の世界座標系における位置姿勢を算出する算出工程と、
前記算出された位置姿勢を、前記第一の処理部から前記第二の処理部へ送信する送信工程と、
前記第二の撮像装置が撮像した撮像画像上における前記複数の特徴点の画像座標を、前記第二の処理部の取得手段が取得する取得工程と、
前記通信されてきた位置姿勢と、前記第二の処理部の取得手段が取得した画像座標の取得値と、予め記憶されている世界座標系における特徴点の座標とに基づいて、前記較正情報を前記第二の処理部の演算手段が演算する工程と、
を備える。
In order to achieve the object of the present invention, the information processing method of the present invention comprises:
The first imaging device and the second imaging device whose mutual positional relationship is fixed are connected to the first processing unit and the second processing unit, respectively, and from the position and orientation of the first imaging device, An information processing method for calculating calibration information between the first imaging device and the second imaging device, which is necessary for obtaining the position and orientation of the imaging device,
A step of acquiring an image coordinate of a plurality of feature points on a captured image captured by the first imaging device by an acquisition unit of the first processing unit;
A calculation step of calculating the position and orientation of the first imaging device in the world coordinate system based on the acquired value of the image coordinates of the feature point and the coordinates of the feature point in the world coordinate system stored in advance;
A transmission step of transmitting the calculated position and orientation from the first processing unit to the second processing unit;
An acquisition step in which an acquisition unit of the second processing unit acquires image coordinates of the plurality of feature points on a captured image captured by the second imaging device;
Based on the communicated position and orientation, the acquired value of the image coordinate acquired by the acquisition unit of the second processing unit, and the coordinates of the feature point in the world coordinate system stored in advance, the calibration information is A step of calculating by the calculating means of the second processing unit;
Is provided.

また、本発明の情報処理装置は、
互いの位置関係が固定された第一の撮像手段と第二の撮像手段がそれぞれ第一の処理部と第二の処理部に接続されており、前記第一の撮像手段の位置姿勢から、前記第二の撮像手段の位置姿勢を求めるために必要な、前記第一の撮像装置と前記第二の撮像装置の間の較正情報を算出する情報処理装置であって、
前記第一の処理部が、
前記第一の撮像手段が撮像した撮像画像上における複数の特徴点の画像座標を取得する取得手段と、
前記特徴点の画像座標の取得値、および、当該特徴点の予め記憶されている世界座標系における座標に基づいて、前記第一の撮像装置の世界座標系おける位置姿勢を算出する算出手段と、
前記算出された位置姿勢を、前記第二の処理部へ送信する送信手段とを備え、
前記第二の処理部が、
前記第二の撮像装置が撮像した撮像画像上における前記複数の特徴点の画像座標を取得する取得手段と、
前記送信手段により送信されてきた位置姿勢と、前記第二の処理部の取得手段が取得した画像座標の取得値と、予め記憶されている世界座標系における特徴点の位置に基づいて、前記較正情報を演算する演算手段と
を備える。
The information processing apparatus of the present invention
The first imaging means and the second imaging means whose positional relationship is fixed to each other are connected to the first processing unit and the second processing unit, respectively, and from the position and orientation of the first imaging unit, An information processing apparatus for calculating calibration information between the first imaging device and the second imaging device, which is necessary for obtaining the position and orientation of the second imaging means,
The first processing unit is
Acquisition means for acquiring image coordinates of a plurality of feature points on a captured image captured by the first imaging means;
Calculation means for calculating the position and orientation of the first imaging device in the world coordinate system based on the acquired value of the image coordinates of the feature point and the coordinates of the feature point in the world coordinate system stored in advance;
Transmission means for transmitting the calculated position and orientation to the second processing unit,
The second processing unit is
Acquisition means for acquiring image coordinates of the plurality of feature points on a captured image captured by the second imaging device;
Based on the position and orientation transmitted by the transmission unit, the acquired value of the image coordinate acquired by the acquisition unit of the second processing unit, and the position of the feature point in the world coordinate system stored in advance, the calibration Computing means for computing information.

本発明によれば、第1の撮像装置の位置姿勢情報の取得値を第2の撮像装置の位置姿勢に変換するための較正情報を、簡便に取得することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, it becomes possible to acquire easily the calibration information for converting the acquisition value of the position and orientation information of a 1st imaging device into the position and orientation of a 2nd imaging device.

以下、添付図面を参照して本発明の一実施の形態について詳細に説明する。   Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

以下の実施形態では、本発明の較正装置及びその方法を、図1の画像表示装置の較正に適用した場合について説明する。   In the following embodiments, a case where the calibration apparatus and the method of the present invention are applied to the calibration of the image display apparatus of FIG. 1 will be described.

図3は本実施形態によって較正を行う場合の一組のカメラと、現実空間におけるランドマークの配置を説明するための概念図である。尚、本実施の形態において、特徴点として検出されるランドマークとして、現実物体上に配置されたそれぞれ異なる色のマーカ4001〜4004を示している。図3においては、色の代わりにテクスチャパターンを用いて表している。   FIG. 3 is a conceptual diagram for explaining the arrangement of landmarks in a real space and a set of cameras when calibration is performed according to the present embodiment. In the present embodiment, markers 4001 to 4004 of different colors arranged on real objects are shown as landmarks detected as feature points. In FIG. 3, a texture pattern is used instead of a color.

図3に示すように互いの位置関係が固定の各々のカメラから、同じランドマークが撮影されるようにしながら、後述するようにカメラの位置を変えて複数の画像を撮影し、較正を行う。   As shown in FIG. 3, while the same landmark is photographed from each camera whose positional relationship is fixed, a plurality of images are photographed by changing the position of the camera as will be described later, and calibration is performed.

本実施形態の較正装置を用いて撮像装置の較正を行うためには、当該撮像装置が撮影する対象としている現実空間内に、世界座標が既知な最低3点以上のランドマークが配置されている必要がある。ここで、各ランドマークは、撮影画像上におけるその投影像の画像座標が検出可能であって、かついずれのランドマークであるかが識別可能であるような、例えばそれぞれが異なる色を有するランドマークであるものとする。   In order to calibrate the imaging apparatus using the calibration apparatus of this embodiment, at least three or more landmarks whose world coordinates are known are arranged in the real space to be imaged by the imaging apparatus. There is a need. Here, for example, each landmark has a different color so that the image coordinates of the projected image on the captured image can be detected and which landmark can be identified. Suppose that

図1は、本実施形態に係るセンサ較正装置である情報処理装置の構成を示している。図1に示したように、本実施形態における較正装置は、マスタ演算処理装置300、スレーブ演算処理装置1300、頭部装着装置100、位置姿勢センサ130から構成されている。   FIG. 1 shows the configuration of an information processing apparatus that is a sensor calibration apparatus according to the present embodiment. As shown in FIG. 1, the calibration device according to the present embodiment includes a master arithmetic processing device 300, a slave arithmetic processing device 1300, a head mounting device 100, and a position and orientation sensor 130.

位置姿勢センサ130、表示部110、表示部1110は、図4に用いて説明したものと同じ動作を行うため、その詳細な説明を省略する。   The position and orientation sensor 130, the display unit 110, and the display unit 1110 perform the same operations as those described with reference to FIG.

マスタ演算処理装置300は、世界座標保持部310、画像座標取得部320、データ管理部330、位置姿勢算出部340、位置姿勢情報送信部380、その他から構成される。マスタ演算処理装置300には、較正対象である頭部装着装置100及びスレーブ演算処理装置1300が接続されている。スレーブ演算処理部1300への接続に関しては、イーサネット(登録商標)等の通信手段を利用することも可能である。尚、本実施の形態において、マスタ演算処理装置300は、第一の処理部として機能する。   The master processing unit 300 includes a world coordinate holding unit 310, an image coordinate acquisition unit 320, a data management unit 330, a position and orientation calculation unit 340, a position and orientation information transmission unit 380, and others. The master arithmetic processing device 300 is connected to the head mounting device 100 and the slave arithmetic processing device 1300 that are calibration targets. For connection to the slave arithmetic processing unit 1300, it is possible to use communication means such as Ethernet (registered trademark). In the present embodiment, the master processing unit 300 functions as a first processing unit.

世界座標保持部310は、各ランドマークの世界座標系における座標を保持しており、データ管理部330からの要求にしたがってこれを出力する。   The world coordinate holding unit 310 holds the coordinates of each landmark in the world coordinate system, and outputs them according to a request from the data management unit 330.

画像座標取得部320は、ビデオカメラ120が撮影した画像を入力し、画像中に撮影されているランドマークの画像座標およびその識別番号を検出し、データ管理部330からの要求にしたがって、これらの情報をデータ管理部330へ出力する。画像からのランドマークの検出は、色を識別情報として有するランドマークを用いて、閾値処理により画像から特定色領域を抽出し、その重心位置を、当該色を有するランドマークの画像座標として検出することで行う。尚、本実施の形態においては、ビデオカメラ120が第一の撮像装置として機能する。   The image coordinate acquisition unit 320 inputs an image captured by the video camera 120, detects the image coordinate of the landmark captured in the image and its identification number, and in accordance with a request from the data management unit 330, Information is output to the data management unit 330. A landmark is detected from an image by using a landmark having color as identification information, extracting a specific color area from the image by threshold processing, and detecting the position of the center of gravity as an image coordinate of the landmark having the color. Do that. In the present embodiment, the video camera 120 functions as the first imaging device.

データ管理部330は、画像座標取得部320からランドマークの画像座標及び識別番号が入力されると、世界座標保持部310から対応するランドマークの世界座標を取得し、世界座標及び画像座標を位置姿勢情報算出部340に出力する。   When the image coordinates and identification number of the landmark are input from the image coordinate acquisition unit 320, the data management unit 330 acquires the world coordinates of the corresponding landmark from the world coordinate holding unit 310, and positions the world coordinates and the image coordinates. The information is output to the posture information calculation unit 340.

位置姿勢情報算出部340は、世界座標及び画像座標よりビデオカメラ120の位置姿勢を算出し位置姿勢情報送信部380、画像生成部160に出力する。   The position / orientation information calculation unit 340 calculates the position / orientation of the video camera 120 from the world coordinates and the image coordinates, and outputs them to the position / orientation information transmission unit 380 and the image generation unit 160.

ビデオカメラ120の位置姿勢を算出する手法としては、カメラが連続的に撮影する時系列画像を利用して、カメラの位置及び姿勢を逐次計測することが一般的に行われている(非特許文献1,非特許文献2,非特許文献3)。例えば、以下の手順によって、基準座標系におけるカメラの位置及び姿勢を求めることができる。
(1)室内の床や壁、テーブル面等に、基準座標系における位置(基準座標)が既知である複数のランドマークを配置あるいは設定する。
(2)カメラが撮影した撮像画像内におけるランドマークの投影像の座標を検出する。
(3)検出されたランドマークの画像座標と、当該ランドマークの基準座標との対応関係に基づいて、カメラの位置及び姿勢を求める。
As a method for calculating the position and orientation of the video camera 120, it is generally performed to sequentially measure the position and orientation of the camera using time-series images continuously captured by the camera (non-patent document). 1, non-patent document 2, non-patent document 3). For example, the position and orientation of the camera in the reference coordinate system can be obtained by the following procedure.
(1) A plurality of landmarks whose positions in the reference coordinate system (reference coordinates) are known are arranged or set on an indoor floor, wall, table surface, or the like.
(2) The coordinates of the projected image of the landmark in the captured image taken by the camera are detected.
(3) The position and orientation of the camera are obtained based on the correspondence between the detected image coordinates of the landmark and the reference coordinates of the landmark.

位置姿勢情報送信部380は、位置姿勢情報算出部340から受け取った位置姿勢情報を、スレーブ演算処理装置1300の位置姿勢情報受信部1380に出力する。   The position and orientation information transmission unit 380 outputs the position and orientation information received from the position and orientation information calculation unit 340 to the position and orientation information reception unit 1380 of the slave arithmetic processing device 1300.

スレーブ演算処理装置1300は、世界座標保持部1310、画像座標取得部1320、データ管理部1330、較正情報算出部1340、指示部1350、その他から構成される。スレーブ演算処理装置1300には、較正対象である頭部装着装置100及びマスタ演算処理装置300が接続されている。尚、本実施の形態において、スレーブ演算処理装置1300は、第二の処理部として機能する。   The slave processing unit 1300 includes a world coordinate storage unit 1310, an image coordinate acquisition unit 1320, a data management unit 1330, a calibration information calculation unit 1340, an instruction unit 1350, and others. The slave arithmetic processing device 1300 is connected to the head mounting device 100 and the master arithmetic processing device 300 that are calibration targets. In the present embodiment, the slave arithmetic processing device 1300 functions as a second processing unit.

世界座標保持部1310は、各ランドマークの世界座標系における座標を保持しており、データ管理部1330からの要求にしたがってこれを出力する。   The world coordinate holding unit 1310 holds the coordinates of each landmark in the world coordinate system, and outputs them according to a request from the data management unit 1330.

世界座標保持部1310に保持される情報は、予めマスタ演算処理装置300の世界座標保持部310の情報と同じにしておく必要がある。通信手段を設けて同期させる事によって、較正装置をより容易に利用できるようにする事も可能である。   The information held in the world coordinate holding unit 1310 needs to be the same as the information in the world coordinate holding unit 310 of the master processing unit 300 in advance. It is also possible to use the calibration device more easily by providing communication means and synchronizing.

画像座標取得部1320は、ビデオカメラ1120が撮影した画像が入力され、画像中に撮影されているランドマークの画像座標およびその識別番号を検出し、データ管理部1330からの要求にしたがって、これらの情報をデータ管理部1330へと出力する。画像からのランドマークの検出は、色を識別情報として有するランドマークを用いて、閾値処理により画像から特定色領域を抽出し、その重心位置を、当該色を有するランドマークの画像座標として検出することで行う。尚、本実施の形態においては、ビデオカメラ1120が第二の撮像装置として機能する。   The image coordinate acquisition unit 1320 receives an image captured by the video camera 1120, detects the image coordinate of the landmark captured in the image and its identification number, and in accordance with a request from the data management unit 1330, Information is output to the data management unit 1330. A landmark is detected from an image by using a landmark having color as identification information, extracting a specific color area from the image by threshold processing, and detecting the position of the center of gravity as an image coordinate of the landmark having the color. Do that. In the present embodiment, the video camera 1120 functions as a second imaging device.

データ管理部1330は、指示部1350から「データ取得」の指示を受けると、画像座標取得部1320からランドマークの画像座標及び識別番号が入力され、世界座標保持部1310から対応するランドマークの世界座標を入力される。更に、マスタ位置姿勢情報受信部1380から撮影画像と同一時刻のセンサ計測値が入力され、[世界座標−マスタ位置姿勢計測値−画像座標]の組をデータリストに追加しこれを保持する。また、較正情報算出部1340からの要求にしたがって、生成したデータリストを較正情報算出部1340に出力する。   When the data management unit 1330 receives an instruction of “data acquisition” from the instruction unit 1350, the image coordinate and identification number of the landmark are input from the image coordinate acquisition unit 1320, and the world of the corresponding landmark is received from the world coordinate holding unit 1310. Coordinates are entered. Further, sensor measurement values at the same time as the captured image are input from the master position / orientation information receiving unit 1380, and a set of [world coordinates-master position / orientation measurement values-image coordinates] is added to the data list and held. In addition, the generated data list is output to the calibration information calculation unit 1340 in accordance with a request from the calibration information calculation unit 1340.

較正情報算出部1340は、指示部1350から「較正情報算出」の指示を受けると、データ管理部1330からデータリストが入力され、これをもとに較正情報を算出し、算出した較正情報を出力する。   Upon receiving an instruction “calculation information calculation” from the instruction unit 1350, the calibration information calculation unit 1340 receives a data list from the data management unit 1330, calculates calibration information based on the data list, and outputs the calculated calibration information. To do.

指示部1350は、ユーザからデータ取得コマンドが入力されたときには「データ取得」の指示をデータ管理部1330に、較正情報算出コマンドが入力されたときには「較正情報算出」の指示を較正情報算出部1340に送信する。指示部1350へのコマンドの入力は、例えばキーボードを用いて、特定のコマンドを割り当てたキーを押すことによって行うことができる。また、コマンドの入力は、不図示のディスプレイ上に表示されたGUIで行うなどの、いずれの方法で行ってもよい。   The instruction unit 1350 gives a “data acquisition” instruction to the data management unit 1330 when a data acquisition command is input from the user, and a “calibration information calculation” instruction to the calibration information calculation unit 1340 when a calibration information calculation command is input. Send to. A command can be input to the instruction unit 1350 by pressing a key to which a specific command is assigned, for example, using a keyboard. In addition, the command may be input by any method such as a GUI displayed on a display (not shown).

図2は、本実施形態による較正装置の処理手順を示すフローチャートである。なお、同フローチャートに従ったプログラムコードは、本実施形態の装置内の、不図示のRAMやROMなどのメモリ内に格納され、不図示のCPUにより読み出され、実行される。   FIG. 2 is a flowchart showing a processing procedure of the calibration apparatus according to the present embodiment. The program code according to the flowchart is stored in a memory such as a RAM or a ROM (not shown) in the apparatus according to the present embodiment, and is read and executed by a CPU (not shown).

ステップS4010において、指示部1350は、データ取得コマンドがオペレータから入力されたか否かの判定を行う。データ取得コマンドが入力されている場合には、ステップS4020へと処理を移行させる。以下では、データ取得コマンドが入力された時点においてビデオカメラ1120が位置していた視点位置をVjとする。   In step S4010, instruction unit 1350 determines whether or not a data acquisition command has been input from the operator. If a data acquisition command has been input, the process proceeds to step S4020. In the following, it is assumed that the viewpoint position where the video camera 1120 is located when the data acquisition command is input is Vj.

ステップS4020において、データ管理部1330は、位置姿勢情報受信部1380から、視点位置Vjにビデオカメラ1120が位置している際の計測値   In step S4020, the data management unit 1330 receives a measurement value when the video camera 1120 is located at the viewpoint position Vj from the position / orientation information reception unit 1380.

Figure 0004991395
を入力する。
Figure 0004991395
Enter.

ステップS4030において、データ管理部1330は、視点位置Vjに位置するビデオカメラ1120によって撮影された撮像画像上におけるランドマークQkの識別番号k及び画像座標   In step S4030, the data management unit 1330 identifies the landmark Qk identification number k and image coordinates on the captured image captured by the video camera 1120 located at the viewpoint position Vj.

Figure 0004991395
を、画像座標取得部1320から入力する。この入力は、当該撮像画像上に複数のランドマークが撮像されている場合には、それら各々のランドマークに対して行われる。
Figure 0004991395
Is input from the image coordinate acquisition unit 1320. This input is performed for each landmark when a plurality of landmarks are captured on the captured image.

ステップS4040において、データ管理部1330は、画像座標取得部1320から入力した各ランドマークQkの(それぞれの識別番号kに対応する)世界座標   In step S4040, the data management unit 1330 receives the world coordinates (corresponding to each identification number k) of each landmark Qk input from the image coordinate acquisition unit 1320.

Figure 0004991395
を、世界座標管理部1330から入力する。
Figure 0004991395
Is input from the world coordinate management unit 1330.

次に、ステップS4050において、データ管理部1330は、検出されたランドマーク毎に、入力したデータをデータリストLiに追加する。具体的には、ランドマークQkに対する画像座標を   In step S4050, the data management unit 1330 adds the input data to the data list Li for each detected landmark. Specifically, the image coordinates for the landmark Qk are

Figure 0004991395
,その世界座標を
Figure 0004991395
, Its world coordinates

Figure 0004991395
,その際のマスタカメラの位置姿勢を
Figure 0004991395
, The position and orientation of the master camera at that time

Figure 0004991395
として、
Figure 0004991395
As

Figure 0004991395
の組を、i番目のデータとしてリストに登録する。ここでiは現在リストに登録されているデータ総数から1を引いた値を示す。
以上によって、データの取得が行われる。
Figure 0004991395
Are registered in the list as the i-th data. Here, i indicates a value obtained by subtracting 1 from the total number of data currently registered in the list.
Data acquisition is performed as described above.

ステップS4060では、指示部1350によって、現在までに取得されたデータリストが、較正情報を算出するに足るだけの情報を有しているかどうかの判定が行われる。データリストが条件を満たしていない場合には、再びステップS4010へと戻り、データ取得コマンドの入力を待つ。一方、データリストが較正情報算出の条件を満たしている場合には、ステップS4070へと処理を移行させる。較正情報算出の条件としては、例えば、異なる4点以上のランドマークに関するデータが得られていること、複数の視点位置においてデータの取得が行われていること、及びデータ総数が3点以上であること、を条件とする。ただし、入力データの多様性が増すほどに導出される較正情報の精度は向上するので、より多くのデータを要求するように条件を設定してもよい。   In step S4060, the instruction unit 1350 determines whether the data list acquired up to the present has enough information to calculate the calibration information. If the data list does not satisfy the condition, the process returns to step S4010 again and waits for the input of a data acquisition command. On the other hand, if the data list satisfies the conditions for calculating calibration information, the process proceeds to step S4070. As conditions for calculating calibration information, for example, data on four or more different landmarks is obtained, data is acquired at a plurality of viewpoint positions, and the total number of data is three or more. This is a condition. However, since the accuracy of the calibration information derived as the diversity of input data increases, the condition may be set so as to request more data.

次にステップS4070において、較正情報算出コマンドがオペレータから入力されたか否かの判定を行う。較正情報算出コマンドが入力されている場合には、ステップS4080へと処理を移行し、入力されていない場合には、再びステップS4010へと戻り、データ取得コマンドの入力を待つ。   In step S4070, it is determined whether a calibration information calculation command has been input from the operator. If the calibration information calculation command has been input, the process proceeds to step S4080. If not, the process returns to step S4010 again to wait for the input of the data acquisition command.

較正情報算出部1340は、求めるべき較正情報のうちの姿勢に関する情報を、ベクトルの大きさによって回転角を、ベクトルの向きによって回転軸方向を、それぞれ定義するような3値のベクトルによって内部的に表現する。そして、MSMを、スレーブビデオカメラ1120が定義する座標系におけるマスタビデオカメラ1120の位置(xCS,yCS,zCS)及び姿勢 The calibration information calculation unit 1340 internally uses the ternary vector that defines the orientation information in the calibration information to be obtained by defining the rotation angle by the vector size and the rotation axis direction by the vector direction. Express. Then, the M SM, the position of the master video camera 1120 in the coordinate system slave video camera 1120 is defined (x CS, y CS, z CS) and orientation

Figure 0004991395
によって表現し、6の未知パラメータは、ベクトル
Figure 0004991395
The six unknown parameters are represented by the vector

Figure 0004991395
によって表現される。
Figure 0004991395
Is represented by

ステップS4080において、較正情報算出部1340は、ベクトルsに適当な初期値(例えばs=[000000 ])を与える。 In step S4080, the calibration information calculation unit 1340 gives an appropriate initial value (for example, s = [000000] T ) to the vector s.

ステップS4090において、較正情報算出部1340は、リスト中の各データLi(i=1,2,……,N)に対して、当該ランドマークの画像座標の理論値   In step S4090, the calibration information calculation unit 1340, for each data Li (i = 1, 2,..., N) in the list, the theoretical value of the image coordinates of the landmark.

Figure 0004991395
を、センサ出力
Figure 0004991395
The sensor output

Figure 0004991395
、世界座標
Figure 0004991395
, World coordinates

Figure 0004991395
および現在のsに基づいて算出する。
Figure 0004991395
And based on the current s.

Figure 0004991395
は、sを変数として、センサ出力
Figure 0004991395
Is the sensor output with s as a variable

Figure 0004991395
および世界座標
Figure 0004991395
And world coordinates

Figure 0004991395
によって定義される関数
Figure 0004991395
Functions defined by

Figure 0004991395
によって定めることができる。
Figure 0004991395
Can be determined by.

具体的には、まず、次式、   Specifically, first,

Figure 0004991395
に基づいて、sの構成要素である(xCS,yCS,zCS)及び
Figure 0004991395
(X CS , y CS , z CS ) and the components of s based on

Figure 0004991395
からビューイング変換行列MSMを算出する。次に、当該ランドマークのカメラ座標
Figure 0004991395
To calculate the viewing transformation matrix MSM . Next, the camera coordinates of the landmark

Figure 0004991395
を、
Figure 0004991395
The

Figure 0004991395
によって算出する。最後に、画像座標の理論値を、
Figure 0004991395
Calculated by Finally, the theoretical value of the image coordinates

Figure 0004991395
によって算出する。ただし、fはビデオカメラ1120の焦点距離である。
Figure 0004991395
Calculated by Here, f is the focal length of the video camera 1120.

ステップS4100において、較正情報算出部1340は、リスト中の各データLiに対して、当該ランドマークの画像座標の理論値   In step S4100, the calibration information calculation unit 1340 calculates the theoretical value of the image coordinates of the landmark for each data Li in the list.

Figure 0004991395
と実測値uとの誤差△uを、
Figure 0004991395
An error △ u i of the measured value u i and,

Figure 0004991395
によって算出する。
Figure 0004991395
Calculated by

ステップS4110において、較正情報算出部1340は、リスト中の各データLiに対して、(式B)の右辺をベクトルsの各要素で偏微分した解を各要素に持つ2行×6列のヤコビ行列   In step S4110, the calibration information calculation unit 1340, with respect to each data Li in the list, a Jacobian of 2 rows × 6 columns having a solution obtained by partial differentiation of the right side of (Formula B) with each element of the vector s. line; queue; procession; parade

Figure 0004991395
を算出する。具体的には、(式E)の右辺をカメラ座標
Figure 0004991395
Is calculated. Specifically, the right side of (Equation E) is the camera coordinates

Figure 0004991395
の各要素で偏微分した解を各要素に持つ2行×3列のヤコビ行列
Figure 0004991395
2-row x 3-column Jacobian matrix with partial differential solutions for each element

Figure 0004991395
と、(式D)の右辺をベクトルsの各要素で偏微分した解を各要素に持つ3行×6列のヤコビ行列
Figure 0004991395
And a 3 × 6 Jacobian matrix having a solution obtained by partial differentiation of the right side of (Equation D) with each element of the vector s.

Figure 0004991395
をそれぞれ、(式E)および(式D)に基づいて算出し、
Figure 0004991395
Are calculated based on (Equation E) and (Equation D), respectively.

Figure 0004991395
として算出する。
Figure 0004991395
Calculate as

ステップS4120において、較正情報算出部1340は、ステップS4100およびステップS4110において算出した、リスト中の全てのデータLiに対する誤差△u及びヤコビ行列 In step S4120, the calibration information calculation unit 1340 calculates the error Δu i and the Jacobian matrix for all data Li in the list calculated in steps S4100 and S4110.

Figure 0004991395
に基づいて、sの補正値△sを算出する。具体的には、全てのデータに対する誤差△uおよびヤコビ行列
Figure 0004991395
Based on the above, a correction value Δs of s is calculated. Specifically, error Δu i and Jacobian matrix for all data

Figure 0004991395
をそれぞれ垂直に並べたベクトルU=[△u △u ・・・ △uおよび
Figure 0004991395
U = [Δu 1 Δu 2 ... Δu N ] T

Figure 0004991395
Figure 0004991395

を作成し、Φの一般化逆行列を用いて、
△s=(ΦΦ)−1ΦU (式H)
として算出する。
And using the generalized inverse matrix of Φ,
△ s = (Φ T Φ) -1 Φ T U ( Equation H)
Calculate as

ステップS4130において、較正情報算出部1340は、ステップS4120において算出した補正値△sを用いてsを補正する。
s+△s→s (式I)
In step S4130, calibration information calculation unit 1340 corrects s using correction value Δs calculated in step S4120.
s + Δs → s (Formula I)

ステップS4140において、較正情報算出部1340は、Uが十分に小さいかどうか、あるいは、△sが十分に小さいかどうかといった何らかの判定基準を用いて、計算が収束しているか否かの判定を行う。収束してない場合には、補正後のsを用いて、再度ステップS4090以降の処理を行う。   In step S4140, the calibration information calculation unit 1340 determines whether the calculation has converged by using some criterion such as whether U is sufficiently small or whether Δs is sufficiently small. If not converged, the processing from step S4090 is performed again using the corrected s.

ステップS4150において、較正情報算出部1350は、得られたsを較正情報として出力する。較正情報は、例えば、sから算出したビューイング変換行列の形態によって出力する。出力の形態はsそのものでもよいし、他のいずれの位置姿勢記述方法によるものでもよい。   In step S4150, the calibration information calculation unit 1350 outputs the obtained s as calibration information. The calibration information is output, for example, in the form of a viewing transformation matrix calculated from s. The output form may be s itself, or any other position and orientation description method.

この較正情報に基づき、仮想画像が生成され、現実画像に合成される。   Based on this calibration information, a virtual image is generated and combined with a real image.

<変形例1>
上記実施形態では、2つの独立した汎用コンピュータを利用して、実現されていた。しかしながら、CPUやGPUの多重化が進む近年のコンピュータでは、同一汎用コンピュータ内で、マスターとスレーブの処理を独立させる事も有効であり、その場合でも、本発明による較正方法により、簡易に正確な較正を行う事ができる。
<Modification 1>
In the above-described embodiment, this is realized by using two independent general-purpose computers. However, in recent computers where the multiplexing of CPUs and GPUs has progressed, it is also effective to make the master and slave processes independent in the same general-purpose computer. Even in this case, the calibration method according to the present invention makes it easy and accurate. Calibration can be performed.

<変形例2>
上記実施形態では、ランドマークの画像座標およびその識別番号の取得を、色を識別情報として有するランドマークを用いて、閾値処理により画像から特定色領域を抽出し、その重心位置を、当該色を有するランドマークの画像座標として検出することで行っていた。
<Modification 2>
In the above embodiment, the acquisition of the image coordinates of the landmark and its identification number is performed by extracting a specific color area from the image by threshold processing using the landmark having the color as identification information, This is done by detecting the image coordinates of the landmarks it has.

しかし、画像上におけるランドマークの投影座標及びランドマークの識別番号が特定可能であれば、他のいずれの手法を用いてもよい。例えば、特定のパターンを識別情報として有するランドマークを用いて、パターンマッチングにより画像から特定パターンの領域を抽出し、その検出位置を、当該パターンを有するランドマークの画像座標として出力してもよい。   However, any other method may be used as long as the projected coordinates of the landmarks on the image and the landmark identification number can be specified. For example, using a landmark having a specific pattern as identification information, a region of the specific pattern may be extracted from the image by pattern matching, and the detection position may be output as the image coordinates of the landmark having the pattern.

また、画像処理によって行う必要は必ずしもなく、オペレータの手入力によってランドマークの画像座標およびその識別番号を入力してもよい。この場合、画像座標取得部320は、例えば作業用ディスプレイに表示された撮像画像上のランドマーク位置をマウスクリックによって指定する等によって、オペレータが容易にランドマーク位置を入力できるような、何らかのGUIを有した構成が望ましい。   The image processing is not necessarily performed, and the landmark image coordinates and the identification number thereof may be input manually by an operator. In this case, the image coordinate acquisition unit 320 uses some GUI that allows the operator to easily input the landmark position by, for example, specifying the landmark position on the captured image displayed on the work display by clicking the mouse. It is desirable to have the configuration.

また、画像処理による識別の望めない同一特徴をもつ複数のランドマークを用いる場合には、ランドマークの画像座標の取得を画像処理によって行い、その識別番号の入力を手入力によって行うといった構成をとることもできる。また、ランドマークの識別には他のいずれの方法をとってもよい。例えば、大まかな較正情報が初めから得られている場合には、(式B)によって算出される各ランドマークの画像座標の理論値と、検出されたランドマークの画像座標の比較によって、ランドマークの識別を行ってもよい。   Also, when using a plurality of landmarks having the same characteristics that cannot be identified by image processing, the image coordinates of the landmarks are acquired by image processing, and the identification number is input manually. You can also. In addition, any other method may be used for landmark identification. For example, when rough calibration information is obtained from the beginning, the landmark is calculated by comparing the theoretical value of the image coordinate of each landmark calculated by (Equation B) with the image coordinate of the detected landmark. May be identified.

また、画像処理によって取得する場合あるいは手入力によって取得する場合のいずれの場合においても、ランドマークは必ずしも人工的(人為的)なものでなくてもよく、自然特徴を用いてもよい。自然特徴としては、建物の輪郭とその座標位置など対応付けて予め登録しておくことにより実現ずる。   Further, in either case of acquisition by image processing or acquisition by manual input, the landmark does not necessarily have to be artificial (artificial), and natural features may be used. Natural features can be realized by registering in advance in association with the outline of the building and its coordinate position.

<変形例3>
上記実施形態では、ステップS4080で較正情報の初期値として適当な値を設定していた。しかし、初期値と実際の値がかけ離れている場合には、上記実施形態では解が収束せず較正情報を求めることができない。
<Modification 3>
In the above embodiment, an appropriate value is set as the initial value of the calibration information in step S4080. However, when the initial value and the actual value are far from each other, the solution does not converge in the above embodiment, and calibration information cannot be obtained.

このような状況に対処するため、異なる位置姿勢の組み合わせを予め設定しておき、これらを順次初期値として用いてステップS4090からステップS4140までの処理を行い、解が収束した際のsを選択するようにしてもよい。また、オペレータによる初期値(あるいは初期値を生成するのに必要な位置姿勢の情報)の入力を行う初期値入力部をさらに用意して、入力された初期値を用いて較正情報算出処理を行うことも可能である。   In order to deal with such a situation, combinations of different positions and orientations are set in advance, and these are sequentially used as initial values to perform the processing from step S4090 to step S4140, and s when the solution converges is selected. You may do it. Further, an initial value input unit for inputting an initial value (or position and orientation information necessary for generating the initial value) by an operator is further prepared, and calibration information calculation processing is performed using the input initial value. It is also possible.

<変形例4>
本発明のより好適な変形例では、較正装置は画像生成部をさらに有している。画像生成部は、画像座標取得部1320によって検出されたランドマークの画像座標を撮影画像に重畳して表示画面へ出力する。本変形例によれば、オペレータは、ランドマークの検出状況を確認しながらデータ取得の指示を入力することができる。
<Modification 4>
In a more preferred modification of the present invention, the calibration device further includes an image generation unit. The image generation unit superimposes the image coordinates of the landmark detected by the image coordinate acquisition unit 1320 on the captured image and outputs the superimposed image to the display screen. According to this modification, the operator can input a data acquisition instruction while confirming the detection status of the landmark.

また、画像生成部は、較正情報算出部1340が算出した較正情報に基づいて各ランドマークの画像座標の理論値を算出し、これを撮像画像に重畳して表示画面に出力する。本変形例によれば、オペレータは、現実のランドマークとそこに表示される計算位置とを比較することによって、較正作業の検証を行うことができる。   Further, the image generation unit calculates the theoretical value of the image coordinates of each landmark based on the calibration information calculated by the calibration information calculation unit 1340, and superimposes this on the captured image and outputs it to the display screen. According to this modification, the operator can verify the calibration work by comparing the actual landmark and the calculation position displayed there.

<変形例5>
上記実施形態では、オペレータからの制御コマンドを入力するための指示部1350を有していた。しかしながら、この入力は必ずしも必要ではなく、例えば画像座標取得部1320がランドマークを検出するごとにデータリストへ追加を行い、データリストが条件を満たした時点で較正情報演算部1340が較正情報の演算を行うような構成にしてもよい。
<Modification 5>
In the embodiment described above, the instruction unit 1350 for inputting a control command from the operator is provided. However, this input is not always necessary. For example, each time the image coordinate acquisition unit 1320 detects a landmark, it is added to the data list, and when the data list satisfies the condition, the calibration information calculation unit 1340 calculates the calibration information. You may make it the structure which performs.

<変形例6>
上記実施形態では、複合現実感を提示するステレオビデオシースルーHMDの複数のカメラ間の位置姿勢の較正を行うものであった。しかしながら、本発明の適用範囲はこれに限定されるものではなく、固定されている2つ以上の撮像装置の位置姿勢を計測するような他の何れの用途に適用することも可能である。その場合はマスターとなる撮像装置を設定し、マスターとなる撮像装置から他の撮像装置への位置姿勢を較正する事ができる。
<Modification 6>
In the above embodiment, the position and orientation between a plurality of cameras of a stereo video see-through HMD that presents mixed reality is calibrated. However, the scope of application of the present invention is not limited to this, and the present invention can be applied to any other application that measures the position and orientation of two or more fixed imaging devices. In that case, a master imaging device can be set, and the position and orientation from the master imaging device to another imaging device can be calibrated.

[他の実施形態]
本発明の目的は、前述した実施形態の機能を実現するソフトウェアの制御プログラムを構成するプログラムコードを記録したコンピュータ可読メモリである記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
[Other Embodiments]
An object of the present invention is to supply a storage medium (or recording medium), which is a computer-readable memory storing a program code constituting a software control program for realizing the functions of the above-described embodiments, to a system or apparatus, and the system. It goes without saying that this can also be achieved by the computer (or CPU or MPU) of the apparatus reading and executing the program code stored in the storage medium. In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the storage medium storing the program code constitutes the present invention. Further, by executing the program code read by the computer, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a case where the function of the above-described embodiment is realized by performing part or all of the actual processing and the processing is included.

さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function is determined based on the instruction of the program code. It goes without saying that the CPU or the like provided in the expansion card or the function expansion unit performs part or all of the actual processing and the functions of the above-described embodiments are realized by the processing.

本発明を上記記憶媒体に適用する場合、その記憶媒体には先に説明した(図2に示す)フローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the flowchart described above (shown in FIG. 2).

本発明の一実施形態に係る較正装置の構成を示す図である。It is a figure which shows the structure of the calibration apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態に係る較正装置の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the calibration apparatus which concerns on one Embodiment of this invention. 本発明の一実施形態における較正の概念を示す図である。It is a figure which shows the concept of the calibration in one Embodiment of this invention. 複合現実感の提示を行う一般的な画像表示装置の構成を示す図である。It is a figure which shows the structure of the general image display apparatus which presents mixed reality. マスタビデオカメラの位置姿勢計測値からスレーブカメラの位置姿勢を求めるための変換を説明する図である。It is a figure explaining the conversion for calculating | requiring the position and orientation of a slave camera from the position and orientation measurement value of a master video camera.

Claims (8)

互いの位置関係が固定された第一の撮像装置と第二の撮像装置がそれぞれ第一の処理部と第二の処理部に接続されており、第一の撮像装置の位置姿勢から、第二の撮像装置の位置姿勢を求めるために必要な、前記第一の撮像装置と前記第二の撮像装置の間の較正情報を算出する情報処理方法であって、
前記第一の撮像装置が撮像した撮像画像上における複数の特徴点の画像座標を、前記第一の処理部の取得手段が取得する工程と、
前記特徴点の画像座標の取得値、および、当該特徴点の予め記憶されている世界座標系における座標に基づいて、前記第一の撮像装置の世界座標系における位置姿勢を算出する算出工程と、
前記算出された位置姿勢を、前記第一の処理部から前記第二の処理部へ送信する送信工程と、
前記第二の撮像装置が撮像した撮像画像上における前記複数の特徴点の画像座標を、前記第二の処理部の取得手段が取得する取得工程と、
前記通信されてきた位置姿勢と、前記第二の処理部の取得手段が取得した画像座標の取得値と、予め記憶されている世界座標系における特徴点の座標とに基づいて、前記較正情報を前記第二の処理部の演算手段が演算する工程と、
を備えることを特徴とする情報処理方法。
The first imaging device and the second imaging device whose mutual positional relationship is fixed are connected to the first processing unit and the second processing unit, respectively, and from the position and orientation of the first imaging device, An information processing method for calculating calibration information between the first imaging device and the second imaging device, which is necessary for obtaining the position and orientation of the imaging device,
A step of acquiring an image coordinate of a plurality of feature points on a captured image captured by the first imaging device by an acquisition unit of the first processing unit;
A calculation step of calculating the position and orientation of the first imaging device in the world coordinate system based on the acquired value of the image coordinates of the feature point and the coordinates of the feature point in the world coordinate system stored in advance;
A transmission step of transmitting the calculated position and orientation from the first processing unit to the second processing unit;
An acquisition step in which an acquisition unit of the second processing unit acquires image coordinates of the plurality of feature points on a captured image captured by the second imaging device;
Based on the communicated position and orientation, the acquired value of the image coordinate acquired by the acquisition unit of the second processing unit, and the coordinates of the feature point in the world coordinate system stored in advance, the calibration information is A step of calculating by the calculating means of the second processing unit;
An information processing method comprising:
前記特徴点は、現実空間に配置されたマーカであることを特徴とする請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the feature point is a marker arranged in a real space. 前記特徴点は、現実空間に存在する自然特徴であることを特徴とする請求項1に記載の情報処理方法。   The information processing method according to claim 1, wherein the feature point is a natural feature existing in a real space. 前記第一の処理部の取得手段、及び、第二の処理部の取得手段が取得する工程では、前記撮像画像を画像処理することによって前記特徴点を検出し、前記画像座標を算出することを特徴とする請求項1に記載の情報処理方法。   In the step of acquiring by the acquisition unit of the first processing unit and the acquisition unit of the second processing unit, the feature point is detected by performing image processing on the captured image, and the image coordinates are calculated. The information processing method according to claim 1. 前記第一の処理部の取得手段、及び、第二の処理部の取得手段が取得する工程は、ユーザによる指示に基づいて、前記画像座標を取得することを特徴とする請求項1に記載の情報処理方法。   The step of acquiring by the acquisition unit of the first processing unit and the acquisition unit of the second processing unit acquires the image coordinates based on an instruction from a user. Information processing method. 請求項1乃至5いずれか1項に記載の情報処理方法を、コンピュータで実現させるための制御プログラム。   A control program for realizing the information processing method according to any one of claims 1 to 5 by a computer. 請求項6に記載の制御プログラムを格納するコンピュータ可読メモリ。   A computer readable memory storing the control program according to claim 6. 互いの位置関係が固定された第一の撮像手段と第二の撮像手段がそれぞれ第一の処理部と第二の処理部に接続されており、前記第一の撮像手段の位置姿勢から、前記第二の撮像手段の位置姿勢を求めるために必要な、前記第一の撮像装置と前記第二の撮像装置の間の較正情報を算出する情報処理装置であって、
前記第一の処理部が、
前記第一の撮像手段が撮像した撮像画像上における複数の特徴点の画像座標を取得する取得手段と、
前記特徴点の画像座標の取得値、および、当該特徴点の予め記憶されている世界座標系における座標に基づいて、前記第一の撮像装置の世界座標系おける位置姿勢を算出する算出手段と、
前記算出された位置姿勢を、前記第二の処理部へ送信する送信手段とを備え、
前記第二の処理部が、
前記第二の撮像装置が撮像した撮像画像上における前記複数の特徴点の画像座標を取得する取得手段と、
前記送信手段により送信されてきた位置姿勢と、前記第二の処理部の取得手段が取得した画像座標の取得値と、予め記憶されている世界座標系における特徴点の位置に基づいて、前記較正情報を演算する演算手段と
を備えることを特徴とする情報処理装置。
The first imaging means and the second imaging means whose positional relationship is fixed to each other are connected to the first processing unit and the second processing unit, respectively, and from the position and orientation of the first imaging unit, An information processing apparatus for calculating calibration information between the first imaging device and the second imaging device, which is necessary for obtaining the position and orientation of the second imaging means,
The first processing unit is
Acquisition means for acquiring image coordinates of a plurality of feature points on a captured image captured by the first imaging means;
Calculation means for calculating the position and orientation of the first imaging device in the world coordinate system based on the acquired value of the image coordinates of the feature point and the coordinates of the feature point in the world coordinate system stored in advance;
Transmission means for transmitting the calculated position and orientation to the second processing unit,
The second processing unit is
Acquisition means for acquiring image coordinates of the plurality of feature points on a captured image captured by the second imaging device;
Based on the position and orientation transmitted by the transmission unit, the acquired value of the image coordinate acquired by the acquisition unit of the second processing unit, and the position of the feature point in the world coordinate system stored in advance, the calibration An information processing apparatus comprising an operation means for calculating information.
JP2007140567A 2007-05-28 2007-05-28 Information processing method and information processing apparatus Expired - Fee Related JP4991395B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007140567A JP4991395B2 (en) 2007-05-28 2007-05-28 Information processing method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007140567A JP4991395B2 (en) 2007-05-28 2007-05-28 Information processing method and information processing apparatus

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012106117A Division JP2012145598A (en) 2012-05-07 2012-05-07 Information processing method and information processing device

Publications (2)

Publication Number Publication Date
JP2008292407A JP2008292407A (en) 2008-12-04
JP4991395B2 true JP4991395B2 (en) 2012-08-01

Family

ID=40167269

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007140567A Expired - Fee Related JP4991395B2 (en) 2007-05-28 2007-05-28 Information processing method and information processing apparatus

Country Status (1)

Country Link
JP (1) JP4991395B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734736A (en) * 2018-05-22 2018-11-02 腾讯科技(深圳)有限公司 Camera posture method for tracing, device, equipment and storage medium

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2479932A (en) * 2010-04-30 2011-11-02 Sony Corp Stereoscopic camera system with two cameras having synchronised control functions
JP5509044B2 (en) * 2010-11-22 2014-06-04 日本放送協会 Multi-viewpoint robot camera system, multi-viewpoint robot camera control device and program
JP6457775B2 (en) * 2014-10-10 2019-01-23 エヌ・ティ・ティ・インフラネット株式会社 3D shape measuring apparatus and 3D shape measuring method
JP6789767B2 (en) * 2016-11-11 2020-11-25 スタンレー電気株式会社 Monitoring system
CN110288718A (en) * 2019-06-24 2019-09-27 火石信科(广州)科技有限公司 A kind of read-write scene coordinate identification

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2767340B2 (en) * 1991-12-26 1998-06-18 ファナック株式会社 3D position / posture measurement method for objects
JP3608305B2 (en) * 1996-08-14 2005-01-12 株式会社明電舎 Camera posture detection device
JP3792832B2 (en) * 1997-05-07 2006-07-05 富士重工業株式会社 Stereo camera adjustment device
JPH11160021A (en) * 1997-11-27 1999-06-18 Nippon Telegr & Teleph Corp <Ntt> Wide area three-dimensional position measuring method and equipment
JP4172555B2 (en) * 1998-03-12 2008-10-29 富士重工業株式会社 Stereo camera adjustment device
JP2000241136A (en) * 1999-02-22 2000-09-08 Matsushita Electric Ind Co Ltd Method and device for inspecting pattern
JP2000275013A (en) * 1999-03-24 2000-10-06 Mr System Kenkyusho:Kk Method for deciding view point position attitude, computer and storage medium
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP3411889B2 (en) * 2000-06-27 2003-06-03 株式会社国際電気通信基礎技術研究所 Automatic camera calibration method
JP4501239B2 (en) * 2000-07-13 2010-07-14 ソニー株式会社 Camera calibration apparatus and method, and storage medium
JP3467017B2 (en) * 2000-11-30 2003-11-17 キヤノン株式会社 Position and orientation determination method and apparatus, and storage medium
JP4224260B2 (en) * 2002-02-18 2009-02-12 株式会社トプコン Calibration apparatus, method, result diagnosis apparatus, and calibration chart
JP2003279310A (en) * 2002-03-22 2003-10-02 Canon Inc Apparatus and method for correcting position and attitude
JP4209637B2 (en) * 2002-06-26 2009-01-14 富士重工業株式会社 Distance correction apparatus and distance correction method for monitoring system
JP2004193947A (en) * 2002-12-11 2004-07-08 Fuji Xerox Co Ltd Three-dimensional imaging apparatus and method
JP3977776B2 (en) * 2003-03-13 2007-09-19 株式会社東芝 Stereo calibration device and stereo image monitoring device using the same
JP4317988B2 (en) * 2003-09-19 2009-08-19 独立行政法人産業技術総合研究所 3D position calibration method
JP2005140623A (en) * 2003-11-06 2005-06-02 Nippon Telegr & Teleph Corp <Ntt> Image measuring method and instrument, program, and recording medium
JP4227037B2 (en) * 2004-02-25 2009-02-18 株式会社国際電気通信基礎技術研究所 Imaging system and calibration method
JP2005322128A (en) * 2004-05-11 2005-11-17 Rikogaku Shinkokai Calibration method for stereo three-dimensional measurement and three-dimensional position calculating method
JP2006250722A (en) * 2005-03-10 2006-09-21 Toshiba Corp Device, method and program for calibration

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108734736A (en) * 2018-05-22 2018-11-02 腾讯科技(深圳)有限公司 Camera posture method for tracing, device, equipment and storage medium
CN108734736B (en) * 2018-05-22 2021-10-26 腾讯科技(深圳)有限公司 Camera posture tracking method, device, equipment and storage medium

Also Published As

Publication number Publication date
JP2008292407A (en) 2008-12-04

Similar Documents

Publication Publication Date Title
JP4136859B2 (en) Position and orientation measurement method
JP5230114B2 (en) Information processing apparatus and information processing method
US20190090955A1 (en) Systems and methods for position and orientation tracking of anatomy and surgical instruments
JP5845211B2 (en) Image processing apparatus and image processing method
EP2360567B1 (en) Image processing apparatus, image processing method, program, and image processing system
JP4757115B2 (en) Image processing apparatus and image processing method
JP4991395B2 (en) Information processing method and information processing apparatus
JP2012145598A (en) Information processing method and information processing device
US9261953B2 (en) Information processing apparatus for displaying virtual object and method thereof
JP4677281B2 (en) Image processing method and image processing apparatus
US20200129240A1 (en) Systems and methods for intraoperative planning and placement of implants
JP6510301B2 (en) MEDICAL SUPPORT SYSTEM, MEDICAL SUPPORT METHOD, IMAGE PROCESSING APPARATUS, AND CONTROL METHOD AND CONTROL PROGRAM THEREOF
JP2007033257A (en) Information processing method and device
JP2008002980A (en) Information processing method and device
JP4095320B2 (en) Sensor calibration device, sensor calibration method, program, storage medium
JP2005326275A (en) Information processing method and device
JP2007233971A (en) Image compositing method and device
JP4566786B2 (en) Position and orientation measurement method and information processing apparatus
JP2009087161A (en) Image processor and image processing method
JP2005353036A (en) Information processing method and device
US9760180B2 (en) User interface device and user interface method
JP5726024B2 (en) Information processing method and apparatus
JP6109213B2 (en) Information processing apparatus and method, program
US10798360B2 (en) Information processing system, method for controlling same, and program
JP2004233201A (en) Position attitude measuring method

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100518

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20100630

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120112

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120507

R151 Written notification of patent or utility model registration

Ref document number: 4991395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees