JP6541070B2 - Three-dimensional information restoration apparatus and three-dimensional information restoration method - Google Patents

Three-dimensional information restoration apparatus and three-dimensional information restoration method Download PDF

Info

Publication number
JP6541070B2
JP6541070B2 JP2015225110A JP2015225110A JP6541070B2 JP 6541070 B2 JP6541070 B2 JP 6541070B2 JP 2015225110 A JP2015225110 A JP 2015225110A JP 2015225110 A JP2015225110 A JP 2015225110A JP 6541070 B2 JP6541070 B2 JP 6541070B2
Authority
JP
Japan
Prior art keywords
image
corresponding point
information
point pair
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015225110A
Other languages
Japanese (ja)
Other versions
JP2017090420A (en
Inventor
坪田 一広
一広 坪田
魚森 謙也
謙也 魚森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2015225110A priority Critical patent/JP6541070B2/en
Priority to US15/534,042 priority patent/US10249058B2/en
Priority to PCT/JP2015/006218 priority patent/WO2016103621A1/en
Publication of JP2017090420A publication Critical patent/JP2017090420A/en
Application granted granted Critical
Publication of JP6541070B2 publication Critical patent/JP6541070B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、3次元情報復元装置及び3次元情報復元方法に関する。   The present disclosure relates to a three-dimensional information restoration apparatus and a three-dimensional information restoration method.

従来、左右の撮像部で同じ被写体を撮像するように、1つの筐体に2つの撮像部が固定されたステレオカメラが知られている。ステレオカメラは、被写体を異なる複数の方向から撮像し、平面方向の情報及び奥行き方向の情報(3次元情報)を記録する。   Conventionally, a stereo camera is known in which two imaging units are fixed to one case so that the same subject is imaged by the left and right imaging units. The stereo camera captures an image of a subject from a plurality of different directions, and records information in the plane direction and information (three-dimensional information) in the depth direction.

3次元情報を復元する装置として、例えば、画像入力部と、対応点検出部と、基本行列計算部と、平行移動計算部と、回転計算部と、距離計算部と、を備える3次元情報復元装置が知られている(例えば、特許文献1参照)。   For example, three-dimensional information restoration including an image input unit, a corresponding point detection unit, a basic matrix calculation unit, a translation calculation unit, a rotation calculation unit, and a distance calculation unit as an apparatus for restoring three-dimensional information An apparatus is known (see, for example, Patent Document 1).

この3次元情報復元装置では、画像入力部は、3次元剛体を捉えた2画像を入力する。対応点検出部は、2画像間の対応点を検出する。基本行列計算部は、2画像間の3次元回転行列及び3次元平行移動ベクトルから基本行列を計算する。平行移動計算部は、3次元平行移動ベクトルを計算する。回転計算部は、3次元回転行列を計算する。距離計算部は、3次元空間におけるカメラと対応点との距離を計算する。   In this three-dimensional information restoration apparatus, the image input unit inputs two images capturing a three-dimensional rigid body. The corresponding point detection unit detects a corresponding point between two images. The basic matrix calculation unit calculates a basic matrix from a three-dimensional rotation matrix and a three-dimensional translation vector between two images. The translation calculation unit calculates a three-dimensional translation vector. The rotation calculator calculates a three-dimensional rotation matrix. The distance calculation unit calculates the distance between the camera and the corresponding point in the three-dimensional space.

特開平09−237341号公報Unexamined-Japanese-Patent No. 09-237341 gazette

特許文献1に記載された3次元情報復元装置では、2つの撮像装置を別々に設置してステレオカメラシステムを形成する場合、2つの撮像装置によりそれぞれ撮像された左右の画像から対象点の3次元座標を正しく復元できないことがある。   In the three-dimensional information restoration device described in Patent Document 1, when two imaging devices are separately installed to form a stereo camera system, the three-dimensional image of the target point is obtained from the left and right images captured by the two imaging devices. Coordinates may not be restored correctly.

本開示は、上記事情に鑑みてなされたものであり、2つの撮像画像から復元される3次元座標の復元精度を向上できる3次元情報復元装置及び3次元情報復元方法を提供する。   The present disclosure has been made in view of the above circumstances, and provides a three-dimensional information restoration apparatus and a three-dimensional information restoration method capable of improving the restoration accuracy of three-dimensional coordinates restored from two captured images.

本開示の3次元情報復元装置は、ポートと入力デバイスとプロセッサとを備える。ポートは、第1の撮像装置により撮像された第1の画像と、第2の撮像装置により撮像された
第2の画像と、を取得する。プロセッサは、第1の画像における第1の特徴点と、第2の画像における第2の特徴点と、が対応する第1の対応点ペアを複数検出し、複数の第1の対応点ペアに基づいて、第1の特徴点が逆射影された3次元座標を復元する。入力デバイスは、第1の画像及び第2の画像における任意の対応点ペアを第2の対応点ペアとして、第2の対応点ペアの第1の画像及び第2の画像それぞれでの位置を示す位置情報と、第1の撮像装置から第2の対応点ペアまでの距離を示す距離情報と、を入力する。プロセッサは、入力された第2の対応点ペアの位置情報に基づいて、第2の対応点ペアの3次元座標を復元し、復元された第2の対応点ペアの3次元座標と、入力された距離情報と、に基づいて、3次元座標の精度を評価し、精度が所定値以下である場合、第1の対応点ペアを変更して3次元座標を導出するためのパラメータを再計算し、再計算されたパラメータに基づいて、入力された第2の対応点ペアの3次元座標の復元の再計算を行う。
The three-dimensional information restoration apparatus of the present disclosure comprises a port, an input device, and a processor. The port acquires a first image captured by the first imaging device and a second image captured by the second imaging device. The processor detects a plurality of first corresponding point pairs in which the first feature point in the first image and the second feature point in the second image correspond to a plurality of first corresponding point pairs. Based on the three-dimensional coordinates in which the first feature point is back-projected. The input device indicates the position in the first image and the second image of the second corresponding point pair, with any corresponding point pair in the first image and the second image as the second corresponding point pair. Position information and distance information indicating the distance from the first imaging device to the second corresponding point pair are input. The processor restores the three-dimensional coordinates of the second corresponding point pair based on the input position information of the second corresponding point pair , and inputs the three-dimensional coordinates of the restored second corresponding point pair. The accuracy of the three-dimensional coordinates is evaluated based on the distance information, and when the accuracy is less than a predetermined value, the first corresponding point pair is changed to recalculate the parameters for deriving the three-dimensional coordinates. , Recalculate restoration of three-dimensional coordinates of the input second corresponding point pair based on the recalculated parameter.

本開示によれば、2つの撮像画像から復元される3次元座標の復元精度を向上できる   According to the present disclosure, the restoration accuracy of three-dimensional coordinates restored from two captured images can be improved.

第1の実施形態におけるステレオカメラシステムの概略構成例を示す模式図Schematic diagram showing a schematic configuration example of a stereo camera system in the first embodiment ステレオカメラシステムにおけるPCの構成例を示すブロック図Block diagram showing a configuration example of a PC in a stereo camera system (A),(B),(C)は、3次元座標を導出するためのパラメータの一例を説明するための模式図(A), (B) and (C) are schematic diagrams for explaining an example of parameters for deriving three-dimensional coordinates ステレオカメラシステムの動作の概要の一例を説明する図A diagram for explaining an example of the outline of the operation of a stereo camera system 初期設定時に行われる初期キャリブレーションの一例を示すフローチャートFlow chart showing an example of initial calibration performed at the time of initial setting 対応点を指定するための候補となる複数の対応点及びこれらの対応点同士を結ぶ対応線が左右の画像中に描画された画面例を示す図The figure which shows the example of a screen where the several corresponding point used as a candidate for specifying a corresponding point, and the corresponding line which connects these corresponding points were drawn in the image on either side. 図6の画面において、対応点のエラーメッセージ及びマークが追加された画面例を示す図The figure which shows the example of a screen where the error message of the corresponding point and the mark were added in the screen of FIG. 図6の画面において、遠方の点を対応点として指定するようにガイダンスが追加された画面例を示す図The figure which shows the example of a screen where guidance was added so that a distant point may be specified as a corresponding point in the screen of FIG. 第2の実施形態におけるPCの構成例を示すブロック図Block diagram showing a configuration example of a PC in the second embodiment 運用時に行われる再キャリブレーションの一例を示すフローチャートFlow chart showing an example of recalibration performed during operation 図10に続く運用時に行われる再キャリブレーションの一例を示すフローチャート10 is a flowchart showing an example of recalibration performed at the time of operation following FIG. 10 再キャリブレーション時にテンプレートマッチングが行われる画面例を示す図Diagram showing an example screen where template matching is performed during recalibration 対応点再探索のガイダンス等が追加された画面例を示す図Figure showing an example screen with guidance for corresponding point re-searching added 初期設定時に行われる初期キャリブレーションの他例を示すフローチャートFlow chart showing another example of the initial calibration performed at the time of initial setting 運用時に行われる再キャリブレーションの他例を示すフローチャートFlow chart showing another example of recalibration performed during operation

以下、適宜図面を参照しながら、実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。尚、添付図面及び以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, the detailed description may be omitted if necessary. For example, detailed description of already well-known matters and redundant description of substantially the same configuration may be omitted. This is to avoid unnecessary redundancy in the following description and to facilitate understanding by those skilled in the art. It is to be understood that the attached drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and they are not intended to limit the claimed subject matter.

(第1の実施形態)
[構成等]
図1は第1の実施形態におけるステレオカメラシステム5の概略構成例を示す模式図である。ステレオカメラシステム5は、例えば、第1カメラ10、第2カメラ11、及びPC(Personal Computer)20を備える。第1カメラ10及び第2カメラ11は、例えば、それぞれケーブル18A、18Bを介してPC20と接続される。第1カメラ10と第2カメラ11とは、例えば、ケーブル18Cを介して接続される。
First Embodiment
[Configuration etc.]
FIG. 1 is a schematic view showing a schematic configuration example of a stereo camera system 5 in the first embodiment. The stereo camera system 5 includes, for example, a first camera 10, a second camera 11, and a PC (Personal Computer) 20. The first camera 10 and the second camera 11 are connected to, for example, the PC 20 through the cables 18A and 18B, respectively. The first camera 10 and the second camera 11 are connected, for example, via a cable 18C.

ステレオカメラシステム5は、3次元情報復元システムの一例である。PC20は、3次元情報復元装置の一例である。第1カメラ10及び第2カメラ11は、撮像装置の一例である。   The stereo camera system 5 is an example of a three-dimensional information restoration system. The PC 20 is an example of a three-dimensional information restoration apparatus. The first camera 10 and the second camera 11 are an example of an imaging device.

第1カメラ10及び第2カメラ11は、図示しないが、例えば、被写体を含む画像を撮像するイメージセンサ、及び、撮像された画像の画像データをPC20に送信する出力デバイス(例えば通信デバイス)を備える。撮像装置としては、例えば、監視カメラ、車載カメラ、産業用カメラ、医療用カメラ、民生用カメラが挙げられる。   Although not illustrated, the first camera 10 and the second camera 11 include, for example, an image sensor for capturing an image including a subject, and an output device (for example, communication device) for transmitting image data of the captured image to the PC 20 . As an imaging device, a surveillance camera, an in-vehicle camera, an industrial camera, a medical camera, and a consumer camera are mentioned, for example.

第1カメラ10は、例えば、PC20からの画像取得要求に応じて、被写体を含む所定のシーンの第1画像(第1カメラ画像、例えば左側の画像)を撮像し、撮像された第1画像の画像データをPC20に転送する。   For example, in response to an image acquisition request from the PC 20, the first camera 10 captures a first image (a first camera image, for example, an image on the left side) of a predetermined scene including a subject and captures the first image Transfer the image data to the PC 20.

第2カメラ11は、例えば、上記被写体を含む所定のシーンの第2画像(第2カメラ画像、例えば右側の画像)を、PC20からの画像取得要求及び第1カメラ10からの同期信号に従って撮像し、撮像された第2画像の画像データをPC20に転送する。つまり、第2カメラ11は、第1カメラ10とは異なる方向から同じシーンに含まれる同じ被写体を撮像する。   The second camera 11 captures, for example, a second image (second camera image, for example, an image on the right side) of a predetermined scene including the subject according to an image acquisition request from the PC 20 and a synchronization signal from the first camera 10 The image data of the imaged second image is transferred to the PC 20. That is, the second camera 11 images the same subject included in the same scene from a direction different from that of the first camera 10.

第1カメラ10及び第2カメラ11は、それぞれ第1の筐体13及び第2の筐体14を有し、例えば、天井、壁、その他の位置に固定される固定カメラである。また、第1カメラ10及び第2カメラ11は、パン、チルト及びズームが可能なPTZカメラである。つまり、第1カメラ10及び第2カメラ11は、パン、チルト及びズームの少なくとも1つを動作可能なカメラであってもよいし、パン方向、チルト方向及びズーム倍率が固定された固定カメラであってもよい。   The first camera 10 and the second camera 11 respectively have a first housing 13 and a second housing 14 and are, for example, fixed cameras fixed to a ceiling, a wall, and other positions. The first camera 10 and the second camera 11 are PTZ cameras capable of panning, tilting and zooming. That is, the first camera 10 and the second camera 11 may be cameras capable of operating at least one of pan, tilt and zoom, or a fixed camera in which the pan direction, tilt direction and zoom magnification are fixed. May be

また、第1カメラ10及び第2カメラ11では、焦点距離、光軸座標、及び歪補正係数が既知である。第1カメラ10及び第2カメラ11は、撮像画像に対し、例えば歪補正係数に基づいて歪補正を施した画像を出力可能である。従って、第1カメラ10及び第2カメラ11で撮像された画像には、歪補正済みの画像が含まれてもよい。尚、焦点距離、光軸座標及び歪補正係数は、固定値でなく、可変値として変更されてもよい。   In the first camera 10 and the second camera 11, the focal length, the optical axis coordinates, and the distortion correction coefficient are known. The first camera 10 and the second camera 11 can output an image obtained by performing distortion correction on a captured image based on, for example, a distortion correction coefficient. Therefore, the images captured by the first camera 10 and the second camera 11 may include the image after the distortion correction. The focal length, the optical axis coordinates, and the distortion correction coefficient may be changed not as fixed values but as variable values.

PC20は、第1カメラ10及び第2カメラ11からそれぞれケーブル18A、18Bを介して画像データを受信し、後述する各種画像処理(例えば、特徴点抽出、対応点抽出、カメラパラメータ推定、3次元座標計算、3次元座標計算の精度評価)を行う。   The PC 20 receives image data from the first camera 10 and the second camera 11 through the cables 18A and 18B, and performs various image processing (for example, feature point extraction, corresponding point extraction, camera parameter estimation, three-dimensional coordinates, etc. described later) Calculation, accuracy evaluation of 3D coordinate calculation).

図2は、ステレオカメラシステム5におけるPC20の構成例を示すブロック図である。PC20は、プロセッサ30、入力デバイス26、メモリ27、ポート28及びディスプレイ31を有する。   FIG. 2 is a block diagram showing a configuration example of the PC 20 in the stereo camera system 5. The PC 20 has a processor 30, an input device 26, a memory 27, a port 28 and a display 31.

入力デバイス26は、ユーザによる対応点の指定及び奥行き情報(第1カメラ10から指定された対応点までの距離)を入力する。入力デバイス26は、マウス、キーボード等を含んで構成される。入力デバイス26を介して入力された奥行き情報は、メモリ27に記憶され、精度評価部25に入力される。   The input device 26 inputs the designation of the corresponding point by the user and the depth information (the distance from the first camera 10 to the specified corresponding point). The input device 26 is configured to include a mouse, a keyboard and the like. The depth information input through the input device 26 is stored in the memory 27 and input to the accuracy evaluation unit 25.

メモリ27は、各種データ、情報、プログラムを保持する。メモリ27は、例えば、指定された対応点(以下、指定対応点ともいう)の座標、指定対応点までの距離情報、左右の指定対応点の周辺画像、対応点指定時の左右のカメラ画像(第1画像,第2画像)を記憶する。尚、対応点は、左右のカメラ画像において対応してペアで存在するので、対応点ペアとも言える。また、指定対応点は、左右のカメラ画像において対応してペアで指定されるので、指定対応点ペアとも言える。   The memory 27 holds various data, information, and programs. The memory 27 includes, for example, coordinates of designated corresponding points (hereinafter referred to as designated corresponding points), distance information to designated corresponding points, peripheral images of designated corresponding points on the left and The first image, the second image) are stored. In addition, since corresponding points exist in pairs corresponding to each other in the left and right camera images, they can be said to be corresponding point pairs. Further, since the designated corresponding points are designated in pairs correspondingly in the left and right camera images, they can be said to be designated paired point pairs.

メモリ27は、例えば、RAM(Random Access Memory)やROM(Read Only Memory)等のメモリや、HDD(Hard Disk Drive)やSSD(Solid State Drive)等のストレージを含んで構成される。   The memory 27 is configured to include, for example, a memory such as a random access memory (RAM) or a read only memory (ROM), and a storage such as a hard disk drive (HDD) or a solid state drive (SSD).

ポート28は、第1カメラ10及び第2カメラ11と通信可能に接続され、第1カメラ10及び第2カメラ11に対して画像取得要求を送信し、また、第1カメラ10から送信される第1画像の画像データ、及び第2カメラ11から送信される第2画像の画像データを受信する。ポート28は、例えば、外部装置と通信するための通信ポートや、外部装置を接続するための外部装置接続ポート、を含む。   The port 28 is communicably connected to the first camera 10 and the second camera 11, transmits an image acquisition request to the first camera 10 and the second camera 11, and transmits a request from the first camera 10. The image data of one image and the image data of the second image transmitted from the second camera 11 are received. The port 28 includes, for example, a communication port for communicating with an external device, and an external device connection port for connecting an external device.

ディスプレイ31は、第1カメラ10で撮像される第1画像及び第2カメラ11で撮像される第2画像を表示し、これらの画像に重畳して対応点やエラーメッセージ、ガイダンス等を表示し、また、3次元復元画像を表示する。ディスプレイ31は、液晶表示器等の表示デバイスを含んで構成される。   The display 31 displays the first image captured by the first camera 10 and the second image captured by the second camera 11, and superimposes these images on them to display corresponding points, error messages, guidance, etc. Also, a three-dimensional restored image is displayed. The display 31 is configured to include a display device such as a liquid crystal display.

なお、入力デバイス26及びディスプレイ31は、別体の装置として構成されてもよいし、これらが一体化されたタッチパネルで構成されてもよい。   The input device 26 and the display 31 may be configured as separate devices, or may be configured as a touch panel in which these are integrated.

プロセッサ30は、メモリ27に保持されたプログラムを実行することで、特徴点抽出部21、対応点検出部22、カメラパラメータ推定部23、3次元座標計算部24、及び精度評価部25の各機能を実現する。   The processor 30 executes the program stored in the memory 27 to perform each function of the feature point extraction unit 21, the corresponding point detection unit 22, the camera parameter estimation unit 23, the three-dimensional coordinate calculation unit 24, and the accuracy evaluation unit 25. To achieve.

プロセッサ30は、例えば、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、又はGPU(Graphical Processing Unit)を含んで構成される。   The processor 30 is configured to include, for example, a central processing unit (CPU), a digital signal processor (DSP), or a graphical processing unit (GPU).

特徴点抽出部21は、ポート28から入力される第1カメラ10により撮像された第1画像、及び第2カメラ11により撮像された第2画像を順次取得し、解析する。   The feature point extraction unit 21 sequentially acquires and analyzes the first image captured by the first camera 10 input from the port 28 and the second image captured by the second camera 11.

第1カメラ10は、例えば、被写体に対し、左カメラ画像を撮像する、図1の左側に配置されたカメラである。第2カメラ11は、例えば、被写体に対し、右カメラ画像を撮像する、図1の右側に配置されたカメラである。   The first camera 10 is, for example, a camera disposed on the left side of FIG. 1 for capturing a left camera image of an object. The second camera 11 is, for example, a camera disposed on the right side of FIG. 1 for capturing a right camera image for an object.

特徴点抽出部21は、画像取得部としての機能を有し、取得した左カメラ画像及び右カメラ画像に対し、特徴点(例えばエッジが強い領域にある点)を順次検出する。特徴点の検出には、例えば、画像の拡大、縮小又は回転に対して不変な局所特徴点を抽出するアルゴリズムが用いられる。このアルゴリズムは、例えば、SIFT(Scale−Invariant Feature Transform)、SURF(Speed−Up robust Features)、を含む。   The feature point extraction unit 21 has a function as an image acquisition unit, and sequentially detects feature points (for example, points in an area where the edge is strong) from the acquired left camera image and right camera image. For detection of feature points, for example, an algorithm that extracts local feature points invariant to enlargement, reduction, or rotation of an image is used. This algorithm includes, for example, Scale-Invariant Feature Transform (SIFT) and Speed-Up Robust Features (SURF).

図3(A),(B),(C)は、3次元座標を導出するためのパラメータの一例を説明するための模式図である。この3次元座標は、第1カメラ10の位置を原点(0,0,0)とした場合の3次元空間における座標を示す。この3次元座標は、第1画像又は第2画像に含まれる所定の点が逆射影(3次元復元)された対象点41の座標を示す。3次元座標を導出するためのパラメータ(単にパラメータともいう)は、例えば、特徴点、対応点ペア、カメラの位置及び姿勢、を含む。   FIGS. 3A, 3B, and 3C are schematic diagrams for explaining an example of parameters for deriving three-dimensional coordinates. The three-dimensional coordinates indicate coordinates in a three-dimensional space when the position of the first camera 10 is the origin (0, 0, 0). The three-dimensional coordinates indicate the coordinates of the target point 41 on which a predetermined point included in the first image or the second image is back-projected (three-dimensional restoration). Parameters (also referred to simply as parameters) for deriving three-dimensional coordinates include, for example, feature points, pairs of corresponding points, and the position and orientation of a camera.

特徴点抽出部21は、例えば、図3(A)に示すように、第1画像GZ1から特徴点a1〜a7を検出し、第2画像GZ2から特徴点b1〜b7を検出する。特徴点a1〜a7を特に区別する必要が無い場合、単に特徴点aと称する。同様に、特徴点b1〜b7を特に区別する必要が無い場合、単に特徴点bと称する。特徴点の数は、例えばカメラの位置や姿勢を推定する場合に考慮される。特徴点の数が多い程、第1カメラ10に対する第2カメラ11の位置や姿勢を推定する推定精度が高まる。   The feature point extraction unit 21 detects feature points a1 to a7 from the first image GZ1 and detects feature points b1 to b7 from the second image GZ2, as shown in FIG. 3A, for example. When it is not necessary to distinguish the feature points a1 to a7 in particular, they are simply referred to as the feature point a. Similarly, the feature points b1 to b7 are simply referred to as a feature point b when it is not necessary to distinguish them in particular. The number of feature points is taken into account, for example, when estimating the position and orientation of the camera. As the number of feature points increases, estimation accuracy for estimating the position and orientation of the second camera 11 with respect to the first camera 10 increases.

対応点検出部22は、例えば、図3(B)に示すように、第1画像GZ1及び第2画像GZ2に含まれる類似度の高い特徴点同士を対応点ペア(対応点の一例)として順次検出し、対応点ペア情報(画像座標ペア情報)を出力する。   For example, as illustrated in FIG. 3B, the corresponding point detection unit 22 sequentially sets feature points with high similarity included in the first image GZ1 and the second image GZ2 as a corresponding point pair (an example of the corresponding points). It detects and outputs corresponding point pair information (image coordinate pair information).

対応点ペア情報は、例えば、対応点となる第1画像GZ1における特徴点と第2画像GZ2における特徴点とを、対応づけ(ペアリング)した情報を含む。類似度が高いとは、例えば、対応点に含まれる第1画像GZ1における特徴点、第2画像GZ2における特徴点において、窓の角度が類似しており、窓の角度の差異が所定角度未満であることを含む。   The corresponding point pair information includes, for example, information in which a feature point in the first image GZ1 as a corresponding point and a feature point in the second image GZ2 are associated (paired). If the similarity is high, for example, the window angles are similar at the feature point in the first image GZ1 and the feature point in the second image GZ2 included in the corresponding points, and the window angle difference is less than a predetermined angle Including a certain thing.

対応点検出部22は、例えば、公知の技術(例えば特許文献1に記載された技術)により、対応点を検出する。   The corresponding point detection unit 22 detects corresponding points by, for example, a known technique (for example, the technique described in Patent Document 1).

図3(B)では、第1画像GZ1に含まれる特徴点a1と、第2画像GZ2に含まれる特徴点b1と、が対応点として検出され、対応点ペア情報が出力される。また、第1画像GZ1に含まれる特徴点a2と、第2画像GZ2に含まれる特徴点b2と、が対応点として検出され、対応点ペア情報として出力される。同様に、特徴点a3〜a7と特徴点b3〜b7とが各対応点として検出され、各対応点ペア情報が出力される。   In FIG. 3B, the feature point a1 included in the first image GZ1 and the feature point b1 included in the second image GZ2 are detected as corresponding points, and corresponding point pair information is output. Further, the feature point a2 included in the first image GZ1 and the feature point b2 included in the second image GZ2 are detected as corresponding points, and are output as corresponding point pair information. Similarly, the feature points a3 to a7 and the feature points b3 to b7 are detected as the corresponding points, and the corresponding point pair information is output.

これらの対応点ペア情報は、図3(B)では、特徴点a1〜a7と特徴点b1〜b7とをそれぞれを結ぶ線(対応線)c1〜c7で対応付けられる。対応点ペアの数は、例えばカメラの位置や姿勢を推定する場合に考慮される。対応点ペアの数が多い程、第1カメラ10に対する第2カメラ11の位置や姿勢を推定する推定精度が高まる。   The corresponding point pair information is associated in FIG. 3B with lines (corresponding lines) c1 to c7 connecting the feature points a1 to a7 and the feature points b1 to b7, respectively. The number of corresponding point pairs is taken into account, for example, when estimating the position and orientation of the camera. As the number of corresponding point pairs increases, the estimation accuracy of estimating the position and orientation of the second camera 11 with respect to the first camera 10 increases.

カメラパラメータ推定部23は、図3(C)に示すように、例えば、対応点ペア情報、第1カメラ10の焦点距離、第2カメラ11の焦点距離、第1カメラ10の光軸座標、及び第2カメラ11の光軸座標に基づいて、第1カメラ10に対する第2カメラ11の位置及び姿勢を順次推定する。   As shown in FIG. 3C, the camera parameter estimation unit 23 has, for example, corresponding point pair information, the focal length of the first camera 10, the focal length of the second camera 11, the optical axis coordinates of the first camera 10, The position and posture of the second camera 11 with respect to the first camera 10 are sequentially estimated based on the optical axis coordinates of the second camera 11.

光軸座標は、撮像画像におけるレンズの中心に対応する座標を示す。第1カメラ10に対する第2カメラ11の位置は、例えば並進ベクトルpにより示される。第1カメラ10に対する第2カメラ11の姿勢は、例えば回転行列Rにより示される。   The optical axis coordinates indicate coordinates corresponding to the center of the lens in the captured image. The position of the second camera 11 with respect to the first camera 10 is indicated by, for example, a translation vector p. The attitude of the second camera 11 with respect to the first camera 10 is indicated by, for example, a rotation matrix R.

カメラパラメータ推定部23は、公知の技術(例えば特許文献1に記載された技術)により、カメラパラメータ(例えば並進ベクトルp、回転行列R)を推定する。並進ベクトルpは、特許文献1に記載された3次元平行移動ベクトルに相当する。回転行列Rは、特許文献1に記載された3次元回転行列に相当する。並進ベクトルpは、例えば(式1)で表される。   The camera parameter estimation unit 23 estimates camera parameters (for example, translation vector p, rotation matrix R) by a known technique (for example, the technique described in Patent Document 1). The translation vector p corresponds to the three-dimensional translation vector described in Patent Document 1. The rotation matrix R corresponds to the three-dimensional rotation matrix described in Patent Document 1. The translation vector p is represented, for example, by (Expression 1).

Figure 0006541070
px,py,pzは、それぞれX軸,Y軸,Z軸方向の並進ベクトル成分を表す。
Figure 0006541070
px, py and pz respectively represent translational vector components in the X-axis, Y-axis and Z-axis directions.

回転行列Rは、例えば、(式2)で表される。
R=R(θz)・R(θy)・R(θx) ・・・(式2)
θz,θy,θxは、それぞれZ軸、Y軸、X軸周りの回転角(ラジアン)を表し、各軸の回転角の成分(回転成分)を表す。R(θz),R(θy),R(θx)は、それぞれZ軸、Y軸、X軸の回転行列Rの成分を表す。なお、回転角θ=0は、第1カメラ10と第2カメラ11とが平行である状態を示す。
The rotation matrix R is expressed, for example, by (Expression 2).
R = R (θz) · R (θy) · R (θx) (Equation 2)
θz, θy, and θx represent rotation angles (radians) around the Z axis, Y axis, and X axis, respectively, and represent components (rotation components) of the rotation angles of the respective axes. R (θz), R (θy), and R (θx) represent components of the rotation matrix R of the Z axis, the Y axis, and the X axis, respectively. The rotation angle θ = 0 indicates that the first camera 10 and the second camera 11 are parallel to each other.

3次元座標計算部24は、対応点ペア情報、第1カメラ10の内部パラメータ及び外部パラメータ、第2カメラ11の内部パラメータ及び外部パラメータ、並びにベースライン長62に基づいて、対象点41の3次元座標(X,Y,Z)を順次計算する(図3(C)参照)。対応点ペア情報には、ディスプレイ31の画面に表示された第1画像GZ1,第2画像GZ2において指定された画面上の位置座標(x,y)が含まれる。また、対象点41は、対応点ペアに含まれる第1画像GZ1の特徴点が逆射影された点である。3次元座標計算部24は、例えば、公知の技術(例えば特許文献1に記載された技術)により、対象点41の3次元座標を計算する。   The three-dimensional coordinate calculation unit 24 determines the three-dimensional shape of the target point 41 based on the corresponding point pair information, the internal parameters and external parameters of the first camera 10, the internal parameters and external parameters of the second camera 11, and the baseline length 62 Coordinates (X, Y, Z) are sequentially calculated (see FIG. 3C). The corresponding point pair information includes position coordinates (x, y) on the screen designated in the first image GZ1 and the second image GZ2 displayed on the screen of the display 31. The target point 41 is a point obtained by back-projecting the feature points of the first image GZ1 included in the corresponding point pair. The three-dimensional coordinate calculation unit 24 calculates three-dimensional coordinates of the target point 41 by, for example, a known technique (for example, the technique described in Patent Document 1).

内部パラメータは、例えば、第1カメラ10及び第2カメラ11の焦点距離、光軸座標、アスペクト比、スキュー歪を含む。外部パラメータは、例えば、第1カメラ10に対する第2カメラ11の位置(X軸,Y軸,Z軸の3成分)及び姿勢(X軸,Y軸,Z軸に沿った3回転成分)を含む。ベースライン長62は、第1カメラ10及び第2カメラ11間の距離である。内部パラメータ及び外部パラメータは、例えばカメラ毎に定まっている。   The internal parameters include, for example, focal lengths of the first camera 10 and the second camera 11, optical axis coordinates, aspect ratio, and skew distortion. The external parameters include, for example, the position (three components of the X axis, Y axis and Z axis) and the posture (three rotation components along the X axis, Y axis and Z axis) of the second camera 11 with respect to the first camera 10 . The baseline length 62 is the distance between the first camera 10 and the second camera 11. The internal parameters and external parameters are determined, for example, for each camera.

内部パラメータは、各カメラの図示しないメモリにより、予め保持されている。外部パラメータは、順次導出され、メモリ27に保持される。ベースライン長62は、例えば、第1カメラ10及び第2カメラ11の少なくとも一方の図示しないメモリにより、予め保持されている。内部パラメータやベースライン長62の情報は、ポート28を介してカメラから取得され、メモリ27に保持される。   The internal parameters are held in advance by a memory (not shown) of each camera. The external parameters are sequentially derived and held in the memory 27. The baseline length 62 is previously held by, for example, a memory (not shown) of at least one of the first camera 10 and the second camera 11. Information on internal parameters and baseline length 62 is obtained from the camera via port 28 and held in memory 27.

精度評価部25は、3次元座標計算部24によって計算された3次元座標の精度を評価する。この精度評価は、入力デバイス26を介して、ユーザにより指定された対応点(指定対応点)のZ座標を用いて行われる。   The accuracy evaluation unit 25 evaluates the accuracy of the three-dimensional coordinates calculated by the three-dimensional coordinate calculation unit 24. This accuracy evaluation is performed using the Z coordinate of the corresponding point (specified corresponding point) designated by the user via the input device 26.

例えば、精度評価部25は、入力デバイス26から、指定対応点のZ座標、つまり第1カメラ10から指定対応点amまでの距離(奥行き値)を入力する。精度評価部25は、この入力された距離と、3次元座標計算部24によって計算された指定対応点amのZ座標(距離)と、を比較する。精度評価部25は、比較の結果、この誤差(差異)が指定値(例えば10%)以下である場合、3次元座標の計算結果は成功であると判定し、指定値を超える場合、3次元座標の計算結果は失敗であると判定する。なお、指定値は、ユーザが任意の値に設定可能である。   For example, the accuracy evaluation unit 25 inputs, from the input device 26, the Z coordinate of the designated corresponding point, that is, the distance (depth value) from the first camera 10 to the designated corresponding point am. The accuracy evaluation unit 25 compares the input distance with the Z coordinate (distance) of the designated corresponding point am calculated by the three-dimensional coordinate calculation unit 24. The accuracy evaluation unit 25 determines that the calculation result of the three-dimensional coordinates is successful if the error (difference) is equal to or less than a designated value (for example, 10%) as a result of comparison, and if it exceeds the designated value, three-dimensional It is determined that the calculation result of the coordinates is a failure. The specified value can be set to any value by the user.

また、ここでは、第1カメラ10から指定対応点amまでの距離情報として、Z座標の値(奥行き値)が用いられることを例示した。この代わりに、例えば第1カメラ10と指定対応点amとが同じZ軸上に無い場合、第1カメラ10及び指定対応点am間の、実際の距離を距離情報として用いられてもよい。   In addition, here, as an example of the distance information from the first camera 10 to the designated corresponding point am, the value of the Z coordinate (depth value) is used. Instead of this, for example, when the first camera 10 and the designated corresponding point am are not on the same Z-axis, an actual distance between the first camera 10 and the designated corresponding point am may be used as distance information.

3次元座標の計算結果が失敗であった場合、カメラパラメータ推定部23は、対応点検出部22によって検出された多くの対応点の中から、前回とは異なる所定数の対応点を再び無作為に選択する。3次元座標計算部24は、選択された所定数の対応点を用いて、指定対応点のZ座標を再度計算する。精度評価部25は、再度計算された指定対応点のZ座標値を用いて、前述した同様の判定を行う。一方、所定回数、判定結果が失敗である場合、ユーザは、別の対応点の指定及び奥行情報の入力操作を行ってもよい。   If the calculation result of the three-dimensional coordinates is a failure, the camera parameter estimation unit 23 again randomly selects a predetermined number of corresponding points different from the previous one among the many corresponding points detected by the corresponding point detection unit 22. Select to The three-dimensional coordinate calculation unit 24 recalculates the Z coordinate of the designated corresponding point using the predetermined number of corresponding points selected. The accuracy evaluation unit 25 performs the same determination as described above using the Z coordinate value of the designated corresponding point calculated again. On the other hand, when the determination result is unsuccessful a predetermined number of times, the user may designate another corresponding point and perform an input operation of depth information.

[動作例]
次に、ステレオカメラシステム5の動作例について説明する。
[Operation example]
Next, an operation example of the stereo camera system 5 will be described.

図4はステレオカメラシステム5の動作の概要を説明する図である。ディスプレイ31は、第1カメラ10で撮像された第1画像GZ1及び第2カメラ11で撮像された第2画像GZ2を表示する。ディスプレイ31の画面に表示された第1画像GZ1及び第2画像GZ2に対し、ユーザが入力デバイス26を操作してカーソルSLを対応点近辺まで移動させた後、クリック操作すると、枠fr1,fr2で囲まれる部分が画面上で拡大表示される。   FIG. 4 is a diagram for explaining the outline of the operation of the stereo camera system 5. The display 31 displays a first image GZ1 captured by the first camera 10 and a second image GZ2 captured by the second camera 11. For the first image GZ1 and the second image GZ2 displayed on the screen of the display 31, when the user operates the input device 26 to move the cursor SL to the vicinity of the corresponding point and then clicks it, the frames fr1 and fr2 are displayed. The enclosed area is enlarged on the screen.

画面上で対応点付近の画像(以下、周辺画像という)GZ11,GZ12が拡大表示されることで、ユーザは、その画像中に含まれる対応点を指定し易くなる。例えば、ユーザは、入力デバイス26を介して、拡大された周辺画像GZ11に含まれる対応点amを指定し、拡大された周辺画像GZ12に含まれる対応点bmを指定する。さらに、ユーザは、入力デバイス26を介して、奥行き情報(第1カメラ10から対応点amまでの距離)を入力する。なお、奥行き情報は、第2カメラ11から対応点bmまでの距離でもよい。この奥行き情報は、例えば、レーザ距離計やメジャー等を用いて測定された実測値である。図4では、実測値として「102m」が入力され、ディスプレイ31の画面には、拡大された周辺画像GZ11に重なるように表示される。   When the images (hereinafter referred to as peripheral images) GZ11 and GZ12 near the corresponding points are enlarged and displayed on the screen, the user can easily specify the corresponding points included in the images. For example, the user specifies the corresponding point am included in the enlarged peripheral image GZ11 via the input device 26, and specifies the corresponding point bm included in the enlarged peripheral image GZ12. Furthermore, the user inputs depth information (the distance from the first camera 10 to the corresponding point am) via the input device 26. The depth information may be the distance from the second camera 11 to the corresponding point bm. This depth information is, for example, an actual value measured using a laser range finder or a measure. In FIG. 4, “102 m” is input as the actual measurement value, and displayed on the screen of the display 31 so as to overlap the enlarged peripheral image GZ11.

ユーザが指定及び入力を終えると、プロセッサ30は、これらの情報を元に、3次元復元処理を行う。この処理の結果、ディスプレイ31には、3次元復元画像が表示される。   When the user finishes designation and input, the processor 30 performs three-dimensional reconstruction processing based on these pieces of information. As a result of this processing, the display 31 displays a three-dimensional restored image.

図5は初期設定時に行われる初期キャリブレーションの一例を示すフローチャートである。   FIG. 5 is a flowchart showing an example of the initial calibration performed at the time of initial setting.

初期キャリブレーションが開始すると、まず、特徴点抽出部21は、第1カメラ10及び第2カメラ11に対し、ポート28を介して画像取得要求を行い、第1カメラ10及び第2カメラ11からそれぞれ第1画像GZ1及び第2画像GZ2の画像データを取り込む(S1)。尚、画像取得要求が行われることなく、定期的に上記画像データの取り込みが行われてもよい。   When the initial calibration starts, first, the feature point extraction unit 21 sends an image acquisition request to the first camera 10 and the second camera 11 through the port 28, and the feature point extraction unit 21 receives the request from the first camera 10 and the second camera 11 respectively. The image data of the first image GZ1 and the second image GZ2 are captured (S1). Note that the image data may be taken in periodically without an image acquisition request being made.

入力デバイス26は、S1で取り込まれた第1画像GZ1及び第2画像GZ2に対し、ユーザによって指定された、対応点として指定したい画像上の点を受け付ける(S2)。   The input device 26 receives a point on the image designated by the user as a corresponding point for the first image GZ1 and the second image GZ2 captured in S1 (S2).

プロセッサ30は、ユーザによって画像上でクリック操作されると、カーソルSLで指定される、ディスプレイ31に表示される画像上の点を中心に周辺画像を拡大表示させる(S3)。   When the user clicks on the image, the processor 30 enlarges and displays the peripheral image around the point on the image displayed on the display 31 designated by the cursor SL (S3).

入力デバイス26は、拡大された周辺画像GZ11,GZ12に対し、ユーザによって指定された対応点(指定対応点)am,bmを受け付ける(S4)。対応点am,bmの指定により、対応点am,bmの座標の情報(位置情報の一例)が得られる。尚、指定対応点は、対応点検出部22により検出された複数の対応点に含まれる点でも含まれない点でもよい。   The input device 26 receives corresponding points (designated corresponding points) am and bm designated by the user with respect to the enlarged peripheral images GZ11 and GZ12 (S4). By specifying the corresponding points am and bm, information (an example of position information) of the coordinates of the corresponding points am and bm can be obtained. The designated corresponding point may be a point included in a plurality of corresponding points detected by the corresponding point detection unit 22 or a point not included.

入力デバイス26は、ユーザによって入力された、第1カメラ10から指定対応点amまでの距離情報(奥行き値)を受け付ける(S5)。   The input device 26 receives the distance information (depth value) from the first camera 10 to the designated corresponding point am input by the user (S5).

プロセッサ30は、入力デバイス26から入力された、指定対応点の座標、距離情報、周辺画像GZ11,GZ12、対応点が指定された場合の第1画像GZ1及び第2画像GZ2(左右のカメラ画像)を、メモリ27に記憶(保存)させる(S6)。   The processor 30 inputs the coordinates of the designated corresponding point, the distance information, the peripheral images GZ11 and GZ12, and the first image GZ1 and the second image GZ2 (left and right camera images) when the corresponding points are designated, which are input from the input device 26. Are stored (saved) in the memory 27 (S6).

一方、S2〜S6の処理と並行して、特徴点抽出部21は、第1画像GZ1及び第2画像GZ2からそれぞれ複数の特徴点を抽出する。対応点検出部22は、特徴点抽出部21によって抽出された特徴点の類似度から、第1画像GZ1及び第2画像GZ2の対応関係を表す、複数(例えば100個程度)の対応点を検出し、この対応関係を表す対応点ペア情報(画像座標ペア情報)を出力する(S7)。   On the other hand, in parallel with the processes of S2 to S6, the feature point extraction unit 21 extracts a plurality of feature points from the first image GZ1 and the second image GZ2, respectively. The corresponding point detection unit 22 detects a plurality of (for example, about 100) corresponding points representing the correspondence between the first image GZ1 and the second image GZ2 from the similarity of the feature points extracted by the feature point extraction unit 21. Then, corresponding point pair information (image coordinate pair information) representing this correspondence is output (S7).

図6は対応点am,bmを指定するための候補となる複数の対応点a11〜a15,b11〜b15及びこれらの対応点同士を結ぶ対応線c11〜c15が左右の画像(第1画像GZ1、第2画像GZ2)中に描画された画面を示す図である。   In FIG. 6, a plurality of corresponding points a11 to a15 and b11 to b15 which become candidates for specifying the corresponding points am and bm, and corresponding lines c11 to c15 connecting these corresponding points are left and right images (first image GZ1, It is a figure which shows the screen drawn in 2nd image GZ2).

ディスプレイ31には、第1画像GZ1、第2画像GZ2、対応点a11〜a15,b11〜b15、対応線c11〜c15が表示される。   The display 31 displays a first image GZ1, a second image GZ2, corresponding points a11 to a15, b11 to b15, and corresponding lines c11 to c15.

対応点検出部22は、検出された複数(例えば100個程度)の対応点の中から、所定数(例えば5個程度)の対応点を無作為に選択する(S8)。この対応点の選択では、例えば、後述する精度評価部25による精度の評価において、誤差が指定値を超えると判断された際に用いられた対応点は除かれる。   The corresponding point detection unit 22 randomly selects a predetermined number (for example, approximately 5) of corresponding points from among a plurality of detected (for example, approximately 100) corresponding points (S8). In this selection of the corresponding points, for example, in the evaluation of the accuracy by the accuracy evaluation unit 25 described later, the corresponding points used when the error is determined to exceed the designated value are excluded.

カメラパラメータ推定部23は、複数の対応点の中から選択された対応点の対応点ペア情報、第1カメラ10の焦点距離、第2カメラ11の焦点距離、第1カメラ10の光軸座標、及び第2カメラ11の光軸座標に基づいて、第1カメラ10に対する第2カメラ11の位置及び姿勢を推定する(S9)。   The camera parameter estimation unit 23 includes corresponding point pair information of corresponding points selected from among a plurality of corresponding points, the focal length of the first camera 10, the focal length of the second camera 11, the optical axis coordinates of the first camera 10, And the position and attitude of the second camera 11 with respect to the first camera 10 based on the optical axis coordinates of the second camera 11 (S9).

3次元座標計算部24は、1つの指定された対応点(指定対応点)am,bmにおける、対応点ペア情報、第1カメラ10の内部パラメータ及び外部パラメータ、第2カメラ11の内部パラメータ及び外部パラメータ、並びにベースライン長62に基づいて、指定対応点amに対応する、対象点の3次元座標(X,Y,Z)を計算し、この対象点までの奥行き値(Z座標値)を求める(S10)。この対象点は、前述したように、対応点ペアに含まれる第1画像GZ1の特徴点が逆射影された点である。   The three-dimensional coordinate calculation unit 24 calculates corresponding point pair information, internal parameters and external parameters of the first camera 10, internal parameters and external parameters of the second camera 11 at one designated corresponding point (designated corresponding points) am and bm. The three-dimensional coordinates (X, Y, Z) of the target point corresponding to the designated corresponding point am are calculated based on the parameters and the baseline length 62, and the depth value (Z coordinate value) to the target point is determined. (S10). As described above, this target point is a point obtained by back-projecting the feature points of the first image GZ1 included in the corresponding point pair.

精度評価部25は、S10で計算された奥行き値と、S5で入力された奥行き値とを用い、これらの差分である誤差が指定値(例えば10%)以下であるか否かを判別する(S11)。誤差が指定値以下である場合、精度評価部25は、精度評価が適正であり、3次元座標の計算結果が成功であるとして、本処理を終了する。   The accuracy evaluation unit 25 uses the depth value calculated in S10 and the depth value input in S5, and determines whether an error that is the difference between them is equal to or less than a specified value (for example, 10%) S11). If the error is equal to or less than the designated value, the accuracy evaluation unit 25 ends the present processing, assuming that the accuracy evaluation is appropriate and the calculation result of the three-dimensional coordinate is successful.

一方、S11で誤差が指定値を超える(所定値以上である)場合、精度評価部25は、精度評価の回数が閾値を超えたか否かを判別する(S12)。精度評価の回数が閾値を超えていない場合、プロセッサ30は、S8の処理に戻り、新たな対応点を所定数選択し、同様の処理を繰り返す。   On the other hand, when the error exceeds the designated value (is equal to or greater than the predetermined value) in S11, the accuracy evaluation unit 25 determines whether the number of accuracy evaluations exceeds the threshold (S12). If the number of accuracy evaluations does not exceed the threshold value, the processor 30 returns to the process of S8, selects a predetermined number of new corresponding points, and repeats the same process.

一方、精度評価の回数が閾値を超えた場合、プロセッサ30は、ディスプレイ31の画面に、対応点エラー、対応点の位置の確認、別の対応点の位置を入力することを促すエラーメッセージms1を表示させる(S13)。   On the other hand, when the number of accuracy evaluations exceeds the threshold value, the processor 30 causes the screen of the display 31 to display an error message ms1, an error message ms1 prompting the user to input the position of another corresponding point, and the position of the corresponding point. It is displayed (S13).

図7は図6の画面において対応点のエラーメッセージms1及びマークMKが追加された画面を示す図である。ディスプレイ31の画面には、例えば、「指定した対応点の計測値が、指定誤差を超えました。対応点位置の確認か、別の対応点を指定してください。」のエラーメッセージms1(警告情報)が表示される。また、図7では、対応点a11,b11が指定対応点am,bmに設定されており、対応点am,bmを結ぶ対応線cm上に、エラーであることを表すマークMK(例えば×マーク)が表示される。   FIG. 7 is a view showing a screen to which the error message ms1 of the corresponding point and the mark MK are added in the screen of FIG. On the screen of display 31, for example, the error message ms1 (Warning "The measured value of the specified corresponding point has exceeded the specified error. Please check the corresponding point position or specify another corresponding point." Information is displayed. Further, in FIG. 7, the corresponding points a11 and b11 are set to the specified corresponding points am and bm, and on the corresponding line cm connecting the corresponding points am and bm, a mark MK (for example, x mark) indicating an error Is displayed.

ここで、第1カメラ10から遠くに離れている対象点に相当する、遠方の対応点を指定した方が3次元情報の復元の精度が向上することが発明者等によって既に確かめられている。プロセッサ30は、この事実に基づき、ディスプレイ31の画面に、遠方の点を指定するように促すガイダンスms2を表示する(S14)。   Here, it has already been confirmed by the present inventors that the accuracy of the restoration of the three-dimensional information is improved by designating a distant corresponding point corresponding to a target point far from the first camera 10. Based on this fact, the processor 30 displays on the screen of the display 31 a guidance ms2 prompting to designate a distant point (S14).

図8は図6の画面において遠方の点を対応点として指定するようにガイダンスms2が追加された画面を示す図である。ディスプレイ31の画面には、例えば、「なるべく遠方の点を指定してください」のガイダンスms2(案内情報)が表示される。さらに、ディスプレイ31の画面には、遠方の対応点を囲む矩形枠pf1,pf2が表示される。   FIG. 8 is a diagram showing a screen to which a guidance ms2 is added so as to designate a distant point on the screen of FIG. 6 as a corresponding point. On the screen of the display 31, for example, guidance ms2 (guidance information) of "Please specify a point as far as possible" is displayed. Furthermore, on the screen of the display 31, rectangular frames pf1 and pf2 surrounding the distant corresponding point are displayed.

このように、3次元情報の復元の精度が向上すると見込まれるような、矩形枠pf1,pf2内に含まれる遠方の対応点が指定されるように促される。そのため、ユーザは、容易に、矩形枠pf1,pf2内の候補となる適切な対応点を指定できる。尚、S14の処理は、オプションで行われる処理であり、省略可能である。この後、プロセッサ30は、S2及びS7の処理に戻り、同様の処理を行う。   In this manner, it is prompted to specify a distant corresponding point included in the rectangular frames pf1 and pf2 which is expected to improve the accuracy of the three-dimensional information restoration. Therefore, the user can easily designate an appropriate corresponding point as a candidate in the rectangular frames pf1 and pf2. The process of S14 is an optional process and can be omitted. After that, the processor 30 returns to the processes of S2 and S7 and performs the same process.

そして、精度評価が適正であると判断された場合、3次元座標計算部24は、対応点ペア情報、第1カメラ10の内部パラメータ及び外部パラメータ、第2カメラ11の内部パラメータ及び外部パラメータ、並びにベースライン長62に基づいて、対象点の3次元座標(X,Y,Z)を順次計算する、3次元復元処理を行う。プロセッサ30は、3次元復元処理された対象点をディスプレイ31の画面に表示する。   When it is determined that the accuracy evaluation is appropriate, the three-dimensional coordinate calculation unit 24 determines corresponding point pair information, internal parameters and external parameters of the first camera 10, internal parameters and external parameters of the second camera 11, and Based on the baseline length 62, three-dimensional reconstruction processing is performed in which three-dimensional coordinates (X, Y, Z) of the target point are sequentially calculated. The processor 30 displays the target point subjected to the three-dimensional restoration processing on the screen of the display 31.

図5の処理によれば、S8において、検出された対応点から所定数の対応点が無作為に選択され、選択された対応点の情報を用いて、第1カメラ10に対する第2カメラ11の位置及び姿勢を推定するので、対応点の選択の度に、位置及び姿勢の推定結果が異なる。よって、位置及び姿勢の推定精度が異なることになる。そのため、対応点の選択によっては、3次元復元の精度が低い場合も高い場合もある。   According to the process of FIG. 5, in S8, a predetermined number of corresponding points are randomly selected from the detected corresponding points, and the information of the selected corresponding points is used to select the second camera 11 for the first camera 10. Since the position and orientation are estimated, the estimation results of the position and orientation are different every time the corresponding points are selected. Therefore, the estimation accuracy of the position and orientation will be different. Therefore, depending on the selection of the corresponding points, the accuracy of the three-dimensional reconstruction may be low or high.

これに対し、PC20は、位置及び姿勢の推定精度が所定基準以上となる場合、つまり距離情報の実測値と計算値との誤差が所定以下(例えば最小)となる場合の対応点を用いて3次元復元することで、3次元座標の復元精度を安定して向上できる。   On the other hand, the PC 20 uses the corresponding points when the estimation accuracy of the position and orientation is equal to or higher than the predetermined reference, that is, when the error between the measured value and the calculated value of the distance information is equal to or less than the predetermined The dimensional reconstruction can stably improve the reconstruction accuracy of three-dimensional coordinates.

[効果等]
仮に入力デバイス26により、複数の対応点のうちの任意の対応点の位置やカメラから上記任意の対応点までの距離情報を入力しない場合、つまり全ての対応点を自動検出し、全ての対応点に係る距離情報を演算により求める場合に、3次元復元の推定精度が低いことがある。例えば、対応点の検出ができても、対応点の距離情報の導出精度が低い場合がある。
[Effects, etc.]
Temporarily, when not inputting the position information of arbitrary corresponding points among a plurality of corresponding points or the distance information from the camera to the arbitrary corresponding points, that is, all the corresponding points are automatically detected, and all the corresponding points When the distance information related to is calculated by calculation, the estimation accuracy of the three-dimensional restoration may be low. For example, even if the corresponding point can be detected, the derivation accuracy of the distance information of the corresponding point may be low.

これに対し、第1の実施形態のステレオカメラシステム5のPC20では、ポート28は、第1カメラ10により撮像された第1画像GZ1と、第2カメラ11により撮像された第2画像GZ2とを取得する。プロセッサ30は、第1画像GZ1における特徴点aと、第2画像GZ2における特徴点bと、が対応する対応点am,bmを含む対応点を複数検出する。プロセッサ30は、複数の対応点am,bmに基づいて、特徴点aが逆射影された3次元座標を復元する。入力デバイス26は、複数の対応点の中からユーザによって指定された対応点amの座標(位置情報の一例)と、ユーザによって入力された第1カメラ10から対応点amまでの奥行き値(距離情報の一例)と、を入力する。プロセッサ30は、対応点amの座標及び奥行き値の入力後、3次元座標の復元の再計算を行う。   On the other hand, in the PC 20 of the stereo camera system 5 according to the first embodiment, the port 28 includes the first image GZ1 captured by the first camera 10 and the second image GZ2 captured by the second camera 11. get. The processor 30 detects a plurality of corresponding points including corresponding points am and bm in which the feature point a in the first image GZ1 and the feature point b in the second image GZ2 correspond to each other. The processor 30 restores the three-dimensional coordinates in which the feature point a is back-projected based on the plurality of corresponding points am and bm. The input device 26 is a coordinate (an example of position information) of the corresponding point am designated by the user from among the plurality of corresponding points, and a depth value (distance information from the first camera 10 to the corresponding point am input by the user Example) and. The processor 30 recalculates restoration of three-dimensional coordinates after inputting coordinates and depth values of the corresponding points am.

尚、入力デバイス26により指定される対応点amは、複数の検出された対応点に含まれてもよいし、含まれなくてもよい。つまり、入力デバイス26は、第1画像GZ1及び第2画像GZ2における任意の対応点ペアを指定対応点ペアとし、指定対応点ペアの第1画像GZ1及び第2画像での位置情報と、第1カメラ10から指定対応点ペアまでの距離を示す距離情報と、を入力する。   The corresponding points am designated by the input device 26 may or may not be included in the plurality of detected corresponding points. That is, the input device 26 sets any corresponding point pair in the first image GZ1 and the second image GZ2 as the specified corresponding point pair, and the position information in the first image GZ1 and the second image of the specified corresponding point pair, and the first And distance information indicating a distance from the camera 10 to the designated corresponding point pair.

このように、ユーザによって指定された対応点(第2の対応点の一例)の位置座標と、ユーザによって入力された第1カメラ10から指定対応点までの奥行き値と、に基づいて、指定対応点の3次元座標の復元の再計算を行う。従って、PC20は、復元される3次元座標の精度を評価でき、2つの撮像画像から復元される3次元座標の復元精度を向上できる。また、指定される対応点は少数(例えば1点)で済むので、ユーザ操作を煩雑にせずに、3次元座標の復元精度を向上できる。   Thus, based on the position coordinates of the corresponding point (an example of the second corresponding point) designated by the user and the depth value from the first camera 10 to the designated corresponding point input by the user, the designation correspondence is provided. Recalculate the reconstruction of the 3D coordinates of the point. Therefore, the PC 20 can evaluate the accuracy of the restored three-dimensional coordinates, and can improve the restoration accuracy of the three-dimensional coordinates restored from the two captured images. In addition, since the number of corresponding points to be specified is small (for example, one point), the restoration accuracy of three-dimensional coordinates can be improved without making the user operation complicated.

また、ディスプレイ31は、プロセッサ30の制御により、第1画像GZ1及び第2画像GZ2の少なくとも一方に重ねて、複数の対応点a11〜a15,b11〜b15の候補を表示してもよい。   Further, the display 31 may display candidates of a plurality of corresponding points a11 to a15 and b11 to b15 by overlapping with at least one of the first image GZ1 and the second image GZ2 under the control of the processor 30.

これにより、ユーザは、ディスプレイ31に表示された候補となる複数の対応点の中から、対応点を指定し易くなる。従って、PC20の操作性が向上する。   As a result, the user can easily designate corresponding points from among the plurality of corresponding points displayed on the display 31. Therefore, the operability of the PC 20 is improved.

また、ディスプレイ31は、プロセッサ30の制御により、第1画像GZ1及び第2画像GZ2の少なくとも一方に対し、第1カメラ10からの距離が長い位置を優先して対応点を指定するように促すガイダンス(案内情報の一例)ms2を表示してもよい。   Further, the display 31 is a control under the control of the processor 30 to prompt the user to designate a corresponding point prior to at least one of the first image GZ1 and the second image GZ2 at a position where the distance from the first camera 10 is long. (An example of guidance information) ms2 may be displayed.

これにより、ユーザは、3次元座標の復元の精度が向上すると見込まれるような、遠方の対応点を指定するように促されるので、複数の候補の中から適切な対応点を指定し易くなる。   As a result, the user is prompted to specify a distant corresponding point that is expected to improve the accuracy of three-dimensional coordinate recovery, and it becomes easy to specify an appropriate corresponding point from among a plurality of candidates.

また、プロセッサ30は、入力デバイス26により入力された奥行き値と、3次元座標の復元により得られた第1カメラ10から指定対応点amまでの距離の情報(Z座標値)と、に基づいて、3次元座標の復元の再計算の要否を判定してもよい。   Further, the processor 30 is based on the depth value input by the input device 26 and the information (Z coordinate value) of the distance from the first camera 10 to the designated corresponding point am obtained by the restoration of the three-dimensional coordinates. The necessity of recalculation of restoration of three-dimensional coordinates may be determined.

これにより、PC20は、例えば、入力された対象点までの奥行き値と、復元された対象点までの奥行き値とが大きく異なる場合、3次元座標の復元の精度が低いと判断し、3次元座標の復元の再計算を行わずに、再計算による処理負荷を軽減できる。   Thereby, for example, when the depth value to the input target point and the depth value to the restored target point are largely different, the PC 20 determines that the accuracy of the three-dimensional coordinate restoration is low, and the three-dimensional coordinate The processing load of recalculation can be reduced without recalculation of restoration of.

また、ディスプレイ31は、プロセッサ30の制御により、入力デバイス26により入力された奥行き値と、3次元座標の復元により得られた第1カメラ10から指定対応点amまでの距離の情報と、の差分が所定値(指定値)以上である場合、指定対応点の入力に係るエラーメッセージms1を表示する。エラーメッセージms1は、警告情報の一例である。   Further, the display 31 is a difference between the depth value input by the input device 26 and the information of the distance from the first camera 10 to the designated corresponding point am obtained by the restoration of the three-dimensional coordinates under the control of the processor 30. If is greater than or equal to a predetermined value (specified value), an error message ms1 related to the input of the specified corresponding point is displayed. The error message ms1 is an example of the warning information.

これにより、ユーザは、3次元座標の復元の低下を容易に確認でき、例えば別の対応点をスムーズに入力できる。   Thereby, the user can easily confirm the decrease in the restoration of the three-dimensional coordinates, and can smoothly input, for example, another corresponding point.

本実施形態では、図5において、PC20は、S2〜S6の処理とS7〜S10の処理とを並行して行うことを例示した。尚、S2〜S6の処理を行った後にS7〜S10の処理を行ってもよいし、S7〜S10の処理を行った後にS2〜S6の処理を行ってもよい。   In the present embodiment, FIG. 5 illustrates that the PC 20 performs the processes of S2 to S6 and the processes of S7 to S10 in parallel. The processes of S7 to S10 may be performed after the processes of S2 to S6, or the processes of S2 to S6 may be performed after the processes of S7 to S10.

(第2の実施形態)
第1の実施形態では、ステレオカメラシステムの初期設定時に行われる初期キャリブレーションを示した。第2の実施形態では、運用時に行われるキャリブレーション、つまり、ステレオカメラシステムを設置した後に行われる再キャリブレーションを示す。再キャリブレーションは、例えば、定期的に、復元される3次元画像が乱れるようになった場合、又は台風や地震等の自然災害が発生した場合、に行われる。なお、第2の実施形態においても、第1の実施形態と同様の初期キャリブレーションが既に行われているものとする。
Second Embodiment
The first embodiment shows the initial calibration performed at the time of initial setting of the stereo camera system. The second embodiment shows calibration performed at the time of operation, that is, recalibration performed after installing the stereo camera system. The recalibration is performed, for example, periodically, when the three-dimensional image to be restored becomes disturbed or when a natural disaster such as a typhoon or an earthquake occurs. Also in the second embodiment, it is assumed that the same initial calibration as in the first embodiment has already been performed.

第2の実施形態のステレオカメラシステムにおいて、第1の実施形態と同一の構成要素については、同一の符号を用いることで、その説明を省略又は簡略化する。   In the stereo camera system of the second embodiment, the description of the same components as in the first embodiment will be omitted or simplified by using the same reference numerals.

[構成等]
図9は第2の実施形態におけるPC20Aの構成例を示すブロック図である。PC20Aは、第1の実施形態のPC20の構成を含む他、読み出し部35及び位置探索部36を有する。
[Configuration etc.]
FIG. 9 is a block diagram showing a configuration example of the PC 20A in the second embodiment. The PC 20A includes the configuration of the PC 20 of the first embodiment, and further includes a reading unit 35 and a position searching unit 36.

プロセッサ30Aは、メモリ27に保持されたプログラムを実行することで、読み出し部35及び位置探索部36の各機能を実現する。   The processor 30A implements the functions of the reading unit 35 and the position searching unit 36 by executing the program stored in the memory 27.

読み出し部35は、メモリ27に記憶された、指定情報(例えば、指定対応点座標,距離情報)及び画像情報(例えば、第1画像GZ1,第2画像GZ2,周辺画像GZ11,GZ12)を読み出す。   The reading unit 35 reads designation information (for example, designated corresponding point coordinates, distance information) and image information (for example, first image GZ1, second image GZ2, peripheral images GZ11 and GZ12) stored in the memory 27.

位置探索部36は、再キャリブレーション時に撮像された第1画像GZ3,第2画像GZ4の中に、初期設定時(又は前回キャリブレーション時)の周辺画像GZ11,GZ12があるか否かを探索する。この探索は、例えば、周辺画像GZ11,GZ12をテンプレートとし、それぞれ第1画像GZ3,第2画像GZ4中を移動させて、類似度の高い領域を検出する、テンプレートマッチングにより行われる。   The position search unit 36 searches the first image GZ3 and the second image GZ4 captured at the time of recalibration for whether or not the peripheral images GZ11 and GZ12 at the time of initial setting (or at the time of previous calibration) are present. . This search is performed, for example, by template matching in which the peripheral images GZ11 and GZ12 are used as templates and the first image GZ3 and the second image GZ4 are respectively moved to detect regions having high similarity.

[動作等]
図10及び図11は、運用時に行われる再キャリブレーションの一例を示すフローチャートである。
[Operation etc.]
10 and 11 are flowcharts showing an example of recalibration performed at the time of operation.

初期キャリブレーションにおけるS1の処理と同様、ポート28は、第1カメラ10及び第2カメラ11から、それぞれ第1画像GZ3及び第2画像GZ4の画像データを取り込む(S21)。   Similar to the process of S1 in the initial calibration, the port 28 takes in the image data of the first image GZ3 and the second image GZ4 from the first camera 10 and the second camera 11, respectively (S21).

読み出し部35は、メモリ27に記憶された指定情報及び画像情報を読み出す(S22)。   The reading unit 35 reads the designation information and the image information stored in the memory 27 (S22).

位置探索部36は、読み出し部35によって読み出された、周辺画像GZ11,GZ12をテンプレートとし、S21で撮像された第1画像GZ3,第2画像GZ4に対し、テンプレートマッチングを行う。そして、位置探索部36は、第1画像GZ3,第2画像GZ4において周辺画像GZ11,GZ12と一致する領域画像PGZ3,PGZ4(図12参照)を探索する(S23)。   The position search unit 36 performs template matching on the first image GZ3 and the second image GZ4 captured in S21, using the peripheral images GZ11 and GZ12 read by the reading unit 35 as templates. Then, the position search unit 36 searches for the area images PGZ3 and PGZ4 (see FIG. 12) that match the peripheral images GZ11 and GZ12 in the first image GZ3 and the second image GZ4 (S23).

位置探索部36は、テンプレートマッチングが成功したか否かを判別する(S24)。   The position search unit 36 determines whether the template matching has succeeded (S24).

図12は再キャリブレーション時にテンプレートマッチングが行われる画面を示す図である。プロセッサ30Aは、テンプレートマッチング動作をディスプレイ31の画面に表示する。テンプレートマッチングでは、周辺画像GZ11と周辺画像GZ12とが、それぞれ図中、点線枠g,hで示すように、第1画像GZ3,第2画像GZ4に含まれるか否かの探索が行われる。周辺画像GZ11と周辺画像GZ12とが、それぞれ第1画像GZ3に含まれる領域画像PGZ3と第2画像GZ2に含まれる領域画像PGZ4とに一致するか判別される。一方しか一致しない場合あるいは両方とも一致しない場合、テンプレートマッチングが失敗したと判断される。   FIG. 12 shows a screen on which template matching is performed at the time of recalibration. The processor 30A displays the template matching operation on the screen of the display 31. In the template matching, it is searched whether or not the peripheral image GZ11 and the peripheral image GZ12 are included in the first image GZ3 and the second image GZ4, respectively, as indicated by dotted frames g and h in the drawing. It is determined whether the peripheral image GZ11 and the peripheral image GZ12 match the area image PGZ3 included in the first image GZ3 and the area image PGZ4 included in the second image GZ2, respectively. If only one matches or both do not match, it is determined that the template matching has failed.

テンプレートマッチングが成功した場合、位置探索部36は、一致した領域画像PGZ3,領域画像PGZ4を、それぞれ新たな周辺画像GZ11,周辺画像GZ12としてメモリ27に保存し、領域画像PGZ3の中心座標,領域画像PGZ4の中心座標を、それぞれ指定対応点am,bmの座標として保存する(S25)。   If the template matching is successful, the position search unit 36 stores the matched area image PGZ3 and area image PGZ4 in the memory 27 as new peripheral image GZ11 and peripheral image GZ12, respectively, and the center coordinates of the area image PGZ3 and area image The central coordinates of PGZ 4 are stored as the coordinates of designated corresponding points am and bm, respectively (S 25).

一方、S24でテンプレートマッチングに失敗した場合、プロセッサ30Aは、ディスプレイ31の画面に、対応点探索エラーと対応点再入力を促す表示を行う(S26)。   On the other hand, when the template matching fails in S24, the processor 30A displays on the screen of the display 31 a prompt for corresponding point search error and corresponding point re-input (S26).

図13は対応点再探索のガイダンスms3等が追加された画面を示す図である。このディスプレイ31の画面には、例えば、「対応点再探索エラー: 前回の対応点指定画像を参考に、再度対応点位置を入力してください。」のガイダンスms3(案内情報)が表示される。   FIG. 13 is a diagram showing a screen to which guidance ms3 and the like for corresponding point re-search are added. On the screen of the display 31, for example, guidance ms3 (guidance information) of "corresponding point re-search error: please input the corresponding point position again with reference to the previous corresponding point designation image" is displayed.

さらに、プロセッサ30Aは、例えばディスプレイ31の画面の右下隅に、前回の第1画像GZ1,第2画像GZ2と、対応点am,bmをそれぞれ含む周辺画像GZ11,周辺画像GZ12とを縮小して表示してもよい(S27)。   Further, the processor 30A reduces and displays, for example, the previous first image GZ1 and the second image GZ2 and the peripheral image GZ11 and the peripheral image GZ12 respectively including the corresponding points am and bm in the lower right corner of the screen of the display 31. You may do it (S27).

入力デバイス26は、第1画像GZ3及び第2画像GZ4に対し、ユーザ操作によりカーソルSLで指定された対応点を受け付ける(S28)。プロセッサ30Aは、ユーザによって画像上でクリック操作されると、カーソルSLで指定される、ディスプレイ31に表示される画像上の点を中心に周辺画像を拡大表示する(S29)。   The input device 26 receives corresponding points designated by the cursor SL by the user operation with respect to the first image GZ3 and the second image GZ4 (S28). When the user clicks on the image, the processor 30A magnifies and displays the peripheral image around the point on the image displayed on the display 31, which is designated by the cursor SL (S29).

入力デバイス26は、拡大された周辺画像GZ11,GZ12に対し、ユーザによって指定された新たな対応点を受け付ける(S30)。なお、距離情報(奥行き値)は、初期キャリブレーション時に入力され、メモリ27に保存されているので、奥行き値の入力操作はされなくてもよい。   The input device 26 receives a new corresponding point designated by the user for the enlarged peripheral images GZ11 and GZ12 (S30). Since the distance information (depth value) is input at the time of the initial calibration and stored in the memory 27, the input operation of the depth value may not be performed.

この後、S31〜S38の処理は、第1の実施形態におけるS7〜S14の処理と同じであるので、以後の処理については、その説明を省略する。   After this, since the processes of S31 to S38 are the same as the processes of S7 to S14 in the first embodiment, the description of the processes thereafter will be omitted.

なお、S37において、別の対応点位置を入力するように促すエラーメッセージを表示する場合においても、図13と同様の表示を行ってもよい。つまり、プロセッサ30Aは、ディスプレイ31の画面に、例えば、ガイダンスms3(案内情報)を表示し、ディスプレイ31の画面の右下隅に、前回の第1画像GZ3,第2画像GZ4と、対応点am,bmを含む周辺画像GZ11,周辺画像GZ12を縮小して表示してもよい。   In the case where an error message prompting the user to input another corresponding point position is displayed in S37, the same display as that in FIG. 13 may be performed. That is, the processor 30A displays, for example, guidance ms3 (guidance information) on the screen of the display 31, and in the lower right corner of the screen of the display 31, the previous first image GZ3 and the second image GZ4 and corresponding points am, The peripheral image GZ11 and the peripheral image GZ12 including bm may be displayed in a reduced size.

[効果等]
このように、第2の実施形態のステレオカメラシステム5AのPC20Aでは、プロセッサ30Aは、3次元座標の復元を含むキャリブレーション(復元処理の一例)を複数回行う。初期キャリブレーション(第1の復元処理の一例)では、プロセッサ30Aは、入力デバイス26により入力された指定対応点am,bmの位置情報と、奥行き値と、初期キャリブレーションにおいて第1カメラ10により撮像された第1画像GZ1と、指定対応点amを含む周辺画像GZ11と、をメモリ27に保持しておく。
[Effects, etc.]
As described above, in the PC 20A of the stereo camera system 5A of the second embodiment, the processor 30A performs calibration (an example of the restoration process) including restoration of three-dimensional coordinates multiple times. In the initial calibration (an example of the first restoration processing), the processor 30A captures the position information of the designated corresponding points am and bm input by the input device 26, the depth value, and the first camera 10 in the initial calibration. The memory 27 holds the first image GZ1 and the peripheral image GZ11 including the designated corresponding point am.

運用時に行われる(初期キャリブレーションに後続する)再キャリブレーション(第2の復元処理の一例)では、プロセッサ30Aは、再キャリブレーションにおいて第1カメラ10により撮像された第1画像GZ3における周辺画像GZ11に対応する領域画像PGZ3を検出する。プロセッサ30Aは、領域画像PGZ3に含まれる、初期キャリブレーションで得られた指定対応点を、再キャリブレーションにおける指定対応点amに設定する。プロセッサ30Aは、指定対応点amの設定後、3次元座標の復元を再計算する。   In recalibration (an example of a second restoration process) performed at the time of operation (following the initial calibration), the processor 30A outputs the peripheral image GZ11 in the first image GZ3 captured by the first camera 10 in the recalibration. An area image PGZ3 corresponding to is detected. The processor 30A sets the designated corresponding point obtained in the initial calibration, which is included in the region image PGZ3, as the designated corresponding point am in the recalibration. After setting the designated corresponding point am, the processor 30A recalculates restoration of three-dimensional coordinates.

このように、PC20Aは、再キャリブレーション時に、初期キャリブレーション時の指定対応点の座標、奥行き値、テンプレート画像を用いることができる。従って、再キャリブレーションにおいて、初期キャリブレーションと同様の動作を行わなくて済み、再キャリブレーション時におけるユーザ操作やプロセッサの処理を軽減できる。よって、PC20Aは、1度得られた指定対応点の座標、奥行き値、テンプレート画像を有効活用でき、2つの撮像画像から復元される3次元座標の復元精度を容易に向上できる。なお、初期キャリブレーションに限らず、前回の再キャリブレーションに対して今回の再キャリブレーションが行われる場合でも同様である。   As described above, the PC 20A can use the coordinates of the designated corresponding point at the time of initial calibration, the depth value, and the template image at the time of recalibration. Therefore, in the recalibration, it is not necessary to perform the same operation as the initial calibration, and the user operation and the processing of the processor at the time of the recalibration can be reduced. Therefore, the PC 20A can effectively use the coordinates of the designated corresponding point obtained once, the depth value, and the template image, and can easily improve the restoration accuracy of the three-dimensional coordinates restored from the two captured images. The same applies to the case where the current recalibration is performed for the previous recalibration as well as the initial calibration.

また、ディスプレイ31は、プロセッサ30Aの制御により、再キャリブレーションにおいて、第1画像GZ1における周辺画像GZ11に対応する領域画像PGZ3が検出されなかった場合、又は、メモリ27に保持された奥行き値と再キャリブレーションにより得られた第1カメラ10から指定対応点amまでの距離の情報との差分が指定値以上である場合、メモリ27に保持された指定対応点amの座標と周辺画像GZ11とを表示してもよい。   In addition, the display 31 does not detect the area image PGZ3 corresponding to the peripheral image GZ11 in the first image GZ1 in recalibration under the control of the processor 30A, or the depth value held in the memory 27 When the difference between the information of the distance from the first camera 10 to the designated corresponding point am obtained by calibration is equal to or greater than the designated value, the coordinates of the designated corresponding point am held in the memory 27 and the peripheral image GZ11 are displayed You may

これにより、再キャリブレーションが失敗した場合、ユーザは、ディスプレイ31の画面に表示された、指定対応点amの位置情報と周辺画像GZ11とを見ながら、再度、対応点を指定できる。従って、PC20Aは、3次元座標の復元精度の高い再キャリブレーションを実行できる。   As a result, when recalibration fails, the user can specify the corresponding point again while looking at the position information of the designated corresponding point am and the peripheral image GZ11 displayed on the screen of the display 31. Therefore, the PC 20A can perform recalibration with high accuracy of restoration of three-dimensional coordinates.

また、ディスプレイ31は、メモリ27に記憶された指定対応点amの位置情報と周辺画像GZ11とを参照して、再キャリブレーションにおいて第1画像GZ3における指定対応点amの位置を入力するように促すガイダンスms3を表示してもよい。ガイダンスms3は、案内情報の一例である。   Further, the display 31 refers to the position information of the designated corresponding point am stored in the memory 27 and the peripheral image GZ11, and prompts the user to input the position of the designated corresponding point am in the first image GZ3 in recalibration. The guidance ms3 may be displayed. The guidance ms3 is an example of guidance information.

これにより、ユーザは、対応点の指定を促すガイダンスms3に従って、再度、簡単に対応点を指定できる。従って、PC20Aの操作性が向上する。   Thus, the user can easily specify the corresponding point again according to the guidance ms3 prompting the specification of the corresponding point. Therefore, the operability of the PC 20A is improved.

(他の実施形態)
以上のように、本開示における技術の例示として、第1,第2の実施形態を説明した。しかし、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施形態にも適用できる。また、各実施形態を組み合わせてもよい。
(Other embodiments)
As mentioned above, the 1st, 2nd embodiment was described as an illustration of the art in this indication. However, the technology in the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like have been made. Also, the embodiments may be combined.

第1,第2の実施形態では、図5及び図10を用いてキャリブレーションの一例を示したが、図5及び図10に示された処理以外の処理を含んでキャリブレーションが実施されてもよい。   In the first and second embodiments, an example of calibration is shown using FIGS. 5 and 10, but even if the calibration is performed including processes other than the processes shown in FIGS. 5 and 10 Good.

図14は初期設定時に行われる初期キャリブレーションの他例を示すフローチャートである。図15は、運用時に行われる再キャリブレーションの他例を示すフローチャートである。   FIG. 14 is a flow chart showing another example of the initial calibration performed at the time of initial setting. FIG. 15 is a flowchart showing another example of recalibration performed at the time of operation.

図14では、S12において、精度評価の回数が閾値を超えていない場合、プロセッサ30は、S1に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。また、S14の処理後、プロセッサ30は、S1に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。   In FIG. 14, when the number of accuracy evaluations does not exceed the threshold in S12, the processor 30 proceeds to S1 and recaptures image data of the first image GZ1 and the second image GZ2. In addition, after the process of S14, the processor 30 proceeds to S1 and recaptures the image data of the first image GZ1 and the second image GZ2.

図15では、S36において、精度評価の回数が閾値を超えていない場合、プロセッサ30Aは、S21に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。また、S38の処理後、プロセッサ30Aは、S21に進み、第1画像GZ1及び第2画像GZ2の画像データを再度取り込む。   In FIG. 15, when the number of accuracy evaluations does not exceed the threshold in S36, the processor 30A proceeds to S21 and recaptures the image data of the first image GZ1 and the second image GZ2. Further, after the process of S38, the processor 30A proceeds to S21 and recaptures the image data of the first image GZ1 and the second image GZ2.

このように、PC20,20Aは、画像データを再度取り込むことで、撮像時刻に差がある複数の画像データを取得できる。撮像時刻の時間差により、例えば撮像画像における明るい領域や暗い領域が変化し、各々の撮像画像における特徴点が変化する。特徴点が変化することで、対応点も変化し、姿勢推定の結果も変化する。   As described above, the PCs 20 and 20A can acquire a plurality of image data having a difference in imaging time by capturing the image data again. Due to the time difference between the imaging times, for example, bright areas and dark areas in the captured image change, and feature points in each captured image change. By changing the feature points, the corresponding points also change, and the result of the posture estimation also changes.

よって、取得された複数の画像データの撮像時刻に差があることで、撮像画像において時間方向のばらつきが適度に加味される。これにより、PC20,20Aは、第1カメラ10に対する第2カメラ11の位置や姿勢を推定する推定精度を向上できる。尚、図14,図15では、画像データが再度取り込みされた場合でも、指定対応点が変更されなくてもよい。   Therefore, due to the difference in the imaging times of the plurality of acquired image data, the variation in the time direction is appropriately taken into consideration in the imaged image. Thus, the PCs 20 and 20A can improve the estimation accuracy of estimating the position and orientation of the second camera 11 with respect to the first camera 10. In FIGS. 14 and 15, the designated corresponding point may not be changed even when the image data is fetched again.

第1,第2の実施形態では、プロセッサ30,30Aは、1つの指定された対応点と計算された対応点とを基に、精度評価を行うことを例示した。この代わりに、プロセッサ30,30Aは、複数(例えば2点あるいは3点)の指定された対応点と複数の計算された対応点とを基に、精度評価を行ってもよい。この場合、複数の対応点を用いることで、精度の評価がより正確になる。   In the first and second embodiments, the processor 30 or 30A exemplifies that the accuracy evaluation is performed based on one designated corresponding point and the calculated corresponding point. Alternatively, the processors 30, 30A may perform the accuracy evaluation based on a plurality of (for example, 2 or 3) designated corresponding points and a plurality of calculated corresponding points. In this case, by using a plurality of corresponding points, the accuracy evaluation becomes more accurate.

第1,第2の実施形態では、指定対応点に対応する、対象点までの距離情報として奥行き値(つまりZ座標値)が用いられることを例示した。この代わりに、カメラから対象点までの距離情報として、X座標,Y座標,Z座標の値の二乗の和の平方根で表される距離を用いて、評価するようにしてもよい。これにより、例えば、カメラから対象点がX座標,Y座標方向に大きく外れている等、対象点のZ座標の実測値が求めにくい場合も、対処できる。   In the first and second embodiments, it is exemplified that the depth value (that is, the Z coordinate value) is used as the distance information to the target point corresponding to the designated corresponding point. Instead of this, evaluation may be performed using, as distance information from the camera to the target point, a distance represented by a square root of a sum of squares of values of X coordinate, Y coordinate, and Z coordinate. As a result, for example, it is possible to cope with the case where it is difficult to obtain the actual measurement value of the Z coordinate of the target point, such as when the target point is largely deviated from the camera in the X coordinate and Y coordinate directions.

第2の実施形態では、PC20Aは、再キャリブレーション時、第1画像及び第2画像の両方に対して、テンプレートマッチングにより指定対応点を求めることを例示した。この代わりに、例えば、明らかに第1画像及び第2画像のいずれか一方がずれていると判断できた場合、プロセッサ30Aは、ずれていると判断される方の画像を用いて指定対応点を求めてもよい。そして、プロセッサ30,30Aは、求められた指定対応点と、初期キャリブレーション(又は前回の再キャリブレーション)における他方の画像の指定対応点と、を用いて、3次元復元処理してもよい。また、PC20Aは、テンプレートマッチング以外の画像処理により、指定対応点を求めてもよい。   In the second embodiment, at the time of recalibration, the PC 20A exemplifies determining designated correspondence points by template matching for both the first image and the second image. Instead of this, for example, when it is determined that either one of the first image and the second image is obviously deviated, the processor 30A uses the image judged to be deviated to designate the designated corresponding point. You may ask. Then, the processors 30, 30A may perform three-dimensional reconstruction processing using the determined designated corresponding point and the designated corresponding point of the other image in the initial calibration (or the previous recalibration). The PC 20A may also obtain the designated corresponding point by image processing other than template matching.

また、第1,第2の実施形態では、第1カメラ10及び第2カメラ11は、PC20,20Aにケーブル18A、18Bを介して直接に接続される構成を例示した。この代わりに、第1カメラ10及び第2カメラ11とPC20,20Aとの間に送信機及び受信機が設けられ、送信機及び受信機を用いた通信により、データ及び信号が通信される構成でもよい。これにより、遠隔地に第1カメラと第2カメラとが設置され、離れた場所に設置されたPCにより、3次元復元処理できる。   In the first and second embodiments, the first camera 10 and the second camera 11 are directly connected to the PCs 20 and 20A via the cables 18A and 18B. Alternatively, a transmitter and a receiver may be provided between the first and second cameras 10 and 11 and the PCs 20 and 20A, and data and signals may be communicated by communication using the transmitter and the receiver. Good. Thereby, the first camera and the second camera are installed at a remote place, and a three-dimensional restoration process can be performed by the PC installed at a distant place.

第1の実施形態では、プロセッサは、物理的にどのように構成してもよい。また、プログラム可能なプロセッサを用いれば、プログラムの変更により処理内容を変更できるので、プロセッサの設計の自由度を高めることができる。プロセッサは、1つの半導体チップで構成してもよいし、物理的に複数の半導体チップで構成してもよい。複数の半導体チップで構成する場合、第1,第2の実施形態の各制御をそれぞれ別の半導体チップで実現してもよい。この場合、それらの複数の半導体チップで1つのプロセッサを構成すると考えることができる。また、プロセッサは、半導体チップと別の機能を有する部材(コンデンサ等)で構成してもよい。また、プロセッサが有する機能とそれ以外の機能とを実現するように、1つの半導体チップを構成してもよい。   In the first embodiment, the processor may be physically configured in any way. In addition, since the processing content can be changed by changing the program by using a programmable processor, the degree of freedom in processor design can be increased. The processor may be configured of one semiconductor chip or may be physically configured of a plurality of semiconductor chips. When it comprises a plurality of semiconductor chips, each control of the first and second embodiments may be realized by different semiconductor chips. In this case, it can be considered that one processor is configured by the plurality of semiconductor chips. Further, the processor may be configured by a member (such as a capacitor) having a function different from that of the semiconductor chip. Further, one semiconductor chip may be configured to realize the function of the processor and the other functions.

5、5A ステレオカメラシステム
10 第1カメラ
11 第2カメラ
13 第1の筐体
14 第2の筐体
18A、18B、18C ケーブル
20、20A PC
21 特徴点抽出部
22 対応点検出部
23 カメラパラメータ推定部
24 3次元座標計算部
25 精度評価部
26 入力デバイス
27 メモリ
28 ポート
30、30A プロセッサ
31 ディスプレイ
35 読み出し部
36 位置探索部
41 対象点
62 ベースライン長
a1〜a7、b1〜b7 特徴点
a11〜a15、b11〜b15 対応点
am、bm 指定された対応点(指定対応点)
c1〜c7、cm 対応線
fr1、fr2 枠
g,h 点線枠
GZ1、GZ3 第1画像
GZ2、GZ4 第2画像
GZ11、GZ12 周辺画像
MK マーク
ms1 エラーメッセージ
ms2、ms3 ガイダンス
pf1、pf2 矩形枠
PGZ3、PGZ4 領域画像
SL カーソル
5, 5A Stereo Camera System 10 First Camera 11 Second Camera 13 First Case 14 Second Case 18A, 18B, 18C Cable 20, 20A PC
21 feature point extraction unit 22 corresponding point detection unit 23 camera parameter estimation unit 24 three-dimensional coordinate calculation unit 25 accuracy evaluation unit 26 input device 27 memory 28 port 30, 30A processor 31 display 35 readout unit 36 position search unit 41 target point 62 base Line length a1 to a7, b1 to b7 feature points a11 to a15, b11 to b15 corresponding points am, bm specified corresponding points (specified corresponding points)
c1 to c7, cm Corresponding line fr1, fr2 Frame g, h Dotted frame GZ1, GZ3 First image GZ2, GZ4 Second image GZ11, GZ12 Peripheral image MK Mark ms1 Error message ms2, ms3 Guidance pf1, pf2 Rectangular frame PGZ3, PGZ4 Region image SL cursor

Claims (9)

ポートと入力デバイスとプロセッサとを備える3次元情報復元装置であって、
前記ポートは、第1の撮像装置により撮像された第1の画像と、第2の撮像装置により撮像された第2の画像と、を取得し、
前記プロセッサは、
前記第1の画像における第1の特徴点と、前記第2の画像における第2の特徴点と、が対応する第1の対応点ペアを複数検出し、
複数の前記第1の対応点ペアに基づいて、前記第1の特徴点が逆射影された3次元座標を復元し、
前記入力デバイスは、
前記第1の画像及び前記第2の画像における任意の対応点ペアを第2の対応点ペアとして、前記第2の対応点ペアの前記第1の画像及び前記第2の画像それぞれでの位置を示す位置情報と、前記第1の撮像装置から前記第2の対応点ペアまでの距離を示す距離情報と、を入力し、
前記プロセッサは、
入力された前記第2の対応点ペアの前記位置情報に基づいて、前記第2の対応点ペアの3次元座標を復元し、
復元された前記第2の対応点ペアの3次元座標と、入力された前記距離情報と、に基づいて、前記3次元座標の精度を評価し、
前記精度が所定値以下である場合、前記第1の対応点ペアを変更して3次元座標を導出するためのパラメータを再計算し、
再計算された前記パラメータに基づいて、入力された前記第2の対応点ペアの3次元座標の復元の再計算を行う、
3次元情報復元装置。
A three-dimensional information restoration apparatus comprising a port, an input device and a processor, wherein
The port acquires a first image captured by a first imaging device and a second image captured by a second imaging device,
The processor is
Detecting a plurality of first corresponding point pairs in which the first feature points in the first image and the second feature points in the second image correspond to each other;
Restoring three-dimensional coordinates in which the first feature point is back-projected based on the plurality of first corresponding point pairs;
The input device is
The position in the first image and the second image of the second corresponding point pair is set as an arbitrary corresponding point pair in the first image and the second image as a second corresponding point pair. And position information indicating the distance from the first imaging device to the second corresponding point pair.
The processor is
The three-dimensional coordinates of the second corresponding point pair are restored based on the input position information of the second corresponding point pair,
The accuracy of the three-dimensional coordinates is evaluated based on the three-dimensional coordinates of the second corresponding point pair restored and the input distance information;
If the accuracy is equal to or less than a predetermined value, the first correspondence point pair is changed to recalculate parameters for deriving three-dimensional coordinates;
Recalculate restoration of three-dimensional coordinates of the input second corresponding point pair based on the recalculated parameter
Three-dimensional information restoration device.
請求項1に記載の3次元情報復元装置であって、更に、
前記プロセッサの制御により、前記第1の画像及び前記第2の画像の少なくとも一方に、前記複数の第1の対応点ペアに含まれる前記第2の対応点ペアの候補を表示するディスプレイを備える、3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 1, further comprising:
A display that displays, under control of the processor, at least one of the first image and the second image, candidates for the second corresponding point pair included in the plurality of first corresponding point pairs; Three-dimensional information restoration device.
請求項2に記載の3次元情報復元装置であって、更に、
前記ディスプレイは、前記プロセッサの制御により、前記第2の対応点ペアの位置として、前記第1の画像及び前記第2の画像の少なくとも一方において、前記第1の撮像装置からの距離が長い位置を優先して前記位置情報を入力するように促す案内情報を表示する、3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 2, further comprising:
Under control of the processor, the display is a position where the distance from the first imaging device is long in at least one of the first image and the second image as the position of the second corresponding point pair. A three-dimensional information restoration apparatus that displays guidance information prompting to input the position information with priority.
請求項2または3に記載の3次元情報復元装置であって、
前記プロセッサは、前記入力デバイスにより入力された距離情報と、前記3次元座標の復元により得られた前記第1の撮像装置から前記第2の対応点ペアまでの距離の情報と、に基づいて、前記3次元座標の復元の再計算の要否を判定する、3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 2 or 3, wherein
The processor is based on distance information input by the input device and information on a distance from the first imaging device to the second corresponding point pair obtained by restoring the three-dimensional coordinates. A three-dimensional information restoration apparatus that determines the necessity of recalculation of restoration of the three-dimensional coordinates.
請求項4に記載の3次元情報復元装置であって、更に、
前記ディスプレイは、前記プロセッサの制御により、前記入力デバイスにより入力された距離情報と、前記3次元座標の復元により得られた前記第1の撮像装置から前記第2の対応点ペアまでの距離の情報との、差分が所定値以上である場合、前記第2の対応点ペアの入力に係る警告情報を表示する、3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 4, further comprising:
The display is, under the control of the processor, distance information input by the input device, and information of a distance from the first imaging device to the second corresponding point pair obtained by restoring the three-dimensional coordinates. The three-dimensional information restoration apparatus displays warning information related to the input of the second corresponding point pair when the difference between the two is equal to or more than a predetermined value.
請求項1に記載の3次元情報復元装置であって、
前記プロセッサは、前記3次元座標の復元を含む復元処理を複数回行い、
第1の復元処理では、
前記入力デバイスにより入力された前記第2の対応点ペアの位置情報と、前記距離情報と、前記第1の復元処理において前記第1の撮像装置により撮像された前記第1の画像において前記第2の対応点ペアを含む第3の画像と、をメモリに保持し、
前記第1の復元処理に後続する第2の復元処理では、
前記第2の復元処理において前記第1の撮像装置により撮像された前記第1の画像における前記第3の画像に対応する領域を検出し、
前記領域に含まれる、前記第1の復元処理で得られた前記第2の対応点ペアに相当する対応点ペアを、前記第2の復元処理における第2の対応点ペアに設定し、
前記第2の対応点ペアの設定後、前記3次元座標の復元を再計算する、
3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 1, wherein
The processor performs restoration processing including restoration of the three-dimensional coordinates multiple times,
In the first restoration process,
In the first image captured by the first imaging device in the first restoration processing, position information of the second corresponding point pair input by the input device, the distance information, and the second image. Store in memory a third image containing the corresponding point pairs of
In a second restoration process subsequent to the first restoration process,
Detecting a region corresponding to the third image in the first image captured by the first imaging device in the second restoration process;
A corresponding point pair corresponding to the second corresponding point pair obtained in the first restoration process and included in the area is set as a second corresponding point pair in the second restoration process,
Recalculate the reconstruction of the three-dimensional coordinates after setting the second corresponding point pair,
Three-dimensional information restoration device.
請求項6に記載の3次元情報復元装置であって、更に、
ディスプレイを備え、
前記ディスプレイは、前記プロセッサの制御により、前記第2の復元処理において、前記第1の画像における前記第3の画像に対応する領域が検出されなかった場合、又は、前記メモリに保持された距離情報と前記第2の復元処理により得られた前記第1の撮像装置から前記第2の対応点ペアまでの距離の情報との差分が所定値以上である場合、前記メモリに保持された前記第2の対応点ペアの位置情報と前記第3の画像とを表示する、3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 6, further comprising:
Equipped with a display
The display is configured such that, under the control of the processor, an area corresponding to the third image in the first image is not detected in the second restoration process, or the distance information held in the memory And the second information stored in the memory, when the difference between the information of the distance from the first imaging device to the second corresponding point pair obtained by the second restoration processing is equal to or greater than a predetermined value. A three-dimensional information restoration apparatus for displaying position information of a corresponding point pair and the third image.
請求項7に記載の3次元情報復元装置であって、更に、
前記ディスプレイは、前記メモリに保持された前記第2の対応点ペアの位置情報と前記第3の画像とを参照して、前記第2の復元処理において前記第1の画像における前記第2の対応点ペアの位置情報を入力するように促す案内情報を表示する、3次元情報復元装置。
The three-dimensional information restoration apparatus according to claim 7, further comprising:
The display refers to the position information of the second corresponding point pair held in the memory and the third image, and the second correspondence in the first image in the second restoration process A three-dimensional information restoration apparatus that displays guidance information prompting to input position information of point pairs.
ポートと入力デバイスとプロセッサとを備える3次元情報復元装置における3次元情報復元方法であって、
前記ポートは、第1の撮像装置により撮像された第1の画像と、第2の撮像装置により撮像された第2の画像と、を取得し、
前記プロセッサは、
前記第1の画像における第1の特徴点と、前記第2の画像における第2の特徴点と、が対応する第1の対応点ペアを複数検出し、
複数の前記第1の対応点ペアに基づいて、前記第1の特徴点が逆射影された3次元座標を復元し、
前記入力デバイスは、
前記第1の画像及び前記第2の画像における任意の対応点ペアを第2の対応点ペアとして、前記第2の対応点ペアの前記第1の画像及び前記第2の画像それぞれでの位置を示す位置情報と、前記第1の撮像装置から前記第2の対応点ペアまでの距離を示す距離情報と、を入力し、
入力された前記第2の対応点ペアの前記位置情報に基づいて、前記第2の対応点ペアの3次元座標を復元し、
復元された前記第2の対応点ペアの3次元座標と、入力された前記距離情報と、に基づいて、前記3次元座標の精度を評価し、
前記精度が所定値以下である場合、前記第1の対応点ペアを変更して3次元座標を導出するためのパラメータを再計算し、
再計算された前記パラメータに基づいて、入力された前記第2の対応点ペアの3次元座標の復元の再計算を行う、
3次元情報復元方法。
A three-dimensional information restoration method in a three-dimensional information restoration device comprising a port, an input device and a processor, comprising:
The port acquires a first image captured by a first imaging device and a second image captured by a second imaging device,
The processor is
Detecting a plurality of first corresponding point pairs in which the first feature points in the first image and the second feature points in the second image correspond to each other;
Restoring three-dimensional coordinates in which the first feature point is back-projected based on the plurality of first corresponding point pairs;
The input device is
The position in the first image and the second image of the second corresponding point pair is set as an arbitrary corresponding point pair in the first image and the second image as a second corresponding point pair. And position information indicating the distance from the first imaging device to the second corresponding point pair.
The three-dimensional coordinates of the second corresponding point pair are restored based on the input position information of the second corresponding point pair,
The accuracy of the three-dimensional coordinates is evaluated based on the three-dimensional coordinates of the second corresponding point pair restored and the input distance information;
If the accuracy is equal to or less than a predetermined value, the first correspondence point pair is changed to recalculate parameters for deriving three-dimensional coordinates;
Recalculate restoration of three-dimensional coordinates of the input second corresponding point pair based on the recalculated parameter
3D information restoration method.
JP2015225110A 2014-12-24 2015-11-17 Three-dimensional information restoration apparatus and three-dimensional information restoration method Active JP6541070B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015225110A JP6541070B2 (en) 2015-11-17 2015-11-17 Three-dimensional information restoration apparatus and three-dimensional information restoration method
US15/534,042 US10249058B2 (en) 2014-12-24 2015-12-14 Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
PCT/JP2015/006218 WO2016103621A1 (en) 2014-12-24 2015-12-14 Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015225110A JP6541070B2 (en) 2015-11-17 2015-11-17 Three-dimensional information restoration apparatus and three-dimensional information restoration method

Publications (2)

Publication Number Publication Date
JP2017090420A JP2017090420A (en) 2017-05-25
JP6541070B2 true JP6541070B2 (en) 2019-07-10

Family

ID=58768044

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015225110A Active JP6541070B2 (en) 2014-12-24 2015-11-17 Three-dimensional information restoration apparatus and three-dimensional information restoration method

Country Status (1)

Country Link
JP (1) JP6541070B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6760656B2 (en) * 2017-11-24 2020-09-23 国立大学法人 岡山大学 Object identification method
WO2020153264A1 (en) * 2019-01-24 2020-07-30 パナソニックIpマネジメント株式会社 Calibration method and calibration device
JP7240258B2 (en) * 2019-05-30 2023-03-15 キヤノン株式会社 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM OF IMAGE PROCESSING DEVICE
CN112634371B (en) * 2019-09-24 2023-12-15 阿波罗智联(北京)科技有限公司 Method and device for outputting information and calibrating camera
CN116129036B (en) * 2022-12-02 2023-08-29 中国传媒大学 Depth information guided omnidirectional image three-dimensional structure automatic recovery method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0933248A (en) * 1995-07-20 1997-02-07 Nissan Motor Co Ltd Passive triangulation-type range finder
JP3712847B2 (en) * 1997-05-20 2005-11-02 株式会社リコー Three-dimensional shape measurement method, three-dimensional shape measurement device, and posture detection device for imaging means
JP4957134B2 (en) * 2006-09-12 2012-06-20 株式会社日立製作所 Distance measuring device
JP2008304248A (en) * 2007-06-06 2008-12-18 Konica Minolta Holdings Inc Method for calibrating on-board stereo camera, on-board distance image generating apparatus, and program
JP5620200B2 (en) * 2010-09-06 2014-11-05 株式会社トプコン Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program

Also Published As

Publication number Publication date
JP2017090420A (en) 2017-05-25

Similar Documents

Publication Publication Date Title
JP6541070B2 (en) Three-dimensional information restoration apparatus and three-dimensional information restoration method
EP3420530B1 (en) A device and method for determining a pose of a camera
WO2016103621A1 (en) Three-dimensional information restoration device, three-dimensional information restoration system, and three-dimensional information restoration method
US9501725B2 (en) Interactive and automatic 3-D object scanning method for the purpose of database creation
US8326021B2 (en) Measurement apparatus and control method
JP6011548B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
JP5580164B2 (en) Optical information processing apparatus, optical information processing method, optical information processing system, and optical information processing program
JP5593177B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
US20110249117A1 (en) Imaging device, distance measuring method, and non-transitory computer-readable recording medium storing a program
JP6403115B2 (en) 3D information restoration device, 3D information restoration system, and 3D information restoration method
KR102450236B1 (en) Electronic apparatus, method for controlling thereof and the computer readable recording medium
US10600202B2 (en) Information processing device and method, and program
JP6240706B2 (en) Line tracking using automatic model initialization with graph matching and cycle detection
JP7420135B2 (en) Information processing device, information processing method, and program
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
JP2015156540A (en) Image processing device, image processing method, and image processing program
JP7028729B2 (en) Object tracking device, object tracking system, and object tracking method
US9245343B1 (en) Real-time image geo-registration processing
JP5887974B2 (en) Similar image region search device, similar image region search method, and similar image region search program
JP5464671B2 (en) Image processing apparatus, image processing method, and image processing program
JP6071142B2 (en) Image converter
JP5636966B2 (en) Error detection apparatus and error detection program
JP6426215B2 (en) Endoscope apparatus and program
JP6525693B2 (en) Image processing apparatus and image processing method
JP6168601B2 (en) Image converter

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190507

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190531

R151 Written notification of patent or utility model registration

Ref document number: 6541070

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151