JPWO2018229812A1 - Three-dimensional measuring device and method - Google Patents
Three-dimensional measuring device and method Download PDFInfo
- Publication number
- JPWO2018229812A1 JPWO2018229812A1 JP2019524550A JP2019524550A JPWO2018229812A1 JP WO2018229812 A1 JPWO2018229812 A1 JP WO2018229812A1 JP 2019524550 A JP2019524550 A JP 2019524550A JP 2019524550 A JP2019524550 A JP 2019524550A JP WO2018229812 A1 JPWO2018229812 A1 JP WO2018229812A1
- Authority
- JP
- Japan
- Prior art keywords
- dimensional
- information
- point group
- group information
- measured
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000012937 correction Methods 0.000 claims abstract description 101
- 238000005259 measurement Methods 0.000 claims abstract description 48
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 238000004364 calculation method Methods 0.000 claims description 18
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000000691 measurement method Methods 0.000 claims 8
- 239000000284 extract Substances 0.000 abstract description 5
- 238000012545 processing Methods 0.000 description 58
- 238000010586 diagram Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 10
- 230000014509 gene expression Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 230000000052 comparative effect Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000011410 subtraction method Methods 0.000 description 2
- 238000012356 Product development Methods 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012887 quadratic function Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
歩行する人物のように形状が複雑な物体の物体検出に必要な三次元点群情報を取得できる三次元計測装置、および方法を提供することを目的とする。計測対象の物体を含む撮像画像を三次元情報として得る三次元センサと、三次元センサからの三次元情報を点群情報として取得する三次元点群情報取得部と、撮像画像について計測対象の物体の点群情報を抽出する物体点群情報抽出部と、対象の物体の形状を物体形状モデルとして記憶する物体形状モデルデータベースと、前記物体形状モデルと計測対象の物体の点群情報から、物体の点群の座標を補正する補正パラメータを算出する補正パラメータ算出手段と、補正パラメータにより計測対象の物体の点群情報を補正する点群情報補正手段を有することを特徴とする三次元計測装置。It is an object of the present invention to provide a three-dimensional measuring device and a three-dimensional measuring device capable of acquiring three-dimensional point group information necessary for detecting an object having a complicated shape such as a walking person. A three-dimensional sensor that obtains a captured image including the object to be measured as three-dimensional information, a three-dimensional point cloud information obtaining unit that obtains three-dimensional information from the three-dimensional sensor as point cloud information, and an object to be measured for the captured image An object point group information extraction unit that extracts point cloud information of the object, an object shape model database that stores the shape of the target object as an object shape model, and, from the point shape information of the object shape model and the measurement target object, A three-dimensional measuring apparatus, comprising: a correction parameter calculating unit that calculates a correction parameter for correcting coordinates of a point group; and a point group information correcting unit that corrects point group information of an object to be measured using the correction parameter.
Description
本発明は、カメラなどの計測装置が取得した点群情報から対象の物体を検出する三次元計測装置、および方法に関する。 The present invention relates to a three-dimensional measuring device and a method for detecting a target object from point cloud information acquired by a measuring device such as a camera.
近年、計測装置が計測した情報を用いて、物体を検出する物体検出技術へのニーズが高まっている。 In recent years, the need for an object detection technique for detecting an object using information measured by a measurement device has been increasing.
計測装置としては、監視カメラ、ステレオカメラ、距離センサ、レーザレーダ、赤外線タグなどが多く活用されている。これらの計測装置のなかでも特に、装置を新設するための導入コストが安く、かつ既設の装置を利用できればコストを抑えて物体検出技術を適用できることから、監視カメラへの期待が高い。しかし、監視カメラからの一般的な画像による物体検出技術では、入力画像と予めデータベースに保存した大量のサンプルデータ(サンプル画像)を比較する手法を採用するため、照明条件などにより物体の見え方がサンプルデータと大きく異なる場合に、物体を検出することが困難となるという問題がある。 Surveillance cameras, stereo cameras, distance sensors, laser radars, infrared tags, and the like are widely used as measurement devices. Among these measuring devices, in particular, there is a high expectation for a surveillance camera because the introduction cost for installing a new device is low, and if an existing device can be used, the cost can be reduced and the object detection technology can be applied. However, the object detection technology using a general image from a surveillance camera employs a method of comparing an input image with a large amount of sample data (sample images) stored in a database in advance. There is a problem that it is difficult to detect an object when the data is significantly different from the sample data.
そこで、物体の三次元形状を計測することで、物体を高精度に検出する技術に注目が集まっている。このような技術として、例えば、ステレオカメラを用いた物体検出技術が挙げられる。この技術では、ステレオカメラが撮像した左右一対のカメラ画像を比較して算出した視差により、撮像範囲内の三次元の点群情報を取得することで、物体の三次元形状を計測して物体検出を実行する。この場合に正確な三次元の点群情報を取得するためには、視差を高精度に算出する必要があり、具体的には、左右のカメラ間の位置関係を求めるキャリブレーション作業の精度を上げる、あるいは視差を高密度に算出するといった方法がある。 Therefore, attention has been focused on a technology for detecting an object with high accuracy by measuring the three-dimensional shape of the object. Such a technique includes, for example, an object detection technique using a stereo camera. In this technology, object detection is performed by measuring the three-dimensional shape of an object by acquiring three-dimensional point group information within an imaging range based on parallax calculated by comparing a pair of left and right camera images captured by a stereo camera. Execute In this case, in order to obtain accurate three-dimensional point group information, it is necessary to calculate the parallax with high accuracy. Specifically, the accuracy of the calibration work for obtaining the positional relationship between the left and right cameras is improved. Alternatively, there is a method of calculating the parallax at a high density.
しかし、前者の方法では製品の開発コスト増大に繋がり、後者の方法では処理負荷の増大に繋がるため、視差算出後に物体を検出する場合に処理負荷が大きい高度なアルゴリズムを適用することが困難となる。 However, the former method leads to an increase in product development cost, and the latter method leads to an increase in processing load. Therefore, it is difficult to apply an advanced algorithm having a large processing load when detecting an object after calculating parallax. .
そのため、視差の算出精度は上げず三次元の点群情報を直接補正する技術が求められる。例えば、特許文献1では、床などの平面モデルを利用して三次元点群を直線や曲線に当てはめることで、三次元の点群情報を補正している。
Therefore, a technique for directly correcting the three-dimensional point group information without increasing the parallax calculation accuracy is required. For example, in
特許文献1では、床などの一定の直線や曲線を持つ物体であれば三次元点群情報を補正できるものの、歩行する人物のように形状が複雑な物体を補正できず、物体検出に必要な三次元点群情報を取得できない。
In
以上のことから本発明においては、歩行する人物のように形状が複雑な物体の物体検出に必要な三次元点群情報を取得できる三次元計測装置、方法、およびプログラムを提供することを目的とする。 In view of the above, it is an object of the present invention to provide a three-dimensional measuring device, a method, and a program capable of acquiring three-dimensional point group information necessary for detecting an object having a complicated shape such as a walking person. I do.
以上のことから本発明においては、「計測対象の物体を含む撮像画像を三次元情報として得る三次元センサと、三次元センサからの三次元情報を点群情報として取得する三次元点群情報取得部と、撮像画像について計測対象の物体の点群情報を抽出する物体点群情報抽出部と、対象の物体の形状を物体形状モデルとして記憶する物体形状モデルデータベースと、前記物体形状モデルと計測対象の物体の点群情報から、物体の点群の座標を補正する補正パラメータを算出する補正パラメータ算出手段と、補正パラメータにより計測対象の物体の点群情報を補正する点群情報補正手段を有することを特徴とする三次元計測装置。」としたものである。 From the above, in the present invention, the three-dimensional sensor that obtains a captured image including the object to be measured as three-dimensional information, and the three-dimensional point group information acquisition that acquires three-dimensional information from the three-dimensional sensor as point group information Unit, an object point cloud information extraction unit that extracts point cloud information of an object to be measured from the captured image, an object shape model database that stores the shape of the target object as an object shape model, the object shape model and the measurement object Correction parameter calculation means for calculating a correction parameter for correcting the coordinates of the point cloud of the object from the point cloud information of the object, and point cloud information correction means for correcting the point cloud information of the object to be measured by the correction parameter A three-dimensional measuring device characterized by the following. "
また本発明は、「計測対象の物体を含む撮像画像を三次元情報として得る三次元センサからの三次元情報を点群情報として取得し、撮像画像について計測対象の物体の点群情報を抽出し、計測対象の物体の形状を物体形状モデルとして記憶し、物体形状モデルと計測対象の物体の点群情報から、物体の点群の座標を補正する補正パラメータを算出し、補正パラメータにより計測対象の物体の点群情報を補正することを特徴とする三次元計測方法。」としたものである。 Also, the present invention provides a method of obtaining three-dimensional information from a three-dimensional sensor that obtains a captured image including an object to be measured as three-dimensional information as point cloud information, and extracting point cloud information of the measured object from the captured image. The shape of the object to be measured is stored as an object shape model, and a correction parameter for correcting the coordinates of the point cloud of the object is calculated from the object shape model and the point cloud information of the object to be measured. A three-dimensional measuring method characterized by correcting point group information of an object. "
以上述べた特徴により本発明の三次元計測装置を適用することで、物体の検出に必要な精度の三次元点群情報を算出できる。 By applying the three-dimensional measuring apparatus of the present invention with the features described above, it is possible to calculate three-dimensional point group information with the accuracy required for detecting an object.
また本発明の実施例によれば、ステレオカメラのような三次元情報の計測装置において、計測範囲全体の三次元点群情報から計測対象である物体の点群情報を抽出し、物体形状モデルと比較することで、点群情報の補正パラメータを求め、新たに入力された三次元点群情報を前記パラメータにて補正することで、物体の検出に必要な精度の三次元点群情報を取得するができる。 According to the embodiment of the present invention, in a three-dimensional information measuring device such as a stereo camera, the point cloud information of the object to be measured is extracted from the three-dimensional point cloud information of the entire measurement range, and the object shape model and By comparison, a correction parameter of the point group information is obtained, and the newly input three-dimensional point group information is corrected by the parameter to obtain three-dimensional point group information with an accuracy required for object detection. Can be.
以下、本発明の具体的な実施形態について、図面を参照しながら説明する。 Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.
図1は本発明の実施例1に係る三次元計測装置のブロック構成例図である。図1に示す三次元計測装置1は、2台のカメラ2R、2L(撮像装置)を隣接して構成されたステレオカメラ2を用いて取得した三次元点群情報を、計測対象の物体形状モデルに基づき事前に求めたパラメータによって補正する装置である。なお、図1の三次元計測装置1における、画像取得部3、三次元点群情報取得部4、物体点群情報抽出部5、補正パラメータ算出部6、点群情報補正部7の各機能は、演算装置、主記憶装置、外部記憶装置を有するカメラ、あるいはカメラとは別に用意した計算機において実現される。
FIG. 1 is a block diagram illustrating an example of a three-dimensional measurement apparatus according to a first embodiment of the present invention. The three-
図1に示す各機能の概要をまず説明すると、画像取得部3はステレオカメラ2から画像を取得する機能であり、三次元点群情報取得部4は前記画像の情報から計測範囲の三次元点群情報を算出する機能であり、物体点群情報抽出部5は前記三次元点群情報から計測対象となる物体に対応する三次元点群情報のみを抽出する機能であり、補正パラメータ算出部6は前記抽出した物体の三次元点群情報と物体形状モデルを比較することで点群情報の補正パラメータを算出する機能であり、点群情報補正部7は算出した補正パラメータを用いて、三次元点群情報取得部4により新たに取得された点群情報を補正する機能である。以下、各機能の詳細について説明する。
First, an outline of each function shown in FIG. 1 will be described. The
画像取得部3は、右画像取得部3Rと左画像取得部3Lから構成され、ステレオカメラ2を構成する左右のカメラ2R、2Lからデジタル画像データD2R、D2Lを取得する。以下の説明では、画像取得部3がカメラ2から取得するデジタル画像データD2R、D2Lを単に「撮像画像」と呼ぶ。また画像取得部3が出力するデジタル画像データD3R、D3Lも「撮像画像」と呼ぶものとする。
The
このようにしてデジタル画像データD3R、D3Lを得るためのステレオカメラ2、あるいはさらには画像取得部3を含む構成は、その視野内に計測対象の物体を含む撮像画像を得るものであり、得られた撮像画像は三次元情報として把握可能な情報である。このことから、この機能部分は三次元センサを構成したものということができる。なお、計測対象の物体を含む撮像画像を三次元情報として把握可能な機構、手段は、上記以外に種々のものがあり、本発明はこれらに限定されるものではない。
In this manner, the configuration including the
図2は、本発明の実施例1に係る三次元点群情報取得部4の構成例を示す図である。図2を用いて、ステレオカメラ2を利用した三次元点群情報取得部4の機能について説明する。三次元点群情報取得部4は、左右の画像取得部3R、3Lからそれぞれ取得した撮像画像D3R、D3Lを用いて視差を算出する機能である視差算出部10と、算出した視差から計測範囲の三次元点群情報の座標値を計算する機能である三次元点群座標算出部11を持つ。
FIG. 2 is a diagram illustrating a configuration example of the three-dimensional point group information acquisition unit 4 according to the first embodiment of the present invention. The function of the three-dimensional point group information acquisition unit 4 using the
図3は、ステレオカメラ2による撮像画像D2R、D2L(D3R、D3L)の例を示している。この撮影事例では、ステレオカメラ2の視野内に歩行する人物Mと基本的に移動しない背景としての木Tが撮影されている。また右画像取得部3Rの撮像画像D3Rと左画像取得部3Lの撮像画像D3Lは、いずれも人物Mと背景の木Tを視野内に入れているものの、視認する領域や角度は相違している。
FIG. 3 shows an example of images D2R and D2L (D3R and D3L) captured by the
視差算出部10では、例えばブロックマッチングという一般的な手法を利用して左右の撮影画像間の視差を算出する。まず、画像取得部3Rにより一方のカメラ2Rから取得した撮像画像D3Rを基準画像、画像取得部3Lにより他方のカメラ2Lから取得した撮像画像D3Lを比較画像として、2枚の画像D3R、D3Lを左右に並べた場合に画像内の物体が同じ高さになるよう平行化処理を実施する。次に、基準画像D3Rから例えば32×32画像の大きさの小領域を選定する。そして、比較画像D3Lにおいて、基準画像D3Rの小領域と相違度が最小となる同一の大きさの小領域を、基準画像D3Rの小領域と同じ位置から1画素ずつ水平方向に探索する。この水平方向の探索幅を、基準画像D3Rにて選定した小領域内の特定の画素(例えば左上の位置にある画素)の視差として決定し、基準画像D3R内の全ての範囲で同一の処理を適応することで、全画素の視差を算出する。なお、小領域の相違度を計算する方法としては、(1)式に示すSAD(sum of squared difference)などの方法があり、特に限定しない。また、本例以外にも2枚の画像における視差を算出可能な方法であれば、特に限定しない。
The
三次元点群座標算出部11は、視差算出部10により求めた各画素の視差とカメラパラメータデータベースDB1に記憶されたカメラパラメータデータ200を用いて三次元空間内の点群の座標値を計算する。まず、算出した視差dと、カメラの撮影した画像上に設置した座標である画像座標(v、u)を用いて、(2)式によりカメラ座標Xcを求める。ここでカメラ座標Xcとは、カメラの位置を中心とした三次元空間内の座標を示しており、スキューがなく、アスペクト比を1と仮定した場合では(2)式を用いて画像座標から算出できる。The three-dimensional point group coordinate
次に、(3)式によりカメラ座標Xcを世界座標xwに変換する。Next, the camera coordinates Xc are converted into the world coordinates xw by the equation (3).
図4は本発明の実施例1に係る物体点群情報抽出部5の処理の考え方を示す図である。ここでは図2の三次元点群情報取得部4により取得される三次元点群座標の座標値の例が、図3の例に則して示されている。図3の人物Mと背景の木Tは、三次元の基準画像30が示す領域内に位置付けられている。これに対し、背景の木Tのみを含む領域を想定したものが三次元の背景画像32であり、三次元の基準画像30から三次元の背景画像32を除外したとすると、ここには計測対象である人物Mのみの三次元の画像33が得られることになる。
FIG. 4 is a diagram illustrating the concept of the process of the object point group information extraction unit 5 according to the first embodiment of the present invention. Here, an example of the coordinate values of the three-dimensional point group coordinates acquired by the three-dimensional point group information acquisition unit 4 in FIG. 2 is shown in accordance with the example in FIG. The person M and the background tree T in FIG. 3 are positioned in an area indicated by the three-
物体点群情報抽出部5においては、図4の処理により背景に含まれない計測対象(人物)のみの三次元点群座標33を抽出する。具体的には物体点群情報抽出部5は、三次元点群情報取得部4によって取得したステレオカメラ3の計測範囲全体の点群情報から、計測対象の物体Mに対応する点群情報を抽出する。計測対象が含まれる領域の選定方法としては、図4のように、計測対象である物体Mが存在する基準画像30と予め保持した背景画像32の差分を取り、求めた背景差分の画像33を活用するといった背景差分法などの一般的な手法がある。背景差分法などにより求めた背景差分の画像33について、計測対象Mが存在する画像領域34を求め、画像領域34内の各画素の視差から計算した三次元点群情報のみを抽出することで、物体の点群情報を取得できる。
The object point group information extracting unit 5 extracts the three-dimensional point group coordinates 33 of only the measurement target (person) not included in the background by the processing of FIG. Specifically, the object point cloud information extraction unit 5 extracts point cloud information corresponding to the object M to be measured from the point cloud information of the entire measurement range of the
なお、物体点群情報抽出部5は背景差分法のみに限らず、例えば画像の特徴量抽出や視差の値などにより基準画像内から物体の領域を決定する方法、物体が存在する場合と存在しない場合の三次元空間の点群情報を直接比較することで必要な点群情報を取得する方法などでも良い。 Note that the object point group information extraction unit 5 is not limited to the background subtraction method. For example, a method of determining an area of an object from within a reference image by extracting a feature amount of an image, a value of a parallax, or the like. In such a case, a method of acquiring necessary point group information by directly comparing the point group information in the three-dimensional space may be used.
図5は、本発明の実施例1に係る補正パラメータ算出部6の構成例を示す図である。図5を用いて補正パラメータ算出部6について説明する。
FIG. 5 is a diagram illustrating a configuration example of the correction
補正パラメータ算出部6は、物体点群情報抽出部5から取得した物体の点群情報から視点変換画像を作成する視点変換画像作成部40と、作成した前記視点変換画像と物体形状モデルデータベースDB2より取得した物体形状モデル300を比較して補正パラメータを計算する物体形状モデル比較部41と、計算した前記補正パラメータを出力して点群情報補正部7に受け渡す補正パラメータ出力部42を備える。以下、視点変換画像作成部40、物体形状モデルデータベースDB2、物体形状モデル比較部41について説明する。
The correction
視点変換画像作成部40は計測対象の物体Mの三次元情報から視点変換画像を作成する。ここで、計測対象の物体Mの三次元情報とは、物体点群情報抽出部5において求めた計測対象Mが存在する画像領域34を含む領域の画像であり、これを物体の三次元情報として表示している。
The viewpoint conversion
図6は物体の三次元情報から作成した視点変換画像の一例を示しており、51は物体の三次元情報50を物体に対して真正面の視点Zから見た正面視点画像、52は物体に対して右側面の視点Xから見た右側面視点画像、53は物体に対して真上の視点Yから見た直上視点画像である。図6のように、視点画像は三次元点群の座標値を二次元の画像情報に変換しており、正面視点画像51では横軸がx値、縦軸がy値、右側面視点画像52では横軸がz値、縦軸がy値、直上視点画像53では横軸がx値、縦軸がz値を示している。
FIG. 6 shows an example of a viewpoint conversion image created from the three-dimensional information of the object, 51 is a front viewpoint image obtained by viewing the three-
本実施例では、(4)式から(7)式を利用して、三次元点群座標(世界座標)xwから視点変換画像を作成する。なお物体の三次元情報50についての三次元点群座標(世界座標)xwは(4)式で表現され、視点変換画像のうち、正面視点画像51は(5)式、右側面視点画像52は(6)式、直上視点画像53は(7)式により表現することができるが、特に本手法に限定されるものでは無い。
In the present embodiment, a viewpoint-converted image is created from the three-dimensional point group coordinates (world coordinates) xw using Expressions (4) to (7). Note that the three-dimensional point group coordinates (world coordinates) xw of the three-
図7において、60は物体形状モデルデータベースDB2の記憶内容の一覧表であり、61、62、63は三次元点群が高密度な場合における人物Mの真正面視点点群、右側面視点点群、直上視点点群をそれぞれ示し、61a、62a、63aは三次元点群が低密度な場合における人物Mの真正面視点点群、右側面視点点群、直上視点点群をそれぞれ示している。
In FIG. 7,
ステレオカメラ2では基準画像の各画素に対応する視差の値から三次元点群情報を取得するため、基準画像自体の解像度やステレオカメラ2と物体の距離によって、物体の解像度が変化し取得可能な点群情報の密度が変化する。
Since the
例えば、基準画像の解像度が高い場合やステレオカメラ2と物体Mとの距離が短い場合は、61、62、63のような人のシルエットがはっきり判別できる高密度な点群情報を取得でき、基準画像の解像度が低い場合やステレオカメラ2と物体との距離が長い場合は、61a、62a、63aのような人のシルエットが粗くなる低密度な点群情報を取得できる。
For example, when the resolution of the reference image is high or when the distance between the
点群情報の指標値としては例えば(8)式を利用する方法がある。なお(8)式においてαは正規化定数、Wは撮影画像の横幅、Hは撮影画像の縦幅、Dは物体とステレオカメラ2との間の距離である。その他点群情報の指標値を得る手法としては、点群の数を計測しその合計数に応じてグループ化するなどの点群数を利用する方法などがあるが、特に限定するものではない。
As an index value of the point group information, for example, there is a method using equation (8). In Equation (8), α is a normalization constant, W is the horizontal width of the captured image, H is the vertical width of the captured image, and D is the distance between the object and the
図7に物体形状モデル比較部41の処理フローを示す。物体形状モデル比較部41では、まず処理ステップS1において、視点変換画像作成部40により作成した物体の視点変換画像から物体の三次元空間上での位置を算出し、処理ステップS2において算出した物体の位置情報に応じて物体形状モデルデータベースDB2から取得した物体形状モデル300の位置を決定する。そして処理ステップS3において、視点変換画像における物体の三次元点群情報と物体形状モデルの点群情報を比較してフィッティングすることで補正量を算出し、処理ステップS4において補正量の情報から最も適した補正パラメータを決定する。
FIG. 7 shows a processing flow of the object shape
以下、上記の各処理ステップS1からS4によって、直上視点画像における物体の三次元情報と物体形状モデルをフィッティングさせて補正パラメータを出力する例について説明する。図9は、直上視点画像における物体の三次元情報と物体形状モデルの例を示している。図9において左側のx−Z座標上の領域53は図6の直上視点画像53の一例を示しており、x−Z座標により位置づけられた複数の点群により計測対象の物体が形成されている。図9において右側のx−Z座標上の点群72は、図5の物体形状モデルデータベースDB2から取得した物体形状モデル300の一例を示している。
Hereinafter, an example in which the correction parameters are output by fitting the three-dimensional information of the object and the object shape model in the immediately above viewpoint image by the above processing steps S1 to S4 will be described. FIG. 9 shows an example of the three-dimensional information of the object and the object shape model in the immediately above viewpoint image. In FIG. 9, an
図8の処理ステップS1では、図9左側のx−Z座標上の直上視点画像53について、直上視点画像53内の点群から物体の位置情報(x1、z1)を計算する。物体の位置情報(x1、z1)の計算方法としては、直上視点画像53の物体の点群情報を活用して、各x値、z値の平均値をx1、z1とする方法、各x値の平均値をx1としx値が平均値に近く値が最小となるz値をz1とする方法、z値が最小となる点のx値、z値をx1、z1とする方法などがあり、特に限定するものではない。
In the processing step S1 in FIG. 8, the position information (x1, z1) of the object is calculated from the point group in the directly-upper-
図8の処理ステップS2では、まず処理ステップS1によって求めた物体の位置情報に対して最適な物体形状モデルデータ300を物体形状モデルデータベースDB2より取得する。取得方法としては、物体の位置情報からカメラと物体の距離を求めて(5)式により点群密度を算出することで、該当する物体形状モデルを選定できる。点群密度を考慮して抽出された物体形状モデルの一例を示す点群が図9右側の72である。
In the processing step S2 of FIG. 8, first, the optimum object
そして、選定した物体形状モデル300において、例えば点群情報の各x値、z値の平均値、あるいは各x値の平均値かつx値が平均値に近く値が最小となるz値、あるいはz値が最小となる点のx値、z値を処理ステップS1で求めた(x1、z1)と一致するよう物体形状モデル300を配置する。なお、物体形状モデル300の位置を決める方法としては、処理ステップS1と同様の手法あるいは異なる手法のどちらでも良く、特に限定しない。
In the selected
図9では処理ステップS1、S2により求めた物体の位置情報と物体形状モデルの位置を示している。図9において、53は直上視点画像、71は処理ステップS1により求めた直上視点画像53上での物体の位置情報(x1、z1)の一例、72は物体形状モデル300の一例、73は処理ステップS2により求めた物体形状モデルの位置を示す点の一例である。処理ステップS2では、点71と点73が一致するように物体形状モデルを配置する。
FIG. 9 shows the position information of the object and the position of the object shape model obtained in the processing steps S1 and S2. In FIG. 9,
図10は、本発明の実施例1に係る物体形状モデル41の処理ステップS3の処理内容を説明する図である。図10を用いて処理ステップS3について説明する。図10は直上視点画像80において、物体の点群情報と物体形状モデルの各点群情報からいくつか抜粋した点を示しており、81a、81b、81c、81d、81eは物体Mの点群情報、82a、82b、82c、82d、82eは物体形状モデルの点群情報、83は物体Mから見たステレオカメラ2の方向である。
FIG. 10 is a diagram for explaining the processing content of the processing step S3 of the
ステレオカメラ2では性質上、カメラより遠方になるほど視差の精度が下がり、視差から計算される三次元点群情報の算出精度も低下する。そのため、処理ステップS3では、物体の点群情報81a、81b、81c、81d、81eと物体形状モデルの点群82a、82b、82c、82d、82e同士をフィッティングさせる際に、カメラに近い点から順番にフィッティングする手法を適応し、補正量を算出する。
Due to the nature of the
具体的には、まず物体の点群情報81a、81b、81c、81d、81eの内最もカメラと最近傍の位置にある81eに対して、カメラ方向83の向きにフィッティングされていない物体形状モデルの点が存在するかを探索する。存在する場合は該当の点と81eを対応付けることとし、存在しない場合は、z値が小さい点の中でx値における相対距離が最も小さい点と81eを対応付ける。これを全ての物体の点群に適応することで、物体の点群情報と物体形状モデルをフィッティングさせる。図10の図示例では、カメラと最近傍の位置にある81eに対して、カメラ方向83の向きにフィッティングされていない物体形状モデルの点が存在していないが、z値が小さい点の中でx値における相対距離が最も小さい点である82eを81eと対応付けたことを示している。
More specifically, first, of the object
最後に、対応付けた各点82e、81e同士において(9)(10)式によりx軸、z軸方向のそれぞれの補正量を算出する。なお(9)(10)式において、Px、Pzは、x値、z値の補正量、xt、ztは物体形状モデルの点のx値、z値、xm、zmは物体の三次元情報のx値、z値を示している。Finally, the respective correction amounts in the x-axis and z-axis directions are calculated for the associated
物体形状モデル比較部41では、以上説明した処理の流れにより補正パラメータを算出でき、y軸方向に対する補正パラメータを求める場合には、右側面視点画像に対して処理ステップS1から処理ステップS4の同様の処理を適応することで対応できる。なお、処理ステップS3、処理ステップS4において、補正パラメータを算出する手段として、カメラに近い点から順番にフィッティングして求めた補正量から補正パラメータを算出する方法以外に、最適化を利用する方法でも良い。
The object shape
例えば、処理ステップS3において最近傍探索手法などにより点群同士をフィッティングさせ、出力したx軸、z軸方向における各点同士の補正量の差が最小となるように最適化する手法などがあり、特に限定しない。また、処理ステップS4の補正パラメータの決定方法として、必ず各方向に対して1つのパラメータを割り当てるのではなく、距離に応じて異なるパラメータを割り当てる方法を利用しても良い。 For example, there is a method of fitting the point groups to each other by a nearest neighbor search method or the like in the processing step S3, and optimizing so that the difference in correction amount between the output points in the x-axis and z-axis directions is minimized. There is no particular limitation. Further, as a method of determining the correction parameter in the processing step S4, a method of allocating different parameters according to the distance may be used instead of always allocating one parameter to each direction.
図11は、物体形状モデル41の処理内容を補足説明するための図であり、例えば、図11に示すように、物体形状モデルの点群情報82a、82b、82c、82d、82eの中で最もz値が小さい点82eを基準として、点82eからの距離が等間隔となる直線84a、84b、84cにより空間85a、85b、85cを作成する。そして、各空間にある点群情報からS3により各空間に対応する補正量Px、Pzを求め、空間ごとの補正量を二次関数に近似したものを補正パラメータとして使用しても良い。FIG. 11 is a diagram for supplementarily explaining the processing content of the
また、本実施例では、物体の点群情報81a、81b、81c、81d、81eを全て使用し、点群数などを用いて物体の点群情報に対して適切な物体形状モデルを選定する方法を採用したが、物体の点群情報に対してダウンサンプリング処理などを実施して点群数を減らした後で、適切な物体形状モデルを選定する方法を利用しても良い。また、本実施例では、同一の向きの物体形状モデルを利用したが、複数の向きの物体形状モデルを用意しておき、物体と三次元計測装置との三次元空間上の位置関係によって、最適な向きの物体形状モデルを選定して使用するなどの方法でも良い。
Further, in the present embodiment, a method of using all the
点群情報補正部7では、三次元点群情報取得部4によって取得した三次元点群の座標値を、物体形状モデル比較部41により算出した補正パラメータを用いて(11)式により補正する。なお(11)式において、xwは補正前の三次元点群座標(世界座標)、X´wは補正後の三次元点群座標(世界座標)であり、Pは、x、y、z軸成分についての三次元の補正パラメータである。The point group
なお、実施例1では、三次元点群情報の補正パラメータとしてx軸、y軸、z軸の3方向に補正するパラメータを出力したが、必要に応じて、3方向の内、1方向または2方向のみ補正するという方法を用いても良い。 In the first embodiment, the parameters to be corrected in the three directions of the x-axis, the y-axis, and the z-axis are output as the correction parameters of the three-dimensional point group information. A method of correcting only the direction may be used.
また、実施例1において、計測対象である物体の全体の点群情報を用いて補正パラメータを出力する必要は無い。例えば、計測対象を人物とした場合、物体点群情報抽出部5により人物の頭部の三次元点群情報を抽出して、予め用意した人物の頭部のみの物体形状モデルと比較することで補正パラメータを算出するなどといった、物体の一部の情報のみを利用する方法でも良い。 In the first embodiment, it is not necessary to output the correction parameter using the entire point cloud information of the object to be measured. For example, when the measurement target is a person, the object point group information extraction unit 5 extracts the three-dimensional point group information of the head of the person and compares it with an object shape model prepared only for the head of the person prepared in advance. A method using only part of the information of the object, such as calculating a correction parameter, may be used.
図12は本発明の実施例2に係る三次元計測装置のブロック構成例図である。図12に示す三次元計測装置1は、実施例1と同じく2台のカメラ2R、2Lを隣接したステレオカメラ2を用いて取得した三次元点群情報を、計測対象の物体形状モデルに基づき三次元空間の位置ごとに事前に求めたパラメータにより補正する装置である。
FIG. 12 is an example of a block configuration of a three-dimensional measuring apparatus according to the second embodiment of the present invention. The three-
実施例2では、三次元計測装置の計測範囲を複数の三次元空間に分割した後、各三次元空間に存在する計測対象の点群情報と物体形状モデルを比較することで三次元空間ごとの補正パラメータを算出し、新規に入力された三次元点群情報を分割した空間ごとに算出したパラメータによって補正できる。 In the second embodiment, after the measurement range of the three-dimensional measurement device is divided into a plurality of three-dimensional spaces, the point group information of the measurement target existing in each three-dimensional space is compared with the object shape model, so that each of the three-dimensional spaces is compared. Correction parameters are calculated, and the newly input three-dimensional point group information can be corrected with the parameters calculated for each divided space.
図12において、画像取得部3、三次元点群情報取得部4の機能については実施例1と同一である。三次元空間分割部91は、計測範囲における三次元空間を複数の領域に分割する機能であり、実施例2において新たに追加された機能である。物体点群情報抽出部5’、補正パラメータ算出部6’、点群情報補正部7’の機能は、実施例1の物体点群情報抽出部5、補正パラメータ算出部6、点群情報補正部7の機能をほぼ踏襲しているが、三次元空間分割部91において計測範囲における三次元空間を複数の領域に分割したことに関連して、複数の分割領域ごとに処理する点で相違している。物体点群情報抽出部5’は三次元空間分割部91によって分割された領域ごとに物体の点群を抽出する機能であり、補正パラメータ算出部6’は分割領域ごとに補正パラメータを算出する機能であり、点群情報補正部7’は分割領域ごとに補正パラメータ算出部6’によって算出された補正パラメータを用いて点群情報を補正する機能である。以下、三次元空間分割部91の具体的な機能について説明する。
12, the functions of the
図13は、三次元空間分割部91の処理内容を説明する図である。図13では、上部に人物が存在する三次元空間の例を示し、下部にx−Z座標上の直上視点画像の例を示している。図13は、三次元空間分割部91によって計測範囲における三次元空間を9つの領域に分割する一例を示している。
FIG. 13 is a diagram for explaining the processing content of the three-dimensional
図13において、100は計測範囲の三次元空間、101は計測対象の人物、102は三次元空間100にある床平面、103は三次元空間100の直上視点画像を示している。
In FIG. 13,
三次元空間分割部91では、図13のように、三次元空間の床平面102を基準として領域を等分割する方法や、直上視点画像103を基準として領域を等分割する方法があるが、特に三次元の空間を分割する方法であれば特に限定しない。例えば、直上視点画像103をディスプレイに表示して、GUIなどによりユーザが直線などを引いて領域を分割しても良い。また、領域を分割する際に、必ずしも全ての領域が等しい大きさになる必要は無く、正方形以外の形状に分割しても良い。
In the three-dimensional
図14は、本発明の実施例2により出力される補正パラメータの一例を示す図である。三次元計測装置1では、図14のように、三次元空間分割部91により分割された各領域上において、物体点群情報抽出部5’、補正パラメータ算出部6’により補正パラメータを出力する。そして、点群情報補正部7’によって、三次元点群情報取得部4から新規に取得した三次元点群情報を各領域の補正パラメータにより補正する。領域ごとに物体の点群情報を抽出する方法としては、例えば、カメラを設置後、計測範囲内を人物に移動してもらい、領域の中心位置ごとに停止してもらい停止中の点群情報を抽出する方法や、画像処理などにより領域への出入りを自動で判定して抽出する方法などがあり、特に限定しない。
FIG. 14 is a diagram illustrating an example of a correction parameter output according to the second embodiment of the present invention. In the three-
本発明の実施例2では以上説明した機能構成により、計測範囲を複数の領域に分割した後、領域ごとに抽出した物体の点群情報から視点画像を作成し、視点画像上にて物体の点群情報と予め用意した物体形状モデルを比較することで補正パラメータを求め、そのパラメータ値にて新規に入力される三次元点群情報を分割した領域ごとに補正することで、物体検出に必要な精度の三次元点群情報を算出できる。 According to the second embodiment of the present invention, by dividing the measurement range into a plurality of regions by the above-described functional configuration, a viewpoint image is created from the point group information of the object extracted for each region, and the point of the object is displayed on the viewpoint image. Correction parameters are obtained by comparing the group information with a previously prepared object shape model, and the newly input three-dimensional point group information is corrected for each divided region by using the parameter values, thereby making it necessary for object detection. Accurate three-dimensional point cloud information can be calculated.
図15は本発明の実施例3に係る三次元計測装置のブロック構成例を示す図である。図15に示す三次元計測装置1は、2台のカメラ2R、2Lを隣接したステレオカメラ2を用いて取得した三次元点群情報を、計測対象の物体形状モデルに基づきカメラのパラメータを補正する装置である。実施例3では、計測範囲内に存在する計測対象の点群情報と物体形状モデルを比較し、予め取得したカメラのパラメータを補正することで、新規に入力された三次元点群情報を補正できる。
FIG. 15 is a diagram illustrating an example of a block configuration of the three-dimensional measurement apparatus according to the third embodiment of the present invention. The three-
図15において、画像取得部3、三次元点群情報取得部4、物体点群情報抽出部5の機能については実施例1と同一である。カメラ情報抽出部111は、実施例3において新規に追加された構成であり、2台のカメラ2R、2Lを隣接したステレオカメラ2の情報からカメラの焦点距離や歪み補正係数といった三次元計測装置1によって補正するパラメータを取得する機能である。カメラパラメータ補正部112も実施例3において新規に追加された構成であり、計測対象の点群情報と物体形状モデルを比較することで前記パラメータを補正する機能である。以下、カメラパラメータ補正部112の機能について詳細に説明する。
In FIG. 15, the functions of the
図16はカメラパラメータ補正部112のフローを示している。カメラパラメータ補正部112では、最初の処理ステップS10においてカメラ情報抽出部111により選定されたカメラパラメータを取得し、物体形状モデル比較部41の処理である処理ステップS1と処理ステップS2を実施した後、処理ステップS11において物体の三次元点群情報と物体形状モデルの点群情報の一致率を算出する。そして、処理ステップS12において一致率が閾値以上か否かを判定し、閾値未満である場合は処理ステップS13に移りカメラパラメータを更新して視点変換画像を作成し、閾値以上である場合は処理ステップS14に移り最新のカメラパラメータを出力する。以下、処理ステップS11、処理ステップS13について詳細に説明する。
FIG. 16 shows a flow of the camera
処理ステップS11では、視点変換画像における物体の三次元点群情報と物体形状モデルの点群情報との一致率を算出する。一致率の算出方法としては、視点変換画像に直上視点画像を用いる場合を例にすると、処理ステップS3と同様に直上視点画像における物体の点群情報と物体形状モデルの点群情報をフィッティングさせた後、(12)(13)式により算出する方法がある。また、右側面視点画像も活用して点群のy値も一致率に利用する方法などもあり、2つの点群同士を比較可能な方法であれば、特に限定しない。 In processing step S11, a coincidence rate between the three-dimensional point group information of the object in the viewpoint converted image and the point group information of the object shape model is calculated. As an example of the method of calculating the coincidence rate, in a case where the overhead viewpoint image is used as the viewpoint conversion image, the point group information of the object and the point group information of the object shape model in the overhead viewpoint image are fitted as in the processing step S3. Later, there is a method of calculating by the formulas (12) and (13). Also, there is a method of utilizing the y value of the point group for the coincidence rate by utilizing the right side viewpoint image, and the method is not particularly limited as long as the two point groups can be compared with each other.
また、実施例1でも述べた通り、ステレオカメラでは、ブロックマッチングを用いて視差を算出するが、算出の精度を向上させるためにカメラ特有のレンズ歪みを補正する歪み補正処理を基準画像と比較画像に適応して、画像座標(v、u)を修正する場合が多い。歪み補正処理のためにはカメラ独自の歪み係数と呼ばれるカメラパラメータを利用し、三次元計測装置1ではこの歪み係数パラメータを補正する手段としても使用できる。例えば、画像座標(v、u)を一般的な歪み補正の数式である(14)式により補正する場合、カメラの歪み補正パラメータが5つ存在するため、これら5つのパラメータを更新し、三次元点群の座標値を再度計算することで、新たな視点変換画像を作成できる。なお(14)式において、ひずみ補正後の画像座標(v、u)の表示について、記号v、uの上部に波の形の記号を付して区別している。また(14)式において、k1、k2、k3、p1、p2は、ひずみ補正パラメータである。Further, as described in the first embodiment, in the stereo camera, the parallax is calculated using block matching. However, in order to improve the accuracy of the calculation, a distortion correction process for correcting camera-specific lens distortion is performed on the reference image and the comparative image. , The image coordinates (v, u) are often corrected. For the distortion correction processing, a camera parameter called a distortion coefficient unique to the camera is used, and the three-
本発明の実施例3では以上説明した機能構成により、カメラパラメータを更新して算出した物体の点群情報と、予め用意した物体形状モデルの点群情報を比較して、点群同士の一致度合が最大となるようカメラパラメータを随時更新することで、物体検出に必要な精度の三次元点群情報を算出可能なカメラパラメータを推定できる。 According to the third embodiment of the present invention, the degree of coincidence between the point groups is compared by comparing the point group information of the object calculated by updating the camera parameters with the point group information of the object shape model prepared in advance by the functional configuration described above. By updating the camera parameters at any time so that is maximized, it is possible to estimate camera parameters capable of calculating three-dimensional point group information with the accuracy required for object detection.
なお、実施例3では、実施例2のように、予め計測範囲を複数の三次元空間に分割しておき、空間ごとに最適なカメラパラメータを算出することで、新規に三次元点群情報が取得された際に、各空間における最適なカメラパラメータを用いて三次元点群の座標値を再度計算し直すという方法を用いても良い。 In the third embodiment, as in the second embodiment, the measurement range is divided into a plurality of three-dimensional spaces in advance, and optimal camera parameters are calculated for each space. When acquired, a method of recalculating the coordinate values of the three-dimensional point group using the optimal camera parameters in each space may be used.
本発明においては、実施例1、実施例2、実施例3のいずれか、またはその組み合わせ事例を用いることで、例えば、カメラの焦点距離やレンズ歪み係数の推定精度が低い場合においても、物体検出に必要な精度の三次元点群情報を取得できるため、後段に物体認識や物体追跡といった処理が追加された状況においても、高精度に処理を実施することが可能である。 In the present invention, by using any one of the first, second, and third embodiments or a combination thereof, for example, even when the estimation accuracy of the camera focal length or the lens distortion coefficient is low, the object detection can be performed. Since it is possible to acquire the three-dimensional point cloud information with the required accuracy, it is possible to perform the processing with high accuracy even in a situation where processes such as object recognition and object tracking are added at a later stage.
また、カメラを設置した時のみ本実施例1、2、3のいずれかの処理を実施するだけでなく、一定間隔ごとに処理を実施して三次元点群情報の補正パラメータを更新することで、監視用途などのような長時間の計測により発生し得る計測装置の経年劣化などの問題を解決できる。 In addition to performing the processing of any of the first, second, and third embodiments only when the camera is installed, the processing is performed at regular intervals to update the correction parameter of the three-dimensional point group information. In addition, it is possible to solve a problem such as aging of a measuring device which may occur due to long-time measurement such as a monitoring application.
また、本実施例1、2、3のいずれかを用いる場合、計測範囲の全ての三次元点群情報を補正するのではなく、例えば計測装置から一定距離離れた遠方の計測範囲に存在する三次元点群情報のみを補正するという手段を利用しても良い。 When any one of the first, second, and third embodiments is used, all three-dimensional point group information in the measurement range is not corrected. Means for correcting only the original point group information may be used.
なお、実施例1、実施例2、実施例3では三次元情報を計測する装置としてステレオカメラを利用する場合について説明したが、距離センサなどの計測範囲における三次元点群情報を取得できる装置であれば、特に限定しない。 In the first, second, and third embodiments, a case is described in which a stereo camera is used as a device for measuring three-dimensional information. However, a device that can acquire three-dimensional point group information in a measurement range such as a distance sensor is used. If there is, there is no particular limitation.
1:三次元計測装置,2:ステレオカメラ,2R、2L:カメラ(撮像装置),3:画像取得部,4:三次元点群情報取得部,5:物体点群情報抽出部,6:補正パラメータ算出部,7:点群情報補正部,10:視差算出部,11:三次元点群座標算出部 1: three-dimensional measurement device, 2: stereo camera, 2R, 2L: camera (imaging device), 3: image acquisition unit, 4: three-dimensional point group information acquisition unit, 5: object point group information extraction unit, 6: correction Parameter calculation unit, 7: Point group information correction unit, 10: Parallax calculation unit, 11: 3D point group coordinate calculation unit
Claims (17)
前記三次元センサは、2つのカメラを備えたステレオカメラであり、前記物体形状モデルと前記計測対象の物体の点群情報の比較結果を用いて前記2つのカメラの内部パラメータを補正することを特徴とする三次元計測装置。The three-dimensional measuring device according to claim 1,
The three-dimensional sensor is a stereo camera including two cameras, and corrects internal parameters of the two cameras using a result of comparison between the object shape model and point cloud information of the object to be measured. 3D measurement device.
前記計測対象の物体の形状を表す物体形状モデルは、前記計測対象の物体の形状を3次元の各方向から見た時の形状として記憶していることを特徴とする三次元計測装置。The three-dimensional measuring device according to claim 1 or claim 2,
The three-dimensional measuring apparatus is characterized in that the object shape model representing the shape of the object to be measured stores the shape of the object to be measured as a shape as viewed from each of three-dimensional directions.
前記補正パラメータ算出手段は、前記物体形状モデルと前記計測対象の物体の点群情報を比較することで、3次元空間の位置毎に前記計測対象の物体の点群情報の補正パラメータを推定することを特徴とする三次元計測装置。The three-dimensional measuring device according to any one of claims 1 to 3, wherein
The correction parameter calculating means estimates a correction parameter of the point group information of the object to be measured for each position in a three-dimensional space by comparing the object shape model with point group information of the object to be measured. A three-dimensional measuring device characterized by the following.
前記補正パラメータ算出手段により得られた前記補正パラメータにより、前記物体点群情報抽出部で得られた点群情報を補正することを特徴とする三次元計測装置。The three-dimensional measuring device according to any one of claims 1 to 4, wherein
A three-dimensional measuring apparatus, wherein the point group information obtained by the object point group information extracting unit is corrected by the correction parameter obtained by the correction parameter calculating unit.
前記補正パラメータ算出手段は、位置情報、物体の三次元点群情報の密度情報、三次元センサと物体の距離情報、物体から三次元センサへの方向情報の少なくとも1つ以上を用いて、物体の点群情報と物体形状モデルを対応付けることを特徴とする三次元計測装置。The three-dimensional measuring device according to any one of claims 1 to 5, wherein
The correction parameter calculation means uses at least one of position information, density information of the three-dimensional point group information of the object, distance information between the three-dimensional sensor and the object, and direction information from the object to the three-dimensional sensor to obtain the correction information of the object. A three-dimensional measuring apparatus, wherein point group information is associated with an object shape model.
予め計測範囲を複数の三次元空間に分割した後、前記三次元空間ごとに補正パラメータ算出手段によって点群情報を補正可能な補正パラメータを算出することを特徴とする三次元計測装置。The three-dimensional measuring device according to any one of claims 1 to 6, wherein
A three-dimensional measuring apparatus, wherein a measurement range is divided into a plurality of three-dimensional spaces in advance, and then a correction parameter capable of correcting point group information is calculated by a correction parameter calculating unit for each of the three-dimensional spaces.
分割された三次元空間ごとに前記パラメータにより点群情報を補正することを特徴とする三次元計測装置。The three-dimensional measuring device according to claim 7,
A three-dimensional measuring apparatus, wherein point group information is corrected for each divided three-dimensional space by the parameter.
前記三次元センサの情報を抽出する計測装置情報抽出手段と、抽出した前記三次元センサの情報と物体の点群情報と物体形状モデルから前記三次元センサのパラメータを補正する三次元センサパラメータ補正部を有することを特徴とする三次元計測装置。The three-dimensional measuring device according to any one of claims 1 to 8, wherein
Measuring device information extracting means for extracting the information of the three-dimensional sensor, and a three-dimensional sensor parameter correction unit for correcting the parameters of the three-dimensional sensor from the extracted information of the three-dimensional sensor, point cloud information of an object, and an object shape model A three-dimensional measuring device comprising:
前記点群情報補正手段は、前記三次元センサパラメータ補正部によって補正された三次元センサのパラメータによって点群情報を補正することを特徴とする三次元計測装置。The three-dimensional measuring device according to claim 9,
The three-dimensional measuring device, wherein the point group information correcting means corrects the point group information using the parameters of the three-dimensional sensor corrected by the three-dimensional sensor parameter correcting unit.
前記三次元センサは2台以上の撮像装置を使用したステレオカメラであることを特徴とする三次元計測装置。The three-dimensional measuring device according to claim 9 or claim 10,
The three-dimensional sensor is a stereo camera using two or more imaging devices.
前記三次元センサパラメータ補正部によって補正されるパラメータが、歪み補正係数、焦点距離の少なくとも1つ以上であることを特徴とする三次元計測装置。The three-dimensional measuring device according to claim 11, wherein
The three-dimensional measurement device, wherein the parameter corrected by the three-dimensional sensor parameter correction unit is at least one of a distortion correction coefficient and a focal length.
前記三次元センサは、2つのカメラを備えたステレオカメラであり、前記物体形状モデルと前記計測対象の物体の点群情報の比較結果を用いて前記2つのカメラの内部パラメータを補正することを特徴とする三次元計測方法。The three-dimensional measurement method according to claim 13,
The three-dimensional sensor is a stereo camera including two cameras, and corrects internal parameters of the two cameras using a result of comparison between the object shape model and point cloud information of the object to be measured. 3D measurement method.
前記計測対象の物体の形状を表す物体形状モデルは、前記計測対象の物体の形状を3次元の各方向から見た時の形状として記憶していることを特徴とする三次元計測方法。A three-dimensional measurement method according to claim 13 or claim 14,
The three-dimensional measurement method, wherein the object shape model representing the shape of the object to be measured stores the shape of the object to be measured as a shape when viewed from each of three-dimensional directions.
前記物体形状モデルと前記計測対象の物体の点群情報を比較することで、3次元空間の位置毎に前記計測対象の物体の点群情報の補正パラメータを推定することを特徴とする三次元計測方法。The three-dimensional measurement method according to any one of claims 13 to 15, wherein
Three-dimensional measurement, wherein a correction parameter of the point group information of the object to be measured is estimated for each position in a three-dimensional space by comparing the point shape information of the object shape model and the point group information of the object to be measured. Method.
前記補正パラメータにより、前記点群情報を補正することを特徴とする三次元計測方法。The three-dimensional measurement method according to any one of claims 13 to 16, wherein
A three-dimensional measurement method, wherein the point group information is corrected by the correction parameter.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/021587 WO2018229812A1 (en) | 2017-06-12 | 2017-06-12 | Three-dimensional measurement device and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018229812A1 true JPWO2018229812A1 (en) | 2020-02-27 |
JP6845929B2 JP6845929B2 (en) | 2021-03-24 |
Family
ID=64659013
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019524550A Active JP6845929B2 (en) | 2017-06-12 | 2017-06-12 | 3D measuring device and method |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6845929B2 (en) |
WO (1) | WO2018229812A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021039426A (en) * | 2019-08-30 | 2021-03-11 | 株式会社東芝 | Estimation apparatus, estimation method and program |
WO2022009602A1 (en) * | 2020-07-08 | 2022-01-13 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
US20240103133A1 (en) * | 2021-03-17 | 2024-03-28 | Sony Semiconductor Solutions Corporation | Information processing apparatus, information processing method, and sensing system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003307466A (en) * | 2002-02-18 | 2003-10-31 | Topcon Corp | Apparatus, method and chart for calibration as well as result diagnostic device |
JP2013246490A (en) * | 2012-05-23 | 2013-12-09 | Nippon Telegr & Teleph Corp <Ntt> | Estimation device, estimation method and computer program |
JP2014063475A (en) * | 2012-08-28 | 2014-04-10 | Canon Inc | Information processor, information processing method, and computer program |
JP2017040549A (en) * | 2015-08-19 | 2017-02-23 | シャープ株式会社 | Image processing device and error determination method |
-
2017
- 2017-06-12 JP JP2019524550A patent/JP6845929B2/en active Active
- 2017-06-12 WO PCT/JP2017/021587 patent/WO2018229812A1/en active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003307466A (en) * | 2002-02-18 | 2003-10-31 | Topcon Corp | Apparatus, method and chart for calibration as well as result diagnostic device |
JP2013246490A (en) * | 2012-05-23 | 2013-12-09 | Nippon Telegr & Teleph Corp <Ntt> | Estimation device, estimation method and computer program |
JP2014063475A (en) * | 2012-08-28 | 2014-04-10 | Canon Inc | Information processor, information processing method, and computer program |
JP2017040549A (en) * | 2015-08-19 | 2017-02-23 | シャープ株式会社 | Image processing device and error determination method |
Also Published As
Publication number | Publication date |
---|---|
JP6845929B2 (en) | 2021-03-24 |
WO2018229812A1 (en) | 2018-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7134012B2 (en) | Parallax estimation device and method | |
US10643347B2 (en) | Device for measuring position and orientation of imaging apparatus and method therefor | |
JP5671281B2 (en) | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus | |
US10733751B2 (en) | Displacement detecting apparatus and displacement detecting method | |
JP2004340840A (en) | Distance measuring device, distance measuring method and distance measuring program | |
JPWO2013133129A1 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
JP6845929B2 (en) | 3D measuring device and method | |
KR20120011653A (en) | Image processing apparatus and method | |
JP2016157188A (en) | Attitude estimation model generation device and attitude estimation device | |
JP6282377B2 (en) | Three-dimensional shape measurement system and measurement method thereof | |
JP6396499B2 (en) | Scale measurement of 3D information | |
JP5976089B2 (en) | Position / orientation measuring apparatus, position / orientation measuring method, and program | |
US12033406B2 (en) | Method and device for identifying presence of three-dimensional objects using images | |
KR102533909B1 (en) | A multi-view camera-based iterative calibration method for the generation of a 3D volume model | |
JP2016099318A (en) | Stereo matching device, stereo matching program, and stereo matching method | |
KR101538014B1 (en) | Converting method photographic images to 3d images through 3d modeling | |
JP5727969B2 (en) | Position estimation apparatus, method, and program | |
CN109902695B (en) | Line feature correction and purification method for image pair linear feature matching | |
JP5656018B2 (en) | Sphere detection method | |
JP6198104B2 (en) | 3D object recognition apparatus and 3D object recognition method | |
KR20170001448A (en) | Apparatus for measuring position of camera using stereo camera and method using the same | |
Nakazato et al. | FPGA-based stereo vision system using census transform for autonomous mobile robot | |
WO2019116518A1 (en) | Object detection device and object detection method | |
JP5457976B2 (en) | 3D shape acquisition apparatus and 3D shape acquisition program | |
JP2018032144A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191010 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6845929 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |