JP6374812B2 - 3D model processing apparatus and camera calibration system - Google Patents
3D model processing apparatus and camera calibration system Download PDFInfo
- Publication number
- JP6374812B2 JP6374812B2 JP2015049749A JP2015049749A JP6374812B2 JP 6374812 B2 JP6374812 B2 JP 6374812B2 JP 2015049749 A JP2015049749 A JP 2015049749A JP 2015049749 A JP2015049749 A JP 2015049749A JP 6374812 B2 JP6374812 B2 JP 6374812B2
- Authority
- JP
- Japan
- Prior art keywords
- edge
- image
- dimensional
- measurement
- coordinate data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、所定対象を計測した三次元座標データから三次元モデルを生成する三次元モデル処理装置、三次元モデルから任意視点のエッジ画像を生成する三次元モデル処理装置および三次元モデルを利用してカメラを校正するカメラ校正システムに関する。 The present invention uses a three-dimensional model processing device that generates a three-dimensional model from three-dimensional coordinate data obtained by measuring a predetermined target, a three-dimensional model processing device that generates an edge image of an arbitrary viewpoint from a three-dimensional model, and a three-dimensional model. The present invention relates to a camera calibration system for calibrating a camera.
監視カメラを設置する空間を予め三次元計測して当該空間の三次元モデル(空間モデル)を生成しておけば、空間モデルを用いて監視カメラの撮影画像とマッチする視点を探索することによって、監視カメラの校正が可能となる。その探索においては、様々な位置姿勢の仮想カメラによって空間モデルを模擬撮影し、模擬撮影した画像と監視カメラで実際に撮影した画像とを比較して、エッジの位置が最も一致する仮想カメラの位置姿勢を監視カメラの位置姿勢と決定する。 If the space where the surveillance camera is installed is three-dimensionally measured and a three-dimensional model (spatial model) of the space is generated in advance, by searching for a viewpoint that matches the captured image of the surveillance camera using the spatial model, The surveillance camera can be calibrated. In the search, a virtual model with various positions and orientations is simulated and the virtual camera position where the edge position is the best is obtained by comparing the simulated image with the image actually captured by the surveillance camera. The posture is determined as the position and posture of the monitoring camera.
下記非特許文献1には、居室の三次元モデルに対してカメラパラメータが既知の仮想カメラによる任意視点の画像(生成画像)を生成し、携帯カメラで撮影した実画像と生成画像とからそれぞれ抽出したエッジの一種であるSIFT(Scale Invariant Feature Transform)をマッチング処理することによって携帯カメラの位置・姿勢を推定することが記載されている。
In Non-Patent
しかしながら、実際に三次元計測して得た空間モデルにおいては、オクルージョンによって生じた未計測領域が含まれ得る。この未計測領域が原因で監視カメラの校正などに有用なエッジが減少してしまう問題があった。 However, in a spatial model obtained by actually performing three-dimensional measurement, an unmeasured region caused by occlusion can be included. Due to this unmeasured area, there is a problem that the number of edges useful for calibration of the surveillance camera is reduced.
例えば、警備対象となる部屋を隅々まで三次元計測して回ることは困難であり、距離画像センサなどの計測装置から見て机の陰などにより生じた死角が未計測領域となる。そして、空間モデルを計測時の視点以外から模擬撮影すると、模擬画像上に、死角を作った机の縁が未計測領域と隣り合って現れてしまう。ここで、未計測領域においては、それに隣接して計測された机の面が連続して広がっているのか、又は未計測領域との境界で終わっているのかといった情報が得られない。そのため、机の縁自体は計測できているにもかかわらず監視カメラの校正などに有用な机の縁のエッジを抽出できなくなる。このことは監視カメラの校正精度低下につながる。 For example, it is difficult to three-dimensionally measure a room that is a security target, and a blind spot caused by the shadow of a desk when viewed from a measuring device such as a distance image sensor becomes an unmeasured area. Then, if the spatial model is simulated and photographed from other than the viewpoint at the time of measurement, the edge of the desk that made the blind spot appears next to the unmeasured area on the simulated image. Here, in the non-measurement area, information on whether the desk surface measured adjacent to the non-measurement area continuously spreads or ends at the boundary with the non-measurement area cannot be obtained. For this reason, it is impossible to extract the edge of the desk which is useful for calibration of the surveillance camera even though the edge of the desk itself can be measured. This leads to a decrease in the calibration accuracy of the surveillance camera.
なお、陰を作った机の縁と模擬画像上で隣り合う未計測領域は、机の縁以外の床などとも隣り合う。そのため、仮に、模擬画像から机の縁のエッジを抽出するために未計測領域と計測領域の境界をエッジとみなしてしまうと、床部分から偽のエッジを抽出することになる。偽のエッジの抽出も、やはり監視カメラの校正精度低下につながる。 The unmeasured area adjacent to the shaded desk edge on the simulated image is adjacent to the floor other than the desk edge. Therefore, if the boundary between the unmeasured area and the measurement area is regarded as an edge in order to extract the edge of the desk edge from the simulated image, a false edge is extracted from the floor portion. The extraction of false edges also leads to a decrease in the calibration accuracy of the surveillance camera.
また、物体を計測して得た三次元モデルを用いた物体認識や共通の空間を計測して得た三次元モデル同士の連結処理などにおいても同様に有用なエッジが減少してしまう問題があった。 In addition, there is a problem that useful edges are similarly reduced in object recognition using a three-dimensional model obtained by measuring an object and a process of connecting three-dimensional models obtained by measuring a common space. It was.
本発明は、上記問題を鑑みてなされたものであり、未計測領域との境界にある真のエッジを抽出可能な三次元モデルを提供できる三次元モデル処理装置の実現を目的とする。また、本発明は、三次元モデルから未計測領域との境界にある真のエッジを含めた任意視点のエッジ画像を生成できる三次元モデル処理装置の提供を別の目的とする。さらに本発明は、三次元モデルを利用したカメラ校正の精度を向上させることを別の目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to realize a three-dimensional model processing apparatus that can provide a three-dimensional model that can extract a true edge at the boundary with an unmeasured region. Another object of the present invention is to provide a three-dimensional model processing apparatus capable of generating an edge image of an arbitrary viewpoint including a true edge at the boundary with an unmeasured region from a three-dimensional model. Furthermore, another object of the present invention is to improve the accuracy of camera calibration using a three-dimensional model.
(1)本発明に係る三次元モデル処理装置は、対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデル、前記複数の計測位置姿勢、及び当該複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像を記憶している記憶手段と、前記各画像から輝度変化点を抽出し、前記計測位置姿勢を用いて前記輝度変化点に対応する位置の三次元座標データを検出する変化点対応付け手段と、前記三次元座標データに前記輝度変化点との対応が検出された数に応じた高さのエッジ存在度を付与するエッジ存在度付与手段と、を備える。 (1) A three-dimensional model processing apparatus according to the present invention includes a three-dimensional model obtained by measuring at a plurality of measurement positions and orientations, which is constituted by a plurality of three-dimensional coordinate data representing a target surface shape, and the plurality of measurement positions. Storage means for storing an image obtained by photographing the object at each of the plurality of measurement positions and postures, and a luminance change point is extracted from each image, and the luminance change points are obtained using the measurement position and posture. Change point associating means for detecting three-dimensional coordinate data at a position corresponding to the edge, and an edge for assigning a degree of edge presence corresponding to the number of detected correspondences between the luminance change points to the three-dimensional coordinate data Presence degree providing means.
(2)他の本発明に係る三次元モデル処理装置は、上記(1)の構成に加え、前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、前記仮想カメラの撮影面にて、前記エッジ存在度が予め定めた高さよりも高い三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、を備える。 (2) Another three-dimensional model processing apparatus according to the present invention, in addition to the configuration of (1) above, a virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation; Virtual edge image generation means for generating a virtual edge image with the projection position of the three-dimensional coordinate data whose edge presence is higher than a predetermined height on the imaging surface of the virtual camera as an edge pixel.
(3)本発明に係るカメラ校正システムは、上記(2)の三次元モデル処理装置と、実カメラが前記対象を撮影した実画像を取得し、前記実画像からエッジを抽出して実エッジ画像を生成する実エッジ画像生成手段と、前記実エッジ画像と前記仮想エッジ画像との類似度を算出して、前記類似度を最大化する前記仮想カメラの位置姿勢を前記実カメラの位置姿勢と決定するエッジ画像照合手段と、を備える。 (3) A camera calibration system according to the present invention acquires a real image obtained by photographing the target with the 3D model processing apparatus of (2) above and a real camera, and extracts an edge from the real image to obtain a real edge image. A real edge image generating means for generating the virtual edge image, calculating a similarity between the real edge image and the virtual edge image, and determining the position and orientation of the virtual camera that maximizes the similarity as the position and orientation of the real camera Edge image matching means.
(4)別の本発明に係る三次元モデル処理装置は、対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデルを記憶し、前記三次元座標データは前記複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像から抽出した輝度変化点との対応が検出された数に応じたエッジ存在度を付与されている三次元モデル記憶手段と、前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、前記仮想カメラの撮影面にて、エッジが存在することを示すエッジ存在度を有する三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、を備える。 (4) Another three-dimensional model processing apparatus according to the present invention stores a three-dimensional model obtained by measuring at a plurality of measurement positions and postures, which is constituted by a plurality of three-dimensional coordinate data representing a target surface shape, The three-dimensional coordinate data is given a degree of edge presence according to the number of detected correspondences with luminance change points extracted from images obtained by photographing the target at each of the plurality of measurement positions and orientations. Storage means, virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation, and an edge presence level indicating that an edge exists on the photographing surface of the virtual camera Virtual edge image generation means for generating a virtual edge image having the projection position of the three-dimensional coordinate data as an edge pixel.
本発明によれば、未計測領域との境界にあるエッジをも抽出可能な三次元モデルを生成できる。また、本発明によれば、未計測領域を含む三次元モデルから未計測領域との境界にあるエッジを含めた任意の視点のエッジ画像を生成できる。また、本発明によれば、計測して得た三次元モデルを利用して精度よくカメラ校正を行うことができる。 According to the present invention, it is possible to generate a three-dimensional model that can extract an edge at a boundary with an unmeasured region. Further, according to the present invention, an edge image of an arbitrary viewpoint including an edge at a boundary with an unmeasured region can be generated from a three-dimensional model including the unmeasured region. In addition, according to the present invention, camera calibration can be performed with high accuracy using a three-dimensional model obtained by measurement.
以下、本発明の実施の形態(以下実施形態という)として、監視カメラが設置された空間の三次元モデル(空間モデル)を利用して監視カメラを校正するカメラ校正システムの例を説明する。このカメラ校正システムには、上記空間を三次元計測した計測データから当該空間の空間モデルを生成し、また、当該空間モデルから任意視点のエッジ画像を生成する三次元モデル処理装置の例が含まれる。 Hereinafter, as an embodiment of the present invention (hereinafter referred to as an embodiment), an example of a camera calibration system that calibrates a surveillance camera using a three-dimensional model (space model) of a space in which the surveillance camera is installed will be described. This camera calibration system includes an example of a three-dimensional model processing device that generates a space model of the space from measurement data obtained by three-dimensionally measuring the space and generates an edge image of an arbitrary viewpoint from the space model. .
[カメラ校正システム1の構成]
図1はカメラ校正システム1の概略の構成を示すブロック図である。カメラ校正システム1は、三次元計測装置2、監視カメラ3、監視装置4及び三次元データ処理装置5からなる。
[Configuration of Camera Calibration System 1]
FIG. 1 is a block diagram showing a schematic configuration of the
三次元計測装置2は、監視カメラ3が設置された部屋を三次元計測して距離画像を取得すると共に、それと同期して部屋を撮影してRGB画像を取得し、部屋の距離画像およびRGB画像を含めた計測データを三次元データ処理装置5に出力する。例えば三次元計測装置2はRGBDカメラであり、投射したレーザー光が対象表面との往復にかかる時間から距離を計測するTOF(Time Of Flight)方式の距離センサ、および当該距離センサと同期して同一視野のRGB画像を撮影するカラーカメラを組み合わせた装置である。なお、カメラは濃淡画像を取得するモノクロカメラであってもよい。そして、三次元計測装置2による三次元計測と撮影とは少なくとも対象の共通部分を計測領域に含ませて、複数の計測位置姿勢にて行われる。すなわち、三次元計測装置2は、複数の計測位置姿勢にて所定対象を三次元計測して所定対象の三次元データを三次元データ処理装置5に出力し、さらに、三次元計測と同期して各計測位置姿勢にて所定対象を撮影し、各計測位置姿勢それぞれにて所定対象を撮影した二次元画像を三次元データ処理装置5に出力する。
The three-
監視カメラ3は校正対象のカメラである。例えば、複数の監視カメラ3がそれぞれ部屋の天井に設置され、天井から部屋を撮影し、監視画像と、予め付与されたカメラIDを監視装置4に出力する。また、監視カメラ3の校正時には監視カメラ3は監視画像とカメラIDを三次元データ処理装置5に出力する。
The
監視装置4は三次元データ処理装置5から監視カメラ3の位置姿勢(撮影位置姿勢)を含むカメラパラメータを入力され、これを格納する。撮影位置姿勢は、実空間を模した世界座標系における監視カメラ3の撮影位置(光点位置)および撮影姿勢(光軸方向とその回転角)である。そして、この監視カメラ3の撮影位置姿勢を求める処理が校正である。
The
また、監視装置4は監視カメラ3からの監視画像を解析して部屋内を移動する人物を追跡し、不審行動を検知する。不審人物を検知する際、監視装置4は校正されたカメラパラメータを基に監視画像から抽出した変化領域の実サイズなどを求めて変化領域が人によるものか否かなどの判定を行う。
In addition, the
三次元データ処理装置5は例えば、PC(Personal Computer)などのコンピュータで構成される。三次元データ処理装置5は三次元計測装置2から入力された計測データを用いて空間モデルを生成する。また、三次元データ処理装置5は監視カメラ3から監視画像とカメラIDとを入力され、監視画像と空間モデルとを基に監視カメラ3を校正し、校正結果である監視カメラ3の撮影位置姿勢を含むカメラパラメータを、対応するカメラIDと共に監視装置4に出力する。カメラパラメータには、撮影位置姿勢の他に焦点距離、解像度(幅方向画素数、高さ方向画素数)、レンズ歪みなどが含まれる。これらのうち撮影位置姿勢以外は基本的に変動しない。そのため、撮影位置姿勢以外のカメラパラメータについては監視カメラ3の仕様を参照して得た値、或いは予めの計測により得た値を予め三次元データ処理装置5に記憶させておく。
The three-dimensional
三次元データ処理装置5は計測データ入力部50、記憶部51、監視画像入力部52、制御部53、出力部54及びユーザーインターフェース部55を含む。
The three-dimensional
計測データ入力部50は三次元計測装置2と制御部53とを接続する通信インターフェース回路であり、三次元計測装置2から計測データを入力され、これを制御部53に出力する。
The measurement
記憶部51はROM (Read Only Memory)、RAM (Random Access Memory)等の記憶装置であり、各種プログラムや各種データを記憶し、制御部53との間でこれらの情報を入出力する。
The
監視画像入力部52は監視カメラ3と制御部53とを接続する通信インターフェース回路であり、監視カメラ3から撮影画像及びカメラIDを入力され、これらを制御部53に出力する。
The monitoring
制御部53はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。制御部53は記憶部51からプログラムを読み出して実行することで後述する各手段として機能する。
The
出力部54は制御部53と監視装置4とを接続する通信インターフェース回路であり、制御部53から監視カメラ3のカメラパラメータ及びカメラIDを入力され、これらを監視装置4に出力する。
The
ユーザーインターフェース部55はキーボード、マウス、ディスプレイ等からなるユーザーインターフェース機器である。例えば、設置作業者などのユーザーにより使用され、計測データ中の床面領域を指定するなど各種パラメータの入力作業に用いられる。
The
[空間モデル生成時の三次元データ処理装置5]
図2は三次元計測装置2から入力された計測データを用いて空間モデルを生成するときの三次元データ処理装置5の機能ブロック図である。記憶部51は空間モデル記憶手段510および計測パラメータ記憶手段511として機能する記憶手段である。また制御部53は座標変換手段530、変化点対応付け手段531およびエッジ存在度付与手段532として機能する。
[Three-dimensional
FIG. 2 is a functional block diagram of the three-dimensional
空間モデル記憶手段510は三次元計測装置2の計測により得た所定対象の空間モデル、つまり三次元計測装置2の計測により得た所定対象の三次元モデルを記憶する記憶手段である。空間モデルは、三次元計測装置2により計測され座標変換手段530が変換した複数の三次元座標データ(ポイントクラウドなどと称される)、各三次元座標データと対応付けられた輝度データ、およびエッジ存在度付与手段532により各三次元座標データに付与されたエッジ存在度からなる。ここで、三次元座標データはその位置に物体表面が存在することを意味し、複数の三次元座標データによって対象の表面形状を表す。輝度データはその位置における物体表面の色や輝度を表す。エッジ存在度は対応する三次元座標データの位置にエッジが存在する可能性の高さを表す値であり、本実施形態ではエッジ存在度の値域を0.0以上1.0以下であると定義する。エッジは、物体の凹凸や物体表面の模様等により輝度が大きく変化する三次元座標データが示す位置に現れる。エッジ存在度についてはさらに後述する。
The space
計測パラメータ記憶手段511は三次元計測装置2の計測時の位置姿勢(計測位置姿勢)を含む計測パラメータを記憶する。計測位置姿勢は、実空間を模した世界座標系における三次元計測装置2の計測位置(光点位置)および計測姿勢(光軸方向とその回転角)で表される。計測位置姿勢は座標変換手段530により算出される。あるいは別途実測した計測位置姿勢をユーザーインターフェース部55から予め入力し、これらを記憶してもよい。三次元計測装置2の計測は複数の位置姿勢で行われ、計測パラメータ記憶手段511は各計測時の位置姿勢を記憶する。
The measurement
計測パラメータには、計測位置姿勢の他に焦点距離、解像度(幅方向画素数、高さ方向画素数)などがある。計測位置姿勢以外は基本的に変動しないため、三次元計測装置2の仕様を参照して得た値、或いは予めの計測により得た値を予め記憶させておく。なお画角は焦点距離と解像度とから導出可能である。また、計測パラメータから計測時の投影面が導出できる。
The measurement parameters include a focal length, resolution (number of pixels in the width direction, number of pixels in the height direction) and the like in addition to the measurement position and orientation. Since there is basically no change except for the measurement position and orientation, a value obtained by referring to the specification of the three-
座標変換手段530は計測データ入力部50経由で三次元計測装置2から入力された計測データを世界座標系の三次元座標データに座標変換して空間モデル記憶手段510に記憶させる。また、座標変換手段530は計測データから計測時の三次元計測装置2の計測位置姿勢を算出し、算出した計測位置姿勢を計測パラメータ記憶手段511に記憶させる。
The coordinate
座標変換処理の概略の手順は、(a)計測位置姿勢ごとに距離画像から計測位置を原点とするローカル座標系における三次元点群を計算し、(b)或る1つの計測位置姿勢のローカル座標系を基準座標系として複数の計測位置姿勢の三次元点群を基準座標系に統合し、(c)基準座標系に世界座標系の基準を設定して世界座標系における計測位置姿勢RTを推定し、(d)RTを使って基準座標系の三次元点群を世界座標系の三次元座標データに変換するというものである。以下、各手順を説明する。 The outline procedure of the coordinate conversion process is as follows: (a) calculating a three-dimensional point group in a local coordinate system having the measurement position as the origin from the distance image for each measurement position and orientation; A coordinate system is used as a reference coordinate system, a three-dimensional point group of a plurality of measurement positions and orientations is integrated into the reference coordinate system, and (c) a reference of the world coordinate system is set in the reference coordinate system, and the measurement position and orientation RT in the world coordinate system is And (d) converting the three-dimensional point group of the reference coordinate system into the three-dimensional coordinate data of the world coordinate system using RT. Each procedure will be described below.
手順(a)では、計測位置姿勢ごとに、次式に従い、まず各画素(x,y)の画素値すなわち奥行き値がdである距離画像(x,y,d)の座標系を三次元計測装置2の光点(計測位置)を原点としたローカル座標系の三次元点群(Xc,Yc,Zc)に変換する。
ただし、距離画像の中心画素位置を(cx,cy)とする。fは三次元計測装置2の焦点距離である。
However, the center pixel position of the distance image is (cx, cy). f is a focal length of the three-
手順(b)では、ローカル座標系の1つを基準座標系に定め、複数のローカル座標系を基準座標系に統合する。例えば計測位置姿勢α2のローカル座標系を、計測位置姿勢α1の基準座標系に統合するには、計測位置姿勢α1で計測した三次元点群と計測位置姿勢α2で計測した三次元点群とで共通する位置を計測した三次元点を複数個推定してそれらを対応付ける。そして、複数の対応付けから、計測位置姿勢α2のローカル座標系を計測位置姿勢α1の基準座標系に変換するための変換行列RT1を算出する。 In step (b), one of the local coordinate systems is defined as a reference coordinate system, and a plurality of local coordinate systems are integrated into the reference coordinate system. For example, in order to integrate the local coordinate system of the measurement position and orientation α2 into the reference coordinate system of the measurement position and orientation α1, the three-dimensional point group measured with the measurement position and orientation α1 and the three-dimensional point group measured with the measurement position and orientation α2. Estimate multiple 3D points that measure common positions and associate them. Then, a conversion matrix RT1 for converting the local coordinate system of the measurement position and orientation α2 into the reference coordinate system of the measurement position and orientation α1 is calculated from the plurality of associations.
手順(c)では、計測位置姿勢RTを算出するために、基準座標系の三次元点群のうち床面である点をユーザインターフェース部55を用いて選択入力させ、この選択入力に基づいて、基準座標系の計測位置直下の床面の座標値を算出する。これにより例えば、床面をXY平面、高さ方向をZ軸、基準に定めた計測位置直下の床面上の点を原点とする世界座標系における計測位置姿勢RT0を算出することができる。そして次式に従い計測位置姿勢RTを算出する。
RT=RT0・RT1
In step (c), in order to calculate the measurement position / orientation RT, a point that is a floor surface among the three-dimensional point group of the reference coordinate system is selected and input using the
RT = RT0 ・ RT1
手順(d)では各計測位置姿勢について手順(c)で求めたRTを利用して次式に従い、当該計測位置姿勢でのローカル座標系の三次元点群を世界座標系の三次元座標データ(X,Y,Z)に変換する。
さらに、座標変換手段530はRGB画像の各画素の画素値である輝度データとして、各画素と対応する距離画像の画素の変換先の三次元座標データと対応付けて、空間モデル記憶手段510に記憶させる。
Further, the coordinate
図3は三次元計測装置2を用いた部屋600の計測の様子を示す模式的な斜視図である。部屋600は、例えば警備対象となる部屋であり、天井には校正対象の監視カメラ3が設置されている。また、部屋600には床601や机602が存在し、床601には模様603が形成されている。ちなみに後述するように、カメラ校正システム1は机602の縁などのエッジを監視カメラ3の校正の基準として利用する。
FIG. 3 is a schematic perspective view showing a state of measurement of the
監視カメラの設置作業者は三次元計測装置2を用いて部屋600を三次元計測する。三次元計測装置2は計測位置650a及び計測姿勢651aで表される第一の計測位置姿勢にて、各画素が計測位置650aから床601や机602の表面の複数点それぞれまでの奥行きを表す距離画像を出力すると共に、部屋600を第一の計測位置姿勢にて撮影したRGB画像を出力する。このときの計測を第一の計測と称する。
The installation worker of the monitoring camera measures the
さらに、設置作業者が三次元計測装置2を移動させ、異なる計測位置姿勢にて部屋600を三次元計測する。このときの計測を第二の計測と称する。すなわち、三次元計測装置2は、計測位置650b及び計測姿勢651bで表される第二の計測位置姿勢にて、各画素が計測位置650bから床601や机602の表面の複数点それぞれまでの奥行きを表す距離画像を出力すると共に、部屋600を第二の計測位置姿勢にて撮影したRGB画像を出力する。ちなみに監視カメラ3は基本的に第一の計測位置姿勢および第二の計測位置姿勢とは異なる撮影位置652・撮影姿勢653にて部屋600を撮影する。
Further, the installation operator moves the three-
三次元計測装置2が出力する距離画像およびRGB画像が表す領域を計測領域と呼ぶ。計測領域は部屋600の全体を網羅できず、オクルージョンが原因で未計測領域が生じる。図3において白抜き表示した領域は第一の計測による計測領域である。また図3において網掛け表示した領域は第一の計測で生じた未計測領域であり、机602によるオクルージョンが原因で生じた第一の計測位置姿勢からの死角である。また、図3において斜線表示した領域は第一の計測において三次元計測装置2の画角外であった画角外領域である。
The area represented by the distance image and the RGB image output from the three-
図4は空間モデルのデータ例を示す模式図であり、例えば、三次元座標データ、輝度データ、エッジ存在度を対応付けたテーブル形式で空間モデル記憶手段510に記憶されている。ちなみに、図4に示すデータはいずれも計測領域のデータである。1番目の三次元座標データは空間モデルにおいて座標(X1,Y1,Z1)に物体の表面があり、その色はRGB表色系での(R1,G1,B1)であり、エッジ存在度の値“1.0”は当該座標に机602の縁などのエッジが存在することを示す。2番目の三次元座標データも同様に、空間モデルにおいて座標(X2,Y2,Z2)に物体表面のエッジが存在し、その色が(R2,G2,B2)であることを示す。3番目の三次元座標データは空間モデルにおいて座標(X3,Y3,Z3)に物体の表面があり、その色はRGB表色系での(R3,G3,B3)であり、エッジ存在度の値“0.0”はそこにエッジが存在する可能性が小さいことを示す。
FIG. 4 is a schematic diagram showing an example of data of a spatial model, and is stored in the spatial
さて、エッジは物体の縁などに生じる、カメラの校正などに有用な特徴点である。しかし空間モデルにおいて未計測領域との境界に位置する三次元座標データにエッジが存在していても利用できない問題が生じる。しかも物体の縁の近傍はオクルージョンが生じやすいため、有用なエッジが失われやすい。例えば図3の監視カメラ3が撮影する監視画像には第一の計測で生じた未計測領域が含まれる。部屋600を計測した空間モデルを用いて監視カメラ3が撮影する監視画像を模擬すると、未計測領域の境界には机602の縁と床601の平面とが混在する。共に未計測領域との境界に位置する机602の縁の三次元座標データと床601の平面の三次元座標データとを識別できない限り机602の縁に現れる有用なエッジを棄てざるを得ない。本発明では変化点対応付け手段531およびエッジ存在度付与手段532により当該有用なエッジが存在する三次元座標データを識別し、識別した三次元座標データにエッジが存在することを示すエッジ肯定値を付与することで、有用なエッジを活用可能な三次元モデルを生成する。
An edge is a feature point that is useful for camera calibration or the like that occurs at the edge of an object. However, there is a problem that the spatial model cannot be used even if an edge exists in the three-dimensional coordinate data located at the boundary with the unmeasured area. Moreover, since the occlusion is likely to occur near the edge of the object, useful edges are likely to be lost. For example, the monitoring image captured by the
変化点対応付け手段531は各RGB画像から輝度変化点を抽出し、計測位置姿勢を用いて輝度変化点に対応する位置の三次元座標データを検出する。具体的には変化点対応付け手段531は各RGB画像において周囲画素との輝度差が所定値以上である輝度変化点を抽出し、計測位置姿勢を用いて輝度変化点と対応する位置の三次元座標データを検出し、検出した対応関係をエッジ存在度付与手段532に出力する。
The change
ここで輝度変化点の抽出について説明する。本実施形態では輝度差としてエッジ強度を利用する。変化点対応付け手段531は第一の計測位置姿勢にて撮影したRGB画像の各画素に所定のエッジオペレータを適用して当該画素とその周囲画素とのエッジ強度を算出し、エッジ強度がしきい値Ti以上である画素を第一の輝度変化点として抽出する。同様に、第二の計測位置姿勢にて撮影したRGB画像の各画素に所定のエッジオペレータを適用して当該画素とその周囲画素とのエッジ強度を算出し、エッジ強度がしきい値Ti以上である画素を第二の輝度変化点として抽出する。
Here, extraction of luminance change points will be described. In the present embodiment, edge strength is used as the luminance difference. The change
本実施形態では三次元計測装置2から入力されるRGB画像を輝度変化点の抽出に用いる。一方、三次元計測装置2からのRGB画像を直接用いずに、空間モデルと計測パラメータとから上記RGB画像を再現し、再現したRGB画像から輝度変化点を抽出してもよい。具体的には、空間モデルを構成する複数の三次元座標データについて対応する輝度データを計測パラメータが表す投影面に投影するレンダリング処理によりRGB画像を再現できる。なお、再現するRGB画像の画角は三次元計測装置2の画角に合わせる。計測時には記憶部51にRGB画像を格納せずに座標変換手段530の処理だけを行っておき、変化点対応付け手段531の処理は計測後の別時刻に実行できる。当該構成は記憶部51の容量や制御部53の処理能力が低いときに有効である。エッジオペレータにはソーベルオペレータ(Sobel Operator)を用いることができるが、ラプラシアンフィルタ(Laplacian Filter)など他の公知のオペレータを用いてもよい。
In the present embodiment, the RGB image input from the three-
次に、複数の計測位置姿勢それぞれにて抽出される輝度変化点と三次元座標データとの対応関係の検出について説明する。第一の計測と第二の計測とで実空間の同じ位置を計測していても、量子化の影響により、両者で得られる三次元座標データは最大で1画素分だけずれる。このずれを考慮して対応関係を検出する。 Next, detection of the correspondence between the brightness change points extracted at each of the plurality of measurement positions and orientations and the three-dimensional coordinate data will be described. Even if the same position in the real space is measured by the first measurement and the second measurement, the three-dimensional coordinate data obtained by both is shifted by one pixel at maximum due to the influence of quantization. The correspondence is detected in consideration of this deviation.
ところで、各計測において撮影したRGB画像の画素と、当該計測において得た三次元座標データとは、座標変換手段530が各計測時の計測パラメータを用いて行った変換処理において既に1対1で紐づけられている、或いは変化点対応付け手段531がRGB画像を再現するために各計測時の計測パラメータを用いて行った投影処理により既に1対1で紐づけられている。次に示す対応関係の検出ではこの紐づけを活用する。
By the way, the pixels of the RGB image photographed in each measurement and the three-dimensional coordinate data obtained in the measurement are already linked one-to-one in the conversion process performed by the coordinate
第一の計測位置姿勢にて撮影したRGB画像から抽出された輝度変化点に紐づけられている三次元座標データを特定する。そして、特定した三次元座標データを、第二の計測位置姿勢にて撮影したRGB画像に、第二の計測位置姿勢を含む計測パラメータを用いて投影し、投影先の画素が輝度変化点であるか確認する。 The three-dimensional coordinate data associated with the luminance change point extracted from the RGB image photographed at the first measurement position and orientation is specified. Then, the specified three-dimensional coordinate data is projected onto the RGB image captured at the second measurement position and orientation using the measurement parameters including the second measurement position and orientation, and the projection destination pixel is the luminance change point. Make sure.
投影先の画素が輝度変化点であれば、投影先の画素と紐づけられている三次元座標データと投影元の三次元座標データの間の三次元距離を算出して、当該三次元距離が1画素分の誤差の範囲内であるかを確認する。そして、三次元距離が誤差の範囲内である場合に、投影元の三次元座標データおよび投影先の画素と紐づけられている三次元座標データのそれぞれに対して、第一の計測位置姿勢にて撮影したRGB画像の輝度変化点および第二の計測位置姿勢にて撮影したRGB画像の輝度変化点との対応関係を検出したことになる。 If the projection destination pixel is a luminance change point, the three-dimensional distance between the three-dimensional coordinate data associated with the projection destination pixel and the three-dimensional coordinate data of the projection source is calculated, and the three-dimensional distance is calculated. It is confirmed whether it is within the error range for one pixel. When the three-dimensional distance is within the error range, the first measurement position and orientation are set for each of the three-dimensional coordinate data associated with the projection source three-dimensional coordinate data and the projection destination pixel. That is, the correspondence between the luminance change point of the RGB image photographed in this way and the luminance change point of the RGB image photographed at the second measurement position and orientation is detected.
他方、投影先の画素が輝度変化点でなければ投影元の三次元座標データと輝度変化点の対応関係は検出されなかったことになる。 On the other hand, if the projection destination pixel is not a luminance change point, the correspondence between the projection source three-dimensional coordinate data and the luminance change point has not been detected.
なお、上述した方法の代わりに、第一の計測位置姿勢を用いて各三次元座標データを第一の計測にて撮影したRGB画像に投影し、および第二の計測位置姿勢を用いて各三次元座標データを第二の計測にて撮影したRGB画像に投影して、投影先の画素が輝度変化点であるか否かを確認することによって、三次元座標データと輝度変化点の対応関係を検出してもよい。 In addition, instead of the method described above, each three-dimensional coordinate data is projected onto the RGB image captured by the first measurement using the first measurement position and orientation, and each tertiary using the second measurement position and orientation. By projecting the original coordinate data onto the RGB image captured by the second measurement and confirming whether the projection destination pixel is a luminance change point, the correspondence between the three-dimensional coordinate data and the luminance change point is determined. It may be detected.
エッジ存在度付与手段532は空間モデルを構成する複数の三次元座標データに輝度変化点との対応が検出された数に応じたエッジ存在度を付与する。すなわち、変化点対応付け手段531が検出した輝度変化点と三次元座標データとの対応関係を参照して、三次元座標データに輝度変化点と対応が検出された数に応じた高さのエッジ存在度を付与する。具体的には、三次元座標データごとに当該三次元座標データとの対応が検出された第一の輝度変化点および第二の輝度変化点の数を計数する。エッジ存在度付与手段532は、計数値が2以上である三次元座標データに対してはエッジ存在度を1.0と判定し、計数値が2未満である三次元座標データに対してはエッジ存在度を0.0と判定する。また対応関係が検出されなかった三次元座標データに対してはエッジ存在度を0.0と判定する。エッジ存在度付与手段532は、判定したエッジ存在度を空間モデル記憶手段510に記憶させる。これにより未計測領域との境界に位置する三次元座標データのうち、実際に物体の外形部分のエッジが存在する三次元座標データに、エッジが存在することを示すエッジ存在度を付与でき、実際にエッジが存在する可能性が低い三次元座標データに、エッジが存在しないことを示すエッジ存在度を付与できる。
The edge presence degree giving means 532 gives edge presence degrees according to the number of detected correspondences with luminance change points to a plurality of three-dimensional coordinate data constituting the spatial model. That is, referring to the correspondence relationship between the luminance change point detected by the change
図5および図6は上述した対応関係の例を示す模式図である。図5は部屋600を異なる計測位置姿勢で撮影したRGB画像の例を示す模式図であり、図5(a)のRGB画像750は第一の計測位置姿勢(計測位置650a、計測姿勢651a)にて撮影したものであり、図5(b)のRGB画像760は部屋600を第二の計測位置姿勢(計測位置650b、計測姿勢651b)にて撮影したものである。また、図6は、RGB画像750と空間モデル800との間での輝度変化点の対応関係、RGB画像760と空間モデル800の間での輝度変化点の対応関係を示した模式図である。図6(a)は各計測位置姿勢や輝度変化点などの位置関係を示す部屋600の空間モデルの模式的な斜視図であり、図6(b)は対応関係を表形式で表したものである。
5 and 6 are schematic diagrams showing examples of the above-described correspondence relationship. FIG. 5 is a schematic diagram illustrating an example of an RGB image obtained by photographing the
図5(a)に示すRGB画像750の互いに隣接する画素751と画素752は輝度変化点として抽出される。このうち、図6(a)に示すように、画素751に対応する三次元座標データ801が表す位置には実際に机852の縁のエッジが存在する。一方、画素752に対応する三次元座標データ803が表す位置は実際には床851の平面上の位置でありエッジは存在しない。
RGB画像750上では隣り合う画素(751,752)どうしが輝度変化点として抽出されるが、図6(a)に示すように、空間モデル中で対応する三次元座標(801,803)は離れており、その間には第一の計測における未計測領域850が介在している。つまり第一の計測位置姿勢にて撮影したRGB画像750の輝度変化点と対応する三次元座標データには、その位置にエッジが存在するものとしないものが混在している。そして、空間モデル中での当該混在に係る三次元座標データの場所は第一の計測における未計測領域の境界である。
On the
第二の計測位置姿勢を含む計測パラメータを用いて三次元座標データ801をRGB画像760に投影する。投影先は画素761となる。画素761には机852の縁が写っており、画素761は輝度変化点として抽出される。画素761と紐づけられている三次元座標データ802は三次元座標データ801と同じく机852の縁を計測したデータであり、三次元座標データ802と三次元座標データ801との間には1画素分の誤差に満たない三次元距離が算出される。この結果、三次元座標データ801と802とに対して画素751および画素761との対応関係が検出される(図6(b)参照)。つまり三次元座標データ801と802に対してはそれぞれ2つの輝度変化点との対応関係が検出される。
The three-dimensional coordinate
一方、RGB画像750にて輝度変化点として抽出されたもう1つの画素752は三次元座標データ803と対応している。第二の計測位置を含む計測パラメータを用いて三次元座標データ803をRGB画像760に投影すると投影先は画素762となる。しかし床851上の平面部分が写っている画素762は輝度変化点として抽出されない。この結果、三次元座標データ803に対してはRGB画像750の輝度変化点との対応関係だけが検出される(図6(b)参照)。つまり三次元座標データ803に対しては輝度変化点との対応関係が1つだけ検出される。
On the other hand, another
図7はエッジ存在度付与の例を示す模式図であり、図7(a)は部屋600の空間モデルの模式的な斜視図にて三次元座標データの例であるQ1〜Q14の位置を示しており、図7(b)はQ1〜Q14における輝度変化点対応数およびエッジ存在度を表形式で示している。図6を参照して説明したように、三次元座標データ801(Q7)には、第一の計測位置姿勢にて撮影したRGB画像750から抽出された輝度変化点(画素751)との対応関係、および第二の計測位置姿勢にて撮影したRGB画像760から抽出された輝度変化点(画素761)との対応関係が検出され、三次元座標データQ7と対応する輝度変化点数は2と計数される。輝度変化点数に応じ、三次元座標データQ7にはエッジ存在度1.0が付与される。同様に、机602の縁に位置する三次元座標データQ1〜Q6,Q8,Q9に対しても輝度変化点数は2と計数されてエッジ存在度1.0が付与される。
FIG. 7 is a schematic diagram showing an example of edge presence assignment. FIG. 7A is a schematic perspective view of a space model of the
また、図6を参照して説明したように、三次元座標データ803(Q11)には、第一の計測位置姿勢にて撮影したRGB画像750から抽出された輝度変化点751との対応関係は検出されたものの、第二の計測位置姿勢にて撮影したRGB画像760から抽出された輝度変化点との対応関係は検出されなかった。そのため、三次元座標データQ11と対応する輝度変化点数は1と計数される。輝度変化点数に応じ、三次元座標データQ11にはエッジ存在度0.0が付与される。同様に、床601の平面上で未計測領域(第一の計測において生じた未計測領域)との境界に位置する三次元座標データQ10,Q12に対しても輝度変化点数は1と計数されてエッジ存在度0.0が付与される。
Further, as described with reference to FIG. 6, the three-dimensional coordinate data 803 (Q11) has a correspondence relationship with the
また、床601の平面上で図3に示した模様603の縁に位置する三次元座標データQ14に対する輝度変化点数は2であり、輝度変化点数に応じてエッジ存在度1.0が付与される。
Further, the number of luminance change points with respect to the three-dimensional coordinate data Q14 located on the edge of the
また、床601の平面上で未計測領域との境界でも模様603の縁でもない位置にある三次元座標データQ13に対する輝度変化点数は0であり、輝度変化点数に応じてエッジ存在度0.0が付与される。
Further, the number of luminance change points for the three-dimensional coordinate data Q13 at a position that is neither the boundary with the unmeasured area nor the edge of the
図8はエッジ存在度の例を説明するための部屋600の空間モデルの模式図である。図8において、実線部(直線P1−P2,P1−P3,P1−P5,P2−P4,P3−P4,P3−P6,P4−P7,P5−P6,P6−P7部および直線群S)の三次元座標データにエッジ存在度1.0が付与され、それ以外の三次元座標データにエッジ存在度0.0が付与されている。
FIG. 8 is a schematic diagram of a space model of the
これら実線部のうち直線P1−P2,P1−P5,P2−P4およびP4−P7部の三次元座標データは未計測領域(網掛け部)との境界に位置し、従来技術ではカメラ校正等に利用できなかったエッジであるが、本発明ではエッジが存在することを示すエッジ存在度が付与されカメラ校正等に利用可能となる。 Of these solid lines, the three-dimensional coordinate data of the straight lines P1-P2, P1-P5, P2-P4 and P4-P7 are located at the boundary with the unmeasured area (shaded area). Although it was an edge that could not be used, in the present invention, an edge presence indicating that an edge is present is given and can be used for camera calibration and the like.
[カメラ校正時の三次元データ処理装置5]
図9は部屋600の空間モデルを用いて、部屋600に設置された監視カメラ3を校正するときの三次元データ処理装置5の概略の機能ブロック図である。
[
FIG. 9 is a schematic functional block diagram of the three-dimensional
記憶部51は空間モデル記憶手段510として機能し、制御部53は実エッジ画像生成手段535、仮想カメラ設定手段536、仮想エッジ画像生成手段537およびエッジ画像照合手段538などとして機能する。
The
実エッジ画像生成手段535は監視カメラ3(実カメラ)から入力された各監視画像(実画像)からエッジを抽出してエッジ画像を生成し、生成したエッジ画像を、対応するカメラIDと共にエッジ画像照合手段538に出力する。後述する仮想エッジ画像生成手段537が生成するエッジ画像と区別するために、ここで生成するエッジ画像を実エッジ画像と呼ぶ。
The real edge image generation means 535 extracts an edge from each monitoring image (real image) input from the monitoring camera 3 (real camera) to generate an edge image, and the generated edge image together with the corresponding camera ID is used as an edge image. The result is output to the
実エッジ画像生成手段535は監視画像における周囲画素との輝度差が予め定めたしきい値Ti以上である輝度変化点に対応する画素に画素値“1”、それ以外の画素に画素値“0”を設定して実エッジ画像を生成する。本実施形態では輝度差としてエッジ強度を利用する。実エッジ画像生成手段535は監視画像の各画素にソーベルオペレータなど所定のエッジオペレータを適用しエッジ強度を算出する。 The real edge image generation means 535 has a pixel value “1” for the pixel corresponding to the luminance change point where the luminance difference with the surrounding pixels in the monitoring image is equal to or greater than a predetermined threshold value Ti, and a pixel value “0” for the other pixels. "" Is set to generate an actual edge image. In the present embodiment, edge strength is used as the luminance difference. The real edge image generation means 535 calculates edge strength by applying a predetermined edge operator such as a Sobel operator to each pixel of the monitoring image.
仮想カメラ設定手段536は空間モデル内で部屋600を任意の位置姿勢にて模擬撮影する仮想カメラを複数設定し、設定した仮想カメラのカメラパラメータを仮想エッジ画像生成手段537に出力する。仮想カメラのカメラパラメ―タに含まれる位置姿勢は校正対象である監視カメラ3の撮影位置姿勢の候補である。カメラパラメータのうち位置姿勢以外の焦点距離、解像度、レンズ歪みなどは予め記憶させてある監視カメラ3の値を用いる。
The virtual
仮想カメラ設定手段536は空間モデルのXYZ座標系において原点から予め定めた微小間隔でX方向、Y方向、Z方向に仮想カメラの位置を移動させると共に仮想カメラの姿勢(ピッチ角、ヨー角、ロール角)を予め定めた微小間隔で変更して総当たり的に複数の仮想カメラを設定してもよいが、ユーザーインターフェース部55から予め監視カメラ3の設置仕様等に基づく設定範囲を入力し、当該範囲内に仮想カメラを設定することでカメラ校正の処理量を減ずることができる。例えば、設置仕様が鉛直下方に向けて天井設置する仕様であれば、天井高を予め入力しておくことで、仮想カメラのZ方向の移動範囲とピッチ角の変動範囲を大幅に狭くできる。また、設置仕様に定められたX座標、Y座標、Z座標、ピッチ角、ヨー角、ロール角を予め入力し、入力した各値を中心として予め定めた設置誤差範囲内に一定の微小間隔で複数の仮想カメラを設定してもよいし、入力した各値から離れるに従って広がる微小間隔で複数の仮想カメラを設定してもよい。
The virtual camera setting means 536 moves the position of the virtual camera in the X, Y, and Z directions at a predetermined minute interval from the origin in the XYZ coordinate system of the space model, and also the attitude of the virtual camera (pitch angle, yaw angle, roll The angle may be changed at a predetermined minute interval to set a plurality of virtual cameras. However, the setting range based on the installation specifications of the
仮想エッジ画像生成手段537は、仮想カメラ設定手段536が設定した各カメラパラメータが表す撮影面に部屋600の空間モデルを投影してエッジ画像を生成し、生成したエッジ画像をエッジ画像照合手段538に出力する。ここで生成するエッジ画像を仮想エッジ画像と呼ぶ。
The virtual edge
具体的には、空間モデルを構成する三次元座標データのうちエッジ存在度が“1.0”である三次元座標データを撮影面に投影し、エッジ存在度が“0.0”である三次元座標データを投影しないことで、仮想カメラの撮影面にて、エッジ存在度1.0を有する三次元座標データの投影位置をエッジ画素とする仮想エッジ画像が生成される。 Specifically, among the three-dimensional coordinate data constituting the space model, three-dimensional coordinate data with an edge presence of “1.0” is projected onto the imaging surface, and a tertiary with an edge presence of “0.0” is projected. By not projecting the original coordinate data, a virtual edge image is generated with the projection position of the three-dimensional coordinate data having an edge presence of 1.0 as an edge pixel on the imaging surface of the virtual camera.
上述のようにして複数の計測位置姿勢でのRGB画像を用いた輝度変化点対応数に応じてエッジ存在度を定義したことにより、計測時のオクルージョンによって空間モデルに生じる未計測領域の境界にて、実在するエッジを仮想エッジ画像に含ませることができ、一方、実在しないエッジを排除することができる。 By defining the edge presence according to the number of corresponding brightness change points using RGB images at multiple measurement positions and orientations as described above, at the boundary of the unmeasured area generated in the spatial model due to occlusion during measurement Real edges can be included in the virtual edge image, while non-existing edges can be eliminated.
ここで、計測視点からの距離よりも仮想視点からの距離の方が遠い三次元座標データにエッジが実在していても、当該仮想視点に監視カメラ3が存在した場合に得られる監視画像においては、当該三次元座標データと対応する画素位置の解像度が低下してエッジが抽出されない場合がある。そこで、空間モデルを構成する三次元座標データに対応付けられた輝度データを各仮想視点が表す撮影面に投影した投影像(レンダリング画像)からエッジ画像を生成し、仮想エッジ画像を、生成したエッジ画像と仮想エッジ画像との論理積画像に置き換えてもよい。特にこのとき、仮想視点からの距離が遠い三次元座標データについては、レンダリング画像の1画素に複数の三次元座標データが投影される。仮想エッジ画像生成手段537はこれら複数の三次元座標データに対応付けられた輝度データの平均値を投影先の画素に設定する。なお、レンダリング画像に投影される未計測領域には外れ値(例えばRGB値(255,255,255))を与えておけばよい。このようにするとレンダリング画像における未計測領域との境界から実在しないエッジが抽出され得るが、このエッジは仮想エッジ画像との論理積演算により消去されるため問題とならない。この輝度データの平均化によって、解像度の低下によるエッジの不抽出を再現でき、実エッジ画像と仮想エッジ画像の照合精度を向上させることができる。
Here, in the monitoring image obtained when the
エッジ画像照合手段538は実エッジ画像生成手段535が生成した実エッジ画像と仮想エッジ画像生成手段537が仮想カメラのカメラパラメータごとに生成した仮想エッジ画像との類似度を算出し、実エッジ画像に類似する仮想エッジ画像を与える仮想カメラの位置姿勢を監視カメラ3の位置姿勢と決定する。例えばエッジ画像照合手段538は最も類似度が高い仮想カメラの位置姿勢を監視カメラ3の位置姿勢と決定する。
The edge
ここで、類似度はエッジ位置の一致度合いに応じた値になるように定義される。例えば、エッジ位置の一致数を仮想エッジ画像のエッジ画素数、または実エッジ画像のエッジ画素数と仮想エッジ画像のエッジ画素数との和で除した値を類似度としてもよい。また例えば、仮想エッジ画像の各エッジ位置から実エッジ画像の最近傍エッジ位置までの距離、または実エッジ画像の各エッジ位置から仮想エッジ画像の最近傍エッジ位置までの距離を累積し、その累積値の逆数に応じた値を仮想エッジ画像のエッジ画素数、または実エッジ画像のエッジ画素数と仮想エッジ画像のエッジ画素数との和で除した値を類似度としてもよい。また、類似度に、輝度データの一致度合いを重み付け加算して類似度を補正してもよい。この場合、監視画像と上記レンダリング画像との間で対応する画素同士で画素値の正規化相関値を輝度データの一致度合いとすることができる。 Here, the similarity is defined to be a value corresponding to the degree of matching of the edge positions. For example, the similarity may be a value obtained by dividing the number of coincidence of edge positions by the number of edge pixels of the virtual edge image or the sum of the number of edge pixels of the real edge image and the number of edge pixels of the virtual edge image. Also, for example, the distance from each edge position of the virtual edge image to the nearest edge position of the real edge image or the distance from each edge position of the real edge image to the nearest edge position of the virtual edge image is accumulated, and the accumulated value A value obtained by dividing the value corresponding to the reciprocal number by the number of edge pixels of the virtual edge image or the sum of the number of edge pixels of the real edge image and the number of edge pixels of the virtual edge image may be used as the similarity. Further, the similarity may be corrected by weighting and adding the matching degree of the luminance data to the similarity. In this case, the normalized correlation value of the pixel value between the corresponding pixels between the monitoring image and the rendered image can be set as the degree of coincidence of the luminance data.
ちなみに、本発明に係る三次元モデル処理装置は、空間モデル記憶手段510、変化点対応付け手段531、エッジ存在度付与手段532、仮想カメラ設定手段536および仮想エッジ画像生成手段537を含み、本発明に係るカメラ校正システムは、当該三次元モデル処理装置と、実エッジ画像生成手段535およびエッジ画像照合手段538とを含んで構成される。
Incidentally, the 3D model processing apparatus according to the present invention includes a spatial
[空間モデル生成時のカメラ校正システム1の動作]
図10は空間モデル生成時のカメラ校正システム1の動作の概略のフロー図である。三次元計測装置2が部屋600の計測を行うと、三次元計測装置2から三次元データ処理装置5に計測データが入力される。三次元データ処理装置5は入力された計測データに対して図10に示す一連の処理を行い、部屋600の空間モデルを生成する。
[Operation of
FIG. 10 is a schematic flowchart of the operation of the
計測データ入力部50は三次元計測装置2から計測データ、すなわち第一の計測位置姿勢にて計測した距離画像と第一の計測位置姿勢にて撮影したRGB画像、および第二の計測位置姿勢にて計測した距離画像と第二の計測位置姿勢にて撮影したRGB画像を取得し、これらを制御部53に入力する(ステップS10)。
The measurement
制御部53は座標変換手段530として動作し、座標変換手段530は、ステップS10にて取得した距離画像から第一の計測位置姿勢および第二の計測位置姿勢を算出して、計測パラメータ記憶手段511として機能する記憶部51に記憶させる(ステップS11)。
The
座標変換手段530は、ステップS11にて算出した第一の計測位置姿勢および第二の計測位置姿勢を用い、ステップS10にて取得した距離画像の各画素を三次元座標データに変換して空間モデル記憶手段510として機能する記憶部51に記憶させる(ステップS12)。さらに、後段の処理のために距離画像の画素と三次元座標データとの対応関係も空間モデル記憶手段510に一時記憶させておく。また、座標変換手段530は、ステップS10にて取得したRGB画像の各画素値を、対応する距離画像の画素の変換先となった三次元座標データに輝度データとして紐づけて空間モデル記憶手段510に記憶させる。なお、RGB画像の複数の画素と対応する三次元座標データに対する輝度データは、対応する複数の画素の平均画素値とすればよい。
The coordinate conversion means 530 uses the first measurement position and orientation calculated in step S11 and the second measurement position and orientation to convert each pixel of the distance image acquired in step S10 into three-dimensional coordinate data, thereby creating a spatial model. It memorize | stores in the memory |
また、制御部53は変化点対応付け手段531として動作し、ステップS13〜S16の処理を行う。まず、変化点対応付け手段531は、ステップS11にて取得した複数の計測位置姿勢を順次、注目位置姿勢に設定する(ステップS13)。
In addition, the
変化点対応付け手段531はステップS10にて取得したRGB画像のうち注目位置姿勢のRGB画像から輝度変化点を抽出する(ステップS14)。具体的には注目位置姿勢のRGB画像の各画素におけるエッジ強度を算出し、エッジ強度がしきい値Ti以上である画素を輝度変化点として抽出する。 The change point associating means 531 extracts a luminance change point from the RGB image of the target position and orientation among the RGB images acquired in step S10 (step S14). Specifically, the edge strength in each pixel of the RGB image of the target position and orientation is calculated, and a pixel whose edge strength is equal to or greater than the threshold value Ti is extracted as a luminance change point.
変化点対応付け手段531はステップS14にて抽出した輝度変化点と対応する三次元座標データを空間モデルの中から検出する(ステップS15)。
The change
変化点対応付け手段531は全ての計測位置姿勢を処理したか確認し(ステップS16)、未処理のものがある場合は(S16にてNOの場合)ステップS13に戻り、次の計測位置姿勢の処理を行う。 The change point associating means 531 confirms whether or not all measurement positions and orientations have been processed (step S16), and if there are unprocessed items (NO in S16), the process returns to step S13, and the next measurement position and orientation is determined. Process.
一方、全ての計測位置姿勢を処理し終えた場合は(S16にてYESの場合)、制御部53はエッジ存在度付与手段532として動作し、ステップS17〜S21の処理を行う。
On the other hand, when all the measurement positions and orientations have been processed (YES in S16), the
エッジ存在度付与手段532は、空間モデルを構成する複数の三次元座標データを順次、注目データに設定し(ステップS17)、ステップS15で検出した対応関係を参照し、注目データと対応する輝度変化点の数(すなわち計測位置姿勢の数)を計数する(ステップS18)。注目データとの対応が検出された輝度変化点の数が2以上であれば、エッジ存在度付与手段532は空間モデル記憶手段510の注目データに対応付けてエッジ存在度1.0を記憶させる。一方、注目データとの対応が検出された輝度変化点の数が2未満であれば空間モデル記憶手段510の注目データに対応付けてエッジ存在度0.0を記憶させる。なお、注目データとの対応関係が検出されなかった場合も2未満の場合に含める。
The edge presence
エッジ存在度付与手段532は、全ての三次元座標データを処理したか確認し(ステップS21)、未処理のものがある場合は(S21にてNOの場合)ステップS17に戻り、次の三次元座標データの処理を行う。一方、全ての三次元座標データを処理し終えるとモデル生成処理は終了する(S21にてYESの場合)。 The edge presence degree assigning means 532 confirms whether or not all the three-dimensional coordinate data have been processed (step S21), and if there is any unprocessed data (NO in S21), the process returns to step S17, and the next three-dimensional Perform coordinate data processing. On the other hand, when all the three-dimensional coordinate data have been processed, the model generation process ends (in the case of YES in S21).
[カメラ校正時のカメラ校正システム1の動作]
図11はカメラ校正時のカメラ校正システム1の動作の概略のフロー図である。部屋600に設置された監視カメラ3が部屋600の撮影を行うと、監視カメラ3から三次元データ処理装置5に監視画像が入力される。三次元データ処理装置5は入力された監視画像に対して図11に示す一連の処理を行い、監視カメラ3の校正を行う。
[Operation of
FIG. 11 is a schematic flowchart of the operation of the
監視画像入力部52は監視カメラ3から監視画像を取得し、これを制御部53に入力する(ステップS50)。制御部53は実エッジ画像生成手段535として動作し、ステップS50にて取得した監視画像の各画素にエッジオペレータを適用して実エッジ画像を生成する(ステップS51)。
The monitoring
次に制御部53は仮想カメラ設定手段536として動作し、空間モデルの座標系に互いに位置姿勢の異なる複数の仮想カメラを設定する(ステップS52)。
Next, the
そして、制御部53は仮想エッジ画像生成手段537として動作し、ステップS52にて設定された各仮想カメラの撮影面に仮想エッジ画像を生成する(ステップS53)。具体的には、仮想エッジ画像生成手段537は空間モデル記憶手段510から部屋600の空間モデルを読み出し、ステップS52にて設定された各仮想カメラのカメラパラメータが表す撮影面にエッジ存在度1.0が付与された三次元座標データを投影して仮想エッジ画像を生成する。また同投影面に輝度データをレンダリングし、レンダリングした画像の各画素にエッジオペレータを適用してエッジ画像を生成し、仮想エッジ画像を、生成したエッジ画像との論理積画像に更新する。
Then, the
制御部53はエッジ画像照合手段538として動作し、ステップS51にて生成した実エッジ画像と、ステップS53にて生成した仮想カメラごとの仮想エッジ画像それぞれとの類似度を算出する(ステップS54)。エッジ画像照合手段538は、ステップS54にて算出した仮想カメラごとの類似度に基づいて、最大の類似度が算出された仮想カメラの位置姿勢を検出し、検出した仮想カメラの位置姿勢を監視カメラ3の位置姿勢と決定して監視カメラ3のカメラIDと共に出力部54に入力する(ステップS55)。
The
ここで決定される監視カメラ3の位置姿勢は、空間モデルにおいて未計測領域の境界に位置するエッジをも利用して求めた高精度な推定結果となっている。
The position and orientation of the
出力部54は、監視カメラ3の位置姿勢とカメラIDを監視装置4に入力する。監視装置4は入力された監視カメラ3の位置姿勢を格納し、以降の監視処理にて利用する。
The
[変形例]
(1)上記実施形態では、互いに異なる2つの計測位置姿勢にて計測を行う例を示したが、3以上の計測位置姿勢にて計測を行ってもよい。
[Modification]
(1) In the above embodiment, an example in which measurement is performed at two different measurement positions and orientations has been described, but measurement may be performed at three or more measurement positions and orientations.
(2)上記実施形態においては、エッジ存在度付与手段532が“0.0”または“1.0”のいずれかエッジ存在度を付与する例を示したが、3種類以上のエッジ存在度を付与してもよい。その場合、エッジ存在度付与手段532は、例えば、輝度変化点対応数が0または1の三次元座標データにエッジ存在度“0.0”、輝度変化点対応数が2の三次元座標データにエッジ存在度“0.5”、輝度変化点対応数が3の三次元座標データにエッジ存在度“0.625”、輝度変化点対応数が4の三次元座標データにエッジ存在度“0.75”、輝度変化点対応数が5の三次元座標データにエッジ存在度“0.875”、輝度変化点対応数が6以上の三次元座標データにはエッジ存在度“1.0”を付与する。そして、エッジ画像照合手段538は仮想エッジ画像のエッジ位置をエッジ存在度で重み付けて実エッジ画像との類似度を算出する。
(2) In the above embodiment, the example in which the edge presence
(3)上記実施形態では、三次元モデルとして所定空間を計測して得た空間モデルを例示したが、三次元モデルは什器等の所定物体を計測して得た物体モデルであってもよい。 (3) In the above embodiment, a space model obtained by measuring a predetermined space is exemplified as a three-dimensional model. However, the three-dimensional model may be an object model obtained by measuring a predetermined object such as a fixture.
(4)上記実施形態では、三次元座標データが三次元空間中の点を表すポイントクラウド形式の三次元モデルを例示したが、物体面の頂点座標の集合を含むメッシュモデル形式の三次元モデルであってもよい。その場合、例えば、任意の頂点座標のペアを三次元座標データとし(つまり直線単位の三次元座標データとし)、エッジ存在度付与手段532は当該三次元座標データに対してエッジ存在度を付与する。
(4) In the above embodiment, the point cloud format three-dimensional model in which the three-dimensional coordinate data represents a point in the three-dimensional space is exemplified, but the mesh model format three-dimensional model including a set of vertex coordinates of the object plane is used. There may be. In this case, for example, an arbitrary vertex coordinate pair is set as three-dimensional coordinate data (that is, three-dimensional coordinate data in units of straight lines), and the edge presence
(5)上記実施形態においては監視カメラ3が1台の例を説明したが、監視カメラは2台以上でもよく、その場合は各監視カメラに上記例と同様の処理を繰り返せばよい。
(5) In the above embodiment, an example in which the number of
(6)上記実施形態においては、撮影位置姿勢が固定されたカメラを校正するカメラ校正システムを例示したが、本発明は、パン・チルト動作するカメラ、ロボット等の移動体に設置されたカメラ、人が手持ちしたカメラなど撮影位置姿勢が変動するカメラを校正するカメラ校正システムにも適用することができる。すなわち、これらのカメラを校正する場合は、撮影位置姿勢が変動した後の撮影画像が入力されるたびに校正を行えばよい。 (6) In the above embodiment, the camera calibration system that calibrates the camera in which the photographing position and orientation is fixed is exemplified. However, the present invention is a camera that is installed in a moving body such as a pan / tilt camera, a robot, The present invention can also be applied to a camera calibration system that calibrates a camera that changes its photographing position and orientation, such as a camera held by a person. That is, when these cameras are calibrated, it is sufficient to calibrate each time a captured image after the photographing position and orientation is changed is input.
(7)上記実施形態では、エッジ存在度を付与した三次元モデルを投影して仮想エッジ画像を生成する例を示したが、エッジ存在度を付与した空間モデルは投影せずとも三次元データ間の位置合わせや照合の精度を向上させる効果を奏する。例えば、互いに異なる複数の計測視点から計測して得た空間モデル或いは物体モデルのそれぞれにエッジ存在度を付与し、これら複数の空間モデル或いは複数の物体モデルを、エッジが存在することを示すエッジ存在度が付与された三次元座標データを重視して位置合わせすれば、位置合わせ精度を向上させることができる。また例えば、所定物体を計測して得た物体モデルにエッジ存在度を付与して、該物体モデルと未知物体を計測して得た三次元データとを照合して物体認識を行う際に、エッジが存在することを示すエッジ存在度が付与された三次元座標データを重視して照合を行えば照合精度を向上させることができる。 (7) In the above embodiment, an example is shown in which a virtual edge image is generated by projecting a three-dimensional model to which edge presence is given. There is an effect of improving the accuracy of alignment and collation. For example, an edge presence is given to each of a spatial model or an object model obtained by measuring from a plurality of different measurement viewpoints, and an edge exists indicating that an edge exists in these multiple spatial models or multiple object models If the positioning is performed with emphasis on the three-dimensional coordinate data to which the degree is given, the positioning accuracy can be improved. Also, for example, when edge recognition is given to an object model obtained by measuring a predetermined object, and object recognition is performed by collating the object model with three-dimensional data obtained by measuring an unknown object, If the collation is performed with emphasis on the three-dimensional coordinate data to which the edge presence level indicating that the image exists, the collation accuracy can be improved.
(8)上記実施形態では、仮想エッジ画像を利用してカメラを校正する例を示したが、当該仮想エッジ画像を利用して物体照合の精度を向上させることも可能である。例えば、所定物体を計測して得た物体モデルにエッジ存在度を付与して仮想エッジ画像を生成し、撮影画像から生成した実エッジ画像との照合を行えば、撮影画像に写っている物体が所定物体であるか否かを判定する精度を向上させることができる。 (8) In the above-described embodiment, an example in which the camera is calibrated using the virtual edge image has been described. However, the accuracy of object matching can be improved using the virtual edge image. For example, if a virtual edge image is generated by adding an edge presence to an object model obtained by measuring a predetermined object and collated with a real edge image generated from a captured image, the object shown in the captured image is The accuracy of determining whether or not the object is a predetermined object can be improved.
1 カメラ校正システム、2 三次元計測装置、3 監視カメラ、4 監視装置、5 三次元データ処理装置、50 計測データ入力部、51 記憶部、52 監視画像入力部、53 制御部、54 出力部、55 ユーザーインターフェース部、510 空間モデル記憶手段、511 計測パラメータ記憶手段、530 座標変換手段、531 変化点対応付け手段、532 エッジ存在度付与手段、535 実エッジ画像生成手段、536 仮想カメラ設定手段、537 仮想エッジ画像生成手段、538 エッジ画像照合手段、600 部屋、601 床、602 机、603 模様、650 計測位置、651 計測姿勢、652 撮影位置、653 撮影姿勢。 1 camera calibration system, 2 3D measuring device, 3 monitoring camera, 4 monitoring device, 5 3D data processing device, 50 measurement data input unit, 51 storage unit, 52 monitoring image input unit, 53 control unit, 54 output unit, 55 User interface unit, 510 Spatial model storage unit, 511 Measurement parameter storage unit, 530 Coordinate conversion unit, 531 Change point association unit, 532 Edge presence degree provision unit, 535 Real edge image generation unit, 536 Virtual camera setting unit, 537 Virtual edge image generation means, 538 edge image collation means, 600 rooms, 601 floor, 602 desks, 603 patterns, 650 measurement positions, 651 measurement postures, 652 photographing positions, 653 photographing postures.
Claims (4)
前記各画像から輝度変化点を抽出し、前記計測位置姿勢を用いて前記輝度変化点に対応する位置の三次元座標データを検出する変化点対応付け手段と、
前記三次元座標データに前記輝度変化点との対応が検出された数に応じた高さのエッジ存在度を付与するエッジ存在度付与手段と、
前記エッジ存在度が高い前記三次元座標データを前記エッジ存在度が低い前記三次元座標データよりも重視して、前記計測位置姿勢が異なる複数の前記三次元モデルを位置合わせする三次元モデル位置合わせ手段と、
を備えたことを特徴とする三次元モデル処理装置。 The three-dimensional model composed of a plurality of three-dimensional coordinate data representing the surface shape of the object and obtained by measuring at a plurality of measurement positions and orientations, the plurality of measurement positions and orientations, and the plurality of measurement positions and orientations, respectively. Storage means for storing an image of the subject,
A change point associating means for extracting a brightness change point from each image and detecting three-dimensional coordinate data of a position corresponding to the brightness change point using the measurement position and orientation;
Edge presence giving means for giving an edge presence having a height corresponding to the number of detected correspondences with the luminance change points in the three-dimensional coordinate data;
Three-dimensional model alignment for aligning a plurality of three-dimensional models with different measurement positions and orientations, with the three-dimensional coordinate data having a high edge presence being emphasized over the three-dimensional coordinate data having a low edge presence Means,
A three-dimensional model processing apparatus comprising:
前記各画像から輝度変化点を抽出し、前記計測位置姿勢を用いて前記輝度変化点に対応する位置の三次元座標データを検出する変化点対応付け手段と、
前記三次元座標データに前記輝度変化点との対応が検出された数に応じた高さのエッジ存在度を付与するエッジ存在度付与手段と、
前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、
前記仮想カメラの撮影面にて、前記エッジ存在度が予め定めた高さよりも高い三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、
を備えたことを特徴とする三次元モデル処理装置。 The three-dimensional model composed of a plurality of three-dimensional coordinate data representing the surface shape of the object and obtained by measuring at a plurality of measurement positions and orientations, the plurality of measurement positions and orientations, and the plurality of measurement positions and orientations, respectively. Storage means for storing an image of the subject,
A change point associating means for extracting a brightness change point from each image and detecting three-dimensional coordinate data of a position corresponding to the brightness change point using the measurement position and orientation;
Edge presence giving means for giving an edge presence having a height corresponding to the number of detected correspondences with the luminance change points in the three-dimensional coordinate data;
Virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation;
A virtual edge image generating means for generating a virtual edge image having an edge pixel as a projection position of three-dimensional coordinate data in which the edge presence degree is higher than a predetermined height on the imaging surface of the virtual camera;
A three-dimensional model processing apparatus comprising:
実カメラが前記対象を撮影した実画像を取得し、前記実画像からエッジを抽出して実エッジ画像を生成する実エッジ画像生成手段と、
前記実エッジ画像と前記仮想エッジ画像との類似度を算出して、前記類似度を最大化する前記仮想カメラの位置姿勢を前記実カメラの位置姿勢と決定するエッジ画像照合手段と、
を備えたことを特徴とするカメラ校正システム。 The three-dimensional model processing device according to claim 2,
An actual image obtained by capturing an image of the object by an actual camera, and an actual edge image generating unit that extracts an edge from the actual image and generates an actual edge image;
Edge image matching means for calculating the degree of similarity between the real edge image and the virtual edge image and determining the position and orientation of the virtual camera that maximizes the degree of similarity as the position and orientation of the real camera;
A camera calibration system characterized by comprising:
前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、
前記仮想カメラの撮影面にて、エッジが存在することを示すエッジ存在度を有する三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、
を備えたことを特徴とする三次元モデル処理装置。 Stores a 3D model that is composed of a plurality of 3D coordinate data representing the surface shape of the object and is obtained by measurement at a plurality of measurement positions and orientations, and the 3D coordinate data is stored at each of the plurality of measurement positions and orientations. Three-dimensional model storage means to which an edge presence corresponding to the number of detected correspondences with luminance change points extracted from an image obtained by photographing the target is provided;
Virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation;
A virtual edge image generating means for generating a virtual edge image having an edge pixel as a projection position of three-dimensional coordinate data having an edge presence level indicating that an edge exists on the imaging surface of the virtual camera;
A three-dimensional model processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015049749A JP6374812B2 (en) | 2015-03-12 | 2015-03-12 | 3D model processing apparatus and camera calibration system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015049749A JP6374812B2 (en) | 2015-03-12 | 2015-03-12 | 3D model processing apparatus and camera calibration system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016170031A JP2016170031A (en) | 2016-09-23 |
JP6374812B2 true JP6374812B2 (en) | 2018-08-15 |
Family
ID=56982347
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015049749A Active JP6374812B2 (en) | 2015-03-12 | 2015-03-12 | 3D model processing apparatus and camera calibration system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6374812B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7179439B2 (en) * | 2016-11-28 | 2022-11-29 | キヤノン株式会社 | Information processing device, information processing method and program |
CN108509848B (en) * | 2018-02-13 | 2019-03-05 | 视辰信息科技(上海)有限公司 | The real-time detection method and system of three-dimension object |
CN114170302A (en) * | 2020-08-20 | 2022-03-11 | 北京达佳互联信息技术有限公司 | Camera external parameter calibration method and device, electronic equipment and storage medium |
JP7506565B2 (en) * | 2020-09-14 | 2024-06-26 | 株式会社Screenホールディングス | Image processing device, inspection device and program |
JP7549221B2 (en) | 2021-02-26 | 2024-09-11 | 株式会社デンソーウェーブ | Recognition System |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7689003B2 (en) * | 2006-03-20 | 2010-03-30 | Siemens Energy, Inc. | Combined 2D and 3D nondestructive examination |
JP5746477B2 (en) * | 2010-02-26 | 2015-07-08 | キヤノン株式会社 | Model generation device, three-dimensional measurement device, control method thereof, and program |
JP5465128B2 (en) * | 2010-08-11 | 2014-04-09 | 株式会社トプコン | Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and point cloud position data processing program |
JP5671281B2 (en) * | 2010-08-20 | 2015-02-18 | キヤノン株式会社 | Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus |
WO2012034236A1 (en) * | 2010-09-16 | 2012-03-22 | Ambercore Software Inc. | System and method for detailed automated feature extraction from data having spatial coordinates |
-
2015
- 2015-03-12 JP JP2015049749A patent/JP6374812B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016170031A (en) | 2016-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
JP6295645B2 (en) | Object detection method and object detection apparatus | |
CN107273846B (en) | Human body shape parameter determination method and device | |
JP6506731B2 (en) | System and method for scoring clutter used for 3D point cloud matching in vision system | |
JP5812599B2 (en) | Information processing method and apparatus | |
JP6374812B2 (en) | 3D model processing apparatus and camera calibration system | |
WO2018133130A1 (en) | 3d marker model construction and real-time tracking using monocular camera | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
CN107079093B (en) | Calibration device | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
WO2019225547A1 (en) | Object tracking device, object tracking method, and object tracking program | |
JP2008506953A (en) | Method and apparatus for machine vision | |
JP6309913B2 (en) | Object detection device | |
JP7379065B2 (en) | Information processing device, information processing method, and program | |
WO2020075252A1 (en) | Information processing device, program, and information processing method | |
JP6282377B2 (en) | Three-dimensional shape measurement system and measurement method thereof | |
CN110869978A (en) | Information processing apparatus, information processing method, and computer program | |
JP7489670B2 (en) | Correction parameter calculation method, displacement amount calculation method, correction parameter calculation device, and displacement amount calculation device | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP2018009927A (en) | Image processing device, image processing method and program | |
WO2015159835A1 (en) | Image processing device, image processing method, and program | |
JP2020042575A (en) | Information processing apparatus, positioning method, and program | |
WO2019016879A1 (en) | Object detection device and object detection method | |
JP6027952B2 (en) | Augmented reality image generation system, three-dimensional shape data generation device, augmented reality presentation device, augmented reality image generation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170424 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180219 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180426 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180703 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180720 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6374812 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |