JP6374812B2 - 3D model processing apparatus and camera calibration system - Google Patents

3D model processing apparatus and camera calibration system Download PDF

Info

Publication number
JP6374812B2
JP6374812B2 JP2015049749A JP2015049749A JP6374812B2 JP 6374812 B2 JP6374812 B2 JP 6374812B2 JP 2015049749 A JP2015049749 A JP 2015049749A JP 2015049749 A JP2015049749 A JP 2015049749A JP 6374812 B2 JP6374812 B2 JP 6374812B2
Authority
JP
Japan
Prior art keywords
edge
image
dimensional
measurement
coordinate data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015049749A
Other languages
Japanese (ja)
Other versions
JP2016170031A (en
Inventor
豊 宮北
豊 宮北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2015049749A priority Critical patent/JP6374812B2/en
Publication of JP2016170031A publication Critical patent/JP2016170031A/en
Application granted granted Critical
Publication of JP6374812B2 publication Critical patent/JP6374812B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、所定対象を計測した三次元座標データから三次元モデルを生成する三次元モデル処理装置、三次元モデルから任意視点のエッジ画像を生成する三次元モデル処理装置および三次元モデルを利用してカメラを校正するカメラ校正システムに関する。   The present invention uses a three-dimensional model processing device that generates a three-dimensional model from three-dimensional coordinate data obtained by measuring a predetermined target, a three-dimensional model processing device that generates an edge image of an arbitrary viewpoint from a three-dimensional model, and a three-dimensional model. The present invention relates to a camera calibration system for calibrating a camera.

監視カメラを設置する空間を予め三次元計測して当該空間の三次元モデル(空間モデル)を生成しておけば、空間モデルを用いて監視カメラの撮影画像とマッチする視点を探索することによって、監視カメラの校正が可能となる。その探索においては、様々な位置姿勢の仮想カメラによって空間モデルを模擬撮影し、模擬撮影した画像と監視カメラで実際に撮影した画像とを比較して、エッジの位置が最も一致する仮想カメラの位置姿勢を監視カメラの位置姿勢と決定する。   If the space where the surveillance camera is installed is three-dimensionally measured and a three-dimensional model (spatial model) of the space is generated in advance, by searching for a viewpoint that matches the captured image of the surveillance camera using the spatial model, The surveillance camera can be calibrated. In the search, a virtual model with various positions and orientations is simulated and the virtual camera position where the edge position is the best is obtained by comparing the simulated image with the image actually captured by the surveillance camera. The posture is determined as the position and posture of the monitoring camera.

下記非特許文献1には、居室の三次元モデルに対してカメラパラメータが既知の仮想カメラによる任意視点の画像(生成画像)を生成し、携帯カメラで撮影した実画像と生成画像とからそれぞれ抽出したエッジの一種であるSIFT(Scale Invariant Feature Transform)をマッチング処理することによって携帯カメラの位置・姿勢を推定することが記載されている。   In Non-Patent Document 1 below, an arbitrary viewpoint image (generated image) is generated for a three-dimensional model of a room by a virtual camera with known camera parameters, and extracted from a real image and a generated image captured by a portable camera, respectively. It describes that the position / posture of a portable camera is estimated by performing a matching process on SIFT (Scale Invariant Feature Transform), which is a kind of edge.

西田純、他、「仮想化現実環境モデルに基づく携帯カメラの位置方位推定に向けて」、電子情報通信学会技術研究報告、vol. 111, no. 101, MVE2011-28, pp. 73-78, 2011年6月Jun Nishida, et al., “Towards Position Estimation of Mobile Camera Based on Virtual Reality Environment Model”, IEICE Technical Report, vol. 111, no. 101, MVE2011-28, pp. 73-78, June 2011

しかしながら、実際に三次元計測して得た空間モデルにおいては、オクルージョンによって生じた未計測領域が含まれ得る。この未計測領域が原因で監視カメラの校正などに有用なエッジが減少してしまう問題があった。   However, in a spatial model obtained by actually performing three-dimensional measurement, an unmeasured region caused by occlusion can be included. Due to this unmeasured area, there is a problem that the number of edges useful for calibration of the surveillance camera is reduced.

例えば、警備対象となる部屋を隅々まで三次元計測して回ることは困難であり、距離画像センサなどの計測装置から見て机の陰などにより生じた死角が未計測領域となる。そして、空間モデルを計測時の視点以外から模擬撮影すると、模擬画像上に、死角を作った机の縁が未計測領域と隣り合って現れてしまう。ここで、未計測領域においては、それに隣接して計測された机の面が連続して広がっているのか、又は未計測領域との境界で終わっているのかといった情報が得られない。そのため、机の縁自体は計測できているにもかかわらず監視カメラの校正などに有用な机の縁のエッジを抽出できなくなる。このことは監視カメラの校正精度低下につながる。   For example, it is difficult to three-dimensionally measure a room that is a security target, and a blind spot caused by the shadow of a desk when viewed from a measuring device such as a distance image sensor becomes an unmeasured area. Then, if the spatial model is simulated and photographed from other than the viewpoint at the time of measurement, the edge of the desk that made the blind spot appears next to the unmeasured area on the simulated image. Here, in the non-measurement area, information on whether the desk surface measured adjacent to the non-measurement area continuously spreads or ends at the boundary with the non-measurement area cannot be obtained. For this reason, it is impossible to extract the edge of the desk which is useful for calibration of the surveillance camera even though the edge of the desk itself can be measured. This leads to a decrease in the calibration accuracy of the surveillance camera.

なお、陰を作った机の縁と模擬画像上で隣り合う未計測領域は、机の縁以外の床などとも隣り合う。そのため、仮に、模擬画像から机の縁のエッジを抽出するために未計測領域と計測領域の境界をエッジとみなしてしまうと、床部分から偽のエッジを抽出することになる。偽のエッジの抽出も、やはり監視カメラの校正精度低下につながる。   The unmeasured area adjacent to the shaded desk edge on the simulated image is adjacent to the floor other than the desk edge. Therefore, if the boundary between the unmeasured area and the measurement area is regarded as an edge in order to extract the edge of the desk edge from the simulated image, a false edge is extracted from the floor portion. The extraction of false edges also leads to a decrease in the calibration accuracy of the surveillance camera.

また、物体を計測して得た三次元モデルを用いた物体認識や共通の空間を計測して得た三次元モデル同士の連結処理などにおいても同様に有用なエッジが減少してしまう問題があった。   In addition, there is a problem that useful edges are similarly reduced in object recognition using a three-dimensional model obtained by measuring an object and a process of connecting three-dimensional models obtained by measuring a common space. It was.

本発明は、上記問題を鑑みてなされたものであり、未計測領域との境界にある真のエッジを抽出可能な三次元モデルを提供できる三次元モデル処理装置の実現を目的とする。また、本発明は、三次元モデルから未計測領域との境界にある真のエッジを含めた任意視点のエッジ画像を生成できる三次元モデル処理装置の提供を別の目的とする。さらに本発明は、三次元モデルを利用したカメラ校正の精度を向上させることを別の目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to realize a three-dimensional model processing apparatus that can provide a three-dimensional model that can extract a true edge at the boundary with an unmeasured region. Another object of the present invention is to provide a three-dimensional model processing apparatus capable of generating an edge image of an arbitrary viewpoint including a true edge at the boundary with an unmeasured region from a three-dimensional model. Furthermore, another object of the present invention is to improve the accuracy of camera calibration using a three-dimensional model.

(1)本発明に係る三次元モデル処理装置は、対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデル、前記複数の計測位置姿勢、及び当該複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像を記憶している記憶手段と、前記各画像から輝度変化点を抽出し、前記計測位置姿勢を用いて前記輝度変化点に対応する位置の三次元座標データを検出する変化点対応付け手段と、前記三次元座標データに前記輝度変化点との対応が検出された数に応じた高さのエッジ存在度を付与するエッジ存在度付与手段と、を備える。   (1) A three-dimensional model processing apparatus according to the present invention includes a three-dimensional model obtained by measuring at a plurality of measurement positions and orientations, which is constituted by a plurality of three-dimensional coordinate data representing a target surface shape, and the plurality of measurement positions. Storage means for storing an image obtained by photographing the object at each of the plurality of measurement positions and postures, and a luminance change point is extracted from each image, and the luminance change points are obtained using the measurement position and posture. Change point associating means for detecting three-dimensional coordinate data at a position corresponding to the edge, and an edge for assigning a degree of edge presence corresponding to the number of detected correspondences between the luminance change points to the three-dimensional coordinate data Presence degree providing means.

(2)他の本発明に係る三次元モデル処理装置は、上記(1)の構成に加え、前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、前記仮想カメラの撮影面にて、前記エッジ存在度が予め定めた高さよりも高い三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、を備える。   (2) Another three-dimensional model processing apparatus according to the present invention, in addition to the configuration of (1) above, a virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation; Virtual edge image generation means for generating a virtual edge image with the projection position of the three-dimensional coordinate data whose edge presence is higher than a predetermined height on the imaging surface of the virtual camera as an edge pixel.

(3)本発明に係るカメラ校正システムは、上記(2)の三次元モデル処理装置と、実カメラが前記対象を撮影した実画像を取得し、前記実画像からエッジを抽出して実エッジ画像を生成する実エッジ画像生成手段と、前記実エッジ画像と前記仮想エッジ画像との類似度を算出して、前記類似度を最大化する前記仮想カメラの位置姿勢を前記実カメラの位置姿勢と決定するエッジ画像照合手段と、を備える。   (3) A camera calibration system according to the present invention acquires a real image obtained by photographing the target with the 3D model processing apparatus of (2) above and a real camera, and extracts an edge from the real image to obtain a real edge image. A real edge image generating means for generating the virtual edge image, calculating a similarity between the real edge image and the virtual edge image, and determining the position and orientation of the virtual camera that maximizes the similarity as the position and orientation of the real camera Edge image matching means.

(4)別の本発明に係る三次元モデル処理装置は、対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデルを記憶し、前記三次元座標データは前記複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像から抽出した輝度変化点との対応が検出された数に応じたエッジ存在度を付与されている三次元モデル記憶手段と、前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、前記仮想カメラの撮影面にて、エッジが存在することを示すエッジ存在度を有する三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、を備える。   (4) Another three-dimensional model processing apparatus according to the present invention stores a three-dimensional model obtained by measuring at a plurality of measurement positions and postures, which is constituted by a plurality of three-dimensional coordinate data representing a target surface shape, The three-dimensional coordinate data is given a degree of edge presence according to the number of detected correspondences with luminance change points extracted from images obtained by photographing the target at each of the plurality of measurement positions and orientations. Storage means, virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation, and an edge presence level indicating that an edge exists on the photographing surface of the virtual camera Virtual edge image generation means for generating a virtual edge image having the projection position of the three-dimensional coordinate data as an edge pixel.

本発明によれば、未計測領域との境界にあるエッジをも抽出可能な三次元モデルを生成できる。また、本発明によれば、未計測領域を含む三次元モデルから未計測領域との境界にあるエッジを含めた任意の視点のエッジ画像を生成できる。また、本発明によれば、計測して得た三次元モデルを利用して精度よくカメラ校正を行うことができる。   According to the present invention, it is possible to generate a three-dimensional model that can extract an edge at a boundary with an unmeasured region. Further, according to the present invention, an edge image of an arbitrary viewpoint including an edge at a boundary with an unmeasured region can be generated from a three-dimensional model including the unmeasured region. In addition, according to the present invention, camera calibration can be performed with high accuracy using a three-dimensional model obtained by measurement.

本発明の実施形態に係るカメラ校正システムの概略の構成を示すブロック図である。1 is a block diagram showing a schematic configuration of a camera calibration system according to an embodiment of the present invention. 三次元計測装置から入力された計測データを用いて部屋の空間モデルを生成する際の三次元データ処理装置の機能ブロック図である。It is a functional block diagram of a three-dimensional data processing device when generating a space model of a room using measurement data input from the three-dimensional measurement device. 三次元計測装置を用いた部屋の計測の様子を示す模式的な斜視図である。It is a typical perspective view which shows the mode of the measurement of the room using a three-dimensional measuring apparatus. 空間モデルのデータ例を示す模式図である。It is a schematic diagram which shows the example of data of a space model. 部屋を異なる計測位置姿勢で撮影したRGB画像の例を示す模式図である。It is a schematic diagram which shows the example of the RGB image which image | photographed the room with a different measurement position orientation. 計測位置姿勢が異なる2つのRGB画像それぞれと空間モデルとの間での輝度変化点の対応関係を示す模式図である。It is a schematic diagram which shows the correspondence of the brightness | luminance change point between each of two RGB images from which a measurement position orientation differs, and a space model. エッジ存在度付与の例を示す模式図である。It is a schematic diagram which shows the example of edge presence provision. エッジ存在度の例を説明するための部屋の空間モデルの模式図である。It is a schematic diagram of the space model of the room for demonstrating the example of edge presence degree. 部屋の空間モデルを用いて、部屋に設置された監視カメラを校正するときの三次元データ処理装置の概略の機能ブロック図である。It is a functional block diagram of the outline of the three-dimensional data processing apparatus when calibrating the surveillance camera installed in the room using the room space model. 空間モデル生成時のカメラ校正システムの動作の概略のフロー図である。It is a schematic flowchart of operation | movement of the camera calibration system at the time of a space model production | generation. カメラ校正時のカメラ校正システムの動作の概略のフロー図である。It is a schematic flowchart of operation | movement of the camera calibration system at the time of camera calibration.

以下、本発明の実施の形態(以下実施形態という)として、監視カメラが設置された空間の三次元モデル(空間モデル)を利用して監視カメラを校正するカメラ校正システムの例を説明する。このカメラ校正システムには、上記空間を三次元計測した計測データから当該空間の空間モデルを生成し、また、当該空間モデルから任意視点のエッジ画像を生成する三次元モデル処理装置の例が含まれる。   Hereinafter, as an embodiment of the present invention (hereinafter referred to as an embodiment), an example of a camera calibration system that calibrates a surveillance camera using a three-dimensional model (space model) of a space in which the surveillance camera is installed will be described. This camera calibration system includes an example of a three-dimensional model processing device that generates a space model of the space from measurement data obtained by three-dimensionally measuring the space and generates an edge image of an arbitrary viewpoint from the space model. .

[カメラ校正システム1の構成]
図1はカメラ校正システム1の概略の構成を示すブロック図である。カメラ校正システム1は、三次元計測装置2、監視カメラ3、監視装置4及び三次元データ処理装置5からなる。
[Configuration of Camera Calibration System 1]
FIG. 1 is a block diagram showing a schematic configuration of the camera calibration system 1. The camera calibration system 1 includes a three-dimensional measuring device 2, a monitoring camera 3, a monitoring device 4, and a three-dimensional data processing device 5.

三次元計測装置2は、監視カメラ3が設置された部屋を三次元計測して距離画像を取得すると共に、それと同期して部屋を撮影してRGB画像を取得し、部屋の距離画像およびRGB画像を含めた計測データを三次元データ処理装置5に出力する。例えば三次元計測装置2はRGBDカメラであり、投射したレーザー光が対象表面との往復にかかる時間から距離を計測するTOF(Time Of Flight)方式の距離センサ、および当該距離センサと同期して同一視野のRGB画像を撮影するカラーカメラを組み合わせた装置である。なお、カメラは濃淡画像を取得するモノクロカメラであってもよい。そして、三次元計測装置2による三次元計測と撮影とは少なくとも対象の共通部分を計測領域に含ませて、複数の計測位置姿勢にて行われる。すなわち、三次元計測装置2は、複数の計測位置姿勢にて所定対象を三次元計測して所定対象の三次元データを三次元データ処理装置5に出力し、さらに、三次元計測と同期して各計測位置姿勢にて所定対象を撮影し、各計測位置姿勢それぞれにて所定対象を撮影した二次元画像を三次元データ処理装置5に出力する。   The three-dimensional measuring device 2 three-dimensionally measures the room in which the surveillance camera 3 is installed to obtain a distance image, and captures the room in synchronization with it to obtain an RGB image. The distance image of the room and the RGB image Is output to the three-dimensional data processing device 5. For example, the three-dimensional measuring device 2 is an RGBD camera, and is the same in synchronization with the distance sensor of the TOF (Time Of Flight) method that measures the distance from the time required for the projected laser light to reciprocate with the target surface, and the distance sensor. This is a device combined with a color camera that captures an RGB image of the field of view. The camera may be a monochrome camera that acquires gray images. Then, the three-dimensional measurement and the photographing by the three-dimensional measurement apparatus 2 are performed at a plurality of measurement positions and postures by including at least a common part of the target in the measurement region. That is, the three-dimensional measuring device 2 performs three-dimensional measurement on a predetermined target at a plurality of measurement positions and orientations, outputs three-dimensional data of the predetermined target to the three-dimensional data processing device 5, and further synchronizes with the three-dimensional measurement. A predetermined object is photographed at each measurement position and orientation, and a two-dimensional image obtained by photographing the predetermined object at each measurement position and orientation is output to the three-dimensional data processing device 5.

監視カメラ3は校正対象のカメラである。例えば、複数の監視カメラ3がそれぞれ部屋の天井に設置され、天井から部屋を撮影し、監視画像と、予め付与されたカメラIDを監視装置4に出力する。また、監視カメラ3の校正時には監視カメラ3は監視画像とカメラIDを三次元データ処理装置5に出力する。   The surveillance camera 3 is a camera to be calibrated. For example, a plurality of surveillance cameras 3 are respectively installed on the ceiling of the room, the room is photographed from the ceiling, and a surveillance image and a camera ID assigned in advance are output to the surveillance device 4. When the monitoring camera 3 is calibrated, the monitoring camera 3 outputs a monitoring image and a camera ID to the three-dimensional data processing device 5.

監視装置4は三次元データ処理装置5から監視カメラ3の位置姿勢(撮影位置姿勢)を含むカメラパラメータを入力され、これを格納する。撮影位置姿勢は、実空間を模した世界座標系における監視カメラ3の撮影位置(光点位置)および撮影姿勢(光軸方向とその回転角)である。そして、この監視カメラ3の撮影位置姿勢を求める処理が校正である。   The monitoring device 4 receives camera parameters including the position and orientation (imaging position and orientation) of the monitoring camera 3 from the three-dimensional data processing device 5 and stores them. The shooting position and orientation are a shooting position (light spot position) and a shooting posture (optical axis direction and its rotation angle) of the monitoring camera 3 in the world coordinate system imitating real space. The process for obtaining the shooting position and orientation of the monitoring camera 3 is calibration.

また、監視装置4は監視カメラ3からの監視画像を解析して部屋内を移動する人物を追跡し、不審行動を検知する。不審人物を検知する際、監視装置4は校正されたカメラパラメータを基に監視画像から抽出した変化領域の実サイズなどを求めて変化領域が人によるものか否かなどの判定を行う。   In addition, the monitoring device 4 analyzes a monitoring image from the monitoring camera 3 to track a person who moves in the room and detects suspicious behavior. When detecting a suspicious person, the monitoring device 4 determines the actual size of the change area extracted from the monitoring image based on the calibrated camera parameters, and determines whether or not the change area is a person.

三次元データ処理装置5は例えば、PC(Personal Computer)などのコンピュータで構成される。三次元データ処理装置5は三次元計測装置2から入力された計測データを用いて空間モデルを生成する。また、三次元データ処理装置5は監視カメラ3から監視画像とカメラIDとを入力され、監視画像と空間モデルとを基に監視カメラ3を校正し、校正結果である監視カメラ3の撮影位置姿勢を含むカメラパラメータを、対応するカメラIDと共に監視装置4に出力する。カメラパラメータには、撮影位置姿勢の他に焦点距離、解像度(幅方向画素数、高さ方向画素数)、レンズ歪みなどが含まれる。これらのうち撮影位置姿勢以外は基本的に変動しない。そのため、撮影位置姿勢以外のカメラパラメータについては監視カメラ3の仕様を参照して得た値、或いは予めの計測により得た値を予め三次元データ処理装置5に記憶させておく。   The three-dimensional data processing device 5 is configured by a computer such as a PC (Personal Computer). The three-dimensional data processing device 5 generates a spatial model using the measurement data input from the three-dimensional measurement device 2. Also, the three-dimensional data processing device 5 receives the monitoring image and the camera ID from the monitoring camera 3, calibrates the monitoring camera 3 based on the monitoring image and the space model, and the shooting position and orientation of the monitoring camera 3 as a calibration result. Are output to the monitoring device 4 together with the corresponding camera ID. Camera parameters include focal length, resolution (number of pixels in the width direction, number of pixels in the height direction), lens distortion, and the like in addition to the shooting position and orientation. Of these, there is basically no change except for the shooting position and orientation. Therefore, for camera parameters other than the shooting position and orientation, values obtained by referring to the specifications of the monitoring camera 3 or values obtained by previous measurement are stored in the three-dimensional data processing device 5 in advance.

三次元データ処理装置5は計測データ入力部50、記憶部51、監視画像入力部52、制御部53、出力部54及びユーザーインターフェース部55を含む。   The three-dimensional data processing device 5 includes a measurement data input unit 50, a storage unit 51, a monitoring image input unit 52, a control unit 53, an output unit 54 and a user interface unit 55.

計測データ入力部50は三次元計測装置2と制御部53とを接続する通信インターフェース回路であり、三次元計測装置2から計測データを入力され、これを制御部53に出力する。   The measurement data input unit 50 is a communication interface circuit that connects the three-dimensional measurement device 2 and the control unit 53, receives measurement data from the three-dimensional measurement device 2, and outputs this to the control unit 53.

記憶部51はROM (Read Only Memory)、RAM (Random Access Memory)等の記憶装置であり、各種プログラムや各種データを記憶し、制御部53との間でこれらの情報を入出力する。   The storage unit 51 is a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory), stores various programs and various data, and inputs / outputs these information to / from the control unit 53.

監視画像入力部52は監視カメラ3と制御部53とを接続する通信インターフェース回路であり、監視カメラ3から撮影画像及びカメラIDを入力され、これらを制御部53に出力する。   The monitoring image input unit 52 is a communication interface circuit that connects the monitoring camera 3 and the control unit 53. The monitoring image input unit 52 receives the captured image and the camera ID from the monitoring camera 3 and outputs them to the control unit 53.

制御部53はCPU(Central Processing Unit)、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置を用いて構成される。制御部53は記憶部51からプログラムを読み出して実行することで後述する各手段として機能する。   The control unit 53 is configured using an arithmetic device such as a CPU (Central Processing Unit), a DSP (Digital Signal Processor), or an MCU (Micro Control Unit). The control unit 53 reads out and executes the program from the storage unit 51 and functions as each unit described later.

出力部54は制御部53と監視装置4とを接続する通信インターフェース回路であり、制御部53から監視カメラ3のカメラパラメータ及びカメラIDを入力され、これらを監視装置4に出力する。   The output unit 54 is a communication interface circuit that connects the control unit 53 and the monitoring device 4, receives the camera parameters and camera ID of the monitoring camera 3 from the control unit 53, and outputs them to the monitoring device 4.

ユーザーインターフェース部55はキーボード、マウス、ディスプレイ等からなるユーザーインターフェース機器である。例えば、設置作業者などのユーザーにより使用され、計測データ中の床面領域を指定するなど各種パラメータの入力作業に用いられる。   The user interface unit 55 is a user interface device including a keyboard, a mouse, a display, and the like. For example, it is used by a user such as an installation worker, and is used for inputting various parameters such as designating a floor area in measurement data.

[空間モデル生成時の三次元データ処理装置5]
図2は三次元計測装置2から入力された計測データを用いて空間モデルを生成するときの三次元データ処理装置5の機能ブロック図である。記憶部51は空間モデル記憶手段510および計測パラメータ記憶手段511として機能する記憶手段である。また制御部53は座標変換手段530、変化点対応付け手段531およびエッジ存在度付与手段532として機能する。
[Three-dimensional data processing device 5 when generating a spatial model]
FIG. 2 is a functional block diagram of the three-dimensional data processing device 5 when a spatial model is generated using measurement data input from the three-dimensional measurement device 2. The storage unit 51 is a storage unit that functions as the space model storage unit 510 and the measurement parameter storage unit 511. The control unit 53 functions as a coordinate conversion unit 530, a change point association unit 531, and an edge presence degree providing unit 532.

空間モデル記憶手段510は三次元計測装置2の計測により得た所定対象の空間モデル、つまり三次元計測装置2の計測により得た所定対象の三次元モデルを記憶する記憶手段である。空間モデルは、三次元計測装置2により計測され座標変換手段530が変換した複数の三次元座標データ(ポイントクラウドなどと称される)、各三次元座標データと対応付けられた輝度データ、およびエッジ存在度付与手段532により各三次元座標データに付与されたエッジ存在度からなる。ここで、三次元座標データはその位置に物体表面が存在することを意味し、複数の三次元座標データによって対象の表面形状を表す。輝度データはその位置における物体表面の色や輝度を表す。エッジ存在度は対応する三次元座標データの位置にエッジが存在する可能性の高さを表す値であり、本実施形態ではエッジ存在度の値域を0.0以上1.0以下であると定義する。エッジは、物体の凹凸や物体表面の模様等により輝度が大きく変化する三次元座標データが示す位置に現れる。エッジ存在度についてはさらに後述する。   The space model storage unit 510 is a storage unit that stores a space model of a predetermined object obtained by the measurement of the three-dimensional measurement apparatus 2, that is, a three-dimensional model of the predetermined object obtained by the measurement of the three-dimensional measurement apparatus 2. The spatial model includes a plurality of three-dimensional coordinate data (referred to as a point cloud) measured by the three-dimensional measuring device 2 and converted by the coordinate conversion means 530, luminance data associated with each three-dimensional coordinate data, and edges It consists of the edge presence level given to each three-dimensional coordinate data by the presence level giving means 532. Here, the three-dimensional coordinate data means that the object surface exists at the position, and the surface shape of the object is represented by a plurality of three-dimensional coordinate data. The luminance data represents the color and luminance of the object surface at that position. The edge presence level is a value representing the high possibility that an edge exists at the position of the corresponding three-dimensional coordinate data. In this embodiment, the edge presence level is defined as 0.0 or more and 1.0 or less. To do. The edge appears at a position indicated by three-dimensional coordinate data whose luminance changes greatly depending on the unevenness of the object or the pattern on the object surface. The edge presence will be further described later.

計測パラメータ記憶手段511は三次元計測装置2の計測時の位置姿勢(計測位置姿勢)を含む計測パラメータを記憶する。計測位置姿勢は、実空間を模した世界座標系における三次元計測装置2の計測位置(光点位置)および計測姿勢(光軸方向とその回転角)で表される。計測位置姿勢は座標変換手段530により算出される。あるいは別途実測した計測位置姿勢をユーザーインターフェース部55から予め入力し、これらを記憶してもよい。三次元計測装置2の計測は複数の位置姿勢で行われ、計測パラメータ記憶手段511は各計測時の位置姿勢を記憶する。   The measurement parameter storage unit 511 stores measurement parameters including the position and orientation (measurement position and orientation) at the time of measurement of the three-dimensional measurement apparatus 2. The measurement position / orientation is represented by a measurement position (light spot position) and a measurement attitude (optical axis direction and its rotation angle) of the three-dimensional measurement apparatus 2 in a world coordinate system imitating real space. The measurement position / orientation is calculated by the coordinate conversion means 530. Alternatively, separately measured measurement positions and orientations may be input in advance from the user interface unit 55 and stored. The measurement of the three-dimensional measuring apparatus 2 is performed at a plurality of positions and orientations, and the measurement parameter storage unit 511 stores the positions and orientations at the time of each measurement.

計測パラメータには、計測位置姿勢の他に焦点距離、解像度(幅方向画素数、高さ方向画素数)などがある。計測位置姿勢以外は基本的に変動しないため、三次元計測装置2の仕様を参照して得た値、或いは予めの計測により得た値を予め記憶させておく。なお画角は焦点距離と解像度とから導出可能である。また、計測パラメータから計測時の投影面が導出できる。   The measurement parameters include a focal length, resolution (number of pixels in the width direction, number of pixels in the height direction) and the like in addition to the measurement position and orientation. Since there is basically no change except for the measurement position and orientation, a value obtained by referring to the specification of the three-dimensional measurement apparatus 2 or a value obtained by a previous measurement is stored in advance. The angle of view can be derived from the focal length and the resolution. In addition, the projection plane at the time of measurement can be derived from the measurement parameters.

座標変換手段530は計測データ入力部50経由で三次元計測装置2から入力された計測データを世界座標系の三次元座標データに座標変換して空間モデル記憶手段510に記憶させる。また、座標変換手段530は計測データから計測時の三次元計測装置2の計測位置姿勢を算出し、算出した計測位置姿勢を計測パラメータ記憶手段511に記憶させる。   The coordinate conversion unit 530 performs coordinate conversion of the measurement data input from the three-dimensional measurement apparatus 2 via the measurement data input unit 50 into three-dimensional coordinate data of the world coordinate system, and stores it in the space model storage unit 510. Also, the coordinate conversion unit 530 calculates the measurement position and orientation of the three-dimensional measurement apparatus 2 at the time of measurement from the measurement data, and stores the calculated measurement position and orientation in the measurement parameter storage unit 511.

座標変換処理の概略の手順は、(a)計測位置姿勢ごとに距離画像から計測位置を原点とするローカル座標系における三次元点群を計算し、(b)或る1つの計測位置姿勢のローカル座標系を基準座標系として複数の計測位置姿勢の三次元点群を基準座標系に統合し、(c)基準座標系に世界座標系の基準を設定して世界座標系における計測位置姿勢RTを推定し、(d)RTを使って基準座標系の三次元点群を世界座標系の三次元座標データに変換するというものである。以下、各手順を説明する。   The outline procedure of the coordinate conversion process is as follows: (a) calculating a three-dimensional point group in a local coordinate system having the measurement position as the origin from the distance image for each measurement position and orientation; A coordinate system is used as a reference coordinate system, a three-dimensional point group of a plurality of measurement positions and orientations is integrated into the reference coordinate system, and (c) a reference of the world coordinate system is set in the reference coordinate system, and the measurement position and orientation RT in the world coordinate system is And (d) converting the three-dimensional point group of the reference coordinate system into the three-dimensional coordinate data of the world coordinate system using RT. Each procedure will be described below.

手順(a)では、計測位置姿勢ごとに、次式に従い、まず各画素(x,y)の画素値すなわち奥行き値がdである距離画像(x,y,d)の座標系を三次元計測装置2の光点(計測位置)を原点としたローカル座標系の三次元点群(Xc,Yc,Zc)に変換する。

Figure 0006374812
In step (a), the coordinate system of the distance image (x, y, d) in which the pixel value of each pixel (x, y), that is, the depth value is d, is first three-dimensionally measured according to the following equation for each measurement position and orientation. Conversion to a three-dimensional point group (Xc, Yc, Zc) in the local coordinate system with the light spot (measurement position) of the apparatus 2 as the origin.
Figure 0006374812

ただし、距離画像の中心画素位置を(cx,cy)とする。fは三次元計測装置2の焦点距離である。   However, the center pixel position of the distance image is (cx, cy). f is a focal length of the three-dimensional measuring apparatus 2.

手順(b)では、ローカル座標系の1つを基準座標系に定め、複数のローカル座標系を基準座標系に統合する。例えば計測位置姿勢α2のローカル座標系を、計測位置姿勢α1の基準座標系に統合するには、計測位置姿勢α1で計測した三次元点群と計測位置姿勢α2で計測した三次元点群とで共通する位置を計測した三次元点を複数個推定してそれらを対応付ける。そして、複数の対応付けから、計測位置姿勢α2のローカル座標系を計測位置姿勢α1の基準座標系に変換するための変換行列RT1を算出する。   In step (b), one of the local coordinate systems is defined as a reference coordinate system, and a plurality of local coordinate systems are integrated into the reference coordinate system. For example, in order to integrate the local coordinate system of the measurement position and orientation α2 into the reference coordinate system of the measurement position and orientation α1, the three-dimensional point group measured with the measurement position and orientation α1 and the three-dimensional point group measured with the measurement position and orientation α2. Estimate multiple 3D points that measure common positions and associate them. Then, a conversion matrix RT1 for converting the local coordinate system of the measurement position and orientation α2 into the reference coordinate system of the measurement position and orientation α1 is calculated from the plurality of associations.

手順(c)では、計測位置姿勢RTを算出するために、基準座標系の三次元点群のうち床面である点をユーザインターフェース部55を用いて選択入力させ、この選択入力に基づいて、基準座標系の計測位置直下の床面の座標値を算出する。これにより例えば、床面をXY平面、高さ方向をZ軸、基準に定めた計測位置直下の床面上の点を原点とする世界座標系における計測位置姿勢RT0を算出することができる。そして次式に従い計測位置姿勢RTを算出する。
RT=RT0・RT1
In step (c), in order to calculate the measurement position / orientation RT, a point that is a floor surface among the three-dimensional point group of the reference coordinate system is selected and input using the user interface unit 55, and based on this selection input, The coordinate value of the floor surface immediately below the measurement position in the reference coordinate system is calculated. Thereby, for example, the measurement position / orientation RT0 in the world coordinate system can be calculated in which the floor is the XY plane, the height direction is the Z axis, and the point on the floor immediately below the measurement position defined as the reference is the origin. Then, the measurement position / orientation RT is calculated according to the following equation.
RT = RT0 ・ RT1

手順(d)では各計測位置姿勢について手順(c)で求めたRTを利用して次式に従い、当該計測位置姿勢でのローカル座標系の三次元点群を世界座標系の三次元座標データ(X,Y,Z)に変換する。

Figure 0006374812
In step (d), using the RT obtained in step (c) for each measurement position and orientation, the three-dimensional point group of the local coordinate system at the measurement position and orientation is converted into the three-dimensional coordinate data ( X, Y, Z).
Figure 0006374812

さらに、座標変換手段530はRGB画像の各画素の画素値である輝度データとして、各画素と対応する距離画像の画素の変換先の三次元座標データと対応付けて、空間モデル記憶手段510に記憶させる。   Further, the coordinate conversion unit 530 stores the luminance data, which is the pixel value of each pixel of the RGB image, in the spatial model storage unit 510 in association with the conversion destination three-dimensional coordinate data of the pixel of the distance image corresponding to each pixel. Let

図3は三次元計測装置2を用いた部屋600の計測の様子を示す模式的な斜視図である。部屋600は、例えば警備対象となる部屋であり、天井には校正対象の監視カメラ3が設置されている。また、部屋600には床601や机602が存在し、床601には模様603が形成されている。ちなみに後述するように、カメラ校正システム1は机602の縁などのエッジを監視カメラ3の校正の基準として利用する。   FIG. 3 is a schematic perspective view showing a state of measurement of the room 600 using the three-dimensional measuring apparatus 2. The room 600 is a room to be guarded, for example, and the monitoring camera 3 to be calibrated is installed on the ceiling. The room 600 includes a floor 601 and a desk 602, and a pattern 603 is formed on the floor 601. Incidentally, as will be described later, the camera calibration system 1 uses an edge such as an edge of the desk 602 as a reference for calibration of the surveillance camera 3.

監視カメラの設置作業者は三次元計測装置2を用いて部屋600を三次元計測する。三次元計測装置2は計測位置650a及び計測姿勢651aで表される第一の計測位置姿勢にて、各画素が計測位置650aから床601や机602の表面の複数点それぞれまでの奥行きを表す距離画像を出力すると共に、部屋600を第一の計測位置姿勢にて撮影したRGB画像を出力する。このときの計測を第一の計測と称する。   The installation worker of the monitoring camera measures the room 600 three-dimensionally using the three-dimensional measuring device 2. The three-dimensional measuring apparatus 2 is a distance in which each pixel represents a depth from the measurement position 650a to each of a plurality of points on the surface of the floor 601 or the desk 602 in the first measurement position and orientation represented by the measurement position 650a and the measurement orientation 651a. While outputting an image, the RGB image which image | photographed the room 600 in the 1st measurement position attitude | position is output. The measurement at this time is referred to as a first measurement.

さらに、設置作業者が三次元計測装置2を移動させ、異なる計測位置姿勢にて部屋600を三次元計測する。このときの計測を第二の計測と称する。すなわち、三次元計測装置2は、計測位置650b及び計測姿勢651bで表される第二の計測位置姿勢にて、各画素が計測位置650bから床601や机602の表面の複数点それぞれまでの奥行きを表す距離画像を出力すると共に、部屋600を第二の計測位置姿勢にて撮影したRGB画像を出力する。ちなみに監視カメラ3は基本的に第一の計測位置姿勢および第二の計測位置姿勢とは異なる撮影位置652・撮影姿勢653にて部屋600を撮影する。   Further, the installation operator moves the three-dimensional measurement apparatus 2 and three-dimensionally measures the room 600 at different measurement positions and postures. This measurement is referred to as a second measurement. That is, the three-dimensional measurement apparatus 2 has a depth from the measurement position 650b to each of a plurality of points on the surface of the floor 601 or the desk 602 in the second measurement position and orientation represented by the measurement position 650b and the measurement orientation 651b. Is output, and an RGB image obtained by capturing the room 600 at the second measurement position and orientation is output. Incidentally, the monitoring camera 3 basically shoots the room 600 at a shooting position 652 and a shooting attitude 653 different from the first measurement position and posture.

三次元計測装置2が出力する距離画像およびRGB画像が表す領域を計測領域と呼ぶ。計測領域は部屋600の全体を網羅できず、オクルージョンが原因で未計測領域が生じる。図3において白抜き表示した領域は第一の計測による計測領域である。また図3において網掛け表示した領域は第一の計測で生じた未計測領域であり、机602によるオクルージョンが原因で生じた第一の計測位置姿勢からの死角である。また、図3において斜線表示した領域は第一の計測において三次元計測装置2の画角外であった画角外領域である。   The area represented by the distance image and the RGB image output from the three-dimensional measurement apparatus 2 is called a measurement area. The measurement area cannot cover the entire room 600, and an unmeasured area occurs due to occlusion. In FIG. 3, a white area is a measurement area by the first measurement. In FIG. 3, the shaded area is an unmeasured area generated by the first measurement, and is a blind spot from the first measurement position and orientation caused by occlusion by the desk 602. In addition, the hatched area in FIG. 3 is an out-of-view-angle area that was out of the view angle of the three-dimensional measurement apparatus 2 in the first measurement.

図4は空間モデルのデータ例を示す模式図であり、例えば、三次元座標データ、輝度データ、エッジ存在度を対応付けたテーブル形式で空間モデル記憶手段510に記憶されている。ちなみに、図4に示すデータはいずれも計測領域のデータである。1番目の三次元座標データは空間モデルにおいて座標(X1,Y1,Z1)に物体の表面があり、その色はRGB表色系での(R1,G1,B1)であり、エッジ存在度の値“1.0”は当該座標に机602の縁などのエッジが存在することを示す。2番目の三次元座標データも同様に、空間モデルにおいて座標(X2,Y2,Z2)に物体表面のエッジが存在し、その色が(R2,G2,B2)であることを示す。3番目の三次元座標データは空間モデルにおいて座標(X3,Y3,Z3)に物体の表面があり、その色はRGB表色系での(R3,G3,B3)であり、エッジ存在度の値“0.0”はそこにエッジが存在する可能性が小さいことを示す。   FIG. 4 is a schematic diagram showing an example of data of a spatial model, and is stored in the spatial model storage unit 510 in a table format in which, for example, three-dimensional coordinate data, luminance data, and edge presence are associated with each other. Incidentally, all the data shown in FIG. 4 is data of the measurement region. The first three-dimensional coordinate data has the surface of the object at coordinates (X1, Y1, Z1) in the spatial model, the color is (R1, G1, B1) in the RGB color system, and the value of edge presence “1.0” indicates that an edge such as the edge of the desk 602 exists at the coordinates. Similarly, the second three-dimensional coordinate data indicates that an edge of the object surface exists at coordinates (X2, Y2, Z2) in the spatial model, and the color thereof is (R2, G2, B2). The third three-dimensional coordinate data has the surface of the object at coordinates (X3, Y3, Z3) in the spatial model, the color is (R3, G3, B3) in the RGB color system, and the edge presence value “0.0” indicates that the possibility that an edge exists there is small.

さて、エッジは物体の縁などに生じる、カメラの校正などに有用な特徴点である。しかし空間モデルにおいて未計測領域との境界に位置する三次元座標データにエッジが存在していても利用できない問題が生じる。しかも物体の縁の近傍はオクルージョンが生じやすいため、有用なエッジが失われやすい。例えば図3の監視カメラ3が撮影する監視画像には第一の計測で生じた未計測領域が含まれる。部屋600を計測した空間モデルを用いて監視カメラ3が撮影する監視画像を模擬すると、未計測領域の境界には机602の縁と床601の平面とが混在する。共に未計測領域との境界に位置する机602の縁の三次元座標データと床601の平面の三次元座標データとを識別できない限り机602の縁に現れる有用なエッジを棄てざるを得ない。本発明では変化点対応付け手段531およびエッジ存在度付与手段532により当該有用なエッジが存在する三次元座標データを識別し、識別した三次元座標データにエッジが存在することを示すエッジ肯定値を付与することで、有用なエッジを活用可能な三次元モデルを生成する。   An edge is a feature point that is useful for camera calibration or the like that occurs at the edge of an object. However, there is a problem that the spatial model cannot be used even if an edge exists in the three-dimensional coordinate data located at the boundary with the unmeasured area. Moreover, since the occlusion is likely to occur near the edge of the object, useful edges are likely to be lost. For example, the monitoring image captured by the monitoring camera 3 in FIG. 3 includes an unmeasured area generated in the first measurement. When a monitoring image captured by the monitoring camera 3 is simulated using a space model obtained by measuring the room 600, the edge of the desk 602 and the plane of the floor 601 are mixed at the boundary of the unmeasured area. Both useful edges appearing on the edge of the desk 602 must be discarded unless the 3D coordinate data of the edge of the desk 602 and the 3D coordinate data of the plane of the floor 601 that are both located at the boundary with the unmeasured area can be identified. In the present invention, the change point associating means 531 and the edge presence degree assigning means 532 identify the three-dimensional coordinate data in which the useful edge is present, and an edge positive value indicating that the edge exists in the identified three-dimensional coordinate data. By assigning, a three-dimensional model that can utilize useful edges is generated.

変化点対応付け手段531は各RGB画像から輝度変化点を抽出し、計測位置姿勢を用いて輝度変化点に対応する位置の三次元座標データを検出する。具体的には変化点対応付け手段531は各RGB画像において周囲画素との輝度差が所定値以上である輝度変化点を抽出し、計測位置姿勢を用いて輝度変化点と対応する位置の三次元座標データを検出し、検出した対応関係をエッジ存在度付与手段532に出力する。   The change point association unit 531 extracts a luminance change point from each RGB image, and detects the three-dimensional coordinate data of the position corresponding to the luminance change point using the measurement position and orientation. Specifically, the change point associating unit 531 extracts a luminance change point where the luminance difference with the surrounding pixels is equal to or greater than a predetermined value in each RGB image, and uses the measurement position and orientation to determine the three-dimensional position corresponding to the luminance change point. The coordinate data is detected, and the detected correspondence is output to the edge presence degree assigning means 532.

ここで輝度変化点の抽出について説明する。本実施形態では輝度差としてエッジ強度を利用する。変化点対応付け手段531は第一の計測位置姿勢にて撮影したRGB画像の各画素に所定のエッジオペレータを適用して当該画素とその周囲画素とのエッジ強度を算出し、エッジ強度がしきい値Ti以上である画素を第一の輝度変化点として抽出する。同様に、第二の計測位置姿勢にて撮影したRGB画像の各画素に所定のエッジオペレータを適用して当該画素とその周囲画素とのエッジ強度を算出し、エッジ強度がしきい値Ti以上である画素を第二の輝度変化点として抽出する。   Here, extraction of luminance change points will be described. In the present embodiment, edge strength is used as the luminance difference. The change point association unit 531 applies a predetermined edge operator to each pixel of the RGB image photographed at the first measurement position and orientation to calculate the edge strength between the pixel and the surrounding pixels, and the edge strength is the threshold value. A pixel that is equal to or greater than the value Ti is extracted as a first luminance change point. Similarly, a predetermined edge operator is applied to each pixel of the RGB image photographed at the second measurement position and orientation to calculate the edge strength between the pixel and its surrounding pixels, and the edge strength is equal to or greater than the threshold value Ti. A pixel is extracted as a second luminance change point.

本実施形態では三次元計測装置2から入力されるRGB画像を輝度変化点の抽出に用いる。一方、三次元計測装置2からのRGB画像を直接用いずに、空間モデルと計測パラメータとから上記RGB画像を再現し、再現したRGB画像から輝度変化点を抽出してもよい。具体的には、空間モデルを構成する複数の三次元座標データについて対応する輝度データを計測パラメータが表す投影面に投影するレンダリング処理によりRGB画像を再現できる。なお、再現するRGB画像の画角は三次元計測装置2の画角に合わせる。計測時には記憶部51にRGB画像を格納せずに座標変換手段530の処理だけを行っておき、変化点対応付け手段531の処理は計測後の別時刻に実行できる。当該構成は記憶部51の容量や制御部53の処理能力が低いときに有効である。エッジオペレータにはソーベルオペレータ(Sobel Operator)を用いることができるが、ラプラシアンフィルタ(Laplacian Filter)など他の公知のオペレータを用いてもよい。   In the present embodiment, the RGB image input from the three-dimensional measuring device 2 is used for extracting the luminance change point. On the other hand, instead of directly using the RGB image from the three-dimensional measurement apparatus 2, the RGB image may be reproduced from the spatial model and the measurement parameter, and the luminance change point may be extracted from the reproduced RGB image. Specifically, an RGB image can be reproduced by a rendering process in which luminance data corresponding to a plurality of three-dimensional coordinate data constituting a space model is projected onto a projection plane represented by a measurement parameter. Note that the angle of view of the RGB image to be reproduced is matched to the angle of view of the three-dimensional measuring apparatus 2. At the time of measurement, only the process of the coordinate conversion unit 530 is performed without storing the RGB image in the storage unit 51, and the process of the change point association unit 531 can be executed at another time after the measurement. This configuration is effective when the capacity of the storage unit 51 and the processing capability of the control unit 53 are low. As the edge operator, a Sobel operator can be used, but other known operators such as a Laplacian filter may be used.

次に、複数の計測位置姿勢それぞれにて抽出される輝度変化点と三次元座標データとの対応関係の検出について説明する。第一の計測と第二の計測とで実空間の同じ位置を計測していても、量子化の影響により、両者で得られる三次元座標データは最大で1画素分だけずれる。このずれを考慮して対応関係を検出する。   Next, detection of the correspondence between the brightness change points extracted at each of the plurality of measurement positions and orientations and the three-dimensional coordinate data will be described. Even if the same position in the real space is measured by the first measurement and the second measurement, the three-dimensional coordinate data obtained by both is shifted by one pixel at maximum due to the influence of quantization. The correspondence is detected in consideration of this deviation.

ところで、各計測において撮影したRGB画像の画素と、当該計測において得た三次元座標データとは、座標変換手段530が各計測時の計測パラメータを用いて行った変換処理において既に1対1で紐づけられている、或いは変化点対応付け手段531がRGB画像を再現するために各計測時の計測パラメータを用いて行った投影処理により既に1対1で紐づけられている。次に示す対応関係の検出ではこの紐づけを活用する。   By the way, the pixels of the RGB image photographed in each measurement and the three-dimensional coordinate data obtained in the measurement are already linked one-to-one in the conversion process performed by the coordinate conversion unit 530 using the measurement parameters at the time of each measurement. The change point association means 531 has already been associated one-to-one by a projection process performed using measurement parameters at the time of each measurement in order to reproduce an RGB image. This association is utilized in the following correspondence detection.

第一の計測位置姿勢にて撮影したRGB画像から抽出された輝度変化点に紐づけられている三次元座標データを特定する。そして、特定した三次元座標データを、第二の計測位置姿勢にて撮影したRGB画像に、第二の計測位置姿勢を含む計測パラメータを用いて投影し、投影先の画素が輝度変化点であるか確認する。   The three-dimensional coordinate data associated with the luminance change point extracted from the RGB image photographed at the first measurement position and orientation is specified. Then, the specified three-dimensional coordinate data is projected onto the RGB image captured at the second measurement position and orientation using the measurement parameters including the second measurement position and orientation, and the projection destination pixel is the luminance change point. Make sure.

投影先の画素が輝度変化点であれば、投影先の画素と紐づけられている三次元座標データと投影元の三次元座標データの間の三次元距離を算出して、当該三次元距離が1画素分の誤差の範囲内であるかを確認する。そして、三次元距離が誤差の範囲内である場合に、投影元の三次元座標データおよび投影先の画素と紐づけられている三次元座標データのそれぞれに対して、第一の計測位置姿勢にて撮影したRGB画像の輝度変化点および第二の計測位置姿勢にて撮影したRGB画像の輝度変化点との対応関係を検出したことになる。   If the projection destination pixel is a luminance change point, the three-dimensional distance between the three-dimensional coordinate data associated with the projection destination pixel and the three-dimensional coordinate data of the projection source is calculated, and the three-dimensional distance is calculated. It is confirmed whether it is within the error range for one pixel. When the three-dimensional distance is within the error range, the first measurement position and orientation are set for each of the three-dimensional coordinate data associated with the projection source three-dimensional coordinate data and the projection destination pixel. That is, the correspondence between the luminance change point of the RGB image photographed in this way and the luminance change point of the RGB image photographed at the second measurement position and orientation is detected.

他方、投影先の画素が輝度変化点でなければ投影元の三次元座標データと輝度変化点の対応関係は検出されなかったことになる。   On the other hand, if the projection destination pixel is not a luminance change point, the correspondence between the projection source three-dimensional coordinate data and the luminance change point has not been detected.

なお、上述した方法の代わりに、第一の計測位置姿勢を用いて各三次元座標データを第一の計測にて撮影したRGB画像に投影し、および第二の計測位置姿勢を用いて各三次元座標データを第二の計測にて撮影したRGB画像に投影して、投影先の画素が輝度変化点であるか否かを確認することによって、三次元座標データと輝度変化点の対応関係を検出してもよい。   In addition, instead of the method described above, each three-dimensional coordinate data is projected onto the RGB image captured by the first measurement using the first measurement position and orientation, and each tertiary using the second measurement position and orientation. By projecting the original coordinate data onto the RGB image captured by the second measurement and confirming whether the projection destination pixel is a luminance change point, the correspondence between the three-dimensional coordinate data and the luminance change point is determined. It may be detected.

エッジ存在度付与手段532は空間モデルを構成する複数の三次元座標データに輝度変化点との対応が検出された数に応じたエッジ存在度を付与する。すなわち、変化点対応付け手段531が検出した輝度変化点と三次元座標データとの対応関係を参照して、三次元座標データに輝度変化点と対応が検出された数に応じた高さのエッジ存在度を付与する。具体的には、三次元座標データごとに当該三次元座標データとの対応が検出された第一の輝度変化点および第二の輝度変化点の数を計数する。エッジ存在度付与手段532は、計数値が2以上である三次元座標データに対してはエッジ存在度を1.0と判定し、計数値が2未満である三次元座標データに対してはエッジ存在度を0.0と判定する。また対応関係が検出されなかった三次元座標データに対してはエッジ存在度を0.0と判定する。エッジ存在度付与手段532は、判定したエッジ存在度を空間モデル記憶手段510に記憶させる。これにより未計測領域との境界に位置する三次元座標データのうち、実際に物体の外形部分のエッジが存在する三次元座標データに、エッジが存在することを示すエッジ存在度を付与でき、実際にエッジが存在する可能性が低い三次元座標データに、エッジが存在しないことを示すエッジ存在度を付与できる。   The edge presence degree giving means 532 gives edge presence degrees according to the number of detected correspondences with luminance change points to a plurality of three-dimensional coordinate data constituting the spatial model. That is, referring to the correspondence relationship between the luminance change point detected by the change point association unit 531 and the three-dimensional coordinate data, an edge having a height corresponding to the number of correspondences detected with the luminance change point in the three-dimensional coordinate data. Give presence. Specifically, the number of first luminance change points and second luminance change points at which correspondence with the three-dimensional coordinate data is detected is counted for each three-dimensional coordinate data. The edge presence degree giving means 532 determines the edge presence degree to be 1.0 for 3D coordinate data having a count value of 2 or more, and the edge for 3D coordinate data having a count value of less than 2. The presence is determined to be 0.0. For the three-dimensional coordinate data for which no correspondence relationship has been detected, the edge presence is determined to be 0.0. The edge presence degree assigning unit 532 stores the determined edge presence degree in the space model storage unit 510. As a result, among the three-dimensional coordinate data located at the boundary with the unmeasured area, the edge presence degree indicating that the edge exists can be given to the three-dimensional coordinate data in which the edge of the outer portion of the object actually exists. The edge presence degree indicating that no edge exists can be given to the three-dimensional coordinate data that is unlikely to have an edge.

図5および図6は上述した対応関係の例を示す模式図である。図5は部屋600を異なる計測位置姿勢で撮影したRGB画像の例を示す模式図であり、図5(a)のRGB画像750は第一の計測位置姿勢(計測位置650a、計測姿勢651a)にて撮影したものであり、図5(b)のRGB画像760は部屋600を第二の計測位置姿勢(計測位置650b、計測姿勢651b)にて撮影したものである。また、図6は、RGB画像750と空間モデル800との間での輝度変化点の対応関係、RGB画像760と空間モデル800の間での輝度変化点の対応関係を示した模式図である。図6(a)は各計測位置姿勢や輝度変化点などの位置関係を示す部屋600の空間モデルの模式的な斜視図であり、図6(b)は対応関係を表形式で表したものである。   5 and 6 are schematic diagrams showing examples of the above-described correspondence relationship. FIG. 5 is a schematic diagram illustrating an example of an RGB image obtained by photographing the room 600 at different measurement positions and orientations. The RGB image 750 in FIG. 5A is a first measurement position and orientation (measurement position 650a and measurement orientation 651a). The RGB image 760 in FIG. 5B is a photograph of the room 600 taken at the second measurement position / posture (measurement position 650b, measurement posture 651b). FIG. 6 is a schematic diagram showing the correspondence between the luminance change points between the RGB image 750 and the space model 800 and the correspondence between the luminance change points between the RGB image 760 and the space model 800. FIG. 6A is a schematic perspective view of a space model of the room 600 showing the positional relationship such as each measurement position / posture and luminance change point, and FIG. 6B shows the correspondence relationship in a tabular form. is there.

図5(a)に示すRGB画像750の互いに隣接する画素751と画素752は輝度変化点として抽出される。このうち、図6(a)に示すように、画素751に対応する三次元座標データ801が表す位置には実際に机852の縁のエッジが存在する。一方、画素752に対応する三次元座標データ803が表す位置は実際には床851の平面上の位置でありエッジは存在しない。   Pixels 751 and 752 adjacent to each other in the RGB image 750 shown in FIG. 5A are extracted as luminance change points. Among these, as shown in FIG. 6A, the edge of the desk 852 actually exists at the position represented by the three-dimensional coordinate data 801 corresponding to the pixel 751. On the other hand, the position represented by the three-dimensional coordinate data 803 corresponding to the pixel 752 is actually a position on the plane of the floor 851 and no edge exists.

RGB画像750上では隣り合う画素(751,752)どうしが輝度変化点として抽出されるが、図6(a)に示すように、空間モデル中で対応する三次元座標(801,803)は離れており、その間には第一の計測における未計測領域850が介在している。つまり第一の計測位置姿勢にて撮影したRGB画像750の輝度変化点と対応する三次元座標データには、その位置にエッジが存在するものとしないものが混在している。そして、空間モデル中での当該混在に係る三次元座標データの場所は第一の計測における未計測領域の境界である。   On the RGB image 750, adjacent pixels (751, 752) are extracted as luminance change points, but the corresponding three-dimensional coordinates (801, 803) in the spatial model are separated as shown in FIG. An unmeasured area 850 in the first measurement is interposed between them. That is, the three-dimensional coordinate data corresponding to the luminance change point of the RGB image 750 photographed at the first measurement position / posture includes a mixture of data having no edge at that position. The location of the three-dimensional coordinate data related to the mixture in the space model is the boundary of the unmeasured area in the first measurement.

第二の計測位置姿勢を含む計測パラメータを用いて三次元座標データ801をRGB画像760に投影する。投影先は画素761となる。画素761には机852の縁が写っており、画素761は輝度変化点として抽出される。画素761と紐づけられている三次元座標データ802は三次元座標データ801と同じく机852の縁を計測したデータであり、三次元座標データ802と三次元座標データ801との間には1画素分の誤差に満たない三次元距離が算出される。この結果、三次元座標データ801と802とに対して画素751および画素761との対応関係が検出される(図6(b)参照)。つまり三次元座標データ801と802に対してはそれぞれ2つの輝度変化点との対応関係が検出される。   The three-dimensional coordinate data 801 is projected onto the RGB image 760 using the measurement parameters including the second measurement position and orientation. The projection destination is the pixel 761. The edge of the desk 852 is shown in the pixel 761, and the pixel 761 is extracted as a luminance change point. The three-dimensional coordinate data 802 associated with the pixel 761 is data obtained by measuring the edge of the desk 852 in the same way as the three-dimensional coordinate data 801, and one pixel exists between the three-dimensional coordinate data 802 and the three-dimensional coordinate data 801. A three-dimensional distance that is less than a minute error is calculated. As a result, the correspondence between the pixel 751 and the pixel 761 is detected for the three-dimensional coordinate data 801 and 802 (see FIG. 6B). That is, for the three-dimensional coordinate data 801 and 802, the correspondence between two luminance change points is detected.

一方、RGB画像750にて輝度変化点として抽出されたもう1つの画素752は三次元座標データ803と対応している。第二の計測位置を含む計測パラメータを用いて三次元座標データ803をRGB画像760に投影すると投影先は画素762となる。しかし床851上の平面部分が写っている画素762は輝度変化点として抽出されない。この結果、三次元座標データ803に対してはRGB画像750の輝度変化点との対応関係だけが検出される(図6(b)参照)。つまり三次元座標データ803に対しては輝度変化点との対応関係が1つだけ検出される。   On the other hand, another pixel 752 extracted as a luminance change point in the RGB image 750 corresponds to the three-dimensional coordinate data 803. When the three-dimensional coordinate data 803 is projected onto the RGB image 760 using the measurement parameters including the second measurement position, the projection destination is the pixel 762. However, the pixel 762 in which the planar portion on the floor 851 is not extracted as a luminance change point. As a result, only the correspondence with the luminance change point of the RGB image 750 is detected for the three-dimensional coordinate data 803 (see FIG. 6B). That is, for the three-dimensional coordinate data 803, only one correspondence with the luminance change point is detected.

図7はエッジ存在度付与の例を示す模式図であり、図7(a)は部屋600の空間モデルの模式的な斜視図にて三次元座標データの例であるQ1〜Q14の位置を示しており、図7(b)はQ1〜Q14における輝度変化点対応数およびエッジ存在度を表形式で示している。図6を参照して説明したように、三次元座標データ801(Q7)には、第一の計測位置姿勢にて撮影したRGB画像750から抽出された輝度変化点(画素751)との対応関係、および第二の計測位置姿勢にて撮影したRGB画像760から抽出された輝度変化点(画素761)との対応関係が検出され、三次元座標データQ7と対応する輝度変化点数は2と計数される。輝度変化点数に応じ、三次元座標データQ7にはエッジ存在度1.0が付与される。同様に、机602の縁に位置する三次元座標データQ1〜Q6,Q8,Q9に対しても輝度変化点数は2と計数されてエッジ存在度1.0が付与される。   FIG. 7 is a schematic diagram showing an example of edge presence assignment. FIG. 7A is a schematic perspective view of a space model of the room 600 and shows positions of Q1 to Q14 which are examples of three-dimensional coordinate data. FIG. 7B shows the number of corresponding luminance change points and the edge presence in Q1 to Q14 in a tabular form. As described with reference to FIG. 6, the three-dimensional coordinate data 801 (Q7) has a correspondence relationship with the luminance change point (pixel 751) extracted from the RGB image 750 taken at the first measurement position and orientation. , And a correspondence relationship with the luminance change point (pixel 761) extracted from the RGB image 760 captured at the second measurement position and orientation, and the luminance change point corresponding to the three-dimensional coordinate data Q7 is counted as 2. The Depending on the number of luminance change points, the edge presence degree 1.0 is given to the three-dimensional coordinate data Q7. Similarly, with respect to the three-dimensional coordinate data Q1 to Q6, Q8, and Q9 located on the edge of the desk 602, the number of luminance change points is counted as 2, and the edge presence degree 1.0 is given.

また、図6を参照して説明したように、三次元座標データ803(Q11)には、第一の計測位置姿勢にて撮影したRGB画像750から抽出された輝度変化点751との対応関係は検出されたものの、第二の計測位置姿勢にて撮影したRGB画像760から抽出された輝度変化点との対応関係は検出されなかった。そのため、三次元座標データQ11と対応する輝度変化点数は1と計数される。輝度変化点数に応じ、三次元座標データQ11にはエッジ存在度0.0が付与される。同様に、床601の平面上で未計測領域(第一の計測において生じた未計測領域)との境界に位置する三次元座標データQ10,Q12に対しても輝度変化点数は1と計数されてエッジ存在度0.0が付与される。   Further, as described with reference to FIG. 6, the three-dimensional coordinate data 803 (Q11) has a correspondence relationship with the luminance change point 751 extracted from the RGB image 750 captured at the first measurement position and orientation. Although detected, the correspondence with the luminance change point extracted from the RGB image 760 taken at the second measurement position and orientation was not detected. Therefore, the number of luminance change points corresponding to the three-dimensional coordinate data Q11 is counted as 1. Depending on the number of luminance change points, the edge presence degree of 0.0 is given to the three-dimensional coordinate data Q11. Similarly, the luminance change point is counted as 1 for the three-dimensional coordinate data Q10 and Q12 located on the boundary with the unmeasured area (the unmeasured area generated in the first measurement) on the plane of the floor 601. Edge presence degree 0.0 is given.

また、床601の平面上で図3に示した模様603の縁に位置する三次元座標データQ14に対する輝度変化点数は2であり、輝度変化点数に応じてエッジ存在度1.0が付与される。   Further, the number of luminance change points with respect to the three-dimensional coordinate data Q14 located on the edge of the pattern 603 shown in FIG. 3 on the plane of the floor 601 is 2, and the edge presence degree 1.0 is given according to the number of luminance change points. .

また、床601の平面上で未計測領域との境界でも模様603の縁でもない位置にある三次元座標データQ13に対する輝度変化点数は0であり、輝度変化点数に応じてエッジ存在度0.0が付与される。   Further, the number of luminance change points for the three-dimensional coordinate data Q13 at a position that is neither the boundary with the unmeasured area nor the edge of the pattern 603 on the plane of the floor 601 is 0, and the edge presence degree is 0.0 according to the number of luminance change points. Is granted.

図8はエッジ存在度の例を説明するための部屋600の空間モデルの模式図である。図8において、実線部(直線P1−P2,P1−P3,P1−P5,P2−P4,P3−P4,P3−P6,P4−P7,P5−P6,P6−P7部および直線群S)の三次元座標データにエッジ存在度1.0が付与され、それ以外の三次元座標データにエッジ存在度0.0が付与されている。   FIG. 8 is a schematic diagram of a space model of the room 600 for explaining an example of the edge presence degree. In FIG. 8, the solid line parts (straight line P1-P2, P1-P3, P1-P5, P2-P4, P3-P4, P3-P6, P4-P7, P5-P6, P6-P7 part and straight line group S). An edge presence of 1.0 is assigned to the three-dimensional coordinate data, and an edge presence of 0.0 is assigned to the other three-dimensional coordinate data.

これら実線部のうち直線P1−P2,P1−P5,P2−P4およびP4−P7部の三次元座標データは未計測領域(網掛け部)との境界に位置し、従来技術ではカメラ校正等に利用できなかったエッジであるが、本発明ではエッジが存在することを示すエッジ存在度が付与されカメラ校正等に利用可能となる。   Of these solid lines, the three-dimensional coordinate data of the straight lines P1-P2, P1-P5, P2-P4 and P4-P7 are located at the boundary with the unmeasured area (shaded area). Although it was an edge that could not be used, in the present invention, an edge presence indicating that an edge is present is given and can be used for camera calibration and the like.

[カメラ校正時の三次元データ処理装置5]
図9は部屋600の空間モデルを用いて、部屋600に設置された監視カメラ3を校正するときの三次元データ処理装置5の概略の機能ブロック図である。
[3D data processor 5 during camera calibration]
FIG. 9 is a schematic functional block diagram of the three-dimensional data processing apparatus 5 when the surveillance camera 3 installed in the room 600 is calibrated using the space model of the room 600.

記憶部51は空間モデル記憶手段510として機能し、制御部53は実エッジ画像生成手段535、仮想カメラ設定手段536、仮想エッジ画像生成手段537およびエッジ画像照合手段538などとして機能する。   The storage unit 51 functions as the space model storage unit 510, and the control unit 53 functions as the real edge image generation unit 535, the virtual camera setting unit 536, the virtual edge image generation unit 537, the edge image collation unit 538, and the like.

実エッジ画像生成手段535は監視カメラ3(実カメラ)から入力された各監視画像(実画像)からエッジを抽出してエッジ画像を生成し、生成したエッジ画像を、対応するカメラIDと共にエッジ画像照合手段538に出力する。後述する仮想エッジ画像生成手段537が生成するエッジ画像と区別するために、ここで生成するエッジ画像を実エッジ画像と呼ぶ。   The real edge image generation means 535 extracts an edge from each monitoring image (real image) input from the monitoring camera 3 (real camera) to generate an edge image, and the generated edge image together with the corresponding camera ID is used as an edge image. The result is output to the verification unit 538. In order to distinguish from an edge image generated by a virtual edge image generation means 537 described later, the edge image generated here is called a real edge image.

実エッジ画像生成手段535は監視画像における周囲画素との輝度差が予め定めたしきい値Ti以上である輝度変化点に対応する画素に画素値“1”、それ以外の画素に画素値“0”を設定して実エッジ画像を生成する。本実施形態では輝度差としてエッジ強度を利用する。実エッジ画像生成手段535は監視画像の各画素にソーベルオペレータなど所定のエッジオペレータを適用しエッジ強度を算出する。   The real edge image generation means 535 has a pixel value “1” for the pixel corresponding to the luminance change point where the luminance difference with the surrounding pixels in the monitoring image is equal to or greater than a predetermined threshold value Ti, and a pixel value “0” for the other pixels. "" Is set to generate an actual edge image. In the present embodiment, edge strength is used as the luminance difference. The real edge image generation means 535 calculates edge strength by applying a predetermined edge operator such as a Sobel operator to each pixel of the monitoring image.

仮想カメラ設定手段536は空間モデル内で部屋600を任意の位置姿勢にて模擬撮影する仮想カメラを複数設定し、設定した仮想カメラのカメラパラメータを仮想エッジ画像生成手段537に出力する。仮想カメラのカメラパラメ―タに含まれる位置姿勢は校正対象である監視カメラ3の撮影位置姿勢の候補である。カメラパラメータのうち位置姿勢以外の焦点距離、解像度、レンズ歪みなどは予め記憶させてある監視カメラ3の値を用いる。   The virtual camera setting unit 536 sets a plurality of virtual cameras for simulating and capturing the room 600 at an arbitrary position and orientation in the space model, and outputs the set camera parameters of the virtual camera to the virtual edge image generation unit 537. The position and orientation included in the camera parameters of the virtual camera are candidates for the photographing position and orientation of the surveillance camera 3 to be calibrated. Of the camera parameters, values of the surveillance camera 3 stored in advance are used for the focal length, resolution, lens distortion, etc. other than the position and orientation.

仮想カメラ設定手段536は空間モデルのXYZ座標系において原点から予め定めた微小間隔でX方向、Y方向、Z方向に仮想カメラの位置を移動させると共に仮想カメラの姿勢(ピッチ角、ヨー角、ロール角)を予め定めた微小間隔で変更して総当たり的に複数の仮想カメラを設定してもよいが、ユーザーインターフェース部55から予め監視カメラ3の設置仕様等に基づく設定範囲を入力し、当該範囲内に仮想カメラを設定することでカメラ校正の処理量を減ずることができる。例えば、設置仕様が鉛直下方に向けて天井設置する仕様であれば、天井高を予め入力しておくことで、仮想カメラのZ方向の移動範囲とピッチ角の変動範囲を大幅に狭くできる。また、設置仕様に定められたX座標、Y座標、Z座標、ピッチ角、ヨー角、ロール角を予め入力し、入力した各値を中心として予め定めた設置誤差範囲内に一定の微小間隔で複数の仮想カメラを設定してもよいし、入力した各値から離れるに従って広がる微小間隔で複数の仮想カメラを設定してもよい。   The virtual camera setting means 536 moves the position of the virtual camera in the X, Y, and Z directions at a predetermined minute interval from the origin in the XYZ coordinate system of the space model, and also the attitude of the virtual camera (pitch angle, yaw angle, roll The angle may be changed at a predetermined minute interval to set a plurality of virtual cameras. However, the setting range based on the installation specifications of the monitoring camera 3 is input in advance from the user interface unit 55, By setting a virtual camera within the range, the amount of camera calibration processing can be reduced. For example, if the installation specification is a specification in which the ceiling is installed vertically downward, the range of movement of the virtual camera in the Z direction and the variation range of the pitch angle can be significantly narrowed by inputting the ceiling height in advance. Also, the X coordinate, Y coordinate, Z coordinate, pitch angle, yaw angle, and roll angle defined in the installation specifications are input in advance, and within a predetermined installation error range centered on each input value at a fixed minute interval. A plurality of virtual cameras may be set, or a plurality of virtual cameras may be set at a minute interval that spreads away from each input value.

仮想エッジ画像生成手段537は、仮想カメラ設定手段536が設定した各カメラパラメータが表す撮影面に部屋600の空間モデルを投影してエッジ画像を生成し、生成したエッジ画像をエッジ画像照合手段538に出力する。ここで生成するエッジ画像を仮想エッジ画像と呼ぶ。   The virtual edge image generation unit 537 generates an edge image by projecting the space model of the room 600 onto the imaging plane represented by each camera parameter set by the virtual camera setting unit 536, and the generated edge image is sent to the edge image matching unit 538. Output. The edge image generated here is called a virtual edge image.

具体的には、空間モデルを構成する三次元座標データのうちエッジ存在度が“1.0”である三次元座標データを撮影面に投影し、エッジ存在度が“0.0”である三次元座標データを投影しないことで、仮想カメラの撮影面にて、エッジ存在度1.0を有する三次元座標データの投影位置をエッジ画素とする仮想エッジ画像が生成される。   Specifically, among the three-dimensional coordinate data constituting the space model, three-dimensional coordinate data with an edge presence of “1.0” is projected onto the imaging surface, and a tertiary with an edge presence of “0.0” is projected. By not projecting the original coordinate data, a virtual edge image is generated with the projection position of the three-dimensional coordinate data having an edge presence of 1.0 as an edge pixel on the imaging surface of the virtual camera.

上述のようにして複数の計測位置姿勢でのRGB画像を用いた輝度変化点対応数に応じてエッジ存在度を定義したことにより、計測時のオクルージョンによって空間モデルに生じる未計測領域の境界にて、実在するエッジを仮想エッジ画像に含ませることができ、一方、実在しないエッジを排除することができる。   By defining the edge presence according to the number of corresponding brightness change points using RGB images at multiple measurement positions and orientations as described above, at the boundary of the unmeasured area generated in the spatial model due to occlusion during measurement Real edges can be included in the virtual edge image, while non-existing edges can be eliminated.

ここで、計測視点からの距離よりも仮想視点からの距離の方が遠い三次元座標データにエッジが実在していても、当該仮想視点に監視カメラ3が存在した場合に得られる監視画像においては、当該三次元座標データと対応する画素位置の解像度が低下してエッジが抽出されない場合がある。そこで、空間モデルを構成する三次元座標データに対応付けられた輝度データを各仮想視点が表す撮影面に投影した投影像(レンダリング画像)からエッジ画像を生成し、仮想エッジ画像を、生成したエッジ画像と仮想エッジ画像との論理積画像に置き換えてもよい。特にこのとき、仮想視点からの距離が遠い三次元座標データについては、レンダリング画像の1画素に複数の三次元座標データが投影される。仮想エッジ画像生成手段537はこれら複数の三次元座標データに対応付けられた輝度データの平均値を投影先の画素に設定する。なお、レンダリング画像に投影される未計測領域には外れ値(例えばRGB値(255,255,255))を与えておけばよい。このようにするとレンダリング画像における未計測領域との境界から実在しないエッジが抽出され得るが、このエッジは仮想エッジ画像との論理積演算により消去されるため問題とならない。この輝度データの平均化によって、解像度の低下によるエッジの不抽出を再現でき、実エッジ画像と仮想エッジ画像の照合精度を向上させることができる。   Here, in the monitoring image obtained when the monitoring camera 3 exists at the virtual viewpoint even if the edge actually exists in the three-dimensional coordinate data whose distance from the virtual viewpoint is farther than the distance from the measurement viewpoint. In some cases, the resolution of the pixel position corresponding to the three-dimensional coordinate data is lowered and the edge is not extracted. Therefore, an edge image is generated from a projection image (rendered image) obtained by projecting the luminance data associated with the three-dimensional coordinate data constituting the spatial model onto the imaging plane represented by each virtual viewpoint, and the virtual edge image is generated as the generated edge. You may replace with the logical product image of an image and a virtual edge image. In particular, at this time, for the three-dimensional coordinate data that is far from the virtual viewpoint, a plurality of three-dimensional coordinate data is projected onto one pixel of the rendered image. The virtual edge image generation means 537 sets the average value of the luminance data associated with the plurality of three-dimensional coordinate data to the projection destination pixel. An outlier (for example, RGB values (255, 255, 255)) may be given to the unmeasured area projected on the rendered image. In this way, an edge that does not actually exist can be extracted from the boundary with the unmeasured area in the rendered image, but this edge does not cause a problem because it is deleted by a logical product operation with the virtual edge image. By averaging the luminance data, non-extraction of edges due to a decrease in resolution can be reproduced, and the matching accuracy between the real edge image and the virtual edge image can be improved.

エッジ画像照合手段538は実エッジ画像生成手段535が生成した実エッジ画像と仮想エッジ画像生成手段537が仮想カメラのカメラパラメータごとに生成した仮想エッジ画像との類似度を算出し、実エッジ画像に類似する仮想エッジ画像を与える仮想カメラの位置姿勢を監視カメラ3の位置姿勢と決定する。例えばエッジ画像照合手段538は最も類似度が高い仮想カメラの位置姿勢を監視カメラ3の位置姿勢と決定する。   The edge image collating unit 538 calculates the similarity between the real edge image generated by the real edge image generating unit 535 and the virtual edge image generated by the virtual edge image generating unit 537 for each camera parameter of the virtual camera, and converts the similarity into the real edge image. The position and orientation of the virtual camera that gives a similar virtual edge image is determined as the position and orientation of the monitoring camera 3. For example, the edge image collating unit 538 determines the position and orientation of the virtual camera having the highest similarity as the position and orientation of the monitoring camera 3.

ここで、類似度はエッジ位置の一致度合いに応じた値になるように定義される。例えば、エッジ位置の一致数を仮想エッジ画像のエッジ画素数、または実エッジ画像のエッジ画素数と仮想エッジ画像のエッジ画素数との和で除した値を類似度としてもよい。また例えば、仮想エッジ画像の各エッジ位置から実エッジ画像の最近傍エッジ位置までの距離、または実エッジ画像の各エッジ位置から仮想エッジ画像の最近傍エッジ位置までの距離を累積し、その累積値の逆数に応じた値を仮想エッジ画像のエッジ画素数、または実エッジ画像のエッジ画素数と仮想エッジ画像のエッジ画素数との和で除した値を類似度としてもよい。また、類似度に、輝度データの一致度合いを重み付け加算して類似度を補正してもよい。この場合、監視画像と上記レンダリング画像との間で対応する画素同士で画素値の正規化相関値を輝度データの一致度合いとすることができる。   Here, the similarity is defined to be a value corresponding to the degree of matching of the edge positions. For example, the similarity may be a value obtained by dividing the number of coincidence of edge positions by the number of edge pixels of the virtual edge image or the sum of the number of edge pixels of the real edge image and the number of edge pixels of the virtual edge image. Also, for example, the distance from each edge position of the virtual edge image to the nearest edge position of the real edge image or the distance from each edge position of the real edge image to the nearest edge position of the virtual edge image is accumulated, and the accumulated value A value obtained by dividing the value corresponding to the reciprocal number by the number of edge pixels of the virtual edge image or the sum of the number of edge pixels of the real edge image and the number of edge pixels of the virtual edge image may be used as the similarity. Further, the similarity may be corrected by weighting and adding the matching degree of the luminance data to the similarity. In this case, the normalized correlation value of the pixel value between the corresponding pixels between the monitoring image and the rendered image can be set as the degree of coincidence of the luminance data.

ちなみに、本発明に係る三次元モデル処理装置は、空間モデル記憶手段510、変化点対応付け手段531、エッジ存在度付与手段532、仮想カメラ設定手段536および仮想エッジ画像生成手段537を含み、本発明に係るカメラ校正システムは、当該三次元モデル処理装置と、実エッジ画像生成手段535およびエッジ画像照合手段538とを含んで構成される。   Incidentally, the 3D model processing apparatus according to the present invention includes a spatial model storage unit 510, a change point association unit 531, an edge presence degree assigning unit 532, a virtual camera setting unit 536, and a virtual edge image generation unit 537. The camera calibration system according to the embodiment includes the three-dimensional model processing apparatus, an actual edge image generation unit 535, and an edge image collation unit 538.

[空間モデル生成時のカメラ校正システム1の動作]
図10は空間モデル生成時のカメラ校正システム1の動作の概略のフロー図である。三次元計測装置2が部屋600の計測を行うと、三次元計測装置2から三次元データ処理装置5に計測データが入力される。三次元データ処理装置5は入力された計測データに対して図10に示す一連の処理を行い、部屋600の空間モデルを生成する。
[Operation of camera calibration system 1 when generating spatial model]
FIG. 10 is a schematic flowchart of the operation of the camera calibration system 1 when generating a spatial model. When the three-dimensional measurement device 2 measures the room 600, measurement data is input from the three-dimensional measurement device 2 to the three-dimensional data processing device 5. The three-dimensional data processing device 5 performs a series of processes shown in FIG. 10 on the input measurement data, and generates a space model of the room 600.

計測データ入力部50は三次元計測装置2から計測データ、すなわち第一の計測位置姿勢にて計測した距離画像と第一の計測位置姿勢にて撮影したRGB画像、および第二の計測位置姿勢にて計測した距離画像と第二の計測位置姿勢にて撮影したRGB画像を取得し、これらを制御部53に入力する(ステップS10)。   The measurement data input unit 50 receives the measurement data from the three-dimensional measurement apparatus 2, that is, the distance image measured at the first measurement position and orientation, the RGB image captured at the first measurement position and orientation, and the second measurement position and orientation. The measured distance image and the RGB image photographed at the second measurement position and orientation are acquired and input to the control unit 53 (step S10).

制御部53は座標変換手段530として動作し、座標変換手段530は、ステップS10にて取得した距離画像から第一の計測位置姿勢および第二の計測位置姿勢を算出して、計測パラメータ記憶手段511として機能する記憶部51に記憶させる(ステップS11)。   The control unit 53 operates as the coordinate conversion unit 530. The coordinate conversion unit 530 calculates the first measurement position and orientation and the second measurement position and orientation from the distance image acquired in step S10, and the measurement parameter storage unit 511. (Step S11).

座標変換手段530は、ステップS11にて算出した第一の計測位置姿勢および第二の計測位置姿勢を用い、ステップS10にて取得した距離画像の各画素を三次元座標データに変換して空間モデル記憶手段510として機能する記憶部51に記憶させる(ステップS12)。さらに、後段の処理のために距離画像の画素と三次元座標データとの対応関係も空間モデル記憶手段510に一時記憶させておく。また、座標変換手段530は、ステップS10にて取得したRGB画像の各画素値を、対応する距離画像の画素の変換先となった三次元座標データに輝度データとして紐づけて空間モデル記憶手段510に記憶させる。なお、RGB画像の複数の画素と対応する三次元座標データに対する輝度データは、対応する複数の画素の平均画素値とすればよい。   The coordinate conversion means 530 uses the first measurement position and orientation calculated in step S11 and the second measurement position and orientation to convert each pixel of the distance image acquired in step S10 into three-dimensional coordinate data, thereby creating a spatial model. It memorize | stores in the memory | storage part 51 which functions as a memory | storage means 510 (step S12). Further, the correspondence relationship between the pixels of the distance image and the three-dimensional coordinate data is also temporarily stored in the space model storage unit 510 for subsequent processing. In addition, the coordinate conversion unit 530 associates each pixel value of the RGB image acquired in step S10 as luminance data with the three-dimensional coordinate data that is the conversion destination of the pixel of the corresponding distance image, as a spatial model storage unit 510. Remember me. Note that the luminance data for the three-dimensional coordinate data corresponding to the plurality of pixels of the RGB image may be an average pixel value of the corresponding plurality of pixels.

また、制御部53は変化点対応付け手段531として動作し、ステップS13〜S16の処理を行う。まず、変化点対応付け手段531は、ステップS11にて取得した複数の計測位置姿勢を順次、注目位置姿勢に設定する(ステップS13)。   In addition, the control unit 53 operates as the changing point association unit 531 and performs the processes of steps S13 to S16. First, the change point associating unit 531 sequentially sets the plurality of measurement position / postures acquired in step S11 as the target position / posture (step S13).

変化点対応付け手段531はステップS10にて取得したRGB画像のうち注目位置姿勢のRGB画像から輝度変化点を抽出する(ステップS14)。具体的には注目位置姿勢のRGB画像の各画素におけるエッジ強度を算出し、エッジ強度がしきい値Ti以上である画素を輝度変化点として抽出する。   The change point associating means 531 extracts a luminance change point from the RGB image of the target position and orientation among the RGB images acquired in step S10 (step S14). Specifically, the edge strength in each pixel of the RGB image of the target position and orientation is calculated, and a pixel whose edge strength is equal to or greater than the threshold value Ti is extracted as a luminance change point.

変化点対応付け手段531はステップS14にて抽出した輝度変化点と対応する三次元座標データを空間モデルの中から検出する(ステップS15)。   The change point association unit 531 detects the three-dimensional coordinate data corresponding to the luminance change point extracted in step S14 from the space model (step S15).

変化点対応付け手段531は全ての計測位置姿勢を処理したか確認し(ステップS16)、未処理のものがある場合は(S16にてNOの場合)ステップS13に戻り、次の計測位置姿勢の処理を行う。   The change point associating means 531 confirms whether or not all measurement positions and orientations have been processed (step S16), and if there are unprocessed items (NO in S16), the process returns to step S13, and the next measurement position and orientation is determined. Process.

一方、全ての計測位置姿勢を処理し終えた場合は(S16にてYESの場合)、制御部53はエッジ存在度付与手段532として動作し、ステップS17〜S21の処理を行う。   On the other hand, when all the measurement positions and orientations have been processed (YES in S16), the control unit 53 operates as the edge presence degree assigning unit 532 and performs the processes in steps S17 to S21.

エッジ存在度付与手段532は、空間モデルを構成する複数の三次元座標データを順次、注目データに設定し(ステップS17)、ステップS15で検出した対応関係を参照し、注目データと対応する輝度変化点の数(すなわち計測位置姿勢の数)を計数する(ステップS18)。注目データとの対応が検出された輝度変化点の数が2以上であれば、エッジ存在度付与手段532は空間モデル記憶手段510の注目データに対応付けてエッジ存在度1.0を記憶させる。一方、注目データとの対応が検出された輝度変化点の数が2未満であれば空間モデル記憶手段510の注目データに対応付けてエッジ存在度0.0を記憶させる。なお、注目データとの対応関係が検出されなかった場合も2未満の場合に含める。   The edge presence level assigning unit 532 sequentially sets a plurality of three-dimensional coordinate data constituting the space model as attention data (step S17), refers to the correspondence detected in step S15, and changes the luminance corresponding to the attention data. The number of points (that is, the number of measurement positions and orientations) is counted (step S18). If the number of luminance change points whose correspondence with the attention data is detected is 2 or more, the edge presence degree assigning means 532 stores the edge presence degree 1.0 in association with the attention data in the spatial model storage means 510. On the other hand, if the number of luminance change points at which the correspondence with the attention data is detected is less than 2, the edge presence degree 0.0 is stored in association with the attention data in the space model storage unit 510. Note that the case where the correspondence with the data of interest is not detected is also included in the case of less than 2.

エッジ存在度付与手段532は、全ての三次元座標データを処理したか確認し(ステップS21)、未処理のものがある場合は(S21にてNOの場合)ステップS17に戻り、次の三次元座標データの処理を行う。一方、全ての三次元座標データを処理し終えるとモデル生成処理は終了する(S21にてYESの場合)。   The edge presence degree assigning means 532 confirms whether or not all the three-dimensional coordinate data have been processed (step S21), and if there is any unprocessed data (NO in S21), the process returns to step S17, and the next three-dimensional Perform coordinate data processing. On the other hand, when all the three-dimensional coordinate data have been processed, the model generation process ends (in the case of YES in S21).

[カメラ校正時のカメラ校正システム1の動作]
図11はカメラ校正時のカメラ校正システム1の動作の概略のフロー図である。部屋600に設置された監視カメラ3が部屋600の撮影を行うと、監視カメラ3から三次元データ処理装置5に監視画像が入力される。三次元データ処理装置5は入力された監視画像に対して図11に示す一連の処理を行い、監視カメラ3の校正を行う。
[Operation of camera calibration system 1 during camera calibration]
FIG. 11 is a schematic flowchart of the operation of the camera calibration system 1 during camera calibration. When the monitoring camera 3 installed in the room 600 captures an image of the room 600, a monitoring image is input from the monitoring camera 3 to the three-dimensional data processing device 5. The three-dimensional data processing device 5 performs a series of processes shown in FIG. 11 on the input monitoring image and calibrates the monitoring camera 3.

監視画像入力部52は監視カメラ3から監視画像を取得し、これを制御部53に入力する(ステップS50)。制御部53は実エッジ画像生成手段535として動作し、ステップS50にて取得した監視画像の各画素にエッジオペレータを適用して実エッジ画像を生成する(ステップS51)。   The monitoring image input unit 52 acquires a monitoring image from the monitoring camera 3 and inputs it to the control unit 53 (step S50). The control unit 53 operates as the real edge image generation unit 535, and generates an actual edge image by applying an edge operator to each pixel of the monitoring image acquired in Step S50 (Step S51).

次に制御部53は仮想カメラ設定手段536として動作し、空間モデルの座標系に互いに位置姿勢の異なる複数の仮想カメラを設定する(ステップS52)。   Next, the control unit 53 operates as the virtual camera setting unit 536, and sets a plurality of virtual cameras having different positions and orientations in the coordinate system of the space model (step S52).

そして、制御部53は仮想エッジ画像生成手段537として動作し、ステップS52にて設定された各仮想カメラの撮影面に仮想エッジ画像を生成する(ステップS53)。具体的には、仮想エッジ画像生成手段537は空間モデル記憶手段510から部屋600の空間モデルを読み出し、ステップS52にて設定された各仮想カメラのカメラパラメータが表す撮影面にエッジ存在度1.0が付与された三次元座標データを投影して仮想エッジ画像を生成する。また同投影面に輝度データをレンダリングし、レンダリングした画像の各画素にエッジオペレータを適用してエッジ画像を生成し、仮想エッジ画像を、生成したエッジ画像との論理積画像に更新する。   Then, the control unit 53 operates as the virtual edge image generation unit 537, and generates a virtual edge image on the imaging surface of each virtual camera set in step S52 (step S53). Specifically, the virtual edge image generation unit 537 reads the space model of the room 600 from the space model storage unit 510, and the edge presence degree is 1.0 on the photographing surface represented by the camera parameter of each virtual camera set in step S52. Is projected to generate a virtual edge image. In addition, luminance data is rendered on the projection plane, an edge operator is applied to each pixel of the rendered image to generate an edge image, and the virtual edge image is updated to a logical product image with the generated edge image.

制御部53はエッジ画像照合手段538として動作し、ステップS51にて生成した実エッジ画像と、ステップS53にて生成した仮想カメラごとの仮想エッジ画像それぞれとの類似度を算出する(ステップS54)。エッジ画像照合手段538は、ステップS54にて算出した仮想カメラごとの類似度に基づいて、最大の類似度が算出された仮想カメラの位置姿勢を検出し、検出した仮想カメラの位置姿勢を監視カメラ3の位置姿勢と決定して監視カメラ3のカメラIDと共に出力部54に入力する(ステップS55)。   The control unit 53 operates as the edge image collating unit 538, and calculates the similarity between the real edge image generated in step S51 and the virtual edge image for each virtual camera generated in step S53 (step S54). The edge image collating unit 538 detects the position and orientation of the virtual camera for which the maximum similarity is calculated based on the similarity for each virtual camera calculated in step S54, and monitors the detected position and orientation of the virtual camera. 3 is input to the output unit 54 together with the camera ID of the monitoring camera 3 (step S55).

ここで決定される監視カメラ3の位置姿勢は、空間モデルにおいて未計測領域の境界に位置するエッジをも利用して求めた高精度な推定結果となっている。   The position and orientation of the monitoring camera 3 determined here is a highly accurate estimation result obtained using an edge located at the boundary of the unmeasured area in the spatial model.

出力部54は、監視カメラ3の位置姿勢とカメラIDを監視装置4に入力する。監視装置4は入力された監視カメラ3の位置姿勢を格納し、以降の監視処理にて利用する。   The output unit 54 inputs the position and orientation of the monitoring camera 3 and the camera ID to the monitoring device 4. The monitoring device 4 stores the input position and orientation of the monitoring camera 3 and uses them in subsequent monitoring processing.

[変形例]
(1)上記実施形態では、互いに異なる2つの計測位置姿勢にて計測を行う例を示したが、3以上の計測位置姿勢にて計測を行ってもよい。
[Modification]
(1) In the above embodiment, an example in which measurement is performed at two different measurement positions and orientations has been described, but measurement may be performed at three or more measurement positions and orientations.

(2)上記実施形態においては、エッジ存在度付与手段532が“0.0”または“1.0”のいずれかエッジ存在度を付与する例を示したが、3種類以上のエッジ存在度を付与してもよい。その場合、エッジ存在度付与手段532は、例えば、輝度変化点対応数が0または1の三次元座標データにエッジ存在度“0.0”、輝度変化点対応数が2の三次元座標データにエッジ存在度“0.5”、輝度変化点対応数が3の三次元座標データにエッジ存在度“0.625”、輝度変化点対応数が4の三次元座標データにエッジ存在度“0.75”、輝度変化点対応数が5の三次元座標データにエッジ存在度“0.875”、輝度変化点対応数が6以上の三次元座標データにはエッジ存在度“1.0”を付与する。そして、エッジ画像照合手段538は仮想エッジ画像のエッジ位置をエッジ存在度で重み付けて実エッジ画像との類似度を算出する。   (2) In the above embodiment, the example in which the edge presence degree giving unit 532 assigns either “0.0” or “1.0” edge presence degree has been described. It may be given. In that case, the edge presence degree assigning means 532 converts the edge presence degree “0.0” into the three-dimensional coordinate data with the luminance change point correspondence number 0 or 1 and the three-dimensional coordinate data with the luminance change point correspondence number 2, for example. Edge presence degree “0.625” in 3D coordinate data with edge presence “0.5”, luminance change point correspondence number 3 and edge presence degree “0.3” in 3D coordinate data with luminance change point correspondence number 4. Edge presence “0.875” is assigned to 3D coordinate data with 75 ”, luminance change point correspondence number 5 and edge presence degree“ 1.0 ”is assigned to 3D coordinate data with luminance change point correspondence number 6 or more. To do. Then, the edge image collating unit 538 calculates the similarity with the actual edge image by weighting the edge position of the virtual edge image with the edge presence degree.

(3)上記実施形態では、三次元モデルとして所定空間を計測して得た空間モデルを例示したが、三次元モデルは什器等の所定物体を計測して得た物体モデルであってもよい。   (3) In the above embodiment, a space model obtained by measuring a predetermined space is exemplified as a three-dimensional model. However, the three-dimensional model may be an object model obtained by measuring a predetermined object such as a fixture.

(4)上記実施形態では、三次元座標データが三次元空間中の点を表すポイントクラウド形式の三次元モデルを例示したが、物体面の頂点座標の集合を含むメッシュモデル形式の三次元モデルであってもよい。その場合、例えば、任意の頂点座標のペアを三次元座標データとし(つまり直線単位の三次元座標データとし)、エッジ存在度付与手段532は当該三次元座標データに対してエッジ存在度を付与する。   (4) In the above embodiment, the point cloud format three-dimensional model in which the three-dimensional coordinate data represents a point in the three-dimensional space is exemplified, but the mesh model format three-dimensional model including a set of vertex coordinates of the object plane is used. There may be. In this case, for example, an arbitrary vertex coordinate pair is set as three-dimensional coordinate data (that is, three-dimensional coordinate data in units of straight lines), and the edge presence degree giving unit 532 gives edge presence degree to the three-dimensional coordinate data. .

(5)上記実施形態においては監視カメラ3が1台の例を説明したが、監視カメラは2台以上でもよく、その場合は各監視カメラに上記例と同様の処理を繰り返せばよい。   (5) In the above embodiment, an example in which the number of monitoring cameras 3 is one has been described. However, two or more monitoring cameras may be used, and in this case, the same processing as in the above example may be repeated for each monitoring camera.

(6)上記実施形態においては、撮影位置姿勢が固定されたカメラを校正するカメラ校正システムを例示したが、本発明は、パン・チルト動作するカメラ、ロボット等の移動体に設置されたカメラ、人が手持ちしたカメラなど撮影位置姿勢が変動するカメラを校正するカメラ校正システムにも適用することができる。すなわち、これらのカメラを校正する場合は、撮影位置姿勢が変動した後の撮影画像が入力されるたびに校正を行えばよい。   (6) In the above embodiment, the camera calibration system that calibrates the camera in which the photographing position and orientation is fixed is exemplified. However, the present invention is a camera that is installed in a moving body such as a pan / tilt camera, a robot, The present invention can also be applied to a camera calibration system that calibrates a camera that changes its photographing position and orientation, such as a camera held by a person. That is, when these cameras are calibrated, it is sufficient to calibrate each time a captured image after the photographing position and orientation is changed is input.

(7)上記実施形態では、エッジ存在度を付与した三次元モデルを投影して仮想エッジ画像を生成する例を示したが、エッジ存在度を付与した空間モデルは投影せずとも三次元データ間の位置合わせや照合の精度を向上させる効果を奏する。例えば、互いに異なる複数の計測視点から計測して得た空間モデル或いは物体モデルのそれぞれにエッジ存在度を付与し、これら複数の空間モデル或いは複数の物体モデルを、エッジが存在することを示すエッジ存在度が付与された三次元座標データを重視して位置合わせすれば、位置合わせ精度を向上させることができる。また例えば、所定物体を計測して得た物体モデルにエッジ存在度を付与して、該物体モデルと未知物体を計測して得た三次元データとを照合して物体認識を行う際に、エッジが存在することを示すエッジ存在度が付与された三次元座標データを重視して照合を行えば照合精度を向上させることができる。   (7) In the above embodiment, an example is shown in which a virtual edge image is generated by projecting a three-dimensional model to which edge presence is given. There is an effect of improving the accuracy of alignment and collation. For example, an edge presence is given to each of a spatial model or an object model obtained by measuring from a plurality of different measurement viewpoints, and an edge exists indicating that an edge exists in these multiple spatial models or multiple object models If the positioning is performed with emphasis on the three-dimensional coordinate data to which the degree is given, the positioning accuracy can be improved. Also, for example, when edge recognition is given to an object model obtained by measuring a predetermined object, and object recognition is performed by collating the object model with three-dimensional data obtained by measuring an unknown object, If the collation is performed with emphasis on the three-dimensional coordinate data to which the edge presence level indicating that the image exists, the collation accuracy can be improved.

(8)上記実施形態では、仮想エッジ画像を利用してカメラを校正する例を示したが、当該仮想エッジ画像を利用して物体照合の精度を向上させることも可能である。例えば、所定物体を計測して得た物体モデルにエッジ存在度を付与して仮想エッジ画像を生成し、撮影画像から生成した実エッジ画像との照合を行えば、撮影画像に写っている物体が所定物体であるか否かを判定する精度を向上させることができる。   (8) In the above-described embodiment, an example in which the camera is calibrated using the virtual edge image has been described. However, the accuracy of object matching can be improved using the virtual edge image. For example, if a virtual edge image is generated by adding an edge presence to an object model obtained by measuring a predetermined object and collated with a real edge image generated from a captured image, the object shown in the captured image is The accuracy of determining whether or not the object is a predetermined object can be improved.

1 カメラ校正システム、2 三次元計測装置、3 監視カメラ、4 監視装置、5 三次元データ処理装置、50 計測データ入力部、51 記憶部、52 監視画像入力部、53 制御部、54 出力部、55 ユーザーインターフェース部、510 空間モデル記憶手段、511 計測パラメータ記憶手段、530 座標変換手段、531 変化点対応付け手段、532 エッジ存在度付与手段、535 実エッジ画像生成手段、536 仮想カメラ設定手段、537 仮想エッジ画像生成手段、538 エッジ画像照合手段、600 部屋、601 床、602 机、603 模様、650 計測位置、651 計測姿勢、652 撮影位置、653 撮影姿勢。   1 camera calibration system, 2 3D measuring device, 3 monitoring camera, 4 monitoring device, 5 3D data processing device, 50 measurement data input unit, 51 storage unit, 52 monitoring image input unit, 53 control unit, 54 output unit, 55 User interface unit, 510 Spatial model storage unit, 511 Measurement parameter storage unit, 530 Coordinate conversion unit, 531 Change point association unit, 532 Edge presence degree provision unit, 535 Real edge image generation unit, 536 Virtual camera setting unit, 537 Virtual edge image generation means, 538 edge image collation means, 600 rooms, 601 floor, 602 desks, 603 patterns, 650 measurement positions, 651 measurement postures, 652 photographing positions, 653 photographing postures.

Claims (4)

対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデル、前記複数の計測位置姿勢、及び当該複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像を記憶している記憶手段と、
前記各画像から輝度変化点を抽出し、前記計測位置姿勢を用いて前記輝度変化点に対応する位置の三次元座標データを検出する変化点対応付け手段と、
前記三次元座標データに前記輝度変化点との対応が検出された数に応じた高さのエッジ存在度を付与するエッジ存在度付与手段と、
前記エッジ存在度が高い前記三次元座標データを前記エッジ存在度が低い前記三次元座標データよりも重視して、前記計測位置姿勢が異なる複数の前記三次元モデルを位置合わせする三次元モデル位置合わせ手段と、
を備えたことを特徴とする三次元モデル処理装置。
The three-dimensional model composed of a plurality of three-dimensional coordinate data representing the surface shape of the object and obtained by measuring at a plurality of measurement positions and orientations, the plurality of measurement positions and orientations, and the plurality of measurement positions and orientations, respectively. Storage means for storing an image of the subject,
A change point associating means for extracting a brightness change point from each image and detecting three-dimensional coordinate data of a position corresponding to the brightness change point using the measurement position and orientation;
Edge presence giving means for giving an edge presence having a height corresponding to the number of detected correspondences with the luminance change points in the three-dimensional coordinate data;
Three-dimensional model alignment for aligning a plurality of three-dimensional models with different measurement positions and orientations, with the three-dimensional coordinate data having a high edge presence being emphasized over the three-dimensional coordinate data having a low edge presence Means,
A three-dimensional model processing apparatus comprising:
対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデル、前記複数の計測位置姿勢、及び当該複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像を記憶している記憶手段と、
前記各画像から輝度変化点を抽出し、前記計測位置姿勢を用いて前記輝度変化点に対応する位置の三次元座標データを検出する変化点対応付け手段と、
前記三次元座標データに前記輝度変化点との対応が検出された数に応じた高さのエッジ存在度を付与するエッジ存在度付与手段と、
前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、
前記仮想カメラの撮影面にて、前記エッジ存在度が予め定めた高さよりも高い三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、
を備えたことを特徴とする三次元モデル処理装置。
The three-dimensional model composed of a plurality of three-dimensional coordinate data representing the surface shape of the object and obtained by measuring at a plurality of measurement positions and orientations, the plurality of measurement positions and orientations, and the plurality of measurement positions and orientations, respectively. Storage means for storing an image of the subject,
A change point associating means for extracting a brightness change point from each image and detecting three-dimensional coordinate data of a position corresponding to the brightness change point using the measurement position and orientation;
Edge presence giving means for giving an edge presence having a height corresponding to the number of detected correspondences with the luminance change points in the three-dimensional coordinate data;
Virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation;
A virtual edge image generating means for generating a virtual edge image having an edge pixel as a projection position of three-dimensional coordinate data in which the edge presence degree is higher than a predetermined height on the imaging surface of the virtual camera;
A three-dimensional model processing apparatus comprising:
請求項2に記載の三次元モデル処理装置と、
実カメラが前記対象を撮影した実画像を取得し、前記実画像からエッジを抽出して実エッジ画像を生成する実エッジ画像生成手段と、
前記実エッジ画像と前記仮想エッジ画像との類似度を算出して、前記類似度を最大化する前記仮想カメラの位置姿勢を前記実カメラの位置姿勢と決定するエッジ画像照合手段と、
を備えたことを特徴とするカメラ校正システム。
The three-dimensional model processing device according to claim 2,
An actual image obtained by capturing an image of the object by an actual camera, and an actual edge image generating unit that extracts an edge from the actual image and generates an actual edge image;
Edge image matching means for calculating the degree of similarity between the real edge image and the virtual edge image and determining the position and orientation of the virtual camera that maximizes the degree of similarity as the position and orientation of the real camera;
A camera calibration system characterized by comprising:
対象の表面形状を表す複数の三次元座標データで構成され複数の計測位置姿勢にて計測して得た三次元モデルを記憶し、前記三次元座標データは前記複数の計測位置姿勢のそれぞれにて前記対象を撮影した画像から抽出した輝度変化点との対応が検出された数に応じたエッジ存在度を付与されている三次元モデル記憶手段と、
前記三次元モデルを任意の位置姿勢にて模擬撮影する仮想カメラを設定する仮想カメラ設定手段と、
前記仮想カメラの撮影面にて、エッジが存在することを示すエッジ存在度を有する三次元座標データの投影位置をエッジ画素とする仮想エッジ画像を生成する仮想エッジ画像生成手段と、
を備えたことを特徴とする三次元モデル処理装置。
Stores a 3D model that is composed of a plurality of 3D coordinate data representing the surface shape of the object and is obtained by measurement at a plurality of measurement positions and orientations, and the 3D coordinate data is stored at each of the plurality of measurement positions and orientations. Three-dimensional model storage means to which an edge presence corresponding to the number of detected correspondences with luminance change points extracted from an image obtained by photographing the target is provided;
Virtual camera setting means for setting a virtual camera for simulating and photographing the three-dimensional model at an arbitrary position and orientation;
A virtual edge image generating means for generating a virtual edge image having an edge pixel as a projection position of three-dimensional coordinate data having an edge presence level indicating that an edge exists on the imaging surface of the virtual camera;
A three-dimensional model processing apparatus comprising:
JP2015049749A 2015-03-12 2015-03-12 3D model processing apparatus and camera calibration system Active JP6374812B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015049749A JP6374812B2 (en) 2015-03-12 2015-03-12 3D model processing apparatus and camera calibration system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015049749A JP6374812B2 (en) 2015-03-12 2015-03-12 3D model processing apparatus and camera calibration system

Publications (2)

Publication Number Publication Date
JP2016170031A JP2016170031A (en) 2016-09-23
JP6374812B2 true JP6374812B2 (en) 2018-08-15

Family

ID=56982347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015049749A Active JP6374812B2 (en) 2015-03-12 2015-03-12 3D model processing apparatus and camera calibration system

Country Status (1)

Country Link
JP (1) JP6374812B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7179439B2 (en) * 2016-11-28 2022-11-29 キヤノン株式会社 Information processing device, information processing method and program
CN108509848B (en) * 2018-02-13 2019-03-05 视辰信息科技(上海)有限公司 The real-time detection method and system of three-dimension object
CN114170302A (en) * 2020-08-20 2022-03-11 北京达佳互联信息技术有限公司 Camera external parameter calibration method and device, electronic equipment and storage medium
JP7506565B2 (en) * 2020-09-14 2024-06-26 株式会社Screenホールディングス Image processing device, inspection device and program
JP7549221B2 (en) 2021-02-26 2024-09-11 株式会社デンソーウェーブ Recognition System

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7689003B2 (en) * 2006-03-20 2010-03-30 Siemens Energy, Inc. Combined 2D and 3D nondestructive examination
JP5746477B2 (en) * 2010-02-26 2015-07-08 キヤノン株式会社 Model generation device, three-dimensional measurement device, control method thereof, and program
JP5465128B2 (en) * 2010-08-11 2014-04-09 株式会社トプコン Point cloud position data processing device, point cloud position data processing system, point cloud position data processing method, and point cloud position data processing program
JP5671281B2 (en) * 2010-08-20 2015-02-18 キヤノン株式会社 Position / orientation measuring apparatus, control method and program for position / orientation measuring apparatus
WO2012034236A1 (en) * 2010-09-16 2012-03-22 Ambercore Software Inc. System and method for detailed automated feature extraction from data having spatial coordinates

Also Published As

Publication number Publication date
JP2016170031A (en) 2016-09-23

Similar Documents

Publication Publication Date Title
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
JP6295645B2 (en) Object detection method and object detection apparatus
CN107273846B (en) Human body shape parameter determination method and device
JP6506731B2 (en) System and method for scoring clutter used for 3D point cloud matching in vision system
JP5812599B2 (en) Information processing method and apparatus
JP6374812B2 (en) 3D model processing apparatus and camera calibration system
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
JP6363863B2 (en) Information processing apparatus and information processing method
CN107079093B (en) Calibration device
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
WO2019225547A1 (en) Object tracking device, object tracking method, and object tracking program
JP2008506953A (en) Method and apparatus for machine vision
JP6309913B2 (en) Object detection device
JP7379065B2 (en) Information processing device, information processing method, and program
WO2020075252A1 (en) Information processing device, program, and information processing method
JP6282377B2 (en) Three-dimensional shape measurement system and measurement method thereof
CN110869978A (en) Information processing apparatus, information processing method, and computer program
JP7489670B2 (en) Correction parameter calculation method, displacement amount calculation method, correction parameter calculation device, and displacement amount calculation device
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP2018009927A (en) Image processing device, image processing method and program
WO2015159835A1 (en) Image processing device, image processing method, and program
JP2020042575A (en) Information processing apparatus, positioning method, and program
WO2019016879A1 (en) Object detection device and object detection method
JP6027952B2 (en) Augmented reality image generation system, three-dimensional shape data generation device, augmented reality presentation device, augmented reality image generation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170424

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180720

R150 Certificate of patent or registration of utility model

Ref document number: 6374812

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250