JPWO2019193859A1 - Camera calibration method, camera calibration device, camera calibration system and camera calibration program - Google Patents

Camera calibration method, camera calibration device, camera calibration system and camera calibration program Download PDF

Info

Publication number
JPWO2019193859A1
JPWO2019193859A1 JP2020511634A JP2020511634A JPWO2019193859A1 JP WO2019193859 A1 JPWO2019193859 A1 JP WO2019193859A1 JP 2020511634 A JP2020511634 A JP 2020511634A JP 2020511634 A JP2020511634 A JP 2020511634A JP WO2019193859 A1 JPWO2019193859 A1 JP WO2019193859A1
Authority
JP
Japan
Prior art keywords
camera
moving
dimensional
surveillance
calibration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020511634A
Other languages
Japanese (ja)
Other versions
JP7173133B2 (en
Inventor
大気 関井
大気 関井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Publication of JPWO2019193859A1 publication Critical patent/JPWO2019193859A1/en
Application granted granted Critical
Publication of JP7173133B2 publication Critical patent/JP7173133B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor

Abstract

移動映像取得ステップでは、監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する。移動カメラ用較正パラメータ導出ステップでは、移動映像の各フレームごとに、移動カメラ用較正パラメータを導出する。3次元軌跡取得ステップでは、移動カメラ用較正パラメータを用いて、基準座標系における移動カメラの3次元の移動軌跡を求める。2次元軌跡検出ステップでは、移動カメラの3次元の移動軌跡の少なくとも一部を、監視カメラの撮影画像上での2次元の移動軌跡として検出する。監視カメラ用較正パラメータ導出ステップでは、3次元の移動軌跡の少なくとも一部と、2次元の移動軌跡とに基づいて、監視カメラ用較正パラメータを導出する。In the moving image acquisition step, the moving image is acquired by moving the moving camera so as to overlap the field of view of the surveillance camera. In the procedure for deriving the calibration parameters for the moving camera, the calibration parameters for the moving camera are derived for each frame of the moving image. In the three-dimensional locus acquisition step, the three-dimensional movement locus of the moving camera in the reference coordinate system is obtained by using the calibration parameters for the moving camera. In the two-dimensional locus detection step, at least a part of the three-dimensional movement locus of the moving camera is detected as the two-dimensional movement locus on the captured image of the surveillance camera. In the surveillance camera calibration parameter derivation step, the surveillance camera calibration parameters are derived based on at least a part of the three-dimensional movement locus and the two-dimensional movement locus.

Description

本発明は、1台以上の監視カメラの較正パラメータを導出するカメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラムに関する。 The present invention relates to a camera calibration method, a camera calibration device, a camera calibration system and a camera calibration program for deriving calibration parameters for one or more surveillance cameras.

従来から、広域の環境に分散して配置されたカメラ間で、撮影画像から認識した情報を共有し、共有した情報を監視、防犯またはマーケティングに役立たせる分散監視システムが広く活用されている。分散監視システムにおいて、カメラごとに認識した情報を共有するためには、各カメラのパラメータを較正した上で、カメラごとに認識した情報を同一の基準座標系(またはマップ)上で表現し、ユーザに提供する必要がある。なお、カメラのパラメータとしては、例えば、カメラの絶対位置および姿勢、レンズの焦点距離、レンズの歪み係数、時刻(撮影タイミング)などがある。なお、カメラのパラメータを較正すること(較正パラメータを導出すること)を、以下では、単に、カメラの較正とも言う。 Conventionally, a distributed monitoring system has been widely used in which information recognized from captured images is shared among cameras distributed in a wide area environment, and the shared information is used for monitoring, crime prevention, or marketing. In the distributed monitoring system, in order to share the information recognized for each camera, after calibrating the parameters of each camera, the information recognized for each camera is expressed on the same reference coordinate system (or map), and the user Need to provide to. The parameters of the camera include, for example, the absolute position and orientation of the camera, the focal length of the lens, the distortion coefficient of the lens, and the time (shooting timing). In the following, calibrating the camera parameters (deriving the calibration parameters) is also simply referred to as camera calibration.

ここで、カメラを較正する方法の一つとして、三角測量に基づいてカメラを手動で較正する方法がある。しかし、手動較正では人的なコストが大きいため、近年では自動較正が多く利用されている(例えば特許文献1〜6、非特許文献1参照)。 Here, as one of the methods for calibrating the camera, there is a method for manually calibrating the camera based on triangulation. However, since manual calibration requires a large human cost, automatic calibration is often used in recent years (see, for example, Patent Documents 1 to 6 and Non-Patent Document 1).

特開2015−106287号公報JP-A-2015-106287 特開2014−14912号公報Japanese Unexamined Patent Publication No. 2014-14912 特開2011−69796号公報Japanese Unexamined Patent Publication No. 2011-69996 特表2009−509778号公報Special Table 2009-509778 特開2010−210570号公報Japanese Unexamined Patent Publication No. 2010-210570 特開2005−241323号公報Japanese Unexamined Patent Publication No. 2005-241323

宍戸英彦等、「疎に配置した多視点カメラのキャリブレーション手法」、第20回画像の認識・理解シンポジウム、2017年8月10日Hidehiko Shishido et al., "Calibration Method for Sparsely Arranged Multiview Cameras", 20th Image Recognition and Understanding Symposium, August 10, 2017

特許文献1〜4の自動較正技術は、いずれも、少なくとも1台のカメラおよびカメラによる撮影対象のうち、一方を他方に対して相対的に移動させてカメラで撮影対象の画像を取得し、取得した画像に基づいてカメラを較正する技術である。このような較正技術を用いる場合、較正するカメラに対して相対的に移動する撮影対象が予め較正されていなければならない(撮影対象が較正されていないと、撮影対象の画像に基づいてカメラを較正することができないため)。 In each of the automatic calibration techniques of Patent Documents 1 to 4, one of the images to be photographed by at least one camera and the camera is moved relative to the other, and the image of the object to be photographed is acquired by the camera. It is a technique to calibrate the camera based on the created image. When using such a calibration technique, the moving object must be pre-calibrated relative to the camera to be calibrated (if the object is not calibrated, the camera is calibrated based on the image of the object to be calibrated). Because it cannot be done).

例えば、特許文献1のように、2台のカメラ(ステレオカメラ)を物体に対して相対的に移動させる場合、2台のカメラに対して相対的に移動する物体の基準座標系(世界座標系)における位置が予め較正されていなければならない。また、特許文献2のように、可動するロボットをカメラで撮影してカメラのパラメータを較正する場合、カメラに対して相対的に移動するロボットの基準座標系における位置が予め較正されていなければならない。特許文献3および4においても同様に、カメラで撮影される移動体の基準座標系における位置が予め較正されていなければならない。 For example, as in Patent Document 1, when two cameras (stereo cameras) are moved relative to an object, the reference coordinate system (world coordinate system) of the object that moves relative to the two cameras. ) Must be pre-calibrated. Further, as in Patent Document 2, when a movable robot is photographed with a camera and the parameters of the camera are calibrated, the position of the robot moving relative to the camera in the reference coordinate system must be calibrated in advance. .. Similarly, in Patent Documents 3 and 4, the position of the moving body photographed by the camera in the reference coordinate system must be calibrated in advance.

このように、特許文献1〜4の自動較正技術では、カメラを較正する前に、カメラに対して相対的に移動する撮影対象の較正という事前準備が必要となり、事前準備がなければ、カメラの較正を行うことができない。このため、カメラの較正を必要なときに直ちに行うことができず、不便である。この問題は、特許文献5および6でも同様に生じる。 As described above, in the automatic calibration techniques of Patent Documents 1 to 4, before calibrating the camera, it is necessary to prepare in advance for calibrating the object to be photographed that moves relative to the camera. Cannot calibrate. Therefore, it is inconvenient because the camera cannot be calibrated immediately when it is needed. This problem also arises in Patent Documents 5 and 6.

すなわち、特許文献5では、2台カメラの撮影対象である被写体(移動体)に、GPS(Global Positioning System;全地球測位システム)装置を搭載し、所定の空間内で被写体を移動させるとともに所定の位置で停止させ、上記被写体の停止位置と2台のカメラによる上記被写体の撮影画像とに基づいて、較正用のデータを取得する技術が開示されている。しかし、この技術においても、基準座標系に対してGPS装置の座標系を予め較正しておく必要がある。 That is, in Patent Document 5, a GPS (Global Positioning System) device is mounted on a subject (moving object) to be photographed by two cameras, the subject is moved in a predetermined space, and a predetermined subject is moved. A technique for stopping at a position and acquiring calibration data based on the stop position of the subject and the captured image of the subject by two cameras is disclosed. However, also in this technique, it is necessary to calibrate the coordinate system of the GPS device in advance with respect to the reference coordinate system.

特許文献6では、空間内のマーカー(3次元座標は既知である)を複数の固定カメラで撮影し、上記マーカーの撮影画像上での観測座標と、マーカーの既知の3次元座標とから、複数の固定カメラの射影変換行列を算出する技術が開示されている。しかし、この技術においても、マーカーの3次元座標を予め求めておく、つまり、基準座標系に対してマーカーの位置を予め較正しておく必要がある。 In Patent Document 6, a plurality of markers (three-dimensional coordinates are known) in space are photographed by a plurality of fixed cameras, and a plurality of markers are photographed from the observed coordinates on the captured image of the markers and the known three-dimensional coordinates of the markers. A technique for calculating the projection conversion matrix of a fixed camera of the above is disclosed. However, also in this technique, it is necessary to obtain the three-dimensional coordinates of the marker in advance, that is, to calibrate the position of the marker in advance with respect to the reference coordinate system.

また、非特許文献1では、移動カメラでの撮影画像と、疎に配置した複数の静止カメラでの撮影画像とを統合して、密な多視点画像群を構築し、多視点画像同士での対応点の情報から静止カメラを較正する技術(弱較正技術)が開示されている。しかし、非特許文献1の技術では、画像同士の比較によって対応点を求めて静止カメラを較正するため、較正の精度を上げるためには、上記対応点の検出に高い精度が要求され、特許文献1〜6の技術に比べると較正の精度が低下しやすい。 Further, in Non-Patent Document 1, a dense multi-viewpoint image group is constructed by integrating images taken by a moving camera and images taken by a plurality of sparsely arranged still cameras, and the multi-viewpoint images are used as each other. A technique for calibrating a still camera from information on corresponding points (weak calibration technique) is disclosed. However, in the technique of Non-Patent Document 1, since the still camera is calibrated by finding the corresponding point by comparing the images, high accuracy is required for the detection of the corresponding point in order to improve the calibration accuracy. The accuracy of calibration tends to be lower than that of the techniques 1 to 6.

なお、上記した問題は、較正対象であるカメラが複数台設けられた分散監視システムのみならず、環境に設置されたカメラ(監視カメラ)が1台のみであるシステムでも同様に起こり得る。 The above problem may occur not only in a distributed monitoring system in which a plurality of cameras to be calibrated are provided, but also in a system in which only one camera (surveillance camera) is installed in the environment.

本発明は、上記の問題点を解決するためになされたもので、その目的は、監視カメラに対して相対的に移動する撮影対象を予め較正することなく、監視カメラの較正の精度の低下を回避しながら監視カメラを較正することができるカメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラムを提供することにある。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to reduce the accuracy of calibration of a surveillance camera without pre-calibrating a moving object to be imaged relative to the surveillance camera. To provide a camera calibration method, a camera calibration device, a camera calibration system and a camera calibration program capable of calibrating a surveillance camera while avoiding it.

本発明の一側面に係るカメラ較正方法は、1台以上の監視カメラの較正パラメータを、監視カメラ用較正パラメータとして導出するカメラ較正方法であって、前記監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する移動映像取得ステップと、前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出ステップと、前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得ステップと、前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出ステップと、前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出ステップとを含む。 The camera calibration method according to one aspect of the present invention is a camera calibration method for deriving the calibration parameters of one or more surveillance cameras as calibration parameters for the surveillance camera, and the moving camera is placed so as to overlap the field of view of the surveillance camera. A moving image acquisition step of acquiring a moving image by moving the moving image, and a calibration parameter for the moving camera including the position and orientation of the moving camera in the reference coordinate system for each frame of the moving image based on the moving image. A three-dimensional locus acquisition step for obtaining a three-dimensional movement locus of the mobile camera in the reference coordinate system using the derivation step of the calibration parameter for the mobile camera to be derived, and the above three of the mobile camera. A two-dimensional locus detection step that detects at least a part of a dimensional movement locus as a two-dimensional movement locus on an image captured by the surveillance camera, at least a part of the three-dimensional movement locus, and the two-dimensional movement locus. It includes a step of deriving the calibration parameter for the surveillance camera, which derives the calibration parameter for the surveillance camera based on the movement locus.

本発明の他の側面に係るカメラ較正プログラムは、上記カメラ較正方法をコンピュータに実行させるプログラムである。 The camera calibration program according to another aspect of the present invention is a program that causes a computer to execute the above camera calibration method.

本発明のさらに他の側面に係るカメラ較正装置は、1台以上の監視カメラの視野と重なるように移動して移動映像を取得する移動カメラの前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出部と、前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得部と、前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出部と、前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラの較正パラメータである監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出部とを含む。 The camera calibrator according to still another aspect of the present invention is based on the moving image of the moving camera that moves so as to overlap the field of view of one or more surveillance cameras and acquires the moving image, for each frame of the moving image. In addition, using the moving camera calibration parameter deriving unit for deriving the moving camera calibration parameters including the position and orientation of the moving camera in the reference coordinate system and the moving camera calibration parameters, the moving camera in the reference coordinate system. A two-dimensional movement locus acquisition unit that obtains the three-dimensional movement locus of the above, and a two-dimensional movement locus that detects at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on a captured image of the surveillance camera. Derivation of the calibration parameter for the surveillance camera that derives the calibration parameter for the surveillance camera, which is the calibration parameter of the surveillance camera, based on the trajectory detection unit, at least a part of the three-dimensional movement trajectory, and the two-dimensional movement trajectory. Including the part.

本発明のさらに他の側面に係るカメラ較正システムは、上記カメラ較正装置と、1台以上の前記固定カメラと、前記移動カメラとを含む。 A camera calibration system according to still another aspect of the present invention includes the camera calibration device, one or more fixed cameras, and the mobile camera.

監視カメラに対して相対的に移動する撮影対象を事前に較正することなく、監視カメラの較正の精度の低下を回避しながら監視カメラを較正することができる(監視カメラ用較正パラメータを導出することができる)。 It is possible to calibrate the surveillance camera while avoiding a decrease in the accuracy of the calibration of the surveillance camera without pre-calibrating the image target moving relative to the surveillance camera (deriving the calibration parameters for the surveillance camera). Can be done).

本発明の実施の形態のカメラ較正システムの概略の構成を示すブロック図である。It is a block diagram which shows the schematic structure of the camera calibration system of embodiment of this invention. 上記カメラ較正システムに含まれる移動カメラの移動軌跡の一例を模式的に示す説明図である。It is explanatory drawing which shows typically an example of the movement locus of the moving camera included in the said camera calibration system. 上記カメラ較正システムによるカメラ較正方法の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the camera calibration method by the said camera calibration system. 上記移動カメラが環境中を移動する様子を模式的に示す説明図である。It is explanatory drawing which shows typically how the said moving camera moves in an environment. 図4の位置Aにおいて上記移動カメラで撮影された画像を模式的に示す説明図である。It is explanatory drawing which shows typically the image taken by the said moving camera at the position A of FIG. 上記環境中に設置されたマーカーの例を示す説明図である。It is explanatory drawing which shows the example of the marker installed in the said environment. 上記移動カメラの座標系と、基準座標系との対応関係を模式的に示す説明図である。It is explanatory drawing which shows typically the correspondence relationship between the coordinate system of the moving camera and the reference coordinate system. 上記移動カメラに取り付けられるマーカーの基準座標系における位置(絶対座標)を、上記移動カメラの各フレームごとに順に求める過程を模式的に示す説明図である。It is explanatory drawing which shows typically the process of finding the position (absolute coordinate) in the reference coordinate system of the marker attached to the moving camera in order for each frame of the moving camera. 上記移動カメラの移動に伴って移動する上記マーカーの基準座標系における3次元の移動軌跡を示す説明図である。It is explanatory drawing which shows the 3D movement locus in the reference coordinate system of the said marker which moves with the movement of the said moving camera. 上記カメラ較正システムに含まれる監視カメラの視野と重なって上記移動カメラが上記マーカーとともに移動する様子を模式的に示す説明図である。It is explanatory drawing which shows typically how the moving camera moves together with the said marker overlapping with the field of view of the surveillance camera included in the said camera calibration system. 上記監視カメラの撮影画像の一例を模式的に示す説明図である。It is explanatory drawing which shows an example of the photographed image of the said surveillance camera schematically. 上記カメラ較正システムの他の構成を示すブロック図である。It is a block diagram which shows the other configuration of the said camera calibration system. 図12のカメラ較正システムによるカメラ較正方法の処理の流れを示すフローチャートである。It is a flowchart which shows the process flow of the camera calibration method by the camera calibration system of FIG. 上記移動カメラに取り付けられるマーカーの他の構成を模式的に示す説明図である。It is explanatory drawing which shows the other structure of the marker attached to the moving camera schematically. 上記移動カメラの3次元の移動軌跡であって、四角形状の上記移動軌跡を示す説明図である。It is a three-dimensional movement locus of the moving camera, and is explanatory drawing which shows the moving locus of a quadrangular shape. 上記監視カメラの撮影画像上での上記移動カメラの2次元の移動軌跡を示す説明図である。It is explanatory drawing which shows the 2D movement locus of the said moving camera on the photographed image of the said surveillance camera.

本発明の実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 An embodiment of the present invention will be described below with reference to the drawings. The present invention is not limited to the following contents.

〔カメラ較正システム〕
図1は、本実施形態のカメラ較正システム1の概略の構成を示すブロック図である。カメラ較正システム1は、監視カメラ2を較正する、すなわち、監視カメラ2の較正パラメータを、監視カメラ用較正パラメータとして導出するシステムであり、監視カメラ2と、移動カメラ3と、カメラ較正装置4とを有している。監視カメラ2および移動カメラ3は、カメラ較正装置4と通信回線(有線、無線を問わない)を介して通信可能に接続されている。図1では、複数台の監視カメラ2がカメラ較正装置4と接続される例を示しているが、監視カメラ2は1台のみであってもよい。
[Camera calibration system]
FIG. 1 is a block diagram showing a schematic configuration of the camera calibration system 1 of the present embodiment. The camera calibration system 1 is a system that calibrates the surveillance camera 2, that is, derives the calibration parameters of the surveillance camera 2 as calibration parameters for the surveillance camera, and includes the surveillance camera 2, the mobile camera 3, and the camera calibrator 4. have. The surveillance camera 2 and the mobile camera 3 are communicably connected to the camera calibrator 4 via a communication line (whether wired or wireless). Although FIG. 1 shows an example in which a plurality of surveillance cameras 2 are connected to the camera calibration device 4, only one surveillance camera 2 may be used.

監視カメラ2は、監視対象となる環境(例えば店舗、工場、部屋)に設置され、環境内を撮影して画像を取得する撮像装置である。監視カメラ2は、例えば固定カメラであるが、若干の移動(例えばシフト、回動、回転)が可能なカメラであってもよい。 The surveillance camera 2 is an imaging device that is installed in an environment to be monitored (for example, a store, a factory, or a room) and captures an image in the environment. The surveillance camera 2 is, for example, a fixed camera, but may be a camera capable of slight movement (for example, shift, rotation, rotation).

移動カメラ3は、移動しながら周囲を撮影して画像(移動映像)を取得する撮像装置であり、移動手段を含む。なお、移動手段には、車輪、車輪と接続されるシャフト、シャフトを回転させるモータなどが含まれる。本実施形態では、移動カメラ3は、少なくとも監視カメラ2の視野(撮影範囲)と重なるように移動する。図2は、移動カメラ3の移動軌跡の一例を模式的に示している。移動カメラ3は、監視カメラ2の視野と重なるように移動するのであれば、1台の監視カメラ2の視野を内側から外側に向かって通過したり、複数台の監視カメラ2の視野と視野との間を移動してもよい。このような移動カメラ3の移動は、例えばカメラ較正装置4の後述する移動制御部5bによって制御される。 The mobile camera 3 is an imaging device that captures an image (moving image) by photographing the surroundings while moving, and includes a moving means. The moving means includes wheels, a shaft connected to the wheels, a motor for rotating the shaft, and the like. In the present embodiment, the moving camera 3 moves so as to overlap at least the field of view (shooting range) of the surveillance camera 2. FIG. 2 schematically shows an example of the movement locus of the moving camera 3. If the moving camera 3 moves so as to overlap the field of view of the surveillance camera 2, it may pass through the field of view of one surveillance camera 2 from the inside to the outside, or may include the field of view and the field of view of a plurality of surveillance cameras 2. You may move between. Such movement of the moving camera 3 is controlled by, for example, a movement control unit 5b described later of the camera calibration device 4.

また、本実施形態では、移動カメラ3にはマーカーMが取り付けられている。マーカーMは、例えば、監視カメラ2で撮影して得られる画像に基づいてカメラ較正装置4(特に較正処理部10)が画像認識技術によって認識可能な特徴点P(例えば角部)を含む指標M1で構成されている。なお、移動カメラ3に対するマーカーMの相対的な位置(座標)は既知であるとする。Further, in the present embodiment, the marker M is attached to the moving camera 3. The marker M is, for example, an index M including feature points P (for example, corners) that can be recognized by the camera calibration device 4 (particularly the calibration processing unit 10) by the image recognition technique based on the image obtained by the surveillance camera 2. Consists of 1. It is assumed that the relative position (coordinates) of the marker M with respect to the moving camera 3 is known.

なお、移動カメラ3の移動は、ユーザ(例えば監視カメラ2の較正を行う者)が移動カメラ3を保持しながら移動することによって行われてもよい。このようにユーザの動作を伴う場合でも、ユーザは移動カメラ3を移動させる動作を行うだけで済む。つまり、ユーザが計器を使って三角測量を行って監視カメラ2を手動で較正するわけではない。したがって、ユーザが移動カメラ3を移動させる場合でも、手動較正の場合ほどの人的コストの増大は生じないと言える。 The moving camera 3 may be moved by a user (for example, a person who calibrates the surveillance camera 2) while holding the moving camera 3. Even when the user's operation is involved in this way, the user only needs to perform the operation of moving the moving camera 3. That is, the user does not manually calibrate the surveillance camera 2 by performing triangulation using the instrument. Therefore, even when the user moves the moving camera 3, it can be said that the increase in human cost does not occur as in the case of manual calibration.

カメラ較正装置4は、監視カメラ2の撮影画像および移動カメラ3の撮影画像に基づいて、監視カメラ2の較正を行う装置であり、例えばパーソナルコンピュータによって構成可能である。カメラ較正装置4は、制御部5と、記憶部6と、入力部7と、表示部8と、通信部9と、較正処理部10とを有している。 The camera calibrator 4 is a device that calibrates the surveillance camera 2 based on the captured image of the surveillance camera 2 and the captured image of the moving camera 3, and can be configured by, for example, a personal computer. The camera calibration device 4 includes a control unit 5, a storage unit 6, an input unit 7, a display unit 8, a communication unit 9, and a calibration processing unit 10.

制御部5は、例えば中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部6に記憶された動作プログラムに従って動作する。この制御部5は、カメラ較正装置4の各部の動作を制御する主制御部5aとしての機能と、移動カメラ3の移動を制御する移動制御部5bとしての機能とを有している。 The control unit 5 is composed of, for example, a central processing unit (CPU), and operates according to an operation program stored in the storage unit 6. The control unit 5 has a function as a main control unit 5a for controlling the operation of each unit of the camera calibration device 4 and a function as a movement control unit 5b for controlling the movement of the moving camera 3.

記憶部6は、カメラ較正装置4の各部を動作させるための動作プログラムや、監視カメラ2および移動カメラ3で取得された各撮影画像のデータなどを記憶するメモリである。記憶部6は、例えばハードディスクで構成されるが、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。 The storage unit 6 is a memory that stores an operation program for operating each part of the camera calibration device 4, data of each captured image acquired by the surveillance camera 2 and the mobile camera 3, and the like. The storage unit 6 is composed of, for example, a hard disk, but may be appropriately selected from recording media such as a RAM (Random Access Memory), a ROM (Read Only Memory), an optical disk, a magneto-optical disk, and a non-volatile memory. ..

入力部7は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成されており、ユーザによる各種の指示入力を受け付ける。表示部8は、監視カメラ2および移動カメラ3で取得された各撮影画像をはじめとして、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部9は、監視カメラ2および移動カメラ3と通信するためのインターフェースであり、入出力端子などを含んで構成される。なお、例えば監視カメラ2および移動カメラ3の少なくとも一方と、カメラ較正装置4とが無線で通信(例えば画像データの送受信)を行う場合、通信部9は、アンテナ、送受信回路、変調回路、復調回路などを含んで構成されてもよい。 The input unit 7 is composed of, for example, a keyboard, a mouse, a touch pad, a touch panel, and the like, and receives various instruction inputs by the user. The display unit 8 is a device that displays various information including each captured image acquired by the surveillance camera 2 and the mobile camera 3, and is composed of, for example, a liquid crystal display device. The communication unit 9 is an interface for communicating with the surveillance camera 2 and the mobile camera 3, and includes input / output terminals and the like. When, for example, at least one of the surveillance camera 2 and the mobile camera 3 and the camera calibrator 4 wirelessly communicate with each other (for example, transmission / reception of image data), the communication unit 9 includes an antenna, a transmission / reception circuit, a modulation circuit, and a demodulation circuit. Etc. may be included in the configuration.

較正処理部10は、監視カメラ3の較正に関する処理を行うブロックであり、移動カメラ用較正パラメータ導出部10aと、3次元軌跡取得部10bと、2次元軌跡検出部10cと、監視カメラ用較正パラメータ導出部10dとを含んで構成される。較正処理部10は、例えばリアルタイムな画像処理に特化した演算装置であるGPU(Graphics Processing Unit)で構成されるが、制御部5と同一のまたは別個のCPUで構成されてもよく、その他の演算装置で構成されてもよい。なお、較正処理部10の各部の詳細については、以下のカメラ較正方法の説明の中で併せて説明する。 The calibration processing unit 10 is a block that performs processing related to calibration of the surveillance camera 3, and is a calibration parameter derivation unit 10a for a mobile camera, a three-dimensional trajectory acquisition unit 10b, a two-dimensional trajectory detection unit 10c, and a calibration parameter for a surveillance camera. It is configured to include a derivation unit 10d. The calibration processing unit 10 is composed of, for example, a GPU (Graphics Processing Unit) which is an arithmetic unit specialized in real-time image processing, but may be composed of the same CPU as the control unit 5 or a separate CPU, and other CPUs. It may be composed of an arithmetic unit. The details of each part of the calibration processing unit 10 will be described in the following description of the camera calibration method.

〔カメラ較正方法〕
次に、本実施形態のカメラ較正方法について説明する。図3は、図1のカメラ較正システム1によるカメラ較正方法の処理の流れを示すフローチャートである。本実施形態のカメラ較正方法は、移動映像取得ステップ(S1)と、移動カメラ用較正パラメータ導出ステップ(S2)と、3次元軌跡取得ステップ(S3)と、2次元軌跡検出ステップ(S4)と、監視カメラ用較正パラメータ導出ステップ(S5)とを含む。以下、より詳細に説明する。
[Camera calibration method]
Next, the camera calibration method of the present embodiment will be described. FIG. 3 is a flowchart showing a processing flow of the camera calibration method by the camera calibration system 1 of FIG. The camera calibration method of the present embodiment includes a moving image acquisition step (S1), a calibration parameter derivation step for a moving camera (S2), a three-dimensional trajectory acquisition step (S3), and a two-dimensional trajectory detection step (S4). It includes a calibration parameter derivation step (S5) for a surveillance camera. Hereinafter, a more detailed description will be given.

なお、移動カメラ3には、上述したように、マーカーMとしての指標M1が取り付けられているとする。また、時刻(撮影タイミング)については、ここでは予め較正されているとする。つまり、監視カメラ2と移動カメラ3とで、撮影時のシャッタタイミングは揃っているとする。As described above, it is assumed that the moving camera 3 is attached with the index M 1 as the marker M. Further, it is assumed that the time (shooting timing) is calibrated in advance here. That is, it is assumed that the surveillance camera 2 and the mobile camera 3 have the same shutter timing at the time of shooting.

(S1;移動映像取得ステップ)
S1では、移動制御部5bにより、監視カメラ2の視野と重なるように移動カメラ3を移動させ、移動カメラ3にて環境を撮影して映像(移動映像)を取得する。移動カメラ3で取得される移動映像のデータは、カメラ較正装置4に出力され、通信部9を介して記憶部6に記憶される。
(S1; moving image acquisition step)
In S1, the movement control unit 5b moves the moving camera 3 so as to overlap the field of view of the surveillance camera 2, and the moving camera 3 captures the environment to acquire an image (moving image). The data of the moving image acquired by the moving camera 3 is output to the camera calibration device 4 and stored in the storage unit 6 via the communication unit 9.

(S2;移動カメラ用較正パラメータ導出ステップ)
S2では、移動カメラ用較正パラメータ導出部10aが、移動カメラ3で取得された(記憶部6に記憶された)移動映像に基づき、移動映像の各フレーム(異なる撮影タイミングまたは異なる位置に対応)ごとに、基準座標系における移動カメラ3の位置および姿勢を含む較正パラメータを導出する。なお、移動カメラ3の較正パラメータのことを、ここでは、移動カメラ用較正パラメータと呼ぶ。移動カメラ用較正パラメータの導出は、例えば公知のVisual−SLAM(Simultaneous Localization And Mapping)を利用することによって行うことができる。Visual−SLAMは、カメラの移動映像から、環境や物体の3次元形状と、各フレームでのカメラの絶対または相対位置・姿勢とを推定する技術である。
(S2; Calibration parameter derivation step for mobile camera)
In S2, the calibration parameter derivation unit 10a for the moving camera is based on the moving image acquired by the moving camera 3 (stored in the storage unit 6) for each frame of the moving image (corresponding to a different shooting timing or a different position). In, the calibration parameters including the position and orientation of the moving camera 3 in the reference coordinate system are derived. The calibration parameter of the mobile camera 3 is referred to as a calibration parameter for the mobile camera here. The calibration parameters for the mobile camera can be derived by using, for example, a known Visual-SLAM (Simultaneous Localization And Mapping). Visual-SLAM is a technology for estimating the three-dimensional shape of an environment or an object and the absolute or relative position / orientation of the camera at each frame from the moving image of the camera.

例えば、図4は、移動カメラ3が環境(部屋)の中を太線の経路で移動する様子を模式的に示しており、図5は、図4の位置Aにおいて移動カメラ3で撮影された画像を模式的に示している。Visual−SLAMを利用することにより、移動カメラ3の移動映像(図5の撮影画像を含む)から、移動カメラ3が移動する環境(図4で示した部屋)の3次元形状と、移動カメラ3の基準座標系(XYZ座標系)における位置および姿勢とを求めることができる。 For example, FIG. 4 schematically shows how the moving camera 3 moves in the environment (room) along the path of the thick line, and FIG. 5 shows an image taken by the moving camera 3 at the position A in FIG. Is schematically shown. By using Visual-SLAM, from the moving image of the moving camera 3 (including the captured image of FIG. 5), the three-dimensional shape of the environment in which the moving camera 3 moves (the room shown in FIG. 4) and the moving camera 3 The position and orientation in the reference coordinate system (XYZ coordinate system) of can be obtained.

ここで、図4で示した基準座標系は、Visual−SLAMによって求めた(復元された)環境の3次元形状の任意の点を原点とする座標系であってもよい。また、求めた環境の3次元形状を、予め基準座標系上に設計または設定された環境のデータ(指標、ランドマーク(目印となる地理学上の特徴物)、3次元の点群、CADデータ、ワイヤーフレームモデルなど)と自動照合して、基準座標系上の3次元形状として変換してもよい。例えば、図6に示すように、基準座標系に対応するよう設計されたマーカーM’(指標)を環境に設置し、移動カメラ3でマーカーM’を撮影してその位置(座標系)を認識することにより、求めた環境の3次元形状を、基準座標系上の3次元形状として変換してもよい。このとき、上記のマーカーM’を監視カメラ2で撮影する必要はない。 Here, the reference coordinate system shown in FIG. 4 may be a coordinate system whose origin is an arbitrary point of the three-dimensional shape of the environment obtained (restored) by Visual-SLAM. In addition, the obtained 3D shape of the environment is designed or set in advance on the reference coordinate system, and the environment data (index, landmark (geographical feature that serves as a mark), 3D point cloud, CAD data). , Wireframe model, etc.) and may be converted as a three-dimensional shape on the reference coordinate system. For example, as shown in FIG. 6, a marker M'(index) designed to correspond to the reference coordinate system is installed in the environment, and the marker M'is photographed by the moving camera 3 to recognize the position (coordinate system). By doing so, the obtained three-dimensional shape of the environment may be converted as a three-dimensional shape on the reference coordinate system. At this time, it is not necessary to photograph the marker M'with the surveillance camera 2.

(S3;3次元軌跡取得ステップ)
S3では、3次元軌跡取得部10bが、移動カメラ用較正パラメータ導出部10aによって求めた移動カメラ用較正パラメータを用いて、基準座標系における移動カメラの3次元の移動軌跡を求める。特に、本実施形態では、3次元軌跡取得部10bは、移動カメラ3の移動に伴って移動するマーカーMの、基準座標系における3次元の移動軌跡を、移動カメラ3の3次元の移動軌跡として求める。なお、3次元の移動軌跡とは、移動カメラ3(マーカーM)の各フレームでの、基準座標系における3次元の位置座標(点)の集合を指す。
(S3; 3D trajectory acquisition step)
In S3, the three-dimensional locus acquisition unit 10b obtains the three-dimensional movement locus of the moving camera in the reference coordinate system by using the calibration parameter for the moving camera obtained by the calibration parameter deriving unit 10a for the moving camera. In particular, in the present embodiment, the three-dimensional locus acquisition unit 10b uses the three-dimensional movement locus of the marker M, which moves with the movement of the moving camera 3, in the reference coordinate system as the three-dimensional movement locus of the moving camera 3. Ask. The three-dimensional movement locus refers to a set of three-dimensional position coordinates (points) in the reference coordinate system in each frame of the moving camera 3 (marker M).

図7は、移動カメラ3の座標系(移動カメラ座標系)と、基準座標系との対応関係を模式的に示している。なお、図面上では、便宜的に、移動カメラ座標系の互いに直交する3軸をx軸、y軸、z軸で示し、基準座標系の3軸(X軸、Y軸、Z軸)とは区別する。上述したように、移動カメラ用較正パラメータ導出部10aにより、Visual−SLAMを利用して、移動カメラ3の時系列の(基準座標系における)絶対位置・姿勢が求まる(基準座標系と移動カメラ座標系との間での座標変換が既知である)。したがって、移動カメラ3に対するマーカーM(ここでは特徴点を考える)の相対位置が既知であれば、つまり、移動カメラ座標系上でマーカーMの3次元位置が既知であれば、マーカーMの位置を基準座標系上にマッピングすることができる。すなわち、マーカーMの基準座標系上での絶対座標を座標変換によって計算することができる。 FIG. 7 schematically shows the correspondence between the coordinate system of the moving camera 3 (moving camera coordinate system) and the reference coordinate system. In the drawing, for convenience, the three axes orthogonal to each other in the moving camera coordinate system are shown by the x-axis, y-axis, and z-axis, and the three axes (X-axis, Y-axis, and Z-axis) of the reference coordinate system are defined. Distinguish. As described above, the mobile camera calibration parameter derivation unit 10a uses Visual-SLAM to obtain the absolute position / orientation (in the reference coordinate system) of the mobile camera 3 in the time series (reference coordinate system and mobile camera coordinates). Coordinate transformation to and from the system is known). Therefore, if the relative position of the marker M (considering the feature point here) with respect to the moving camera 3 is known, that is, if the three-dimensional position of the marker M on the moving camera coordinate system is known, the position of the marker M is set. It can be mapped on the reference coordinate system. That is, the absolute coordinates of the marker M on the reference coordinate system can be calculated by coordinate transformation.

よって、図8に示すように、3次元軌跡取得部10bは、移動カメラ3とともに移動するマーカーMについて、移動カメラ3の各フレームごとに上記の座標変換を繰り返し、マーカーMの基準座標系上での絶対座標を計算することにより、図9に示すように、移動カメラ3の移動に伴って移動するマーカーMの、基準座標系における3次元の移動軌跡T1を求めることができる。また、マーカーMと移動カメラ3との相対的な位置関係は既知であるため、上記マーカーMの移動軌跡T1を、移動カメラ3の3次元の移動軌跡と同等と考えることができる。これにより、3次元軌跡取得部10bは、上記マーカーMの移動軌跡T1を、移動カメラ3の3次元の移動軌跡として求めることができる。 Therefore, as shown in FIG. 8, the three-dimensional locus acquisition unit 10b repeats the above coordinate conversion for each frame of the moving camera 3 with respect to the marker M moving together with the moving camera 3, and on the reference coordinate system of the marker M. By calculating the absolute coordinates of, as shown in FIG. 9, it is possible to obtain the three-dimensional movement locus T1 of the marker M that moves with the movement of the moving camera 3 in the reference coordinate system. Further, since the relative positional relationship between the marker M and the moving camera 3 is known, the moving locus T1 of the marker M can be considered to be equivalent to the three-dimensional moving locus of the moving camera 3. As a result, the three-dimensional locus acquisition unit 10b can obtain the movement locus T1 of the marker M as the three-dimensional movement locus of the moving camera 3.

(S4;2次元軌跡検出ステップ)
S4では、2次元軌跡検出部10cが、移動カメラ3の3次元の移動軌跡の少なくとも一部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出する。特に、本実施形態では、2次元軌跡検出部10cは、マーカーM(特徴点)の3次元の移動軌跡の少なくとも一部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出する。なお、2次元の移動軌跡とは、監視カメラ2の各フレームの撮影画像上での移動カメラ3またはマーカーMの2次元の位置座標(点)の集合を指す。また、監視カメラ2で取得される撮影画像のデータは、カメラ較正装置4に出力され、通信部9を介して記憶部6に記憶される。これにより、2次元軌跡検出部10cは、記憶部6を参照して、監視カメラ2の撮影画像を把握することができる。
(S4; 2D trajectory detection step)
In S4, the two-dimensional locus detection unit 10c detects at least a part of the three-dimensional movement locus of the moving camera 3 as a two-dimensional movement locus on the captured image of the surveillance camera 2. In particular, in the present embodiment, the two-dimensional locus detection unit 10c detects at least a part of the three-dimensional movement locus of the marker M (feature point) as the two-dimensional movement locus on the captured image of the surveillance camera 2. .. The two-dimensional movement locus refers to a set of two-dimensional position coordinates (points) of the moving camera 3 or the marker M on the captured image of each frame of the surveillance camera 2. Further, the data of the captured image acquired by the surveillance camera 2 is output to the camera calibration device 4 and stored in the storage unit 6 via the communication unit 9. As a result, the two-dimensional locus detection unit 10c can grasp the captured image of the surveillance camera 2 with reference to the storage unit 6.

なお、「移動カメラ3の3次元の移動軌跡の少なくとも一部」とは、移動カメラ3の3次元の移動軌跡のうち、監視カメラ2の視野と重なっている部分を指す。したがって、移動カメラ3が監視カメラ2の視野の内外にわたって移動する場合は、2次元軌跡検出部10cは、移動カメラ3(マーカーM)の3次元の移動軌跡の一部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出することになる。また、移動カメラ3が監視カメラ2の視野内でのみ移動する場合は、2次元軌跡検出部10cは、移動カメラ3(マーカーM)の3次元の移動軌跡の全部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出することになる。 The “at least a part of the three-dimensional movement locus of the moving camera 3” refers to a portion of the three-dimensional movement locus of the moving camera 3 that overlaps the field of view of the surveillance camera 2. Therefore, when the moving camera 3 moves inside and outside the field of view of the surveillance camera 2, the two-dimensional locus detection unit 10c captures a part of the three-dimensional movement locus of the moving camera 3 (marker M) by the surveillance camera 2. It will be detected as a two-dimensional movement trajectory on the image. When the moving camera 3 moves only within the field of view of the surveillance camera 2, the two-dimensional locus detection unit 10c captures the entire three-dimensional movement locus of the moving camera 3 (marker M) as an image captured by the surveillance camera 2. It will be detected as a two-dimensional movement locus above.

図10は、監視カメラ2の視野と重なって移動カメラ3がマーカーMとともに移動する様子を模式的に示している。また、図11は、監視カメラ2の撮影画像2aの一例を模式的に示している。監視カメラ2によって移動カメラ3(マーカーM)を撮影することにより、監視カメラ2の撮影画像2a上での移動カメラ3(マーカーM)の位置座標が、移動カメラ3の移動に伴って時系列で得られる。したがって、2次元軌跡検出部10cは、監視カメラ2の撮影画像2aにおける移動カメラ3(マーカーM)の時系列の位置座標をマッピングすることにより、撮影画像2a上での移動カメラ3(マーカーM)の2次元の移動軌跡T2を検出することができる。つまり、2次元軌跡検出部10cは、移動カメラ3の3次元の移動軌跡T1を、監視カメラ2の撮影画像2a上で2次元の移動軌跡T2として検出することができる。 FIG. 10 schematically shows how the moving camera 3 moves together with the marker M so as to overlap the field of view of the surveillance camera 2. Further, FIG. 11 schematically shows an example of the captured image 2a of the surveillance camera 2. By photographing the moving camera 3 (marker M) by the surveillance camera 2, the position coordinates of the moving camera 3 (marker M) on the captured image 2a of the surveillance camera 2 are in chronological order as the moving camera 3 moves. can get. Therefore, the two-dimensional locus detection unit 10c maps the time-series position coordinates of the moving camera 3 (marker M) in the captured image 2a of the surveillance camera 2 to map the moving camera 3 (marker M) on the captured image 2a. The two-dimensional movement locus T2 can be detected. That is, the two-dimensional locus detection unit 10c can detect the three-dimensional movement locus T1 of the moving camera 3 as the two-dimensional movement locus T2 on the captured image 2a of the surveillance camera 2.

(S5;監視カメラ用較正パラメータ導出ステップ)
S5では、監視カメラ用較正パラメータ導出部10dが、移動カメラ3の3次元の移動軌跡(マーカーMの3次元の移動軌跡T1)の少なくとも一部と、移動カメラ3の2次元の移動軌跡(マーカーMの2次元の移動軌跡T2)とに基づいて、監視カメラ2の較正パラメータである監視カメラ用較正パラメータを導出する。なお、監視カメラ用較正パラメータは、監視カメラ2の外部パラメータ(例えば位置、姿勢)および内部パラメータ(例えばレンズの焦点距離、レンズの歪み)を含む。
(S5; Calibration parameter derivation step for surveillance cameras)
In S5, the calibration parameter derivation unit 10d for the surveillance camera has at least a part of the three-dimensional movement locus of the moving camera 3 (three-dimensional movement locus T1 of the marker M) and the two-dimensional movement locus of the moving camera 3 (marker). Based on the two-dimensional movement locus T2) of M, the calibration parameter for the surveillance camera, which is the calibration parameter of the surveillance camera 2, is derived. The calibration parameters for the surveillance camera include external parameters (for example, position and orientation) and internal parameters (for example, focal length of the lens and distortion of the lens) of the surveillance camera 2.

ここで、複数の基準マーカーの3次元座標および対応する画像上の2次元座標の組から、カメラのパラメータを推定する問題は、PnP(Perspective n-Point)問題と呼ばれているが、このPnP問題の解き方は従来公知であり(例えば、「奥富正敏編、『ディジタル画像処理』、改訂新版、財団法人画像情報教育振興協会、2006年3月、p328−331」参照)、本実施形態においてもこの解き方を採用することができる。つまり、監視カメラ用較正パラメータ導出部10dは、移動カメラ3の3次元の移動軌跡の少なくとも一部と、移動カメラ3の2次元の移動軌跡とを用い、PnP問題を解くことにより、監視カメラ用較正パラメータを導出することができる。 Here, the problem of estimating the parameters of the camera from the set of the three-dimensional coordinates of the plurality of reference markers and the two-dimensional coordinates on the corresponding image is called the PnP (Perspective n-Point) problem. How to solve the problem has been known in the past (see, for example, "Masatoshi Okutomi," Digital Image Processing ", Revised New Edition, Image Information Education Promotion Association, March 2006, p328-331"), and also in this embodiment. This solution can be adopted. That is, the calibration parameter derivation unit 10d for the surveillance camera uses at least a part of the three-dimensional movement locus of the mobile camera 3 and the two-dimensional movement locus of the mobile camera 3 to solve the PnP problem for the surveillance camera. Calibration parameters can be derived.

〔効果〕
以上のように、本実施形態のカメラ補正方法は、1台以上の監視カメラ2の較正パラメータを、監視カメラ用較正パラメータとして導出する方法であって、上述した移動映像取得ステップ(S1)と、移動カメラ用較正パラメータ導出ステップ(S2)と、3次元軌跡取得ステップ(S3)と、2次元軌跡検出ステップ(S4)と、監視カメラ用較正パラメータ導出ステップ(S5)とを含む。
〔effect〕
As described above, the camera correction method of the present embodiment is a method of deriving the calibration parameters of one or more surveillance cameras 2 as the calibration parameters for the surveillance cameras, and includes the above-mentioned moving image acquisition step (S1) and the above-mentioned moving image acquisition step (S1). The movement camera calibration parameter derivation step (S2), the three-dimensional locus acquisition step (S3), the two-dimensional locus detection step (S4), and the surveillance camera calibration parameter derivation step (S5) are included.

この方法では、監視カメラ2に対して相対的に移動する撮影対象(移動カメラ3)を、基準座標系に対して事前に較正しておく必要がない。つまり、本実施形態では、S1で移動カメラ3の移動を開始させて、S5で監視カメラ用較正パラメータを導出するまでの途中の工程(S2)で、移動カメラ用較正パラメータを導出する(移動カメラ3を較正する)ため、移動カメラ3の移動を開始するS1の前に、移動カメラ3の位置等を基準座標系を基準にして予め較正しておく必要がない。したがって、監視カメラ2を較正するにあたって、移動カメラ3を直ちに移動させて監視カメラ2を較正することができ、利便性を向上させることができる。 In this method, it is not necessary to calibrate the imaging target (moving camera 3) that moves relative to the surveillance camera 2 in advance with respect to the reference coordinate system. That is, in the present embodiment, the moving camera calibration parameter is derived (moving camera) in the process (S2) in the middle of starting the movement of the moving camera 3 in S1 and deriving the surveillance camera calibration parameter in S5. 3), it is not necessary to calibrate the position of the moving camera 3 with reference to the reference coordinate system before S1 to start the movement of the moving camera 3. Therefore, when calibrating the surveillance camera 2, the moving camera 3 can be immediately moved to calibrate the surveillance camera 2, and the convenience can be improved.

また、画像同士の比較によって対応点を求めてカメラを較正する手法(弱較正)に比べて、上記対応点を求める必要がないため、較正の精度を上げることができる。つまり、監視カメラ2の較正の精度の低下を回避しながら、監視カメラ2を較正することができる(監視カメラ用較正パラメータを導出することができる)。 Further, as compared with the method of calibrating the camera by finding the corresponding points by comparing the images (weak calibration), it is not necessary to find the corresponding points, so that the accuracy of calibration can be improved. That is, the surveillance camera 2 can be calibrated while avoiding a decrease in the accuracy of the calibration of the surveillance camera 2 (the calibration parameter for the surveillance camera can be derived).

また、S3では、3次元軌跡取得部10bが、移動カメラ3の移動に伴って移動するマーカーMの基準座標系における3次元の移動軌跡T1を、移動カメラ3の3次元の移動軌跡として求め、S4では、2次元軌跡検出部10cが、マーカーMの3次元の移動軌跡T1の少なくとも一部を、監視カメラ2の撮影画像2a上での2次元の移動軌跡T2として検出する。マーカーMを用いることにより、2次元軌跡検出部10cは、監視カメラ2の撮影画像2aからマーカーMを容易に認識することができるため、マーカーMの3次元の移動軌跡T1の少なくとも一部を、撮影画像2a上での2次元の移動軌跡T2として検出することが容易となる。これにより、監視カメラ用較正パラメータ導出部10dにて、3次元の移動軌跡T1の少なくとも一部と上記2次元の移動軌跡T2とに基づく監視カメラ用較正パラメータの導出を精度よく行うことができる。 Further, in S3, the three-dimensional locus acquisition unit 10b obtains the three-dimensional movement locus T1 in the reference coordinate system of the marker M that moves with the movement of the moving camera 3 as the three-dimensional movement locus of the moving camera 3. In S4, the two-dimensional locus detection unit 10c detects at least a part of the three-dimensional movement locus T1 of the marker M as the two-dimensional movement locus T2 on the captured image 2a of the surveillance camera 2. By using the marker M, the two-dimensional locus detection unit 10c can easily recognize the marker M from the captured image 2a of the surveillance camera 2, so that at least a part of the three-dimensional movement locus T1 of the marker M can be obtained. It becomes easy to detect it as a two-dimensional movement locus T2 on the captured image 2a. As a result, the surveillance camera calibration parameter derivation unit 10d can accurately derive the surveillance camera calibration parameter based on at least a part of the three-dimensional movement locus T1 and the two-dimensional movement locus T2.

また、例えば、人間が移動カメラ3を保持して移動させる場合、移動カメラ3にマーカーMを取り付けず、監視カメラ2の撮影画像2a上で人間の形状を画像認識によって認識して移動カメラ3の位置等を推定することも可能である。しかし、画像上では、人間に特有の形状または特徴点を認識しづらいため、人間を誤認識する可能性がある。この点、マーカーMを移動カメラ3に取り付けて移動させることにより、マーカーMの画像上での認識精度を向上させることができ、この点でも監視カメラ用較正パラメータの導出の精度を向上させることができる。 Further, for example, when a human holds and moves the moving camera 3, the marker M is not attached to the moving camera 3, and the human shape is recognized by image recognition on the captured image 2a of the surveillance camera 2 and the moving camera 3 is used. It is also possible to estimate the position and the like. However, since it is difficult to recognize a shape or feature point peculiar to a human on an image, there is a possibility of erroneously recognizing a human. In this regard, by attaching the marker M to the moving camera 3 and moving it, the recognition accuracy of the marker M on the image can be improved, and in this respect as well, the accuracy of deriving the calibration parameters for the surveillance camera can be improved. it can.

また、マーカーMは、監視カメラ2で撮影して得られる画像に基づいて(2次元軌跡検出部10cが)認識可能な特徴点P(図2参照)を含む指標M1である。マーカーMが指標M1であることにより、2次元軌跡検出部10cは、監視カメラ2の撮影画像2aから画像認識によって特徴点Pを容易に認識して、マーカーMを容易に認識することが可能となる。これにより、上記した監視カメラ用較正パラメータの導出の精度を上げる効果を確実に得ることができる。 Further, the marker M is an index M 1 including a feature point P (see FIG. 2) that can be recognized (by the two-dimensional locus detecting unit 10c) based on an image taken by the surveillance camera 2. Since the marker M is the index M 1 , the two-dimensional locus detection unit 10c can easily recognize the feature point P from the captured image 2a of the surveillance camera 2 by image recognition, and can easily recognize the marker M. It becomes. As a result, the effect of improving the accuracy of deriving the calibration parameters for the surveillance camera described above can be surely obtained.

〔カメラ較正システムの他の構成〕
図12は、本実施形態のカメラ較正システム1の他の構成を示すブロック図である。図12のカメラ較正システム1は、カメラ較正装置4の較正処理部10が2次元点群検出部10eをさらに含む点以外は、図1のカメラ較正システム1と同様の構成である。なお、2次元点群検出部10eの詳細については、以下のカメラ較正方法の説明の中で併せて説明する。
[Other configurations of camera calibration system]
FIG. 12 is a block diagram showing another configuration of the camera calibration system 1 of the present embodiment. The camera calibration system 1 of FIG. 12 has the same configuration as the camera calibration system 1 of FIG. 1 except that the calibration processing unit 10 of the camera calibration device 4 further includes a two-dimensional point group detection unit 10e. The details of the two-dimensional point group detection unit 10e will be described in the following description of the camera calibration method.

図13は、図12のカメラ較正システムによるカメラ較正方法の処理の流れを示すフローチャートである。上記カメラ較正方法は、S2の代わりにS2’を行い、S5の代わりにS5’を行い、S4とS5’との間に、2次元点群検出部10eによる2次元点群検出部ステップ(S4−1)をさらに行う以外は、図3で示したカメラ較正方法の流れと同様である。以下、図3と異なる点について説明する。 FIG. 13 is a flowchart showing a processing flow of the camera calibration method by the camera calibration system of FIG. In the above camera calibration method, S2'is performed instead of S2, S5'is performed instead of S5, and the two-dimensional point group detection unit step (S4) by the two-dimensional point group detection unit 10e is performed between S4 and S5'. -1) is the same as the flow of the camera calibration method shown in FIG. 3 except that the procedure is further performed. Hereinafter, the points different from FIG. 3 will be described.

S2’では、移動カメラ用較正パラメータ導出部10aが、移動カメラ3で取得した移動映像に基づき、Visual−SLAMを利用して、上述した移動カメラ用較正パラメータを導出することに加えて、監視カメラ2の撮影範囲にある物体または環境の形状(自然特徴点)を示す3次元点群を推定する。例えば、移動カメラ用較正パラメータ導出部10aは、Visual−SLAMを利用して、上記移動映像から、監視カメラ2の撮影範囲内にあるランドマークの3次元形状を示す3次元点群を推定する。S4−1では、2次元点群検出部10eが、移動カメラ用較正パラメータ導出部10aによって推定された3次元点群の、監視カメラ2の撮影画像2a上での位置を、2次元点群として検出する。 In S2', the mobile camera calibration parameter derivation unit 10a derives the mobile camera calibration parameters described above using Visual-SLAM based on the moving image acquired by the mobile camera 3, and in addition, the surveillance camera. Estimate a group of three-dimensional points indicating the shape (natural feature points) of an object or environment in the shooting range of 2. For example, the calibration parameter derivation unit 10a for a mobile camera uses Visual-SLAM to estimate a three-dimensional point cloud indicating the three-dimensional shape of a landmark within the shooting range of the surveillance camera 2 from the moving image. In S4-1, the two-dimensional point cloud detection unit 10e sets the position of the three-dimensional point cloud estimated by the mobile camera calibration parameter derivation unit 10a on the captured image 2a of the surveillance camera 2 as the two-dimensional point cloud. To detect.

そして、S5’では、監視カメラ用較正パラメータ導出部10dが、3次元の情報と、2次元の情報とを用い、PnP問題を解くことにより、監視カメラ用較正パラメータを導出する。ここで、上記の3次元の情報とは、S3で取得した移動カメラ3(またはマーカーM)の3次元の移動軌跡、およびS2’で推定した3次元点群の情報であり、2次元の情報とは、S4で検出した移動カメラ3の撮影画像2a上での2次元の移動軌跡、およびS4−1で検出した撮影画像2a上での2次元点群の情報である。 Then, in S5', the surveillance camera calibration parameter derivation unit 10d derives the surveillance camera calibration parameter by solving the PnP problem using the three-dimensional information and the two-dimensional information. Here, the above three-dimensional information is the three-dimensional movement locus of the moving camera 3 (or marker M) acquired in S3, and the information of the three-dimensional point group estimated in S2', and is two-dimensional information. Is the information of the two-dimensional movement locus on the captured image 2a of the moving camera 3 detected in S4 and the information of the two-dimensional point group on the captured image 2a detected in S4-1.

上記のように、移動カメラ3の3次元および2次元の移動軌跡に加えて、自然特徴点の3次元および2次元の点群の情報も用いて、監視カメラ用較正パラメータを導出することにより、移動カメラ3の移動軌跡のみに基づいて、または自然特徴点の点群の情報のみに基づいて、監視カメラ用較正パラメータを導出する場合に比べて、較正パラメータの導出に用いる情報の量(PnP問題を解くときに用いる点の数(nの数))が増えるため、監視カメラ2の較正の精度をさらに向上させることができる。 As described above, by deriving the calibration parameters for the surveillance camera by using the information of the 3D and 2D point groups of the natural feature points in addition to the 3D and 2D movement loci of the moving camera 3. The amount of information used to derive the calibration parameters (PnP problem) compared to the case of deriving the calibration parameters for the surveillance camera based only on the movement locus of the moving camera 3 or based only on the information of the point group of the natural feature points. Since the number of points (the number of n) used when solving is increased, the accuracy of calibration of the surveillance camera 2 can be further improved.

〔マーカーの他の構成〕
図14は、移動カメラ3に取り付けられるマーカーMの他の構成を模式的に示している。マーカーMとして、上記した指標M1の代わりに、光を出射する光源M2を用いてもよい。光源M2としては、例えば異なる色(例えば赤(R)、緑(G)、青(B))を発光する複数の発光ダイオード(LED)の組を用いることができる。光源M2からの光の出射、つまり、光源M2から出射される光の点滅周期(点灯/消灯の各時間)、色(発光させるLEDの選択)、および明るさ(各LEDに流す電流)の制御は、例えば制御部5(例えば主制御部5a)によって行われる。この場合、制御部5(例えば主制御部5a)は、光源M2からの光の出射を制御する光源制御部として機能する。なお、光源M2からの光の出射の制御は、カメラ較正装置4の外部の別の制御装置(図示せず)によって行われてもよい。
[Other configurations of markers]
FIG. 14 schematically shows another configuration of the marker M attached to the mobile camera 3. As the marker M, a light source M 2 that emits light may be used instead of the index M 1 described above. As the light source M 2 , for example, a set of a plurality of light emitting diodes (LEDs) that emit different colors (for example, red (R), green (G), and blue (B)) can be used. Light emission of the light source M 2, that is, the light source M blinking period of the light emitted from the 2 (ON / each time off), color (selection of LED to emit light), and brightness (current supplied to each LED) Is controlled by, for example, a control unit 5 (for example, a main control unit 5a). In this case, the control unit 5 (for example, the main control unit 5a) functions as a light source control unit that controls the emission of light from the light source M 2. The light emission from the light source M 2 may be controlled by another control device (not shown) outside the camera calibration device 4.

このように、マーカーMとして光源M2を用いる場合でも、上述した2次元軌跡検出部10cは、監視カメラ2の撮影画像2aから、画像認識によって光源M2の位置を容易に認識して、マーカーMを容易に認識することが可能となる。これにより、上記した監視カメラ用較正パラメータの導出の精度を上げる効果を確実に得ることができる。 As described above, even when the light source M 2 is used as the marker M, the above-mentioned two-dimensional locus detection unit 10c easily recognizes the position of the light source M 2 from the captured image 2a of the surveillance camera 2 by image recognition, and the marker. It becomes possible to easily recognize M. As a result, the effect of improving the accuracy of deriving the calibration parameters for the surveillance camera described above can be surely obtained.

また、マーカーMとして光源M2を用いる場合、図3のS5または図13のS5’では、監視カメラ用較正パラメータ導出部10dは、制御部5が光源M2から出射される光を、移動カメラ3の撮影タイミングまたは環境内の場所に応じて固有な外観に変化させたときに、監視カメラ2での撮影によって取得される上記光の外観を示す画像を用いて、監視カメラ2の撮影タイミングまたは場所に関する監視カメラ用較正パラメータを導出してもよい。このとき、制御部5は、例えば、光源M2から出射される光の点滅周期を、移動カメラ3の撮影タイミングに応じて変化させる(例えば撮影タイミングと同期するように変化させる)ことにより、光源M2から出射される光を移動カメラ3の撮影タイミングに応じて固有な外観に変化させることができる。また、制御部5は、光源M2から出射される光の色または明るさを、環境内の場所、つまり、移動カメラ用較正パラメータ導出部10aにて導出される移動カメラ3の位置に応じて変化させることにより、光源M2から出射される光を場所に応じて固有な外観に変化させることができる。When the light source M 2 is used as the marker M, in S5 of FIG. 3 or S5'of FIG. 13, the calibration parameter derivation unit 10d for the surveillance camera uses the light emitted from the light source M 2 by the control unit 5 as a moving camera. When the appearance is changed to a unique appearance according to the shooting timing of 3 or the location in the environment, the shooting timing of the surveillance camera 2 or the shooting timing of the surveillance camera 2 or the image showing the appearance of the light acquired by the shooting by the surveillance camera 2 is used. Calibration parameters for surveillance cameras with respect to location may be derived. At this time, the control unit 5 changes, for example, the blinking cycle of the light emitted from the light source M 2 according to the shooting timing of the moving camera 3 (for example, changes so as to be synchronized with the shooting timing), thereby causing the light source. The light emitted from M 2 can be changed to a unique appearance according to the shooting timing of the moving camera 3. Further, the control unit 5 determines the color or brightness of the light emitted from the light source M 2 according to the location in the environment, that is, the position of the mobile camera 3 derived by the calibration parameter derivation unit 10a for the mobile camera. By changing the light, the light emitted from the light source M 2 can be changed to a unique appearance depending on the location.

光源M2の点灯タイミングと、監視カメラ2の撮影タイミングとが合っていない場合、監視カメラ用較正パラメータ導出部10dは、監視カメラ2の撮影画像2a上でマーカーM(光源M2)を認識することができない(監視カメラ2のシャッタが開いたときに光源M2が消灯しているため)。そこで、例えば、制御部5が光源M2の点滅周期を、移動カメラ3の撮影タイミングに応じて変化させて、光源M2から出射される光を移動カメラ3の撮影タイミングに応じて固有な外観に変化させることにより、監視カメラ用較正パラメータ導出部10dは、光源M2から出射される光の外観を示す画像(監視カメラ2の撮影画像2a)に基づいて、光源M2の点滅周期と合うように、つまり、移動カメラ3の撮影タイミングと合うように、監視カメラ2の撮影タイミングを較正する(撮影タイミングに関する較正パラメータを求める)ことが可能となる。これにより、移動カメラ3を移動させる前に、移動カメラ3の撮影タイミングと監視カメラ2の撮影タイミングとが合っていなくても、これらを合わせる時刻の較正を精度よく行うことが可能となる。When the lighting timing of the light source M 2 and the shooting timing of the surveillance camera 2 do not match, the calibration parameter derivation unit 10d for the surveillance camera recognizes the marker M (light source M 2) on the captured image 2a of the surveillance camera 2. (Because the light source M 2 is turned off when the shutter of the surveillance camera 2 is opened). Therefore, for example, the control unit 5 changes the blinking cycle of the light source M 2 according to the shooting timing of the moving camera 3, and the light emitted from the light source M 2 has a unique appearance according to the shooting timing of the moving camera 3. By changing to, the calibration parameter derivation unit 10d for the surveillance camera matches the blinking cycle of the light source M 2 based on the image showing the appearance of the light emitted from the light source M 2 (photographed image 2a of the surveillance camera 2). That is, it is possible to calibrate the shooting timing of the surveillance camera 2 (obtain the calibration parameter related to the shooting timing) so as to match the shooting timing of the moving camera 3. As a result, even if the shooting timing of the moving camera 3 and the shooting timing of the surveillance camera 2 do not match before moving the moving camera 3, it is possible to accurately calibrate the time at which they are adjusted.

また、前述のS5またはS5’において、監視カメラ用較正パラメータ導出部10dは、PnP問題を解くことにより、監視カメラ2の位置についての較正パラメータを求めるが、その位置についての候補が複数得られる場合がある(異なる位置の候補が得られる場合がある)。このような場合において、制御部5が、光源M2から出射される光の外観(色または明るさ)を、環境中の第1のランドマークの前に光源M2が位置するときと、別の第2のランドマークの前に光源M2が位置するときとで異ならせて、光源M2から出射される光を場所に応じて固有な外観に変化させることにより、監視カメラ用較正パラメータ導出部10dは、光源M2から出射される光の外観を示す画像(監視カメラ2の撮影画像2a)に基づいて、監視カメラ2の環境内での場所(位置)を、上記複数の候補からある程度絞ることができる。これにより、監視カメラ2の位置についての較正パラメータの導出の精度をさらに上げることが可能となる。Further, in the above-mentioned S5 or S5', the surveillance camera calibration parameter derivation unit 10d obtains the calibration parameter for the position of the surveillance camera 2 by solving the PnP problem, but when a plurality of candidates for the position can be obtained. (You may get candidates for different positions). In such a case, the case control unit 5, the appearance of the light emitted from the light source M 2 (color or brightness), to position the light source M 2 before the first landmark in the environment, another Derivation of calibration parameters for surveillance cameras by changing the light emitted from the light source M 2 to a unique appearance depending on the location, different from when the light source M 2 is located in front of the second landmark of. Based on the image showing the appearance of the light emitted from the light source M 2 (photographed image 2a of the surveillance camera 2), the unit 10d determines the location (position) of the surveillance camera 2 in the environment to some extent from the plurality of candidates. Can be squeezed. This makes it possible to further improve the accuracy of deriving the calibration parameters for the position of the surveillance camera 2.

つまり、マーカーMとして光源M2を用い、光源M2から出射される光を、移動カメラ3の撮影タイミングまたは場所に応じて固有の外観に変化させることにより、監視カメラ2の時刻または場所の較正を精度よく行うことが可能となる。That is, the time or place of the surveillance camera 2 is calibrated by using the light source M 2 as the marker M and changing the light emitted from the light source M 2 to a unique appearance according to the shooting timing or place of the moving camera 3. Can be performed accurately.

〔移動カメラの移動制御について〕
上述したS1の移動映像取得ステップでは、カメラ較正装置4の移動制御部5bが、移動カメラ3を、監視カメラ2の視野を通過する際に、少なくとも1回停止させてもよい。このように移動カメラ3の移動を制御することにより、監視カメラ2の時刻が較正されていなくても、監視カメラ2の撮影タイミングと同時刻における移動カメラ3の3次元の位置がわかるため、上記3次元の位置と監視カメラ2の撮影画像2a上で対応する位置を特定することができる。これにより、S5またはS5’の監視カメラ用較正パラメータ導出ステップにおいて、上記2点の情報(3次元および2次元の各位置の座標)を用いてPnP問題を解くことにより、監視カメラ2の位置および姿勢を含む監視カメラ用較正パラメータを導出することが可能となる。つまり、監視カメラ2の時刻が較正されていなくても、監視カメラ2の位置および姿勢を較正することができる。
[Movement control of moving camera]
In the moving image acquisition step of S1 described above, the movement control unit 5b of the camera calibration device 4 may stop the moving camera 3 at least once when passing through the field of view of the surveillance camera 2. By controlling the movement of the moving camera 3 in this way, even if the time of the surveillance camera 2 is not calibrated, the three-dimensional position of the moving camera 3 at the same time as the shooting timing of the surveillance camera 2 can be known. It is possible to specify the three-dimensional position and the corresponding position on the captured image 2a of the surveillance camera 2. Thereby, in the calibration parameter derivation step for the surveillance camera of S5 or S5', the position of the surveillance camera 2 and the position of the surveillance camera 2 and the position of the surveillance camera 2 and the position of the surveillance camera 2 by solving the PnP problem using the above two points of information (coordinates of each position in the three dimensions and the two dimensions). It is possible to derive the calibration parameters for the surveillance camera including the posture. That is, even if the time of the surveillance camera 2 is not calibrated, the position and orientation of the surveillance camera 2 can be calibrated.

また、S1の移動映像取得ステップでは、カメラ較正装置4の移動制御部5bが、移動カメラ3を、監視カメラ2の視野を通過する際に、移動カメラ3の3次元の移動軌跡中の任意の位置と、監視カメラ2の撮影画像2a上で対応する位置を特定可能な軌跡を描くように移動させてもよい。上記軌跡としては、例えば突出部を有する図形形状を考えることができる。このとき、上記突出部としては、上記多角形の角部や、楕円の長軸方向の両端部などを考えることができ、それゆえ、上記図形形状としては、三角形、四角形などの多角形状や、楕円形状などを考えることができる。 Further, in the moving image acquisition step of S1, when the movement control unit 5b of the camera calibrator 4 passes the moving camera 3 through the field of view of the surveillance camera 2, any arbitrary movement locus in the three-dimensional movement locus of the moving camera 3 The position and the corresponding position on the captured image 2a of the surveillance camera 2 may be moved so as to draw a identifiable locus. As the locus, for example, a graphic shape having a protruding portion can be considered. At this time, as the protruding portion, the corner portion of the polygon, both ends in the major axis direction of the ellipse, and the like can be considered, and therefore, the graphic shape includes a polygonal shape such as a triangle and a quadrangle, and the like. You can think of an elliptical shape.

図15は、移動カメラ3の3次元の移動軌跡が四角形状である場合の上記移動軌跡を示し、図16は、監視カメラ2の撮影画像2a上での上記移動カメラ3の2次元の移動軌跡を示している。図15に示すように、移動カメラ3が3次元空間内で四角形状の移動軌跡を描いた場合、四角形に含まれる突出部(角部)Eは、移動カメラ3の移動方向が急激にまたは明確に変化する部分であるため、図16に示すように、監視カメラ2の撮影画像2a上においても、移動カメラ3の3次元の移動軌跡の上記突出部Eと2次元の移動軌跡で対応する突出部E’が明確に現れる。これにより、3次元の移動軌跡の突出部Eの位置E1と、撮影画像2a上で対応する突出部E’の位置E1’を明確に特定することができる。したがって、S5またはS5’の監視カメラ用較正パラメータ導出ステップでは、監視カメラ2の時刻が較正されていなくても、監視カメラ2の撮影タイミングと同時刻における移動カメラ3の3次元の位置情報(位置E1の位置座標を含む)および2次元の位置情報(位置E1’の位置座標を含む)を用いてPnP問題を解くことにより、監視カメラ2の位置および姿勢を含む監視カメラ用較正パラメータを導出することが可能となる。FIG. 15 shows the movement locus when the three-dimensional movement locus of the moving camera 3 is rectangular, and FIG. 16 shows the two-dimensional movement locus of the moving camera 3 on the captured image 2a of the surveillance camera 2. Is shown. As shown in FIG. 15, when the moving camera 3 draws a quadrangular movement locus in a three-dimensional space, the protruding portion (corner portion) E included in the quadrangle suddenly or clearly moves in the moving direction of the moving camera 3. As shown in FIG. 16, even on the captured image 2a of the surveillance camera 2, the protrusion E corresponding to the three-dimensional movement locus of the moving camera 3 and the two-dimensional movement locus correspond to each other. Part E'appears clearly. Thus, the position E 1 of the protrusion E of the three-dimensional movement locus, the 'position E 1 of the' corresponding protruding portion E can be clearly identified on the captured image 2a. Therefore, in the step of deriving the calibration parameter for the surveillance camera in S5 or S5', even if the time of the surveillance camera 2 is not calibrated, the three-dimensional position information (position) of the moving camera 3 at the same time as the shooting timing of the surveillance camera 2 by solving the PnP problem by using the position including coordinates) and two-dimensional position information of the E 1 (including position coordinates of the position E 1 '), the calibration parameters for a monitoring camera including a position and orientation of the surveillance camera 2 It becomes possible to derive.

特に、移動カメラ3の3次元の移動軌跡中の任意の位置E1と撮影画像2a上で対応する位置E1’を特定可能な軌跡が、突出部Eを有する図形形状であることにより、突出部Eの位置E1と、撮影画像2a上で対応する位置E1’を明確に特定することができるため、監視カメラ2の時刻が較正されていなくても、監視カメラ用較正パラメータを導出できる効果を確実に得ることができる。In particular, by possible trajectories identified the corresponding position E 1 'on an arbitrary position E 1 and the photographed image 2a in the three-dimensional movement locus of the moving camera 3 is a figure shape having protrusions E, projecting and position E 1 of part E, since the corresponding position E 1 'can be clearly identified on the captured image 2a, even if no time surveillance camera 2 is calibrated, it can be derived surveillance camera calibration parameters The effect can be surely obtained.

なお、移動カメラ3の3次元の移動軌跡中の任意の位置E1と撮影画像2a上で対応する位置E1’を特定できるのであれば、移動カメラ3の3次元の移動軌跡は、突出部Eを有する図形形状には限定されない。例えば2つの円を組み合わせた形状(「8の字」の軌跡)となる形状で移動カメラ3を移動させた場合でも、「8の字」を構成する2つの円の接点と撮影画像2a上で対応する位置を特定することができるため、監視カメラ2の時刻が較正されていなくても、3次元の位置情報と2次元の位置情報とを用いて監視カメラ用較正パラメータを導出することが可能である。As long as it can identify the corresponding position E 1 'on an arbitrary position E 1 and the photographed image 2a in the three-dimensional movement locus of the moving camera 3, three-dimensional movement locus of the moving camera 3, the projecting portion It is not limited to the figure shape having E. For example, even when the moving camera 3 is moved in a shape that is a combination of two circles (trajectory of "figure 8"), the contact points of the two circles constituting "figure 8" and the captured image 2a Since the corresponding position can be specified, it is possible to derive the calibration parameters for the surveillance camera using the three-dimensional position information and the two-dimensional position information even if the time of the surveillance camera 2 is not calibrated. Is.

〔プログラムおよび記録媒体〕
本実施形態で説明したカメラ較正装置4は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部5)が読み取って実行することにより、カメラ較正装置4の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部6に記憶される。また、上記プログラムは、例えばCD−ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取ってプログラム記憶部12aに記憶する形態であってもよい。
[Programs and recording media]
The camera calibration device 4 described in the present embodiment can be configured by, for example, a computer (PC) in which a predetermined program (application software) is installed. By reading and executing the above program by a computer (for example, the control unit 5 as a CPU), each part of the camera calibration device 4 can be operated to execute each of the above-mentioned processes (each step). Such a program is acquired by downloading from the outside via a network, for example, and is stored in the storage unit 6. Further, the program is recorded on a computer-readable recording medium such as a CD-ROM (Compact Disk-Read Only Memory), and the computer reads the program from the recording medium and stores it in the program storage unit 12a. There may be.

〔その他〕
以上で説明した本実施形態のカメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラムは、以下のように表現されてもよい。また、本実施形態で説明した内容は、以下のように表現される記録媒体も含む。
[Other]
The camera calibration method, camera calibration device, camera calibration system, and camera calibration program of the present embodiment described above may be expressed as follows. In addition, the content described in this embodiment also includes a recording medium expressed as follows.

1. 1台以上の監視カメラの較正パラメータを、監視カメラ用較正パラメータとして導出するカメラ較正方法であって、
前記監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する移動映像取得ステップと、
前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出ステップと、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得ステップと、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出ステップと、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出ステップとを含むことを特徴とするカメラ較正方法。
1. 1. A camera calibration method in which the calibration parameters of one or more surveillance cameras are derived as calibration parameters for surveillance cameras.
A moving image acquisition step of acquiring a moving image by moving the moving camera so as to overlap the field of view of the surveillance camera.
Based on the moving image, for each frame of the moving image, a procedure for deriving the calibration parameters for the moving camera including the position and orientation of the moving camera in the reference coordinate system, and a step for deriving the calibration parameters for the moving camera.
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition step for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition step.
A two-dimensional locus detection step of detecting at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on an image captured by the surveillance camera.
A camera calibration method including at least a part of the three-dimensional movement locus and a procedure for deriving a calibration parameter for a surveillance camera based on the two-dimensional movement locus. ..

2.前記移動カメラ用較正パラメータ導出ステップでは、前記移動映像に基づき、前記移動カメラ用較正パラメータの導出に加えて、前記監視カメラの撮影範囲にある物体または環境の形状を示す3次元点群を推定し、
該カメラ較正方法は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出ステップをさらに含み、
前記監視カメラ用較正パラメータ導出ステップでは、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出することを特徴とする前記1に記載のカメラ較正方法。
2. In the procedure for deriving the calibration parameters for the mobile camera, in addition to deriving the calibration parameters for the mobile camera based on the moving image, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera is estimated. ,
The camera calibration method is
Further including a two-dimensional point cloud detection step of detecting the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud.
In the surveillance camera calibration parameter derivation step, the surveillance camera calibration parameter is derived using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. The camera calibration method according to 1 above.

3.前記3次元軌跡取得ステップでは、前記移動カメラの移動に伴って移動する、前記移動カメラに取り付けたマーカーの、前記基準座標系における3次元の移動軌跡を、前記移動カメラの3次元の移動軌跡として求め、
前記2次元軌跡検出ステップでは、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出することを特徴とする前記1または2に記載のカメラ較正方法。
3. 3. In the three-dimensional locus acquisition step, the three-dimensional movement locus of the marker attached to the moving camera, which moves with the movement of the moving camera, in the reference coordinate system is used as the three-dimensional movement locus of the moving camera. Ask,
The second-dimensional locus detection step according to the above 1 or 2, wherein at least a part of the three-dimensional movement locus of the marker is detected as a two-dimensional movement locus on the captured image of the surveillance camera. Camera calibration method.

4.前記マーカーは、前記監視カメラで撮影して得られる画像に基づいて認識可能な特徴点を含む指標であることを特徴とする前記3に記載のカメラ較正方法。 4. The camera calibration method according to 3, wherein the marker is an index including feature points that can be recognized based on an image taken by the surveillance camera.

5.前記マーカーは、光源であることを特徴とする前記3に記載のカメラ較正方法。 5. The camera calibration method according to 3, wherein the marker is a light source.

6.前記監視カメラ用較正パラメータ導出ステップでは、前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出することを特徴とする前記5に記載のカメラ較正方法。 6. In the step of deriving the calibration parameter for a surveillance camera, when the light emitted from the light source is changed to a unique appearance according to the shooting timing or location of the moving camera, it is acquired by shooting with the surveillance camera. 5. The camera calibration method according to 5, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light.

7.前記監視カメラ用較正パラメータ導出ステップでは、前記光源から出射される光の点滅周期、色、または明るさを、前記移動カメラの撮影タイミングまたは場所に応じて変化させることにより、前記光を前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させることを特徴とする前記6に記載のカメラ較正方法。 7. In the step of deriving the calibration parameter for the surveillance camera, the light is converted into the moving camera by changing the blinking cycle, color, or brightness of the light emitted from the light source according to the shooting timing or location of the moving camera. The camera calibration method according to 6 above, characterized in that the appearance is changed to a unique appearance according to the shooting timing or location of the camera.

8.前記移動映像取得ステップでは、前記移動カメラを、前記監視カメラの視野を通過する際に、少なくとも1回停止させるか、前記移動カメラの3次元の移動軌跡中の任意の位置と、前記監視カメラの撮影画像上で対応する位置を特定可能な軌跡を描くように移動させることを特徴とする前記1から5のいずれかに記載のカメラ較正方法。 8. In the moving image acquisition step, the moving camera is stopped at least once when passing through the field of view of the surveillance camera, or an arbitrary position in the three-dimensional movement locus of the moving camera and the surveillance camera. The camera calibration method according to any one of 1 to 5 above, wherein the corresponding position on the captured image is moved so as to draw a identifiable locus.

9.前記軌跡は、突出部を有する図形形状であることを特徴とする前記8に記載のカメラ較正方法。 9. The camera calibration method according to 8 above, wherein the locus has a graphic shape having a protruding portion.

10.前記1から9のいずれかに記載のカメラ較正方法をコンピュータに実行させるカメラ較正プログラム。 10. A camera calibration program that causes a computer to perform the camera calibration method according to any one of 1 to 9.

11. 1台以上の監視カメラの視野と重なるように移動して移動映像を取得する移動カメラの前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出部と、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得部と、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出部と、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラの較正パラメータである監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出部とを含むことを特徴とするカメラ較正装置。
11. Based on the moving image of the moving camera that moves so as to overlap the field of view of one or more surveillance cameras and acquires the moving image, the position and orientation of the moving camera in the reference coordinate system are set for each frame of the moving image. A mobile camera calibration parameter derivation unit that derives the mobile camera calibration parameters including
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition unit for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition unit.
A two-dimensional locus detection unit that detects at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on a captured image of the surveillance camera.
Includes at least a part of the three-dimensional movement locus and a surveillance camera calibration parameter derivation unit that derives the surveillance camera calibration parameter, which is the surveillance camera calibration parameter, based on the two-dimensional movement locus. A camera calibrator featuring.

12.前記移動カメラ用較正パラメータ導出部は、前記移動映像に基づき、前記移動カメラ用較正パラメータの導出に加えて、前記監視カメラの撮影範囲にある物体または環境の形状を示す3次元点群を推定し、
該カメラ較正装置は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出することを特徴とする前記11に記載のカメラ較正装置。
12. Based on the moving image, the moving camera calibration parameter deriving unit estimates, in addition to deriving the moving camera calibration parameters, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera. ,
The camera calibrator
A two-dimensional point cloud detection unit that detects the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud is further included.
The surveillance camera calibration parameter derivation unit derives the surveillance camera calibration parameter using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. 11. The camera calibrator according to 11.

13.前記3次元軌跡取得部は、前記移動カメラの移動に伴って移動する、前記移動カメラに取り付けたマーカーの、前記基準座標系における3次元の移動軌跡を、前記移動カメラの3次元の移動軌跡として求め、
前記2次元軌跡検出部は、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出することを特徴とする前記11または12に記載のカメラ較正装置。
13. The three-dimensional locus acquisition unit uses the three-dimensional movement locus of the marker attached to the moving camera in the reference coordinate system, which moves with the movement of the moving camera, as the three-dimensional movement locus of the moving camera. Ask,
11 or 12, wherein the two-dimensional locus detection unit detects at least a part of the three-dimensional movement locus of the marker as a two-dimensional movement locus on an image captured by the surveillance camera. Camera calibrator.

14.前記マーカーは、前記監視カメラで撮影して得られる画像に基づいて認識可能な特徴点を含む指標であることを特徴とする前記13に記載のカメラ較正装置。 14. The camera calibrator according to 13 above, wherein the marker is an index including feature points that can be recognized based on an image taken by the surveillance camera.

15.前記マーカーは、光源であることを特徴とする前記13に記載のカメラ較正装置。 15. The camera calibrator according to 13 above, wherein the marker is a light source.

16.前記光源からの光の出射を制御する光源制御部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記光源制御部によって前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出することを特徴とする前記15に記載のカメラ較正装置。
16. It further includes a light source control unit that controls the emission of light from the light source.
The calibration parameter derivation unit for a surveillance camera is used in the surveillance camera when the light emitted from the light source by the light source control unit is changed to a unique appearance according to the shooting timing or location of the moving camera. 15. The camera calibrator according to 15, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light acquired by imaging.

17.前記光源制御部は、前記光源から出射される光の点滅周期、色、または明るさを、前記移動カメラの撮影タイミングまたは場所に応じて変化させることにより、前記光を前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させることを特徴とする前記16に記載のカメラ較正装置。 17. The light source control unit changes the blinking cycle, color, or brightness of the light emitted from the light source according to the shooting timing or location of the mobile camera, thereby converting the light into the shooting timing or the shooting timing of the mobile camera. The camera calibrator according to 16 above, wherein the camera calibrator is changed to a unique appearance depending on the location.

18.前記11から17のいずれかに記載のカメラ較正装置と、
1台以上の前記固定カメラと、
前記移動カメラとを含むことを特徴とするカメラ較正システム。
18. With the camera calibrator according to any one of 11 to 17 above.
With one or more of the fixed cameras
A camera calibration system comprising the mobile camera.

19.前記カメラ較正装置は、前記移動カメラを、前記監視カメラの視野を通過する際に、少なくとも1回停止させるか、前記移動カメラの3次元の移動軌跡中の任意の位置と、前記監視カメラの撮影画像上で対応する位置を特定可能な軌跡を描くように移動させる移動制御部をさらに含むことを特徴とする前記18に記載のカメラ較正システム。 19. The camera calibrator may stop the moving camera at least once when passing through the field of view of the surveillance camera, or take an image of the moving camera at an arbitrary position in the three-dimensional movement locus of the moving camera and the surveillance camera. The camera calibration system according to 18, wherein the camera calibration system further includes a movement control unit that moves a corresponding position on an image so as to draw a identifiable locus.

20.前記軌跡は、突出部を有する図形形状であることを特徴とする前記19に記載のカメラ較正システム。 20. The camera calibration system according to 19 above, wherein the locus has a graphic shape having a protrusion.

21.前記10に記載のカメラ較正プログラムを記録した、コンピュータ読取可能な記録媒体。 21. A computer-readable recording medium on which the camera calibration program according to 10 is recorded.

以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to this, and can be extended or modified within a range that does not deviate from the gist of the invention.

本発明は、1台の監視カメラを含む監視システムや、2台以上の監視カメラを分散して配置した分散監視システムに利用可能である。 The present invention can be used in a surveillance system including one surveillance camera or a distributed surveillance system in which two or more surveillance cameras are distributed and arranged.

1 カメラ較正システム
2 監視カメラ
2a 撮影画像
3 移動カメラ
4 カメラ較正装置
5a 主制御部(光源制御部)
5b 移動制御部
10a 移動カメラ用較正パラメータ導出部
10b 3次元軌跡取得部
10c 2次元軌跡検出部
10d 監視カメラ用較正パラメータ導出部
10e 2次元点群検出部
E 突出部
1 位置
1’ 位置
M マーカー
1 指標
2 光源
P 特徴点
1 Camera calibration system 2 Surveillance camera 2a Captured image 3 Mobile camera 4 Camera calibration device 5a Main control unit (light source control unit)
5b movement controller 10a for moving camera calibration parameter derivation portion 10b 3-dimensional trajectory obtaining unit 10c 2 dimensional trajectory detection section 10d surveillance camera calibration parameter derivation portion 10e 2-dimensional point group detecting unit E protrusion E 1 position E 1 'position M Marker M 1 Index M 2 Light source P Feature point

Claims (20)

1台以上の監視カメラの較正パラメータを、監視カメラ用較正パラメータとして導出するカメラ較正方法であって、
前記監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する移動映像取得ステップと、
前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出ステップと、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得ステップと、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出ステップと、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出ステップとを含む、カメラ較正方法。
A camera calibration method in which the calibration parameters of one or more surveillance cameras are derived as calibration parameters for surveillance cameras.
A moving image acquisition step of acquiring a moving image by moving the moving camera so as to overlap the field of view of the surveillance camera.
Based on the moving image, for each frame of the moving image, a procedure for deriving the calibration parameters for the moving camera including the position and orientation of the moving camera in the reference coordinate system, and a step for deriving the calibration parameters for the moving camera.
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition step for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition step.
A two-dimensional locus detection step of detecting at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on an image captured by the surveillance camera.
A camera calibration method including at least a part of the three-dimensional movement locus and a procedure for deriving a calibration parameter for a surveillance camera that derives a calibration parameter for the surveillance camera based on the two-dimensional movement locus.
前記移動カメラ用較正パラメータ導出ステップでは、前記移動映像に基づき、前記移動カメラ用較正パラメータの導出に加えて、前記監視カメラの撮影範囲にある物体または環境の形状を示す3次元点群を推定し、
該カメラ較正方法は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出ステップをさらに含み、
前記監視カメラ用較正パラメータ導出ステップでは、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出する、請求項1に記載のカメラ較正方法。
In the procedure for deriving the calibration parameters for the mobile camera, in addition to deriving the calibration parameters for the mobile camera based on the moving image, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera is estimated. ,
The camera calibration method is
Further including a two-dimensional point cloud detection step of detecting the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud.
In the surveillance camera calibration parameter derivation step, the surveillance camera calibration parameter is derived using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. , The camera calibration method according to claim 1.
前記3次元軌跡取得ステップでは、前記移動カメラの移動に伴って移動する、前記移動カメラに取り付けたマーカーの、前記基準座標系における3次元の移動軌跡を、前記移動カメラの3次元の移動軌跡として求め、
前記2次元軌跡検出ステップでは、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する、請求項1または2に記載のカメラ較正方法。
In the three-dimensional locus acquisition step, the three-dimensional movement locus of the marker attached to the moving camera, which moves with the movement of the moving camera, in the reference coordinate system is used as the three-dimensional movement locus of the moving camera. Ask,
The camera calibration according to claim 1 or 2, wherein in the two-dimensional locus detection step, at least a part of the three-dimensional movement locus of the marker is detected as a two-dimensional movement locus on the captured image of the surveillance camera. Method.
前記マーカーは、前記監視カメラで撮影して得られる画像に基づいて認識可能な特徴点を含む指標である、請求項3に記載のカメラ較正方法。 The camera calibration method according to claim 3, wherein the marker is an index including feature points that can be recognized based on an image taken by the surveillance camera. 前記マーカーは、光源である、請求項3に記載のカメラ較正方法。 The camera calibration method according to claim 3, wherein the marker is a light source. 前記監視カメラ用較正パラメータ導出ステップでは、前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出する、請求項5に記載のカメラ較正方法。 In the step of deriving the calibration parameter for a surveillance camera, when the light emitted from the light source is changed to a unique appearance according to the shooting timing or location of the moving camera, it is acquired by shooting with the surveillance camera. The camera calibration method according to claim 5, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light. 前記監視カメラ用較正パラメータ導出ステップでは、前記光源から出射される光の点滅周期、色、または明るさを、前記移動カメラの撮影タイミングまたは場所に応じて変化させることにより、前記光を前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させる、請求項6に記載のカメラ較正方法。 In the step of deriving the calibration parameter for the surveillance camera, the light is converted into the moving camera by changing the blinking cycle, color, or brightness of the light emitted from the light source according to the shooting timing or location of the moving camera. The camera calibration method according to claim 6, wherein the appearance is changed to a unique appearance depending on the shooting timing or location of the camera. 前記移動映像取得ステップでは、前記移動カメラを、前記監視カメラの視野を通過する際に、少なくとも1回停止させるか、前記移動カメラの3次元の移動軌跡中の任意の位置と、前記監視カメラの撮影画像上で対応する位置を特定可能な軌跡を描くように移動させる、請求項1から5のいずれかに記載のカメラ較正方法。 In the moving image acquisition step, the moving camera is stopped at least once when passing through the field of view of the surveillance camera, or an arbitrary position in the three-dimensional movement locus of the moving camera and the surveillance camera. The camera calibration method according to any one of claims 1 to 5, wherein the corresponding position on the captured image is moved so as to draw a identifiable locus. 前記軌跡は、突出部を有する図形形状である、請求項8に記載のカメラ較正方法。 The camera calibration method according to claim 8, wherein the locus is a graphic shape having a protruding portion. 請求項1から9のいずれかに記載のカメラ較正方法をコンピュータに実行させるカメラ較正プログラム。 A camera calibration program that causes a computer to perform the camera calibration method according to any one of claims 1 to 9. 1台以上の監視カメラの視野と重なるように移動して移動映像を取得する移動カメラの前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出部と、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得部と、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出部と、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラの較正パラメータである監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出部とを含む、カメラ較正装置。
Based on the moving image of the moving camera that moves so as to overlap the field of view of one or more surveillance cameras and acquires the moving image, the position and orientation of the moving camera in the reference coordinate system are set for each frame of the moving image. A mobile camera calibration parameter derivation unit that derives the mobile camera calibration parameters including
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition unit for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition unit.
A two-dimensional locus detection unit that detects at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on a captured image of the surveillance camera.
A surveillance camera calibration parameter derivation unit that derives a surveillance camera calibration parameter, which is a surveillance camera calibration parameter, based on at least a part of the three-dimensional movement locus and the two-dimensional movement locus. Camera calibrator.
前記移動カメラ用較正パラメータ導出部は、前記移動映像に基づき、前記移動カメラ用較正パラメータの導出に加えて、前記監視カメラの撮影範囲にある物体または環境の形状を示す3次元点群を推定し、
該カメラ較正装置は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出する、請求項11に記載のカメラ較正装置。
Based on the moving image, the moving camera calibration parameter deriving unit estimates, in addition to deriving the moving camera calibration parameters, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera. ,
The camera calibrator
A two-dimensional point cloud detection unit that detects the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud is further included.
The surveillance camera calibration parameter derivation unit derives the surveillance camera calibration parameter using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. The camera calibrator according to claim 11.
前記3次元軌跡取得部は、前記移動カメラの移動に伴って移動する、前記移動カメラに取り付けたマーカーの、前記基準座標系における3次元の移動軌跡を、前記移動カメラの3次元の移動軌跡として求め、
前記2次元軌跡検出部は、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する、請求項11または12に記載のカメラ較正装置。
The three-dimensional locus acquisition unit uses the three-dimensional movement locus of the marker attached to the moving camera in the reference coordinate system, which moves with the movement of the moving camera, as the three-dimensional movement locus of the moving camera. Ask,
The camera calibration according to claim 11 or 12, wherein the two-dimensional locus detection unit detects at least a part of the three-dimensional movement locus of the marker as a two-dimensional movement locus on an image captured by the surveillance camera. apparatus.
前記マーカーは、前記監視カメラで撮影して得られる画像に基づいて認識可能な特徴点を含む指標である、請求項13に記載のカメラ較正装置。 The camera calibrator according to claim 13, wherein the marker is an index including feature points that can be recognized based on an image taken by the surveillance camera. 前記マーカーは、光源である、請求項13に記載のカメラ較正装置。 The camera calibrator according to claim 13, wherein the marker is a light source. 前記光源からの光の出射を制御する光源制御部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記光源制御部によって前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出する、請求項15に記載のカメラ較正装置。
It further includes a light source control unit that controls the emission of light from the light source.
The calibration parameter derivation unit for a surveillance camera is used in the surveillance camera when the light emitted from the light source by the light source control unit is changed to a unique appearance according to the shooting timing or location of the moving camera. The camera calibrator according to claim 15, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light acquired by imaging.
前記光源制御部は、前記光源から出射される光の点滅周期、色、または明るさを、前記移動カメラの撮影タイミングまたは場所に応じて変化させることにより、前記光を前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させる、請求項16に記載のカメラ較正装置。 The light source control unit changes the blinking cycle, color, or brightness of the light emitted from the light source according to the shooting timing or location of the mobile camera, thereby converting the light into the shooting timing or the shooting timing of the mobile camera. The camera calibrator according to claim 16, which changes its appearance to a unique appearance depending on the location. 請求項11から17のいずれかに記載のカメラ較正装置と、
1台以上の前記固定カメラと、
前記移動カメラとを含む、カメラ較正システム。
The camera calibrator according to any one of claims 11 to 17.
With one or more of the fixed cameras
A camera calibration system including the mobile camera.
前記カメラ較正装置は、前記移動カメラを、前記監視カメラの視野を通過する際に、少なくとも1回停止させるか、前記移動カメラの3次元の移動軌跡中の任意の位置と、前記監視カメラの撮影画像上で対応する位置を特定可能な軌跡を描くように移動させる移動制御部をさらに含む、請求項18に記載のカメラ較正システム。 The camera calibrator may stop the moving camera at least once when passing through the field of view of the surveillance camera, or take an image of the moving camera at an arbitrary position in the three-dimensional movement locus of the moving camera and the surveillance camera. The camera calibration system according to claim 18, further comprising a movement control unit that moves the corresponding position on the image so as to draw a identifiable trajectory. 前記軌跡は、突出部を有する図形形状である、請求項19に記載のカメラ較正システム。 The camera calibration system according to claim 19, wherein the locus is a graphic shape having a protrusion.
JP2020511634A 2018-04-04 2019-02-21 Camera calibration method, camera calibration device, camera calibration system and camera calibration program Active JP7173133B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018072093 2018-04-04
JP2018072093 2018-04-04
PCT/JP2019/006488 WO2019193859A1 (en) 2018-04-04 2019-02-21 Camera calibration method, camera calibration device, camera calibration system and camera calibration program

Publications (2)

Publication Number Publication Date
JPWO2019193859A1 true JPWO2019193859A1 (en) 2021-05-13
JP7173133B2 JP7173133B2 (en) 2022-11-16

Family

ID=68100659

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020511634A Active JP7173133B2 (en) 2018-04-04 2019-02-21 Camera calibration method, camera calibration device, camera calibration system and camera calibration program

Country Status (2)

Country Link
JP (1) JP7173133B2 (en)
WO (1) WO2019193859A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111489397A (en) * 2019-12-19 2020-08-04 阿里巴巴集团控股有限公司 Imaging device calibration method and device
CN111210478B (en) * 2019-12-31 2023-07-21 重庆邮电大学 Common-view-free multi-camera system external parameter calibration method, medium and system
CN113587834B (en) * 2021-07-15 2023-05-30 长江三峡勘测研究院有限公司(武汉) Slope deformation monitoring method based on uncontrolled photogrammetry
CN114022572B (en) * 2022-01-07 2022-04-08 江西明天高科技股份有限公司 Automatic calibration method for camera array

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP2008224626A (en) * 2007-03-15 2008-09-25 Canon Inc Information processor, method for processing information, and calibration tool
WO2018134866A1 (en) * 2017-01-17 2018-07-26 株式会社日立製作所 Camera calibration device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001074428A (en) * 1999-09-03 2001-03-23 Sanyo Electric Co Ltd Method and jig for calibrating shape measuring apparatus
JP2008224626A (en) * 2007-03-15 2008-09-25 Canon Inc Information processor, method for processing information, and calibration tool
WO2018134866A1 (en) * 2017-01-17 2018-07-26 株式会社日立製作所 Camera calibration device

Also Published As

Publication number Publication date
WO2019193859A1 (en) 2019-10-10
JP7173133B2 (en) 2022-11-16

Similar Documents

Publication Publication Date Title
US11100649B2 (en) Fiducial marker patterns, their automatic detection in images, and applications thereof
JP7173133B2 (en) Camera calibration method, camera calibration device, camera calibration system and camera calibration program
US11127203B2 (en) Leveraging crowdsourced data for localization and mapping within an environment
JP6465789B2 (en) Program, apparatus and method for calculating internal parameters of depth camera
CN110568447B (en) Visual positioning method, device and computer readable medium
US9953461B2 (en) Navigation system applying augmented reality
WO2018133130A1 (en) 3d marker model construction and real-time tracking using monocular camera
JP4537557B2 (en) Information presentation system
CN108022264B (en) Method and equipment for determining camera pose
CN108022265B (en) Method, equipment and system for determining pose of infrared camera
US20150369593A1 (en) Orthographic image capture system
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
JP2015171077A (en) Projection image correction device, method for correcting original image to be projected, and program
JP2008046687A (en) Photographic environment calibration method and information processor
US10838515B1 (en) Tracking using controller cameras
ES2626301T3 (en) Procedure and image processing equipment to determine the parameters of a camera
CN108257177B (en) Positioning system and method based on space identification
WO2022078488A1 (en) Positioning method and apparatus, self-moving device, and storage medium
US20210374978A1 (en) Capturing environmental scans using anchor objects for registration
US11189101B2 (en) Lighting integration
US10509513B2 (en) Systems and methods for user input device tracking in a spatial operating environment
CN114693779A (en) Method and device for determining three-dimensional key points of hand
US11758100B2 (en) Portable projection mapping device and projection mapping system
JP2009175012A (en) Measurement device and measurement method
WO2021227082A1 (en) Method and device for positioning internet of things devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220902

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R150 Certificate of patent or registration of utility model

Ref document number: 7173133

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150