JPWO2019193859A1 - Camera calibration method, camera calibration device, camera calibration system and camera calibration program - Google Patents
Camera calibration method, camera calibration device, camera calibration system and camera calibration program Download PDFInfo
- Publication number
- JPWO2019193859A1 JPWO2019193859A1 JP2020511634A JP2020511634A JPWO2019193859A1 JP WO2019193859 A1 JPWO2019193859 A1 JP WO2019193859A1 JP 2020511634 A JP2020511634 A JP 2020511634A JP 2020511634 A JP2020511634 A JP 2020511634A JP WO2019193859 A1 JPWO2019193859 A1 JP WO2019193859A1
- Authority
- JP
- Japan
- Prior art keywords
- camera
- moving
- dimensional
- surveillance
- calibration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B17/00—Details of cameras or camera bodies; Accessories therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B15/00—Special procedures for taking photographs; Apparatus therefor
Abstract
移動映像取得ステップでは、監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する。移動カメラ用較正パラメータ導出ステップでは、移動映像の各フレームごとに、移動カメラ用較正パラメータを導出する。3次元軌跡取得ステップでは、移動カメラ用較正パラメータを用いて、基準座標系における移動カメラの3次元の移動軌跡を求める。2次元軌跡検出ステップでは、移動カメラの3次元の移動軌跡の少なくとも一部を、監視カメラの撮影画像上での2次元の移動軌跡として検出する。監視カメラ用較正パラメータ導出ステップでは、3次元の移動軌跡の少なくとも一部と、2次元の移動軌跡とに基づいて、監視カメラ用較正パラメータを導出する。In the moving image acquisition step, the moving image is acquired by moving the moving camera so as to overlap the field of view of the surveillance camera. In the procedure for deriving the calibration parameters for the moving camera, the calibration parameters for the moving camera are derived for each frame of the moving image. In the three-dimensional locus acquisition step, the three-dimensional movement locus of the moving camera in the reference coordinate system is obtained by using the calibration parameters for the moving camera. In the two-dimensional locus detection step, at least a part of the three-dimensional movement locus of the moving camera is detected as the two-dimensional movement locus on the captured image of the surveillance camera. In the surveillance camera calibration parameter derivation step, the surveillance camera calibration parameters are derived based on at least a part of the three-dimensional movement locus and the two-dimensional movement locus.
Description
本発明は、1台以上の監視カメラの較正パラメータを導出するカメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラムに関する。 The present invention relates to a camera calibration method, a camera calibration device, a camera calibration system and a camera calibration program for deriving calibration parameters for one or more surveillance cameras.
従来から、広域の環境に分散して配置されたカメラ間で、撮影画像から認識した情報を共有し、共有した情報を監視、防犯またはマーケティングに役立たせる分散監視システムが広く活用されている。分散監視システムにおいて、カメラごとに認識した情報を共有するためには、各カメラのパラメータを較正した上で、カメラごとに認識した情報を同一の基準座標系(またはマップ)上で表現し、ユーザに提供する必要がある。なお、カメラのパラメータとしては、例えば、カメラの絶対位置および姿勢、レンズの焦点距離、レンズの歪み係数、時刻(撮影タイミング)などがある。なお、カメラのパラメータを較正すること(較正パラメータを導出すること)を、以下では、単に、カメラの較正とも言う。 Conventionally, a distributed monitoring system has been widely used in which information recognized from captured images is shared among cameras distributed in a wide area environment, and the shared information is used for monitoring, crime prevention, or marketing. In the distributed monitoring system, in order to share the information recognized for each camera, after calibrating the parameters of each camera, the information recognized for each camera is expressed on the same reference coordinate system (or map), and the user Need to provide to. The parameters of the camera include, for example, the absolute position and orientation of the camera, the focal length of the lens, the distortion coefficient of the lens, and the time (shooting timing). In the following, calibrating the camera parameters (deriving the calibration parameters) is also simply referred to as camera calibration.
ここで、カメラを較正する方法の一つとして、三角測量に基づいてカメラを手動で較正する方法がある。しかし、手動較正では人的なコストが大きいため、近年では自動較正が多く利用されている(例えば特許文献1〜6、非特許文献1参照)。 Here, as one of the methods for calibrating the camera, there is a method for manually calibrating the camera based on triangulation. However, since manual calibration requires a large human cost, automatic calibration is often used in recent years (see, for example, Patent Documents 1 to 6 and Non-Patent Document 1).
特許文献1〜4の自動較正技術は、いずれも、少なくとも1台のカメラおよびカメラによる撮影対象のうち、一方を他方に対して相対的に移動させてカメラで撮影対象の画像を取得し、取得した画像に基づいてカメラを較正する技術である。このような較正技術を用いる場合、較正するカメラに対して相対的に移動する撮影対象が予め較正されていなければならない(撮影対象が較正されていないと、撮影対象の画像に基づいてカメラを較正することができないため)。 In each of the automatic calibration techniques of Patent Documents 1 to 4, one of the images to be photographed by at least one camera and the camera is moved relative to the other, and the image of the object to be photographed is acquired by the camera. It is a technique to calibrate the camera based on the created image. When using such a calibration technique, the moving object must be pre-calibrated relative to the camera to be calibrated (if the object is not calibrated, the camera is calibrated based on the image of the object to be calibrated). Because it cannot be done).
例えば、特許文献1のように、2台のカメラ(ステレオカメラ)を物体に対して相対的に移動させる場合、2台のカメラに対して相対的に移動する物体の基準座標系(世界座標系)における位置が予め較正されていなければならない。また、特許文献2のように、可動するロボットをカメラで撮影してカメラのパラメータを較正する場合、カメラに対して相対的に移動するロボットの基準座標系における位置が予め較正されていなければならない。特許文献3および4においても同様に、カメラで撮影される移動体の基準座標系における位置が予め較正されていなければならない。
For example, as in Patent Document 1, when two cameras (stereo cameras) are moved relative to an object, the reference coordinate system (world coordinate system) of the object that moves relative to the two cameras. ) Must be pre-calibrated. Further, as in
このように、特許文献1〜4の自動較正技術では、カメラを較正する前に、カメラに対して相対的に移動する撮影対象の較正という事前準備が必要となり、事前準備がなければ、カメラの較正を行うことができない。このため、カメラの較正を必要なときに直ちに行うことができず、不便である。この問題は、特許文献5および6でも同様に生じる。
As described above, in the automatic calibration techniques of Patent Documents 1 to 4, before calibrating the camera, it is necessary to prepare in advance for calibrating the object to be photographed that moves relative to the camera. Cannot calibrate. Therefore, it is inconvenient because the camera cannot be calibrated immediately when it is needed. This problem also arises in
すなわち、特許文献5では、2台カメラの撮影対象である被写体(移動体)に、GPS(Global Positioning System;全地球測位システム)装置を搭載し、所定の空間内で被写体を移動させるとともに所定の位置で停止させ、上記被写体の停止位置と2台のカメラによる上記被写体の撮影画像とに基づいて、較正用のデータを取得する技術が開示されている。しかし、この技術においても、基準座標系に対してGPS装置の座標系を予め較正しておく必要がある。
That is, in
特許文献6では、空間内のマーカー(3次元座標は既知である)を複数の固定カメラで撮影し、上記マーカーの撮影画像上での観測座標と、マーカーの既知の3次元座標とから、複数の固定カメラの射影変換行列を算出する技術が開示されている。しかし、この技術においても、マーカーの3次元座標を予め求めておく、つまり、基準座標系に対してマーカーの位置を予め較正しておく必要がある。
In
また、非特許文献1では、移動カメラでの撮影画像と、疎に配置した複数の静止カメラでの撮影画像とを統合して、密な多視点画像群を構築し、多視点画像同士での対応点の情報から静止カメラを較正する技術(弱較正技術)が開示されている。しかし、非特許文献1の技術では、画像同士の比較によって対応点を求めて静止カメラを較正するため、較正の精度を上げるためには、上記対応点の検出に高い精度が要求され、特許文献1〜6の技術に比べると較正の精度が低下しやすい。 Further, in Non-Patent Document 1, a dense multi-viewpoint image group is constructed by integrating images taken by a moving camera and images taken by a plurality of sparsely arranged still cameras, and the multi-viewpoint images are used as each other. A technique for calibrating a still camera from information on corresponding points (weak calibration technique) is disclosed. However, in the technique of Non-Patent Document 1, since the still camera is calibrated by finding the corresponding point by comparing the images, high accuracy is required for the detection of the corresponding point in order to improve the calibration accuracy. The accuracy of calibration tends to be lower than that of the techniques 1 to 6.
なお、上記した問題は、較正対象であるカメラが複数台設けられた分散監視システムのみならず、環境に設置されたカメラ(監視カメラ)が1台のみであるシステムでも同様に起こり得る。 The above problem may occur not only in a distributed monitoring system in which a plurality of cameras to be calibrated are provided, but also in a system in which only one camera (surveillance camera) is installed in the environment.
本発明は、上記の問題点を解決するためになされたもので、その目的は、監視カメラに対して相対的に移動する撮影対象を予め較正することなく、監視カメラの較正の精度の低下を回避しながら監視カメラを較正することができるカメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラムを提供することにある。 The present invention has been made to solve the above-mentioned problems, and an object of the present invention is to reduce the accuracy of calibration of a surveillance camera without pre-calibrating a moving object to be imaged relative to the surveillance camera. To provide a camera calibration method, a camera calibration device, a camera calibration system and a camera calibration program capable of calibrating a surveillance camera while avoiding it.
本発明の一側面に係るカメラ較正方法は、1台以上の監視カメラの較正パラメータを、監視カメラ用較正パラメータとして導出するカメラ較正方法であって、前記監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する移動映像取得ステップと、前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出ステップと、前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得ステップと、前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出ステップと、前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出ステップとを含む。 The camera calibration method according to one aspect of the present invention is a camera calibration method for deriving the calibration parameters of one or more surveillance cameras as calibration parameters for the surveillance camera, and the moving camera is placed so as to overlap the field of view of the surveillance camera. A moving image acquisition step of acquiring a moving image by moving the moving image, and a calibration parameter for the moving camera including the position and orientation of the moving camera in the reference coordinate system for each frame of the moving image based on the moving image. A three-dimensional locus acquisition step for obtaining a three-dimensional movement locus of the mobile camera in the reference coordinate system using the derivation step of the calibration parameter for the mobile camera to be derived, and the above three of the mobile camera. A two-dimensional locus detection step that detects at least a part of a dimensional movement locus as a two-dimensional movement locus on an image captured by the surveillance camera, at least a part of the three-dimensional movement locus, and the two-dimensional movement locus. It includes a step of deriving the calibration parameter for the surveillance camera, which derives the calibration parameter for the surveillance camera based on the movement locus.
本発明の他の側面に係るカメラ較正プログラムは、上記カメラ較正方法をコンピュータに実行させるプログラムである。 The camera calibration program according to another aspect of the present invention is a program that causes a computer to execute the above camera calibration method.
本発明のさらに他の側面に係るカメラ較正装置は、1台以上の監視カメラの視野と重なるように移動して移動映像を取得する移動カメラの前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出部と、前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得部と、前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出部と、前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラの較正パラメータである監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出部とを含む。 The camera calibrator according to still another aspect of the present invention is based on the moving image of the moving camera that moves so as to overlap the field of view of one or more surveillance cameras and acquires the moving image, for each frame of the moving image. In addition, using the moving camera calibration parameter deriving unit for deriving the moving camera calibration parameters including the position and orientation of the moving camera in the reference coordinate system and the moving camera calibration parameters, the moving camera in the reference coordinate system. A two-dimensional movement locus acquisition unit that obtains the three-dimensional movement locus of the above, and a two-dimensional movement locus that detects at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on a captured image of the surveillance camera. Derivation of the calibration parameter for the surveillance camera that derives the calibration parameter for the surveillance camera, which is the calibration parameter of the surveillance camera, based on the trajectory detection unit, at least a part of the three-dimensional movement trajectory, and the two-dimensional movement trajectory. Including the part.
本発明のさらに他の側面に係るカメラ較正システムは、上記カメラ較正装置と、1台以上の前記固定カメラと、前記移動カメラとを含む。 A camera calibration system according to still another aspect of the present invention includes the camera calibration device, one or more fixed cameras, and the mobile camera.
監視カメラに対して相対的に移動する撮影対象を事前に較正することなく、監視カメラの較正の精度の低下を回避しながら監視カメラを較正することができる(監視カメラ用較正パラメータを導出することができる)。 It is possible to calibrate the surveillance camera while avoiding a decrease in the accuracy of the calibration of the surveillance camera without pre-calibrating the image target moving relative to the surveillance camera (deriving the calibration parameters for the surveillance camera). Can be done).
本発明の実施の形態について、図面に基づいて説明すれば、以下の通りである。なお、本発明は、以下の内容に限定されるわけではない。 An embodiment of the present invention will be described below with reference to the drawings. The present invention is not limited to the following contents.
〔カメラ較正システム〕
図1は、本実施形態のカメラ較正システム1の概略の構成を示すブロック図である。カメラ較正システム1は、監視カメラ2を較正する、すなわち、監視カメラ2の較正パラメータを、監視カメラ用較正パラメータとして導出するシステムであり、監視カメラ2と、移動カメラ3と、カメラ較正装置4とを有している。監視カメラ2および移動カメラ3は、カメラ較正装置4と通信回線(有線、無線を問わない)を介して通信可能に接続されている。図1では、複数台の監視カメラ2がカメラ較正装置4と接続される例を示しているが、監視カメラ2は1台のみであってもよい。[Camera calibration system]
FIG. 1 is a block diagram showing a schematic configuration of the camera calibration system 1 of the present embodiment. The camera calibration system 1 is a system that calibrates the
監視カメラ2は、監視対象となる環境(例えば店舗、工場、部屋)に設置され、環境内を撮影して画像を取得する撮像装置である。監視カメラ2は、例えば固定カメラであるが、若干の移動(例えばシフト、回動、回転)が可能なカメラであってもよい。
The
移動カメラ3は、移動しながら周囲を撮影して画像(移動映像)を取得する撮像装置であり、移動手段を含む。なお、移動手段には、車輪、車輪と接続されるシャフト、シャフトを回転させるモータなどが含まれる。本実施形態では、移動カメラ3は、少なくとも監視カメラ2の視野(撮影範囲)と重なるように移動する。図2は、移動カメラ3の移動軌跡の一例を模式的に示している。移動カメラ3は、監視カメラ2の視野と重なるように移動するのであれば、1台の監視カメラ2の視野を内側から外側に向かって通過したり、複数台の監視カメラ2の視野と視野との間を移動してもよい。このような移動カメラ3の移動は、例えばカメラ較正装置4の後述する移動制御部5bによって制御される。
The
また、本実施形態では、移動カメラ3にはマーカーMが取り付けられている。マーカーMは、例えば、監視カメラ2で撮影して得られる画像に基づいてカメラ較正装置4(特に較正処理部10)が画像認識技術によって認識可能な特徴点P(例えば角部)を含む指標M1で構成されている。なお、移動カメラ3に対するマーカーMの相対的な位置(座標)は既知であるとする。Further, in the present embodiment, the marker M is attached to the moving
なお、移動カメラ3の移動は、ユーザ(例えば監視カメラ2の較正を行う者)が移動カメラ3を保持しながら移動することによって行われてもよい。このようにユーザの動作を伴う場合でも、ユーザは移動カメラ3を移動させる動作を行うだけで済む。つまり、ユーザが計器を使って三角測量を行って監視カメラ2を手動で較正するわけではない。したがって、ユーザが移動カメラ3を移動させる場合でも、手動較正の場合ほどの人的コストの増大は生じないと言える。
The moving
カメラ較正装置4は、監視カメラ2の撮影画像および移動カメラ3の撮影画像に基づいて、監視カメラ2の較正を行う装置であり、例えばパーソナルコンピュータによって構成可能である。カメラ較正装置4は、制御部5と、記憶部6と、入力部7と、表示部8と、通信部9と、較正処理部10とを有している。
The
制御部5は、例えば中央演算処理装置(CPU;Central Processing Unit)で構成されており、記憶部6に記憶された動作プログラムに従って動作する。この制御部5は、カメラ較正装置4の各部の動作を制御する主制御部5aとしての機能と、移動カメラ3の移動を制御する移動制御部5bとしての機能とを有している。
The
記憶部6は、カメラ較正装置4の各部を動作させるための動作プログラムや、監視カメラ2および移動カメラ3で取得された各撮影画像のデータなどを記憶するメモリである。記憶部6は、例えばハードディスクで構成されるが、RAM(Random Access Memory)、ROM(Read Only Memory)、光ディスク、光磁気ディスク、不揮発性メモリなどの記録媒体から適宜選択して構成されてもよい。
The
入力部7は、例えばキーボード、マウス、タッチパッド、タッチパネルなどで構成されており、ユーザによる各種の指示入力を受け付ける。表示部8は、監視カメラ2および移動カメラ3で取得された各撮影画像をはじめとして、各種の情報を表示するデバイスであり、例えば液晶表示装置で構成される。通信部9は、監視カメラ2および移動カメラ3と通信するためのインターフェースであり、入出力端子などを含んで構成される。なお、例えば監視カメラ2および移動カメラ3の少なくとも一方と、カメラ較正装置4とが無線で通信(例えば画像データの送受信)を行う場合、通信部9は、アンテナ、送受信回路、変調回路、復調回路などを含んで構成されてもよい。
The
較正処理部10は、監視カメラ3の較正に関する処理を行うブロックであり、移動カメラ用較正パラメータ導出部10aと、3次元軌跡取得部10bと、2次元軌跡検出部10cと、監視カメラ用較正パラメータ導出部10dとを含んで構成される。較正処理部10は、例えばリアルタイムな画像処理に特化した演算装置であるGPU(Graphics Processing Unit)で構成されるが、制御部5と同一のまたは別個のCPUで構成されてもよく、その他の演算装置で構成されてもよい。なお、較正処理部10の各部の詳細については、以下のカメラ較正方法の説明の中で併せて説明する。
The
〔カメラ較正方法〕
次に、本実施形態のカメラ較正方法について説明する。図3は、図1のカメラ較正システム1によるカメラ較正方法の処理の流れを示すフローチャートである。本実施形態のカメラ較正方法は、移動映像取得ステップ(S1)と、移動カメラ用較正パラメータ導出ステップ(S2)と、3次元軌跡取得ステップ(S3)と、2次元軌跡検出ステップ(S4)と、監視カメラ用較正パラメータ導出ステップ(S5)とを含む。以下、より詳細に説明する。[Camera calibration method]
Next, the camera calibration method of the present embodiment will be described. FIG. 3 is a flowchart showing a processing flow of the camera calibration method by the camera calibration system 1 of FIG. The camera calibration method of the present embodiment includes a moving image acquisition step (S1), a calibration parameter derivation step for a moving camera (S2), a three-dimensional trajectory acquisition step (S3), and a two-dimensional trajectory detection step (S4). It includes a calibration parameter derivation step (S5) for a surveillance camera. Hereinafter, a more detailed description will be given.
なお、移動カメラ3には、上述したように、マーカーMとしての指標M1が取り付けられているとする。また、時刻(撮影タイミング)については、ここでは予め較正されているとする。つまり、監視カメラ2と移動カメラ3とで、撮影時のシャッタタイミングは揃っているとする。As described above, it is assumed that the moving
(S1;移動映像取得ステップ)
S1では、移動制御部5bにより、監視カメラ2の視野と重なるように移動カメラ3を移動させ、移動カメラ3にて環境を撮影して映像(移動映像)を取得する。移動カメラ3で取得される移動映像のデータは、カメラ較正装置4に出力され、通信部9を介して記憶部6に記憶される。(S1; moving image acquisition step)
In S1, the
(S2;移動カメラ用較正パラメータ導出ステップ)
S2では、移動カメラ用較正パラメータ導出部10aが、移動カメラ3で取得された(記憶部6に記憶された)移動映像に基づき、移動映像の各フレーム(異なる撮影タイミングまたは異なる位置に対応)ごとに、基準座標系における移動カメラ3の位置および姿勢を含む較正パラメータを導出する。なお、移動カメラ3の較正パラメータのことを、ここでは、移動カメラ用較正パラメータと呼ぶ。移動カメラ用較正パラメータの導出は、例えば公知のVisual−SLAM(Simultaneous Localization And Mapping)を利用することによって行うことができる。Visual−SLAMは、カメラの移動映像から、環境や物体の3次元形状と、各フレームでのカメラの絶対または相対位置・姿勢とを推定する技術である。(S2; Calibration parameter derivation step for mobile camera)
In S2, the calibration
例えば、図4は、移動カメラ3が環境(部屋)の中を太線の経路で移動する様子を模式的に示しており、図5は、図4の位置Aにおいて移動カメラ3で撮影された画像を模式的に示している。Visual−SLAMを利用することにより、移動カメラ3の移動映像(図5の撮影画像を含む)から、移動カメラ3が移動する環境(図4で示した部屋)の3次元形状と、移動カメラ3の基準座標系(XYZ座標系)における位置および姿勢とを求めることができる。
For example, FIG. 4 schematically shows how the moving
ここで、図4で示した基準座標系は、Visual−SLAMによって求めた(復元された)環境の3次元形状の任意の点を原点とする座標系であってもよい。また、求めた環境の3次元形状を、予め基準座標系上に設計または設定された環境のデータ(指標、ランドマーク(目印となる地理学上の特徴物)、3次元の点群、CADデータ、ワイヤーフレームモデルなど)と自動照合して、基準座標系上の3次元形状として変換してもよい。例えば、図6に示すように、基準座標系に対応するよう設計されたマーカーM’(指標)を環境に設置し、移動カメラ3でマーカーM’を撮影してその位置(座標系)を認識することにより、求めた環境の3次元形状を、基準座標系上の3次元形状として変換してもよい。このとき、上記のマーカーM’を監視カメラ2で撮影する必要はない。
Here, the reference coordinate system shown in FIG. 4 may be a coordinate system whose origin is an arbitrary point of the three-dimensional shape of the environment obtained (restored) by Visual-SLAM. In addition, the obtained 3D shape of the environment is designed or set in advance on the reference coordinate system, and the environment data (index, landmark (geographical feature that serves as a mark), 3D point cloud, CAD data). , Wireframe model, etc.) and may be converted as a three-dimensional shape on the reference coordinate system. For example, as shown in FIG. 6, a marker M'(index) designed to correspond to the reference coordinate system is installed in the environment, and the marker M'is photographed by the moving
(S3;3次元軌跡取得ステップ)
S3では、3次元軌跡取得部10bが、移動カメラ用較正パラメータ導出部10aによって求めた移動カメラ用較正パラメータを用いて、基準座標系における移動カメラの3次元の移動軌跡を求める。特に、本実施形態では、3次元軌跡取得部10bは、移動カメラ3の移動に伴って移動するマーカーMの、基準座標系における3次元の移動軌跡を、移動カメラ3の3次元の移動軌跡として求める。なお、3次元の移動軌跡とは、移動カメラ3(マーカーM)の各フレームでの、基準座標系における3次元の位置座標(点)の集合を指す。(S3; 3D trajectory acquisition step)
In S3, the three-dimensional
図7は、移動カメラ3の座標系(移動カメラ座標系)と、基準座標系との対応関係を模式的に示している。なお、図面上では、便宜的に、移動カメラ座標系の互いに直交する3軸をx軸、y軸、z軸で示し、基準座標系の3軸(X軸、Y軸、Z軸)とは区別する。上述したように、移動カメラ用較正パラメータ導出部10aにより、Visual−SLAMを利用して、移動カメラ3の時系列の(基準座標系における)絶対位置・姿勢が求まる(基準座標系と移動カメラ座標系との間での座標変換が既知である)。したがって、移動カメラ3に対するマーカーM(ここでは特徴点を考える)の相対位置が既知であれば、つまり、移動カメラ座標系上でマーカーMの3次元位置が既知であれば、マーカーMの位置を基準座標系上にマッピングすることができる。すなわち、マーカーMの基準座標系上での絶対座標を座標変換によって計算することができる。
FIG. 7 schematically shows the correspondence between the coordinate system of the moving camera 3 (moving camera coordinate system) and the reference coordinate system. In the drawing, for convenience, the three axes orthogonal to each other in the moving camera coordinate system are shown by the x-axis, y-axis, and z-axis, and the three axes (X-axis, Y-axis, and Z-axis) of the reference coordinate system are defined. Distinguish. As described above, the mobile camera calibration
よって、図8に示すように、3次元軌跡取得部10bは、移動カメラ3とともに移動するマーカーMについて、移動カメラ3の各フレームごとに上記の座標変換を繰り返し、マーカーMの基準座標系上での絶対座標を計算することにより、図9に示すように、移動カメラ3の移動に伴って移動するマーカーMの、基準座標系における3次元の移動軌跡T1を求めることができる。また、マーカーMと移動カメラ3との相対的な位置関係は既知であるため、上記マーカーMの移動軌跡T1を、移動カメラ3の3次元の移動軌跡と同等と考えることができる。これにより、3次元軌跡取得部10bは、上記マーカーMの移動軌跡T1を、移動カメラ3の3次元の移動軌跡として求めることができる。
Therefore, as shown in FIG. 8, the three-dimensional
(S4;2次元軌跡検出ステップ)
S4では、2次元軌跡検出部10cが、移動カメラ3の3次元の移動軌跡の少なくとも一部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出する。特に、本実施形態では、2次元軌跡検出部10cは、マーカーM(特徴点)の3次元の移動軌跡の少なくとも一部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出する。なお、2次元の移動軌跡とは、監視カメラ2の各フレームの撮影画像上での移動カメラ3またはマーカーMの2次元の位置座標(点)の集合を指す。また、監視カメラ2で取得される撮影画像のデータは、カメラ較正装置4に出力され、通信部9を介して記憶部6に記憶される。これにより、2次元軌跡検出部10cは、記憶部6を参照して、監視カメラ2の撮影画像を把握することができる。(S4; 2D trajectory detection step)
In S4, the two-dimensional
なお、「移動カメラ3の3次元の移動軌跡の少なくとも一部」とは、移動カメラ3の3次元の移動軌跡のうち、監視カメラ2の視野と重なっている部分を指す。したがって、移動カメラ3が監視カメラ2の視野の内外にわたって移動する場合は、2次元軌跡検出部10cは、移動カメラ3(マーカーM)の3次元の移動軌跡の一部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出することになる。また、移動カメラ3が監視カメラ2の視野内でのみ移動する場合は、2次元軌跡検出部10cは、移動カメラ3(マーカーM)の3次元の移動軌跡の全部を、監視カメラ2の撮影画像上での2次元の移動軌跡として検出することになる。
The “at least a part of the three-dimensional movement locus of the moving
図10は、監視カメラ2の視野と重なって移動カメラ3がマーカーMとともに移動する様子を模式的に示している。また、図11は、監視カメラ2の撮影画像2aの一例を模式的に示している。監視カメラ2によって移動カメラ3(マーカーM)を撮影することにより、監視カメラ2の撮影画像2a上での移動カメラ3(マーカーM)の位置座標が、移動カメラ3の移動に伴って時系列で得られる。したがって、2次元軌跡検出部10cは、監視カメラ2の撮影画像2aにおける移動カメラ3(マーカーM)の時系列の位置座標をマッピングすることにより、撮影画像2a上での移動カメラ3(マーカーM)の2次元の移動軌跡T2を検出することができる。つまり、2次元軌跡検出部10cは、移動カメラ3の3次元の移動軌跡T1を、監視カメラ2の撮影画像2a上で2次元の移動軌跡T2として検出することができる。
FIG. 10 schematically shows how the moving
(S5;監視カメラ用較正パラメータ導出ステップ)
S5では、監視カメラ用較正パラメータ導出部10dが、移動カメラ3の3次元の移動軌跡(マーカーMの3次元の移動軌跡T1)の少なくとも一部と、移動カメラ3の2次元の移動軌跡(マーカーMの2次元の移動軌跡T2)とに基づいて、監視カメラ2の較正パラメータである監視カメラ用較正パラメータを導出する。なお、監視カメラ用較正パラメータは、監視カメラ2の外部パラメータ(例えば位置、姿勢)および内部パラメータ(例えばレンズの焦点距離、レンズの歪み)を含む。(S5; Calibration parameter derivation step for surveillance cameras)
In S5, the calibration
ここで、複数の基準マーカーの3次元座標および対応する画像上の2次元座標の組から、カメラのパラメータを推定する問題は、PnP(Perspective n-Point)問題と呼ばれているが、このPnP問題の解き方は従来公知であり(例えば、「奥富正敏編、『ディジタル画像処理』、改訂新版、財団法人画像情報教育振興協会、2006年3月、p328−331」参照)、本実施形態においてもこの解き方を採用することができる。つまり、監視カメラ用較正パラメータ導出部10dは、移動カメラ3の3次元の移動軌跡の少なくとも一部と、移動カメラ3の2次元の移動軌跡とを用い、PnP問題を解くことにより、監視カメラ用較正パラメータを導出することができる。
Here, the problem of estimating the parameters of the camera from the set of the three-dimensional coordinates of the plurality of reference markers and the two-dimensional coordinates on the corresponding image is called the PnP (Perspective n-Point) problem. How to solve the problem has been known in the past (see, for example, "Masatoshi Okutomi," Digital Image Processing ", Revised New Edition, Image Information Education Promotion Association, March 2006, p328-331"), and also in this embodiment. This solution can be adopted. That is, the calibration
〔効果〕
以上のように、本実施形態のカメラ補正方法は、1台以上の監視カメラ2の較正パラメータを、監視カメラ用較正パラメータとして導出する方法であって、上述した移動映像取得ステップ(S1)と、移動カメラ用較正パラメータ導出ステップ(S2)と、3次元軌跡取得ステップ(S3)と、2次元軌跡検出ステップ(S4)と、監視カメラ用較正パラメータ導出ステップ(S5)とを含む。〔effect〕
As described above, the camera correction method of the present embodiment is a method of deriving the calibration parameters of one or
この方法では、監視カメラ2に対して相対的に移動する撮影対象(移動カメラ3)を、基準座標系に対して事前に較正しておく必要がない。つまり、本実施形態では、S1で移動カメラ3の移動を開始させて、S5で監視カメラ用較正パラメータを導出するまでの途中の工程(S2)で、移動カメラ用較正パラメータを導出する(移動カメラ3を較正する)ため、移動カメラ3の移動を開始するS1の前に、移動カメラ3の位置等を基準座標系を基準にして予め較正しておく必要がない。したがって、監視カメラ2を較正するにあたって、移動カメラ3を直ちに移動させて監視カメラ2を較正することができ、利便性を向上させることができる。
In this method, it is not necessary to calibrate the imaging target (moving camera 3) that moves relative to the
また、画像同士の比較によって対応点を求めてカメラを較正する手法(弱較正)に比べて、上記対応点を求める必要がないため、較正の精度を上げることができる。つまり、監視カメラ2の較正の精度の低下を回避しながら、監視カメラ2を較正することができる(監視カメラ用較正パラメータを導出することができる)。
Further, as compared with the method of calibrating the camera by finding the corresponding points by comparing the images (weak calibration), it is not necessary to find the corresponding points, so that the accuracy of calibration can be improved. That is, the
また、S3では、3次元軌跡取得部10bが、移動カメラ3の移動に伴って移動するマーカーMの基準座標系における3次元の移動軌跡T1を、移動カメラ3の3次元の移動軌跡として求め、S4では、2次元軌跡検出部10cが、マーカーMの3次元の移動軌跡T1の少なくとも一部を、監視カメラ2の撮影画像2a上での2次元の移動軌跡T2として検出する。マーカーMを用いることにより、2次元軌跡検出部10cは、監視カメラ2の撮影画像2aからマーカーMを容易に認識することができるため、マーカーMの3次元の移動軌跡T1の少なくとも一部を、撮影画像2a上での2次元の移動軌跡T2として検出することが容易となる。これにより、監視カメラ用較正パラメータ導出部10dにて、3次元の移動軌跡T1の少なくとも一部と上記2次元の移動軌跡T2とに基づく監視カメラ用較正パラメータの導出を精度よく行うことができる。
Further, in S3, the three-dimensional
また、例えば、人間が移動カメラ3を保持して移動させる場合、移動カメラ3にマーカーMを取り付けず、監視カメラ2の撮影画像2a上で人間の形状を画像認識によって認識して移動カメラ3の位置等を推定することも可能である。しかし、画像上では、人間に特有の形状または特徴点を認識しづらいため、人間を誤認識する可能性がある。この点、マーカーMを移動カメラ3に取り付けて移動させることにより、マーカーMの画像上での認識精度を向上させることができ、この点でも監視カメラ用較正パラメータの導出の精度を向上させることができる。
Further, for example, when a human holds and moves the moving
また、マーカーMは、監視カメラ2で撮影して得られる画像に基づいて(2次元軌跡検出部10cが)認識可能な特徴点P(図2参照)を含む指標M1である。マーカーMが指標M1であることにより、2次元軌跡検出部10cは、監視カメラ2の撮影画像2aから画像認識によって特徴点Pを容易に認識して、マーカーMを容易に認識することが可能となる。これにより、上記した監視カメラ用較正パラメータの導出の精度を上げる効果を確実に得ることができる。 Further, the marker M is an index M 1 including a feature point P (see FIG. 2) that can be recognized (by the two-dimensional
〔カメラ較正システムの他の構成〕
図12は、本実施形態のカメラ較正システム1の他の構成を示すブロック図である。図12のカメラ較正システム1は、カメラ較正装置4の較正処理部10が2次元点群検出部10eをさらに含む点以外は、図1のカメラ較正システム1と同様の構成である。なお、2次元点群検出部10eの詳細については、以下のカメラ較正方法の説明の中で併せて説明する。[Other configurations of camera calibration system]
FIG. 12 is a block diagram showing another configuration of the camera calibration system 1 of the present embodiment. The camera calibration system 1 of FIG. 12 has the same configuration as the camera calibration system 1 of FIG. 1 except that the
図13は、図12のカメラ較正システムによるカメラ較正方法の処理の流れを示すフローチャートである。上記カメラ較正方法は、S2の代わりにS2’を行い、S5の代わりにS5’を行い、S4とS5’との間に、2次元点群検出部10eによる2次元点群検出部ステップ(S4−1)をさらに行う以外は、図3で示したカメラ較正方法の流れと同様である。以下、図3と異なる点について説明する。
FIG. 13 is a flowchart showing a processing flow of the camera calibration method by the camera calibration system of FIG. In the above camera calibration method, S2'is performed instead of S2, S5'is performed instead of S5, and the two-dimensional point group detection unit step (S4) by the two-dimensional point
S2’では、移動カメラ用較正パラメータ導出部10aが、移動カメラ3で取得した移動映像に基づき、Visual−SLAMを利用して、上述した移動カメラ用較正パラメータを導出することに加えて、監視カメラ2の撮影範囲にある物体または環境の形状(自然特徴点)を示す3次元点群を推定する。例えば、移動カメラ用較正パラメータ導出部10aは、Visual−SLAMを利用して、上記移動映像から、監視カメラ2の撮影範囲内にあるランドマークの3次元形状を示す3次元点群を推定する。S4−1では、2次元点群検出部10eが、移動カメラ用較正パラメータ導出部10aによって推定された3次元点群の、監視カメラ2の撮影画像2a上での位置を、2次元点群として検出する。
In S2', the mobile camera calibration
そして、S5’では、監視カメラ用較正パラメータ導出部10dが、3次元の情報と、2次元の情報とを用い、PnP問題を解くことにより、監視カメラ用較正パラメータを導出する。ここで、上記の3次元の情報とは、S3で取得した移動カメラ3(またはマーカーM)の3次元の移動軌跡、およびS2’で推定した3次元点群の情報であり、2次元の情報とは、S4で検出した移動カメラ3の撮影画像2a上での2次元の移動軌跡、およびS4−1で検出した撮影画像2a上での2次元点群の情報である。
Then, in S5', the surveillance camera calibration
上記のように、移動カメラ3の3次元および2次元の移動軌跡に加えて、自然特徴点の3次元および2次元の点群の情報も用いて、監視カメラ用較正パラメータを導出することにより、移動カメラ3の移動軌跡のみに基づいて、または自然特徴点の点群の情報のみに基づいて、監視カメラ用較正パラメータを導出する場合に比べて、較正パラメータの導出に用いる情報の量(PnP問題を解くときに用いる点の数(nの数))が増えるため、監視カメラ2の較正の精度をさらに向上させることができる。
As described above, by deriving the calibration parameters for the surveillance camera by using the information of the 3D and 2D point groups of the natural feature points in addition to the 3D and 2D movement loci of the moving
〔マーカーの他の構成〕
図14は、移動カメラ3に取り付けられるマーカーMの他の構成を模式的に示している。マーカーMとして、上記した指標M1の代わりに、光を出射する光源M2を用いてもよい。光源M2としては、例えば異なる色(例えば赤(R)、緑(G)、青(B))を発光する複数の発光ダイオード(LED)の組を用いることができる。光源M2からの光の出射、つまり、光源M2から出射される光の点滅周期(点灯/消灯の各時間)、色(発光させるLEDの選択)、および明るさ(各LEDに流す電流)の制御は、例えば制御部5(例えば主制御部5a)によって行われる。この場合、制御部5(例えば主制御部5a)は、光源M2からの光の出射を制御する光源制御部として機能する。なお、光源M2からの光の出射の制御は、カメラ較正装置4の外部の別の制御装置(図示せず)によって行われてもよい。[Other configurations of markers]
FIG. 14 schematically shows another configuration of the marker M attached to the
このように、マーカーMとして光源M2を用いる場合でも、上述した2次元軌跡検出部10cは、監視カメラ2の撮影画像2aから、画像認識によって光源M2の位置を容易に認識して、マーカーMを容易に認識することが可能となる。これにより、上記した監視カメラ用較正パラメータの導出の精度を上げる効果を確実に得ることができる。 As described above, even when the light source M 2 is used as the marker M, the above-mentioned two-dimensional
また、マーカーMとして光源M2を用いる場合、図3のS5または図13のS5’では、監視カメラ用較正パラメータ導出部10dは、制御部5が光源M2から出射される光を、移動カメラ3の撮影タイミングまたは環境内の場所に応じて固有な外観に変化させたときに、監視カメラ2での撮影によって取得される上記光の外観を示す画像を用いて、監視カメラ2の撮影タイミングまたは場所に関する監視カメラ用較正パラメータを導出してもよい。このとき、制御部5は、例えば、光源M2から出射される光の点滅周期を、移動カメラ3の撮影タイミングに応じて変化させる(例えば撮影タイミングと同期するように変化させる)ことにより、光源M2から出射される光を移動カメラ3の撮影タイミングに応じて固有な外観に変化させることができる。また、制御部5は、光源M2から出射される光の色または明るさを、環境内の場所、つまり、移動カメラ用較正パラメータ導出部10aにて導出される移動カメラ3の位置に応じて変化させることにより、光源M2から出射される光を場所に応じて固有な外観に変化させることができる。When the light source M 2 is used as the marker M, in S5 of FIG. 3 or S5'of FIG. 13, the calibration
光源M2の点灯タイミングと、監視カメラ2の撮影タイミングとが合っていない場合、監視カメラ用較正パラメータ導出部10dは、監視カメラ2の撮影画像2a上でマーカーM(光源M2)を認識することができない(監視カメラ2のシャッタが開いたときに光源M2が消灯しているため)。そこで、例えば、制御部5が光源M2の点滅周期を、移動カメラ3の撮影タイミングに応じて変化させて、光源M2から出射される光を移動カメラ3の撮影タイミングに応じて固有な外観に変化させることにより、監視カメラ用較正パラメータ導出部10dは、光源M2から出射される光の外観を示す画像(監視カメラ2の撮影画像2a)に基づいて、光源M2の点滅周期と合うように、つまり、移動カメラ3の撮影タイミングと合うように、監視カメラ2の撮影タイミングを較正する(撮影タイミングに関する較正パラメータを求める)ことが可能となる。これにより、移動カメラ3を移動させる前に、移動カメラ3の撮影タイミングと監視カメラ2の撮影タイミングとが合っていなくても、これらを合わせる時刻の較正を精度よく行うことが可能となる。When the lighting timing of the light source M 2 and the shooting timing of the
また、前述のS5またはS5’において、監視カメラ用較正パラメータ導出部10dは、PnP問題を解くことにより、監視カメラ2の位置についての較正パラメータを求めるが、その位置についての候補が複数得られる場合がある(異なる位置の候補が得られる場合がある)。このような場合において、制御部5が、光源M2から出射される光の外観(色または明るさ)を、環境中の第1のランドマークの前に光源M2が位置するときと、別の第2のランドマークの前に光源M2が位置するときとで異ならせて、光源M2から出射される光を場所に応じて固有な外観に変化させることにより、監視カメラ用較正パラメータ導出部10dは、光源M2から出射される光の外観を示す画像(監視カメラ2の撮影画像2a)に基づいて、監視カメラ2の環境内での場所(位置)を、上記複数の候補からある程度絞ることができる。これにより、監視カメラ2の位置についての較正パラメータの導出の精度をさらに上げることが可能となる。Further, in the above-mentioned S5 or S5', the surveillance camera calibration
つまり、マーカーMとして光源M2を用い、光源M2から出射される光を、移動カメラ3の撮影タイミングまたは場所に応じて固有の外観に変化させることにより、監視カメラ2の時刻または場所の較正を精度よく行うことが可能となる。That is, the time or place of the
〔移動カメラの移動制御について〕
上述したS1の移動映像取得ステップでは、カメラ較正装置4の移動制御部5bが、移動カメラ3を、監視カメラ2の視野を通過する際に、少なくとも1回停止させてもよい。このように移動カメラ3の移動を制御することにより、監視カメラ2の時刻が較正されていなくても、監視カメラ2の撮影タイミングと同時刻における移動カメラ3の3次元の位置がわかるため、上記3次元の位置と監視カメラ2の撮影画像2a上で対応する位置を特定することができる。これにより、S5またはS5’の監視カメラ用較正パラメータ導出ステップにおいて、上記2点の情報(3次元および2次元の各位置の座標)を用いてPnP問題を解くことにより、監視カメラ2の位置および姿勢を含む監視カメラ用較正パラメータを導出することが可能となる。つまり、監視カメラ2の時刻が較正されていなくても、監視カメラ2の位置および姿勢を較正することができる。[Movement control of moving camera]
In the moving image acquisition step of S1 described above, the
また、S1の移動映像取得ステップでは、カメラ較正装置4の移動制御部5bが、移動カメラ3を、監視カメラ2の視野を通過する際に、移動カメラ3の3次元の移動軌跡中の任意の位置と、監視カメラ2の撮影画像2a上で対応する位置を特定可能な軌跡を描くように移動させてもよい。上記軌跡としては、例えば突出部を有する図形形状を考えることができる。このとき、上記突出部としては、上記多角形の角部や、楕円の長軸方向の両端部などを考えることができ、それゆえ、上記図形形状としては、三角形、四角形などの多角形状や、楕円形状などを考えることができる。
Further, in the moving image acquisition step of S1, when the
図15は、移動カメラ3の3次元の移動軌跡が四角形状である場合の上記移動軌跡を示し、図16は、監視カメラ2の撮影画像2a上での上記移動カメラ3の2次元の移動軌跡を示している。図15に示すように、移動カメラ3が3次元空間内で四角形状の移動軌跡を描いた場合、四角形に含まれる突出部(角部)Eは、移動カメラ3の移動方向が急激にまたは明確に変化する部分であるため、図16に示すように、監視カメラ2の撮影画像2a上においても、移動カメラ3の3次元の移動軌跡の上記突出部Eと2次元の移動軌跡で対応する突出部E’が明確に現れる。これにより、3次元の移動軌跡の突出部Eの位置E1と、撮影画像2a上で対応する突出部E’の位置E1’を明確に特定することができる。したがって、S5またはS5’の監視カメラ用較正パラメータ導出ステップでは、監視カメラ2の時刻が較正されていなくても、監視カメラ2の撮影タイミングと同時刻における移動カメラ3の3次元の位置情報(位置E1の位置座標を含む)および2次元の位置情報(位置E1’の位置座標を含む)を用いてPnP問題を解くことにより、監視カメラ2の位置および姿勢を含む監視カメラ用較正パラメータを導出することが可能となる。FIG. 15 shows the movement locus when the three-dimensional movement locus of the moving
特に、移動カメラ3の3次元の移動軌跡中の任意の位置E1と撮影画像2a上で対応する位置E1’を特定可能な軌跡が、突出部Eを有する図形形状であることにより、突出部Eの位置E1と、撮影画像2a上で対応する位置E1’を明確に特定することができるため、監視カメラ2の時刻が較正されていなくても、監視カメラ用較正パラメータを導出できる効果を確実に得ることができる。In particular, by possible trajectories identified the corresponding position E 1 'on an arbitrary position E 1 and the photographed
なお、移動カメラ3の3次元の移動軌跡中の任意の位置E1と撮影画像2a上で対応する位置E1’を特定できるのであれば、移動カメラ3の3次元の移動軌跡は、突出部Eを有する図形形状には限定されない。例えば2つの円を組み合わせた形状(「8の字」の軌跡)となる形状で移動カメラ3を移動させた場合でも、「8の字」を構成する2つの円の接点と撮影画像2a上で対応する位置を特定することができるため、監視カメラ2の時刻が較正されていなくても、3次元の位置情報と2次元の位置情報とを用いて監視カメラ用較正パラメータを導出することが可能である。As long as it can identify the corresponding position E 1 'on an arbitrary position E 1 and the photographed
〔プログラムおよび記録媒体〕
本実施形態で説明したカメラ較正装置4は、例えば、所定のプログラム(アプリケーションソフトウェア)をインストールしたコンピュータ(PC)で構成することができる。上記プログラムをコンピュータ(例えばCPUとしての制御部5)が読み取って実行することにより、カメラ較正装置4の各部を動作させて上述した各処理(各工程)を実行させることができる。このようなプログラムは、例えばネットワークを介して外部からダウンロードすることによって取得されて記憶部6に記憶される。また、上記プログラムは、例えばCD−ROM(Compact Disk-Read Only Memory)などのコンピュータ読取可能な記録媒体に記録され、この記録媒体から上記プログラムをコンピュータが読み取ってプログラム記憶部12aに記憶する形態であってもよい。[Programs and recording media]
The
〔その他〕
以上で説明した本実施形態のカメラ較正方法、カメラ較正装置、カメラ較正システムおよびカメラ較正プログラムは、以下のように表現されてもよい。また、本実施形態で説明した内容は、以下のように表現される記録媒体も含む。[Other]
The camera calibration method, camera calibration device, camera calibration system, and camera calibration program of the present embodiment described above may be expressed as follows. In addition, the content described in this embodiment also includes a recording medium expressed as follows.
1. 1台以上の監視カメラの較正パラメータを、監視カメラ用較正パラメータとして導出するカメラ較正方法であって、
前記監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する移動映像取得ステップと、
前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出ステップと、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得ステップと、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出ステップと、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出ステップとを含むことを特徴とするカメラ較正方法。1. 1. A camera calibration method in which the calibration parameters of one or more surveillance cameras are derived as calibration parameters for surveillance cameras.
A moving image acquisition step of acquiring a moving image by moving the moving camera so as to overlap the field of view of the surveillance camera.
Based on the moving image, for each frame of the moving image, a procedure for deriving the calibration parameters for the moving camera including the position and orientation of the moving camera in the reference coordinate system, and a step for deriving the calibration parameters for the moving camera.
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition step for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition step.
A two-dimensional locus detection step of detecting at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on an image captured by the surveillance camera.
A camera calibration method including at least a part of the three-dimensional movement locus and a procedure for deriving a calibration parameter for a surveillance camera based on the two-dimensional movement locus. ..
2.前記移動カメラ用較正パラメータ導出ステップでは、前記移動映像に基づき、前記移動カメラ用較正パラメータの導出に加えて、前記監視カメラの撮影範囲にある物体または環境の形状を示す3次元点群を推定し、
該カメラ較正方法は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出ステップをさらに含み、
前記監視カメラ用較正パラメータ導出ステップでは、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出することを特徴とする前記1に記載のカメラ較正方法。2. In the procedure for deriving the calibration parameters for the mobile camera, in addition to deriving the calibration parameters for the mobile camera based on the moving image, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera is estimated. ,
The camera calibration method is
Further including a two-dimensional point cloud detection step of detecting the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud.
In the surveillance camera calibration parameter derivation step, the surveillance camera calibration parameter is derived using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. The camera calibration method according to 1 above.
3.前記3次元軌跡取得ステップでは、前記移動カメラの移動に伴って移動する、前記移動カメラに取り付けたマーカーの、前記基準座標系における3次元の移動軌跡を、前記移動カメラの3次元の移動軌跡として求め、
前記2次元軌跡検出ステップでは、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出することを特徴とする前記1または2に記載のカメラ較正方法。3. 3. In the three-dimensional locus acquisition step, the three-dimensional movement locus of the marker attached to the moving camera, which moves with the movement of the moving camera, in the reference coordinate system is used as the three-dimensional movement locus of the moving camera. Ask,
The second-dimensional locus detection step according to the above 1 or 2, wherein at least a part of the three-dimensional movement locus of the marker is detected as a two-dimensional movement locus on the captured image of the surveillance camera. Camera calibration method.
4.前記マーカーは、前記監視カメラで撮影して得られる画像に基づいて認識可能な特徴点を含む指標であることを特徴とする前記3に記載のカメラ較正方法。 4. The camera calibration method according to 3, wherein the marker is an index including feature points that can be recognized based on an image taken by the surveillance camera.
5.前記マーカーは、光源であることを特徴とする前記3に記載のカメラ較正方法。 5. The camera calibration method according to 3, wherein the marker is a light source.
6.前記監視カメラ用較正パラメータ導出ステップでは、前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出することを特徴とする前記5に記載のカメラ較正方法。 6. In the step of deriving the calibration parameter for a surveillance camera, when the light emitted from the light source is changed to a unique appearance according to the shooting timing or location of the moving camera, it is acquired by shooting with the surveillance camera. 5. The camera calibration method according to 5, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light.
7.前記監視カメラ用較正パラメータ導出ステップでは、前記光源から出射される光の点滅周期、色、または明るさを、前記移動カメラの撮影タイミングまたは場所に応じて変化させることにより、前記光を前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させることを特徴とする前記6に記載のカメラ較正方法。 7. In the step of deriving the calibration parameter for the surveillance camera, the light is converted into the moving camera by changing the blinking cycle, color, or brightness of the light emitted from the light source according to the shooting timing or location of the moving camera. The camera calibration method according to 6 above, characterized in that the appearance is changed to a unique appearance according to the shooting timing or location of the camera.
8.前記移動映像取得ステップでは、前記移動カメラを、前記監視カメラの視野を通過する際に、少なくとも1回停止させるか、前記移動カメラの3次元の移動軌跡中の任意の位置と、前記監視カメラの撮影画像上で対応する位置を特定可能な軌跡を描くように移動させることを特徴とする前記1から5のいずれかに記載のカメラ較正方法。 8. In the moving image acquisition step, the moving camera is stopped at least once when passing through the field of view of the surveillance camera, or an arbitrary position in the three-dimensional movement locus of the moving camera and the surveillance camera. The camera calibration method according to any one of 1 to 5 above, wherein the corresponding position on the captured image is moved so as to draw a identifiable locus.
9.前記軌跡は、突出部を有する図形形状であることを特徴とする前記8に記載のカメラ較正方法。 9. The camera calibration method according to 8 above, wherein the locus has a graphic shape having a protruding portion.
10.前記1から9のいずれかに記載のカメラ較正方法をコンピュータに実行させるカメラ較正プログラム。 10. A camera calibration program that causes a computer to perform the camera calibration method according to any one of 1 to 9.
11. 1台以上の監視カメラの視野と重なるように移動して移動映像を取得する移動カメラの前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出部と、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得部と、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出部と、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラの較正パラメータである監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出部とを含むことを特徴とするカメラ較正装置。11. Based on the moving image of the moving camera that moves so as to overlap the field of view of one or more surveillance cameras and acquires the moving image, the position and orientation of the moving camera in the reference coordinate system are set for each frame of the moving image. A mobile camera calibration parameter derivation unit that derives the mobile camera calibration parameters including
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition unit for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition unit.
A two-dimensional locus detection unit that detects at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on a captured image of the surveillance camera.
Includes at least a part of the three-dimensional movement locus and a surveillance camera calibration parameter derivation unit that derives the surveillance camera calibration parameter, which is the surveillance camera calibration parameter, based on the two-dimensional movement locus. A camera calibrator featuring.
12.前記移動カメラ用較正パラメータ導出部は、前記移動映像に基づき、前記移動カメラ用較正パラメータの導出に加えて、前記監視カメラの撮影範囲にある物体または環境の形状を示す3次元点群を推定し、
該カメラ較正装置は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出することを特徴とする前記11に記載のカメラ較正装置。12. Based on the moving image, the moving camera calibration parameter deriving unit estimates, in addition to deriving the moving camera calibration parameters, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera. ,
The camera calibrator
A two-dimensional point cloud detection unit that detects the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud is further included.
The surveillance camera calibration parameter derivation unit derives the surveillance camera calibration parameter using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. 11. The camera calibrator according to 11.
13.前記3次元軌跡取得部は、前記移動カメラの移動に伴って移動する、前記移動カメラに取り付けたマーカーの、前記基準座標系における3次元の移動軌跡を、前記移動カメラの3次元の移動軌跡として求め、
前記2次元軌跡検出部は、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出することを特徴とする前記11または12に記載のカメラ較正装置。13. The three-dimensional locus acquisition unit uses the three-dimensional movement locus of the marker attached to the moving camera in the reference coordinate system, which moves with the movement of the moving camera, as the three-dimensional movement locus of the moving camera. Ask,
11 or 12, wherein the two-dimensional locus detection unit detects at least a part of the three-dimensional movement locus of the marker as a two-dimensional movement locus on an image captured by the surveillance camera. Camera calibrator.
14.前記マーカーは、前記監視カメラで撮影して得られる画像に基づいて認識可能な特徴点を含む指標であることを特徴とする前記13に記載のカメラ較正装置。 14. The camera calibrator according to 13 above, wherein the marker is an index including feature points that can be recognized based on an image taken by the surveillance camera.
15.前記マーカーは、光源であることを特徴とする前記13に記載のカメラ較正装置。 15. The camera calibrator according to 13 above, wherein the marker is a light source.
16.前記光源からの光の出射を制御する光源制御部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記光源制御部によって前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出することを特徴とする前記15に記載のカメラ較正装置。16. It further includes a light source control unit that controls the emission of light from the light source.
The calibration parameter derivation unit for a surveillance camera is used in the surveillance camera when the light emitted from the light source by the light source control unit is changed to a unique appearance according to the shooting timing or location of the moving camera. 15. The camera calibrator according to 15, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light acquired by imaging.
17.前記光源制御部は、前記光源から出射される光の点滅周期、色、または明るさを、前記移動カメラの撮影タイミングまたは場所に応じて変化させることにより、前記光を前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させることを特徴とする前記16に記載のカメラ較正装置。 17. The light source control unit changes the blinking cycle, color, or brightness of the light emitted from the light source according to the shooting timing or location of the mobile camera, thereby converting the light into the shooting timing or the shooting timing of the mobile camera. The camera calibrator according to 16 above, wherein the camera calibrator is changed to a unique appearance depending on the location.
18.前記11から17のいずれかに記載のカメラ較正装置と、
1台以上の前記固定カメラと、
前記移動カメラとを含むことを特徴とするカメラ較正システム。18. With the camera calibrator according to any one of 11 to 17 above.
With one or more of the fixed cameras
A camera calibration system comprising the mobile camera.
19.前記カメラ較正装置は、前記移動カメラを、前記監視カメラの視野を通過する際に、少なくとも1回停止させるか、前記移動カメラの3次元の移動軌跡中の任意の位置と、前記監視カメラの撮影画像上で対応する位置を特定可能な軌跡を描くように移動させる移動制御部をさらに含むことを特徴とする前記18に記載のカメラ較正システム。 19. The camera calibrator may stop the moving camera at least once when passing through the field of view of the surveillance camera, or take an image of the moving camera at an arbitrary position in the three-dimensional movement locus of the moving camera and the surveillance camera. The camera calibration system according to 18, wherein the camera calibration system further includes a movement control unit that moves a corresponding position on an image so as to draw a identifiable locus.
20.前記軌跡は、突出部を有する図形形状であることを特徴とする前記19に記載のカメラ較正システム。 20. The camera calibration system according to 19 above, wherein the locus has a graphic shape having a protrusion.
21.前記10に記載のカメラ較正プログラムを記録した、コンピュータ読取可能な記録媒体。 21. A computer-readable recording medium on which the camera calibration program according to 10 is recorded.
以上、本発明の実施形態について説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で拡張または変更して実施することができる。 Although the embodiments of the present invention have been described above, the scope of the present invention is not limited to this, and can be extended or modified within a range that does not deviate from the gist of the invention.
本発明は、1台の監視カメラを含む監視システムや、2台以上の監視カメラを分散して配置した分散監視システムに利用可能である。 The present invention can be used in a surveillance system including one surveillance camera or a distributed surveillance system in which two or more surveillance cameras are distributed and arranged.
1 カメラ較正システム
2 監視カメラ
2a 撮影画像
3 移動カメラ
4 カメラ較正装置
5a 主制御部(光源制御部)
5b 移動制御部
10a 移動カメラ用較正パラメータ導出部
10b 3次元軌跡取得部
10c 2次元軌跡検出部
10d 監視カメラ用較正パラメータ導出部
10e 2次元点群検出部
E 突出部
E1 位置
E1’ 位置
M マーカー
M1 指標
M2 光源
P 特徴点1
Claims (20)
前記監視カメラの視野と重なるように移動カメラを移動させることにより、移動映像を取得する移動映像取得ステップと、
前記移動映像に基づき、前記移動映像の各フレームごとに、基準座標系における前記移動カメラの位置および姿勢を含む移動カメラ用較正パラメータを導出する移動カメラ用較正パラメータ導出ステップと、
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得ステップと、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出ステップと、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出ステップとを含む、カメラ較正方法。A camera calibration method in which the calibration parameters of one or more surveillance cameras are derived as calibration parameters for surveillance cameras.
A moving image acquisition step of acquiring a moving image by moving the moving camera so as to overlap the field of view of the surveillance camera.
Based on the moving image, for each frame of the moving image, a procedure for deriving the calibration parameters for the moving camera including the position and orientation of the moving camera in the reference coordinate system, and a step for deriving the calibration parameters for the moving camera.
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition step for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition step.
A two-dimensional locus detection step of detecting at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on an image captured by the surveillance camera.
A camera calibration method including at least a part of the three-dimensional movement locus and a procedure for deriving a calibration parameter for a surveillance camera that derives a calibration parameter for the surveillance camera based on the two-dimensional movement locus.
該カメラ較正方法は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出ステップをさらに含み、
前記監視カメラ用較正パラメータ導出ステップでは、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出する、請求項1に記載のカメラ較正方法。In the procedure for deriving the calibration parameters for the mobile camera, in addition to deriving the calibration parameters for the mobile camera based on the moving image, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera is estimated. ,
The camera calibration method is
Further including a two-dimensional point cloud detection step of detecting the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud.
In the surveillance camera calibration parameter derivation step, the surveillance camera calibration parameter is derived using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. , The camera calibration method according to claim 1.
前記2次元軌跡検出ステップでは、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する、請求項1または2に記載のカメラ較正方法。In the three-dimensional locus acquisition step, the three-dimensional movement locus of the marker attached to the moving camera, which moves with the movement of the moving camera, in the reference coordinate system is used as the three-dimensional movement locus of the moving camera. Ask,
The camera calibration according to claim 1 or 2, wherein in the two-dimensional locus detection step, at least a part of the three-dimensional movement locus of the marker is detected as a two-dimensional movement locus on the captured image of the surveillance camera. Method.
前記移動カメラ用較正パラメータを用いて、前記基準座標系における前記移動カメラの3次元の移動軌跡を求める3次元軌跡取得部と、
前記移動カメラの前記3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する2次元軌跡検出部と、
前記3次元の移動軌跡の少なくとも一部と、前記2次元の移動軌跡とに基づいて、前記監視カメラの較正パラメータである監視カメラ用較正パラメータを導出する監視カメラ用較正パラメータ導出部とを含む、カメラ較正装置。Based on the moving image of the moving camera that moves so as to overlap the field of view of one or more surveillance cameras and acquires the moving image, the position and orientation of the moving camera in the reference coordinate system are set for each frame of the moving image. A mobile camera calibration parameter derivation unit that derives the mobile camera calibration parameters including
Using the calibration parameters for the moving camera, a three-dimensional locus acquisition unit for obtaining a three-dimensional movement locus of the moving camera in the reference coordinate system, and a three-dimensional locus acquisition unit.
A two-dimensional locus detection unit that detects at least a part of the three-dimensional movement locus of the moving camera as a two-dimensional movement locus on a captured image of the surveillance camera.
A surveillance camera calibration parameter derivation unit that derives a surveillance camera calibration parameter, which is a surveillance camera calibration parameter, based on at least a part of the three-dimensional movement locus and the two-dimensional movement locus. Camera calibrator.
該カメラ較正装置は、
前記3次元点群の前記監視カメラの撮影画像上での位置を、2次元点群として検出する2次元点群検出部をさらに含み、
前記監視カメラ用較正パラメータ導出部は、前記3次元の移動軌跡および前記3次元点群と、前記2次元の移動軌跡および前記2次元点群とを用いて、前記監視カメラ用較正パラメータを導出する、請求項11に記載のカメラ較正装置。Based on the moving image, the moving camera calibration parameter deriving unit estimates, in addition to deriving the moving camera calibration parameters, a three-dimensional point cloud indicating the shape of an object or environment within the shooting range of the surveillance camera. ,
The camera calibrator
A two-dimensional point cloud detection unit that detects the position of the three-dimensional point cloud on the captured image of the surveillance camera as a two-dimensional point cloud is further included.
The surveillance camera calibration parameter derivation unit derives the surveillance camera calibration parameter using the three-dimensional movement locus and the three-dimensional point group, and the two-dimensional movement locus and the two-dimensional point group. The camera calibrator according to claim 11.
前記2次元軌跡検出部は、前記マーカーの3次元の移動軌跡の少なくとも一部を、前記監視カメラの撮影画像上での2次元の移動軌跡として検出する、請求項11または12に記載のカメラ較正装置。The three-dimensional locus acquisition unit uses the three-dimensional movement locus of the marker attached to the moving camera in the reference coordinate system, which moves with the movement of the moving camera, as the three-dimensional movement locus of the moving camera. Ask,
The camera calibration according to claim 11 or 12, wherein the two-dimensional locus detection unit detects at least a part of the three-dimensional movement locus of the marker as a two-dimensional movement locus on an image captured by the surveillance camera. apparatus.
前記監視カメラ用較正パラメータ導出部は、前記光源制御部によって前記光源から出射される光を、前記移動カメラの撮影タイミングまたは場所に応じて固有な外観に変化させたときに、前記監視カメラでの撮影によって取得される前記光の外観を示す画像を用いて、前記監視カメラの撮影タイミングまたは場所に関する前記監視カメラ用較正パラメータを導出する、請求項15に記載のカメラ較正装置。It further includes a light source control unit that controls the emission of light from the light source.
The calibration parameter derivation unit for a surveillance camera is used in the surveillance camera when the light emitted from the light source by the light source control unit is changed to a unique appearance according to the shooting timing or location of the moving camera. The camera calibrator according to claim 15, wherein the surveillance camera calibration parameters relating to the imaging timing or location of the surveillance camera are derived using an image showing the appearance of the light acquired by imaging.
1台以上の前記固定カメラと、
前記移動カメラとを含む、カメラ較正システム。The camera calibrator according to any one of claims 11 to 17.
With one or more of the fixed cameras
A camera calibration system including the mobile camera.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018072093 | 2018-04-04 | ||
JP2018072093 | 2018-04-04 | ||
PCT/JP2019/006488 WO2019193859A1 (en) | 2018-04-04 | 2019-02-21 | Camera calibration method, camera calibration device, camera calibration system and camera calibration program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019193859A1 true JPWO2019193859A1 (en) | 2021-05-13 |
JP7173133B2 JP7173133B2 (en) | 2022-11-16 |
Family
ID=68100659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020511634A Active JP7173133B2 (en) | 2018-04-04 | 2019-02-21 | Camera calibration method, camera calibration device, camera calibration system and camera calibration program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7173133B2 (en) |
WO (1) | WO2019193859A1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111489397A (en) * | 2019-12-19 | 2020-08-04 | 阿里巴巴集团控股有限公司 | Imaging device calibration method and device |
CN111210478B (en) * | 2019-12-31 | 2023-07-21 | 重庆邮电大学 | Common-view-free multi-camera system external parameter calibration method, medium and system |
CN113587834B (en) * | 2021-07-15 | 2023-05-30 | 长江三峡勘测研究院有限公司(武汉) | Slope deformation monitoring method based on uncontrolled photogrammetry |
CN114022572B (en) * | 2022-01-07 | 2022-04-08 | 江西明天高科技股份有限公司 | Automatic calibration method for camera array |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001074428A (en) * | 1999-09-03 | 2001-03-23 | Sanyo Electric Co Ltd | Method and jig for calibrating shape measuring apparatus |
JP2008224626A (en) * | 2007-03-15 | 2008-09-25 | Canon Inc | Information processor, method for processing information, and calibration tool |
WO2018134866A1 (en) * | 2017-01-17 | 2018-07-26 | 株式会社日立製作所 | Camera calibration device |
-
2019
- 2019-02-21 JP JP2020511634A patent/JP7173133B2/en active Active
- 2019-02-21 WO PCT/JP2019/006488 patent/WO2019193859A1/en active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001074428A (en) * | 1999-09-03 | 2001-03-23 | Sanyo Electric Co Ltd | Method and jig for calibrating shape measuring apparatus |
JP2008224626A (en) * | 2007-03-15 | 2008-09-25 | Canon Inc | Information processor, method for processing information, and calibration tool |
WO2018134866A1 (en) * | 2017-01-17 | 2018-07-26 | 株式会社日立製作所 | Camera calibration device |
Also Published As
Publication number | Publication date |
---|---|
WO2019193859A1 (en) | 2019-10-10 |
JP7173133B2 (en) | 2022-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11100649B2 (en) | Fiducial marker patterns, their automatic detection in images, and applications thereof | |
JP7173133B2 (en) | Camera calibration method, camera calibration device, camera calibration system and camera calibration program | |
US11127203B2 (en) | Leveraging crowdsourced data for localization and mapping within an environment | |
JP6465789B2 (en) | Program, apparatus and method for calculating internal parameters of depth camera | |
CN110568447B (en) | Visual positioning method, device and computer readable medium | |
US9953461B2 (en) | Navigation system applying augmented reality | |
WO2018133130A1 (en) | 3d marker model construction and real-time tracking using monocular camera | |
JP4537557B2 (en) | Information presentation system | |
CN108022264B (en) | Method and equipment for determining camera pose | |
CN108022265B (en) | Method, equipment and system for determining pose of infrared camera | |
US20150369593A1 (en) | Orthographic image capture system | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
JP2015171077A (en) | Projection image correction device, method for correcting original image to be projected, and program | |
JP2008046687A (en) | Photographic environment calibration method and information processor | |
US10838515B1 (en) | Tracking using controller cameras | |
ES2626301T3 (en) | Procedure and image processing equipment to determine the parameters of a camera | |
CN108257177B (en) | Positioning system and method based on space identification | |
WO2022078488A1 (en) | Positioning method and apparatus, self-moving device, and storage medium | |
US20210374978A1 (en) | Capturing environmental scans using anchor objects for registration | |
US11189101B2 (en) | Lighting integration | |
US10509513B2 (en) | Systems and methods for user input device tracking in a spatial operating environment | |
CN114693779A (en) | Method and device for determining three-dimensional key points of hand | |
US11758100B2 (en) | Portable projection mapping device and projection mapping system | |
JP2009175012A (en) | Measurement device and measurement method | |
WO2021227082A1 (en) | Method and device for positioning internet of things devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220902 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221017 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7173133 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |