JP2011055349A - Image processing apparatus and image adjustment method - Google Patents

Image processing apparatus and image adjustment method Download PDF

Info

Publication number
JP2011055349A
JP2011055349A JP2009203859A JP2009203859A JP2011055349A JP 2011055349 A JP2011055349 A JP 2011055349A JP 2009203859 A JP2009203859 A JP 2009203859A JP 2009203859 A JP2009203859 A JP 2009203859A JP 2011055349 A JP2011055349 A JP 2011055349A
Authority
JP
Japan
Prior art keywords
image
information
processing apparatus
camera
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009203859A
Other languages
Japanese (ja)
Other versions
JP4937318B2 (en
Inventor
Yusuke Takahashi
雄介 高橋
Kenji Baba
賢二 馬場
Akira Sawada
彰 澤田
Takaaki Enohara
孝明 榎原
Yoshihiko Suzuki
美彦 鈴木
Nobutaka Nishimura
信孝 西村
Ryoichi Kurata
亮一 倉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2009203859A priority Critical patent/JP4937318B2/en
Publication of JP2011055349A publication Critical patent/JP2011055349A/en
Application granted granted Critical
Publication of JP4937318B2 publication Critical patent/JP4937318B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus capable of improving efficiency of adjustment operation of a camera by automatically correcting a distorted image from the camera. <P>SOLUTION: The image processing apparatus 10 includes a correction amount adjustment unit 14 that calculates a movement locus line on an image and calculating a parameter for correcting camera lens distortion as adjustment information based on the movement locus line when processing an image obtained by photographing a moving body of the camera 20. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カメラにより撮影された画像を処理する画像処理装置に関し、特にカメラの歪み補正を行なうための画像調整技術に関する。   The present invention relates to an image processing apparatus that processes an image captured by a camera, and more particularly to an image adjustment technique for correcting camera distortion.

近年、特に監視用カメラの高性能化及び低価格化の実現により、カメラにより撮影された画像(映像)を利用した監視システムの開発が推進されている。監視システムは、カメラにより撮影された画像を処理する画像処理装置を含み、この画像処理結果を利用して監視対象範囲の事象を検知するための情報(画像情報)を出力する。   In recent years, development of a monitoring system using an image (video) photographed by a camera has been promoted particularly by realizing high performance and low price of a monitoring camera. The monitoring system includes an image processing device that processes an image captured by the camera, and outputs information (image information) for detecting an event in the monitoring target range using the image processing result.

このような監視システムでは、カメラにより比較的広範囲な空間(監視対象範囲)を監視することが可能である。しかしながら、監視システムでは、監視精度がカメラにより撮影された画像の品質に依存するため、カメラに対する事前の調整作業が重要である。   In such a monitoring system, it is possible to monitor a relatively wide space (monitoring target range) with a camera. However, in the monitoring system, since the monitoring accuracy depends on the quality of the image taken by the camera, it is important to perform adjustment work on the camera in advance.

監視システムでは、カメラの設置台数がシステムのコストに直結するため、カメラの数をできる限り削減することが望ましい。このため、1台のカメラに対応する監視範囲を広くするために、カメラのレンズとして広角レンズが採用される場合が多い。但し、一般的に、広角レンズを使用した画像(広角画像)は、樽状に画像が歪み、画像の周辺部ほどその歪みが顕著になる。   In a surveillance system, the number of cameras installed is directly related to the cost of the system, so it is desirable to reduce the number of cameras as much as possible. For this reason, in order to widen the monitoring range corresponding to one camera, a wide-angle lens is often adopted as a camera lens. However, in general, an image using a wide-angle lens (wide-angle image) is distorted in a barrel shape, and the distortion becomes more prominent in the periphery of the image.

このような画像の歪みは、監視システムの監視性能を低下させる要因となる。そこで、この画像の歪みを除去するために、カメラ毎にカメラ校正を行なうための調整作業(初期調整作業)が必要となる。また、監視システムの設置後には、監視環境下における監視対象領域を指定するための現地調整作業も必要である。これらの調整作業はカメラ毎に必要となるため、多数のカメラを設置する際には非常に手間がかかる。従って、調整工数を削減する有効な方法が要望されている。   Such image distortion becomes a factor of deteriorating the monitoring performance of the monitoring system. Therefore, in order to remove the distortion of the image, adjustment work (initial adjustment work) for performing camera calibration is required for each camera. In addition, after the installation of the monitoring system, on-site adjustment work is required to designate the monitoring target area in the monitoring environment. Since these adjustment operations are required for each camera, it takes much time to install a large number of cameras. Therefore, an effective method for reducing the adjustment man-hour is desired.

広角画像の歪みを補正する方法を利用することで、広角レンズを使用したカメラに関する調整作業を効率化することが可能である。広角画像の歪みを補正する方法には、現実の対象高さが既知の条件で、対象高さと画像上の対象とを比較することで広角画像の歪みを補正する方法が提案されている(例えば、特許文献1を参照)。   By using a method for correcting distortion of a wide-angle image, it is possible to improve the efficiency of adjustment work related to a camera using a wide-angle lens. As a method for correcting distortion of a wide-angle image, a method of correcting distortion of a wide-angle image by comparing the object height with an object on the image under a condition where the actual object height is known (for example, , See Patent Document 1).

特開2008−52589号公報JP 2008-52589 A

前述の広角画像の歪みを補正する方法である先行技術は、調整用の対象物が必要であり、例えば監視対象領域で歩行している人間を監視するような監視システムに適用した場合に、当該補正を自動的に行なう調整機能を実現することは困難である。このため、先行技術の方法を単に適用しても、広角画像を利用する監視システムのカメラに関する調整作業の効率化を図ることは容易でない。   The prior art, which is a method for correcting the distortion of the wide-angle image described above, requires an object for adjustment. For example, when applied to a monitoring system that monitors a person walking in a monitoring target area, It is difficult to realize an adjustment function that automatically performs correction. For this reason, even if the method of the prior art is simply applied, it is not easy to improve the efficiency of the adjustment work related to the camera of the surveillance system using the wide-angle image.

そこで、本発明の目的は、カメラからの画像の歪みを補正する処理を自動的に行なうことを可能とすることで、カメラに関する調整作業の効率化を図ることができる画像処理装置を提供することにある。   SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an image processing apparatus capable of automatically performing a process for correcting distortion of an image from a camera, thereby improving the efficiency of adjustment work related to the camera. It is in.

本発明の観点は、カメラにより動体を撮影して得られる画像を処理するときに、画像上の移動軌跡線を算出し、この移動軌跡線に基づいてカメラのレンズ歪み補正パラメータを調整情報として算出する機能を有する画像処理装置である。   An aspect of the present invention calculates a movement trajectory line on an image when processing an image obtained by shooting a moving object with a camera, and calculates a lens distortion correction parameter of the camera as adjustment information based on the movement trajectory line. An image processing apparatus having a function of

本発明の観点に従った画像処理装置は、カメラにより撮影された画像情報を入力する画像入力手段と、前記画像情報から動体領域を抽出する手段と、前記動体領域から、動体の移動軌跡に応じた移動軌跡線情報を算出する軌跡算出手段と、前記移動軌跡線情報に基づいて、前記カメラのレンズ歪みに応じた前記画像情報の歪みを補正するための調整情報を算出する調整手段とを備えた構成である。   An image processing apparatus according to an aspect of the present invention includes an image input unit that inputs image information captured by a camera, a unit that extracts a moving object region from the image information, and the moving object region according to a moving locus of the moving object. Trajectory calculating means for calculating the moving trajectory line information, and adjusting means for calculating adjustment information for correcting distortion of the image information according to lens distortion of the camera based on the moving trajectory line information. It is a configuration.

本発明によれば、カメラからの画像の歪みを補正する処理を自動的に行なうことを可能とすることで、カメラに関する調整作業の効率化を図ることができる。   According to the present invention, it is possible to automatically perform the process of correcting the distortion of the image from the camera, so that the efficiency of the adjustment work related to the camera can be improved.

本発明の実施形態に関する画像処理装置の要部を示すブロック図。1 is a block diagram showing a main part of an image processing apparatus according to an embodiment of the present invention. 本実施形態に関する監視システムの構成を説明するためのブロック図。The block diagram for demonstrating the structure of the monitoring system regarding this embodiment. 本実施形態に関する画像調整処理を説明するためのフローチャート。6 is a flowchart for explaining image adjustment processing according to the embodiment. 本実施形態に関する画像調整処理の効果を説明するための図。The figure for demonstrating the effect of the image adjustment process regarding this embodiment.

以下図面を参照して、本発明の実施形態を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[画像処理装置の構成]
図1は本実施形態に関する画像処理装置の構成を説明するためのブロック図である。図2は、本実施形態に関する監視システムの構成を説明するためのブロック図である。
[Configuration of image processing apparatus]
FIG. 1 is a block diagram for explaining the configuration of an image processing apparatus according to this embodiment. FIG. 2 is a block diagram for explaining the configuration of the monitoring system according to this embodiment.

本実施形態の画像処理装置10は、後述する監視システム1に適用されて、監視カメラ(以下単にカメラと表記)20から伝送される画像(映像信号)を処理する。図1に示すように、画像処理装置10は、例えばマイクロプロセッサ及びメモリを含む電子部品が実装された画像処理専用基板(ボード)から構成されており、後述するコンピュータ100に組み込まれている。画像処理装置10は、主としてコンピュータのハードウェアとソフトウェアから構成されている。   The image processing apparatus 10 of the present embodiment is applied to a monitoring system 1 described later, and processes an image (video signal) transmitted from a monitoring camera (hereinafter simply referred to as a camera) 20. As shown in FIG. 1, the image processing apparatus 10 includes, for example, an image processing dedicated board (board) on which electronic components including a microprocessor and a memory are mounted, and is incorporated in a computer 100 described later. The image processing apparatus 10 is mainly composed of computer hardware and software.

画像処理装置10は、画像入力部11と、人間抽出部12と、特徴量抽出部13と、調整量算出部14と、初期調整部15と、調整結果出力部16とを有する。画像入力部11は、図2に示すように、監視対象領域200,210を俯瞰する画角で設置されたカメラ20により撮影された画像(映像)を入力する。画像入力部11は、入力した画像をディジタル画像データ(以下、画像情報と表記する)として演算可能な形式に変換する。   The image processing apparatus 10 includes an image input unit 11, a human extraction unit 12, a feature amount extraction unit 13, an adjustment amount calculation unit 14, an initial adjustment unit 15, and an adjustment result output unit 16. As shown in FIG. 2, the image input unit 11 inputs an image (video) taken by the camera 20 installed at an angle of view over which the monitoring target areas 200 and 210 are viewed. The image input unit 11 converts the input image into a format that can be calculated as digital image data (hereinafter referred to as image information).

人間抽出部12は、画像入力部11からの画像情報を処理することにより、画像上における動体の領域を抽出する。本実施形態は、後述するように、適用する監視システム1として、監視領域内の人数を計測するシステムを想定するため、動体として人間を取り扱う画像処理装置10である。なお、動体としては、監視システム1の適用に応じて、動物や車両なども含まれる。   The human extraction unit 12 processes the image information from the image input unit 11 to extract a moving object region on the image. As will be described later, the present embodiment is an image processing apparatus 10 that handles a human as a moving object in order to assume a system that measures the number of people in a monitoring area as the monitoring system 1 to be applied. In addition, as a moving body, according to application of the monitoring system 1, an animal, a vehicle, etc. are contained.

特徴量抽出部13は、抽出された画像上の人間領域から特徴量を抽出し、後述するように、当該特徴量に基づいて移動軌跡線情報を算出する。調整量算出部14は、特徴量抽出部13により算出された移動軌跡線情報に基づいて、初期調整に必要な調整量情報を算出する。ここで、調整量情報とは、特に広角レンズを用いる際に顕著となるカメラ20のレンズ歪み(収差歪み)を補正するためのパラメータ情報である。   The feature amount extraction unit 13 extracts a feature amount from a human region on the extracted image, and calculates movement trajectory line information based on the feature amount as described later. The adjustment amount calculation unit 14 calculates adjustment amount information necessary for the initial adjustment based on the movement trajectory line information calculated by the feature amount extraction unit 13. Here, the adjustment amount information is parameter information for correcting lens distortion (aberration distortion) of the camera 20 that is particularly noticeable when a wide-angle lens is used.

初期調整部15は、調整量算出部14により算出された調整量情報を使用して、画像情報に対する初期調整を実行する。即ち、初期調整部15は、カメラ20のレンズ歪みに応じた画像の歪みを除去するカメラ校正処理(画像調整処理)を実行する。調整結果出力部16は、初期調整部15により初期調整された画像情報を、監視システム1に含まれる監視処理部30に出力する。   The initial adjustment unit 15 uses the adjustment amount information calculated by the adjustment amount calculation unit 14 to perform initial adjustment on the image information. That is, the initial adjustment unit 15 executes camera calibration processing (image adjustment processing) for removing image distortion corresponding to lens distortion of the camera 20. The adjustment result output unit 16 outputs the image information initially adjusted by the initial adjustment unit 15 to the monitoring processing unit 30 included in the monitoring system 1.

監視処理部30は、監視システム1の主要処理部であり、カメラ20により撮影された画像情報(初期調整後)から監視領域内に存在する人数や分布を計測する処理などを実行する。ここで、監視システム1は、図2に示すように、画像処理10及び監視処理部30を含むコンピュータ100と、空調制御、照明制御、電源制御などを行なうためのコンピュータ110と、監視領域(監視対象空間)200,210毎に設置されている複数のカメラ20と、ネットワーク120とから構成されている。   The monitoring processing unit 30 is a main processing unit of the monitoring system 1 and executes processing for measuring the number of people and distribution existing in the monitoring area from image information (after initial adjustment) taken by the camera 20. Here, as shown in FIG. 2, the monitoring system 1 includes a computer 100 including an image processing 10 and a monitoring processing unit 30, a computer 110 for performing air conditioning control, lighting control, power control, and the like, and a monitoring area (monitoring). (Target space) 200 and 210 are configured by a plurality of cameras 20 and a network 120.

監視システム1のコンピュータ100は、各カメラ20により撮影された画像を入力して処理することで、監視領域内200,210に存在する人間の人数や分布を監視する。監視システム1は、例えば、ビルや工場等において、監視対象領域に存在する人間の人数や分布を監視することにより、コンピュータ110と連携して空調や照明、電源を制御し、ビルや工場等の環境を最適に維持する。   The computer 100 of the monitoring system 1 monitors the number and distribution of humans existing in the monitoring areas 200 and 210 by inputting and processing images captured by the cameras 20. The monitoring system 1 controls the air conditioning, lighting, and power supply in cooperation with the computer 110 by monitoring the number and distribution of people existing in the monitoring target area in, for example, buildings and factories. Maintain the environment optimally.

[画像調整処理]
次に、図3及び図4を参照して、本実施形態の画像調整処理として初期調整処理を説明する。
[Image adjustment processing]
Next, an initial adjustment process will be described as an image adjustment process of the present embodiment with reference to FIGS.

まず、一般的に、監視システム1で使用されるカメラ20の装着レンズには、監視対象領域を広範囲にカバーできる広角レンズまたは超広角レンズ(魚眼レンズも含む)が用いられている。このようなカメラ20により撮影された画像は、例えば、図4(A)に示すように、レンズの歪み(収差歪み)により樽状に歪んだ画像となる場合がある。歪みのある画像のままでは、実空間上の3次元情報からカメラ画像上の2次元情報へのモデリングが扱いにくく、画像上における人間の抽出性能や人数計測性能が低下する可能性がある。   First, in general, a wide-angle lens or a super-wide-angle lens (including a fish-eye lens) that can cover a wide range of a monitoring target area is used as a mounting lens of the camera 20 used in the monitoring system 1. An image captured by such a camera 20 may be an image distorted in a barrel shape due to lens distortion (aberration distortion), for example, as shown in FIG. If the image is distorted, modeling from three-dimensional information in real space to two-dimensional information on the camera image is difficult to handle, and there is a possibility that human extraction performance and people counting performance on the image may be reduced.

ここで、図4(A)は、広角レンズを用いたカメラにより撮影された白黒の校正用矩形パターンの画像である。図4(A)に示すように、特に画像の周辺部では、歪みの割合が大きくなる。本実施形態の画像処理装置10により、図4(B)に示すように、歪みを補正した画像が取得できるように、カメラ毎に初期調整処理を行なう。   Here, FIG. 4A is an image of a black and white calibration rectangular pattern photographed by a camera using a wide-angle lens. As shown in FIG. 4A, the distortion rate increases particularly in the periphery of the image. As shown in FIG. 4B, the image processing apparatus 10 according to the present embodiment performs an initial adjustment process for each camera so that an image with corrected distortion can be acquired.

以下、図3のフローチャートを参照して、初期調整処理、具体的にはカメラ20により撮影された画像のレンズ歪み(収差歪み)を補正するための調整処理方法を説明する。   Hereinafter, an initial adjustment process, specifically, an adjustment process method for correcting lens distortion (aberration distortion) of an image taken by the camera 20 will be described with reference to the flowchart of FIG.

まず、初期調整モード時に、画像処理装置10は、カメラ20により撮影された画像を画像入力部11で入力する(ステップS1)。ここで、カメラ20は、監視対象領域200内で、人間(即ち、動体)が歩行(移動)するシーンを撮影することを想定する。このとき、人間は、できる限り直線状に歩行するものとする。   First, in the initial adjustment mode, the image processing apparatus 10 inputs an image captured by the camera 20 with the image input unit 11 (step S1). Here, it is assumed that the camera 20 captures a scene in which a human (that is, a moving object) walks (moves) within the monitoring target area 200. At this time, it is assumed that a human walks as straight as possible.

人間抽出部12は、画像入力部11からの画像情報に対する背景差分処理等の画像処理を実行することにより、画像上で動体(人間)を追跡し、動体領域(人間領域)を抽出する(ステップS2)。   The human extraction unit 12 performs image processing such as background difference processing on the image information from the image input unit 11, thereby tracking the moving object (human) on the image and extracting the moving object region (human region) (step) S2).

特徴量抽出部13は、抽出された画像上の動体領域から特徴量を抽出する。即ち、特徴量抽出部13は、動体領域から人間の頭部あるいは胴体を抽出し、その領域の中心点(以下、人間抽出点と表記する場合がある)を時系列に結合した軌跡線(移動軌跡線情報)として算出する(ステップS3)。ここで、頭部を抽出する具体的方法の一例としては、画像情報に対してソーベル(Sobel)フィルタ等の画像処理により輪郭を抽出し、抽出された輪郭画像を適切な閾値により2値画像化する。さらに、得られた輪郭部分の画素に関して、ハフ変換(Hough transformation)を実行してハフ空間上に投票を行なう。このハフ変換により、画像中の円形部分を抽出し、人間の頭部として抽出する。   The feature amount extraction unit 13 extracts a feature amount from the moving object region on the extracted image. In other words, the feature quantity extraction unit 13 extracts a human head or torso from a moving body region, and tracks a trajectory line (movement) that combines the center points of the region (hereinafter sometimes referred to as human extracted points) in time series. (Track line information) is calculated (step S3). Here, as an example of a specific method of extracting the head, a contour is extracted from image information by image processing such as a Sobel filter, and the extracted contour image is converted into a binary image with an appropriate threshold value. To do. Further, a Hough transformation is performed on the obtained pixels of the contour portion to vote on the Hough space. By this Hough transform, a circular portion in the image is extracted and extracted as a human head.

ところで、得られた移動軌跡線情報には、人間の歩行誤差や画像処理による抽出誤差が含まれるため、そのままこれを直線データとして用いると、十分な精度でレンズ歪み補正を実行できない可能性がある。そこで、特徴量抽出部13は、次の2つの処理を実行することで誤差を排除して、直線入力データ(基準軌跡線情報)を算出する(ステップS4)。   By the way, since the obtained movement trajectory line information includes a human walking error and an extraction error due to image processing, if this is used as it is as straight line data, there is a possibility that lens distortion cannot be corrected with sufficient accuracy. . Therefore, the feature amount extraction unit 13 calculates the straight line input data (reference trajectory line information) by executing the following two processes to eliminate the error (step S4).

まず、特徴量抽出部13は、明らかに人間の歩行が直線でないときのデータを排除するため、過去N枚の画像上の人間抽出点から平均ベクトルを算出する。さらに、特徴量抽出部13は、過去M枚(但し、N>M)の画像と現在の画像上の人間抽出点から得られるベクトルと前記平均ベクトルとを比較し、設定値以上の角度がある場合には、急激な歩行方向の変化があり直線歩行ではないと判断することで追跡を終了する。   First, the feature amount extraction unit 13 calculates an average vector from human extracted points on the past N images in order to eliminate data when the human walk is obviously not a straight line. Further, the feature amount extraction unit 13 compares the average vector with the past M images (however, N> M), the vector obtained from the human extracted points on the current image, and has an angle greater than the set value. In such a case, tracking is terminated by determining that there is a sudden change in walking direction and that the walking is not a straight line.

次に、特徴量抽出部13は、それぞれの移動軌跡線に対して2次の近似曲線を当てはめることにより、人間抽出点の推定誤差を低減し、これを「直線入力データ」として以降の処理に用いる。直線入力データは、画像上において周辺部、即ち歪みの影響が比較的強い領域でのデータが得られるほど、以降で述べる歪み補正の精度が高くなる。   Next, the feature quantity extracting unit 13 reduces the estimation error of the human extracted point by applying a quadratic approximate curve to each movement trajectory line, and uses this as “linear input data” for subsequent processing. Use. As the straight line input data is obtained in the peripheral portion on the image, that is, in a region where the influence of distortion is relatively strong, the accuracy of distortion correction described below increases.

次に、調整量算出部14は、初期調整に必要な調整量情報として、カメラ20のレンズ歪み(収差歪み)を補正するためのパラメータ情報(レンズ歪み係数k,k)を算出する(ステップS5)。パラメータ情報は、特に広角レンズを用いる際に顕著となるレンズ歪み(収差歪み)である。以下、数式(1)〜(6)を参照して、調整量情報を算出するための方法を説明する。 Next, the adjustment amount calculation unit 14 calculates parameter information (lens distortion coefficients k 1 and k 2 ) for correcting lens distortion (aberration distortion) of the camera 20 as adjustment amount information necessary for initial adjustment ( Step S5). The parameter information is lens distortion (aberration distortion) that is particularly noticeable when a wide-angle lens is used. Hereinafter, a method for calculating the adjustment amount information will be described with reference to Equations (1) to (6).

まず、レンズの歪みを同定し、実空間上の3次元情報からカメラ画像上の2次元情報への射影を、行列で表現できるピンホールカメラモデルを想定する。即ち、レンズの歪みの発生を次のようにモデル化する。ここで、カメラのレンズ中心(主点)を下記数式(1)により定義する。また、補正前にレンズ歪みの影響を受けて観測された画像座標を、下記数式(2)により定義する。さらに、補正後にレンズ歪みの影響を受けない理想の画像座標(理想画像座標)を、下記数式(3)により定義する。

Figure 2011055349
First, a pinhole camera model is assumed in which lens distortion is identified, and projection from 3D information in real space to 2D information on a camera image can be expressed by a matrix. That is, the generation of lens distortion is modeled as follows. Here, the lens center (principal point) of the camera is defined by the following mathematical formula (1). Further, image coordinates observed under the influence of lens distortion before correction are defined by the following mathematical formula (2). Furthermore, ideal image coordinates (ideal image coordinates) that are not affected by lens distortion after correction are defined by the following mathematical formula (3).
Figure 2011055349

さらに、レンズ歪み補正に関するモデル式(4)〜(6)は、以下の通りである。

Figure 2011055349
Further, model equations (4) to (6) relating to lens distortion correction are as follows.
Figure 2011055349

ここで、レンズ歪み係数k,kは、初期調整に必要な調整量情報として、カメラ20のレンズ歪み(収差歪み)を補正するためのパラメータ情報である。また、αは、カメラ20の撮像素子の縦横比に関するパラメータであり、一般的には「α=1」して近似できる。従って、実際上のレンズ歪み補正パラメータ情報は、レンズ歪み係数k,kである。また、rは、カメラのレンズ中心(主点)からの距離を示す。 Here, the lens distortion coefficients k 1 and k 2 are parameter information for correcting lens distortion (aberration distortion) of the camera 20 as adjustment amount information necessary for initial adjustment. Α is a parameter relating to the aspect ratio of the image sensor of the camera 20, and can generally be approximated by “α = 1”. Therefore, the actual lens distortion correction parameter information is the lens distortion coefficients k 1 and k 2 . R represents the distance from the lens center (principal point) of the camera.

特徴量抽出部13により算出された直線入力データの画像上での各画素について、前記のモデル式(4)〜(6)にレンズ歪み係数k,kなどのパラメータを当てはめることにより、前記式(3)に示す理想画像座標を算出する。この理想画像座標に対して、ハフ変換を実行してハフ空間上に投票を行う。仮に補正が正しければ、各直線入力データに対応するハフ空間上の点の値は鋭いピークとなる。このピークの鋭さを評価することで、最適なレンズ歪み係数k,kを決定することができ、レンズの歪みを補正することが可能となる。 By applying parameters such as lens distortion coefficients k 1 and k 2 to the model equations (4) to (6) for each pixel on the image of the linear input data calculated by the feature amount extraction unit 13, The ideal image coordinates shown in Expression (3) are calculated. A voting is performed on the Hough space by executing the Hough transformation on the ideal image coordinates. If the correction is correct, the value of the point on the Hough space corresponding to each straight line input data has a sharp peak. By evaluating the sharpness of the peak, the optimum lens distortion coefficients k 1 and k 2 can be determined, and the lens distortion can be corrected.

初期調整部15は、調整量算出部14により算出された調整量情報(最適なレンズの歪みパラメータ)を使用して、画像情報に対する初期調整を実行する。即ち、初期調整部15は、カメラ20のレンズ歪みに応じた画像の歪みを補正するカメラ校正処理(画像調整処理)を実行する。調整結果出力部16は、初期調整部15により初期調整された画像情報を、監視システム1に含まれる監視処理部30に出力する。   The initial adjustment unit 15 uses the adjustment amount information (optimal lens distortion parameter) calculated by the adjustment amount calculation unit 14 to perform initial adjustment on the image information. That is, the initial adjustment unit 15 executes camera calibration processing (image adjustment processing) for correcting image distortion in accordance with lens distortion of the camera 20. The adjustment result output unit 16 outputs the image information initially adjusted by the initial adjustment unit 15 to the monitoring processing unit 30 included in the monitoring system 1.

以上のように本実施形態の画像処理装置10であれば、特に広角レンズを使用するカメラ20からの撮影画像に基づいて、監視対象領域に存在する人間などの動体を抽出し、人人数や人の分布を監視する監視システム1において、レンズの歪み(収差歪み)に応じた画像の歪みを補正するための初期調整を自動化する機能を実現することができる。これにより、特に多数のカメラを設置して広範囲の監視領域を監視するシステムに適用した場合に、各カメラ毎に必要な初期調整の作業を効率化することが可能となる。換言すれば、監視対象領域に存在する人間を撮影し、この撮影画像を画像処理により解析することで、特別な調整用の装置を必要とせずに、カメラ20の設置後に現地で容易に初期調整を行なうことが可能となり、調整工数を削減することができる。   As described above, in the case of the image processing apparatus 10 according to the present embodiment, a moving object such as a person existing in the monitoring target area is extracted based on a photographed image from the camera 20 that uses a wide-angle lens, and the number of people and people In the monitoring system 1 that monitors the distribution of the image, it is possible to realize a function of automating the initial adjustment for correcting the distortion of the image according to the distortion of the lens (aberration distortion). This makes it possible to improve the efficiency of the initial adjustment required for each camera, particularly when a large number of cameras are installed and applied to a system that monitors a wide monitoring area. In other words, a person existing in the monitoring target area is photographed, and the photographed image is analyzed by image processing, so that an initial adjustment can be easily performed on site after installation of the camera 20 without requiring a special adjustment device. This makes it possible to reduce the adjustment man-hours.

例えばビルや工場などにおいて、空調・照明・電源等の設備システムとの連携による省エネシステムを実現するような場合に、監視領域に存在する人間の有無、分布、人数等を把握するための監視システムに、本実施形態の画像処理装置10を適用すれば有効である。   For example, in a building or factory, a monitoring system for grasping the presence / absence, distribution, number of people, etc. in the monitoring area when realizing an energy-saving system in cooperation with an air conditioning / lighting / power supply equipment system In addition, it is effective if the image processing apparatus 10 of the present embodiment is applied.

ここで、本実施形態では、動体として人間を監視対象とした場合について説明している。この場合、人間が直線的に歩行することを想定し、特徴抽出部13により人間の頭部あるいは胴体の中心を移動軌跡線として算出する。これを、画像上に存在する直線入力データとして想定する。即ち、実空間上を人間がほぼ直線的に歩行しているため、画像処理により計測された移動軌跡線は、画像上においても直線を示すと想定できるためである。   Here, in the present embodiment, a case where a human being is monitored as a moving object is described. In this case, assuming that the person walks linearly, the feature extraction unit 13 calculates the center of the human head or torso as the movement trajectory line. This is assumed as linear input data existing on the image. In other words, since a human is walking in a straight line in the real space, it can be assumed that the movement trajectory line measured by the image processing also shows a straight line on the image.

しかし、実際上では、レンズの収差歪みの影響により、実際には直線とならず、歪んだ移動軌跡線となる。そこで、この移動軌跡線を直線にすることで、前記モデル式(1)〜(6)から最適なレンズ歪み補正パラメータを算出する。即ち、直線的歩行の移動軌跡線をレンズ歪み補正用の基準移動軌跡線として用いて、明らかに直線的歩行でない場合の移動軌跡線を基準移動軌跡線から除外する処理を行なう。   However, in practice, due to the influence of the aberration distortion of the lens, it is not actually a straight line but a distorted movement trajectory line. Therefore, the optimal lens distortion correction parameter is calculated from the model equations (1) to (6) by making the movement locus line a straight line. In other words, a process for excluding the movement trajectory line when it is clearly not a linear walk from the reference movement trajectory line is performed using the movement trajectory line of the linear walking as the reference movement trajectory line for lens distortion correction.

なお、本実施形態の画像処理装置10は、人間以外の動体、例えば動物や車両を監視対象とする場合にも、適用可能である。但し、画像処理により算出する移動軌跡線情報は、動体の特徴に応じて異なる。   Note that the image processing apparatus 10 according to the present embodiment can also be applied to a case where a moving object other than a human, for example, an animal or a vehicle is a monitoring target. However, the movement trajectory line information calculated by image processing differs depending on the characteristics of the moving object.

なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。   Note that the present invention is not limited to the above-described embodiment as it is, and can be embodied by modifying the constituent elements without departing from the scope of the invention in the implementation stage. In addition, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the embodiment. For example, some components may be deleted from all the components shown in the embodiment. Furthermore, constituent elements over different embodiments may be appropriately combined.

1…監視システム、10…画像処理装置、11…画像入力部、12…人間抽出部、
13…特徴量抽出部、14…調整量算出部、15…初期調整部、
16…調整結果出力部、20…監視カメラ、30…監視処理部、
100,110…コンピュータ。
DESCRIPTION OF SYMBOLS 1 ... Monitoring system, 10 ... Image processing apparatus, 11 ... Image input part, 12 ... Human extraction part,
13 ... feature amount extraction unit, 14 ... adjustment amount calculation unit, 15 ... initial adjustment unit,
16 ... Adjustment result output unit, 20 ... Monitoring camera, 30 ... Monitoring processing unit,
100, 110: Computer.

Claims (12)

カメラにより撮影された画像情報を入力する画像入力手段と、
前記画像情報から動体領域を抽出する手段と、
前記動体領域から、動体の移動軌跡に応じた画像上の移動軌跡線情報を算出する軌跡算出手段と、
前記移動軌跡線情報に基づいて、前記カメラのレンズ歪みに応じた前記画像情報の歪みを補正するための調整情報を算出する調整手段と
を具備したことを特徴とする画像処理装置。
Image input means for inputting image information captured by the camera;
Means for extracting a moving object region from the image information;
Trajectory calculation means for calculating movement trajectory line information on an image according to the moving trajectory of the moving object from the moving object region;
An image processing apparatus comprising: adjusting means for calculating adjustment information for correcting distortion of the image information in accordance with lens distortion of the camera based on the movement trajectory line information.
前記調整手段は、
前記カメラのレンズ歪み係数、前記移動軌跡線情報に含まれる画像座標及び理想画像座標のそれぞれをパラメータとするモデルを使用して、前記レンズ歪み係数の最適値を決定し、
前記最適値に基づいて前記調整情報を算出するように構成されていることを特徴とする請求項1に記載の画像処理装置。
The adjusting means includes
Using the model with the lens distortion coefficient of the camera, each of image coordinates and ideal image coordinates included in the movement trajectory line information as parameters, determine the optimum value of the lens distortion coefficient,
The image processing apparatus according to claim 1, wherein the adjustment information is calculated based on the optimum value.
前記モデルとして、前記レンズ歪み係数以外に、レンズ中心の画像座標、前記移動軌跡線情報に含まれる画像座標として補正前のレンズ歪みに応じた画像座標、及び前記理想画像座標として補正後のレンズ歪みの影響を受けない画像座標のそれぞれをパラメータとして構築されるモデルを使用し、
前記調整手段は、
前記モデルから前記理想画像座標を算出する結果に基づいて、前記レンズ歪み係数の最適値を決定するように構成されていることを特徴とする請求項2に記載の画像処理装置。
As the model, in addition to the lens distortion coefficient, the image coordinates of the lens center, the image coordinates corresponding to the lens distortion before correction as the image coordinates included in the movement trajectory line information, and the lens distortion after correction as the ideal image coordinates Using a model built with each of the image coordinates unaffected by
The adjusting means includes
The image processing apparatus according to claim 2, wherein an optimum value of the lens distortion coefficient is determined based on a result of calculating the ideal image coordinates from the model.
前記軌跡算出手段は、前記動体の直線的移動に応じた移動軌跡線情報を算出することを特徴とする請求項1から請求項3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the trajectory calculating unit calculates moving trajectory line information according to a linear movement of the moving object. 前記調整手段は、
前記モデルを使用して算出した前記理想画像座標に対するハフ変換を実行し、当該ハフ変換の結果に基づいて前記レンズ歪み係数の最適値を決定する手段を含むことを特徴とする請求項3に記載の画像処理装置。
The adjusting means includes
4. The apparatus according to claim 3, further comprising means for executing a Hough transform on the ideal image coordinates calculated using the model and determining an optimum value of the lens distortion coefficient based on a result of the Hough transform. Image processing apparatus.
前記軌跡算出手段は、
前記動体領域から動体として人間の特徴を抽出し、当該人間の直線的移動に応じた移動軌跡線情報を算出するように構成されていることを特徴とする請求項1から請求項5のいずれか1項に記載の画像処理装置。
The locus calculating means includes
6. The apparatus according to claim 1, wherein a human feature is extracted as a moving object from the moving object region, and movement trajectory line information corresponding to the linear movement of the human is calculated. The image processing apparatus according to item 1.
前記軌跡算出手段は、
前記動体領域から各動体を画像内で追跡し、追跡した各動体の代表部位の移動軌跡線に応じた移動軌跡線情報を算出することを特徴とする請求項1から請求項6のいずれか1項に記載の画像処理装置。
The locus calculating means includes
The moving track line information corresponding to the moving track line of the representative part of each tracked moving body is calculated by tracking each moving body in the image from the moving body region. The image processing apparatus according to item.
前記軌跡算出手段により算出された前記移動軌跡線情報において、移動軌跡線の傾きが一様に変化していない場合に、前記移動軌跡線情報を無効にする手段を有することを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。   The movement trajectory line information calculated by the trajectory calculation means includes means for invalidating the movement trajectory line information when the inclination of the movement trajectory line does not change uniformly. The image processing apparatus according to claim 1. 請求項1から請求項8のいずれか1項に記載の画像処理装置を使用し、
監視対象範囲を撮影する前記カメラからの画像情報に基づいて、前記監視対象範囲に存在する人数を計測する手段と、
前記画像処理装置から出力される前記調整情報を使用して、前記画像情報に対するカメラの歪み補正処理を実行する手段と
を具備したことを特徴とする監視システム。
Using the image processing apparatus according to any one of claims 1 to 8,
Means for measuring the number of persons present in the monitoring target range based on image information from the camera that images the monitoring target range;
A monitoring system comprising: means for performing camera distortion correction processing on the image information using the adjustment information output from the image processing apparatus.
ボード上に実装されたマイクロプロセッサ及びメモリを含む電子部品により構成されていることを特徴とする請求項1から請求項7のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, comprising an electronic component including a microprocessor and a memory mounted on a board. カメラにより撮影された画像情報を処理する画像処理装置に適用する画像調整方法であって、
前記画像情報を入力する処理と、
前記画像情報から動体領域を抽出する処理と、
前記動体領域から、動体の移動軌跡に応じた画像上の移動軌跡線情報を算出する処理と、
前記移動軌跡線情報に基づいて、前記カメラのレンズ歪みに応じた前記画像情報の歪みを補正するための調整情報を算出する処理と
を実行することを特徴とする画像調整方法。
An image adjustment method applied to an image processing apparatus that processes image information captured by a camera,
A process of inputting the image information;
A process of extracting a moving object region from the image information;
A process of calculating movement trajectory line information on an image corresponding to the movement trajectory of the moving object from the moving object region;
A process for calculating adjustment information for correcting distortion of the image information according to lens distortion of the camera based on the movement trajectory line information.
前記画像情報を入力する処理と、
前記画像情報から動体領域を抽出する処理と、
前記動体領域から、動体の移動軌跡に応じた移動軌跡線情報を算出する処理と、
前記移動軌跡線情報に基づいて、前記カメラのレンズ歪みに応じた前記画像情報の歪みを補正するための調整情報を算出する処理と
を有する手順をコンピュータに実行させるプログラム。
A process of inputting the image information;
A process of extracting a moving object region from the image information;
A process of calculating movement trajectory line information corresponding to the movement trajectory of the moving object from the moving object region;
A program for causing a computer to execute a procedure including a process of calculating adjustment information for correcting distortion of the image information in accordance with lens distortion of the camera based on the movement trajectory line information.
JP2009203859A 2009-09-03 2009-09-03 Image processing apparatus and image adjustment method Expired - Fee Related JP4937318B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009203859A JP4937318B2 (en) 2009-09-03 2009-09-03 Image processing apparatus and image adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009203859A JP4937318B2 (en) 2009-09-03 2009-09-03 Image processing apparatus and image adjustment method

Publications (2)

Publication Number Publication Date
JP2011055349A true JP2011055349A (en) 2011-03-17
JP4937318B2 JP4937318B2 (en) 2012-05-23

Family

ID=43943882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009203859A Expired - Fee Related JP4937318B2 (en) 2009-09-03 2009-09-03 Image processing apparatus and image adjustment method

Country Status (1)

Country Link
JP (1) JP4937318B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115103169A (en) * 2022-06-10 2022-09-23 深圳市火乐科技发展有限公司 Projection picture correction method, projection picture correction device, storage medium and projection equipment
WO2024009528A1 (en) * 2022-07-05 2024-01-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Camera parameter calculation device, camera parameter calculation method, and camera parameter calculation program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127083A (en) * 2004-10-28 2006-05-18 Aisin Seiki Co Ltd Image processing method, and image processor
JP2008052589A (en) * 2006-08-25 2008-03-06 Konica Minolta Holdings Inc Method for correcting distortion of wide angle image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006127083A (en) * 2004-10-28 2006-05-18 Aisin Seiki Co Ltd Image processing method, and image processor
JP2008052589A (en) * 2006-08-25 2008-03-06 Konica Minolta Holdings Inc Method for correcting distortion of wide angle image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115103169A (en) * 2022-06-10 2022-09-23 深圳市火乐科技发展有限公司 Projection picture correction method, projection picture correction device, storage medium and projection equipment
CN115103169B (en) * 2022-06-10 2024-02-09 深圳市火乐科技发展有限公司 Projection picture correction method, projection picture correction device, storage medium and projection device
WO2024009528A1 (en) * 2022-07-05 2024-01-11 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Camera parameter calculation device, camera parameter calculation method, and camera parameter calculation program

Also Published As

Publication number Publication date
JP4937318B2 (en) 2012-05-23

Similar Documents

Publication Publication Date Title
CN110599540B (en) Real-time three-dimensional human body shape and posture reconstruction method and device under multi-viewpoint camera
US10339386B2 (en) Unusual event detection in wide-angle video (based on moving object trajectories)
JP6735592B2 (en) Image processing apparatus, control method thereof, and image processing system
JP4633841B2 (en) Estimating 3D road layout from video sequences by tracking pedestrians
KR101791590B1 (en) Object pose recognition apparatus and method using the same
US10083513B2 (en) Information presentation device, stereo camera system, and information presentation method
WO2019075948A1 (en) Pose estimation method for mobile robot
JP6444283B2 (en) Posture determination device
WO2017215351A1 (en) Method and apparatus for adjusting recognition range of photographing apparatus
WO2022107647A1 (en) Information processing device, system, information processing method, and information processing program
KR101111503B1 (en) Apparatus for controlling Pan/Tilt/Zoom camera in omnidirectional and method for the same
WO2017187694A1 (en) Region of interest image generating device
JP2020197989A5 (en) Image processing systems, image processing methods, and programs
CN110910449B (en) Method and system for identifying three-dimensional position of object
JP6977337B2 (en) Site recognition method, device, program, and imaging control system
CN110751685B (en) Depth information determination method, determination device, electronic device and vehicle
CN116612374A (en) Structured light-based human face living body detection model safety test method and system
CN111684458B (en) Target detection method, target detection device and unmanned aerial vehicle
KR20140114594A (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP4937318B2 (en) Image processing apparatus and image adjustment method
JP6799325B2 (en) Image correction device, image correction method, attention point recognition device, attention point recognition method and abnormality detection system
CN103455998B (en) The detection method and device of shade in video image
WO2020153264A1 (en) Calibration method and calibration device
JP2016149678A (en) Camera calibration unit, camera calibration method and camera calibration program
JP7040511B2 (en) Information processing equipment and methods

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120124

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120221

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4937318

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150302

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees