JP4839330B2 - Image processing apparatus and image processing program - Google Patents
Image processing apparatus and image processing program Download PDFInfo
- Publication number
- JP4839330B2 JP4839330B2 JP2008050976A JP2008050976A JP4839330B2 JP 4839330 B2 JP4839330 B2 JP 4839330B2 JP 2008050976 A JP2008050976 A JP 2008050976A JP 2008050976 A JP2008050976 A JP 2008050976A JP 4839330 B2 JP4839330 B2 JP 4839330B2
- Authority
- JP
- Japan
- Prior art keywords
- screen
- information
- pixel
- image processing
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 127
- 238000012544 monitoring process Methods 0.000 claims description 68
- 238000000034 method Methods 0.000 claims description 61
- 230000008569 process Effects 0.000 claims description 40
- 238000005259 measurement Methods 0.000 claims description 16
- 239000000126 substance Substances 0.000 claims 2
- 230000006870 function Effects 0.000 description 10
- 230000008859 change Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000000605 extraction Methods 0.000 description 8
- 238000009434 installation Methods 0.000 description 7
- 238000012217 deletion Methods 0.000 description 3
- 230000037430 deletion Effects 0.000 description 3
- 238000012821 model calculation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008685 targeting Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
本発明は、単眼カメラ(1台のカメラ)で撮影した画像を処理対象とした画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for processing an image captured by a monocular camera (one camera).
カメラにより撮像された映像上の世界座標を求める手法としては、カメラ情報や、カメラ設置条件を利用した3次元計測等により、2次元の画面上にて3次元座標を求め、画面上の位置を求めるといった手法等がある。 As a method for obtaining the world coordinates on the image captured by the camera, the three-dimensional coordinates are obtained on the two-dimensional screen by the camera information, the three-dimensional measurement using the camera installation conditions, and the position on the screen is obtained. There are methods such as seeking.
この種のシステムとして、同一人物を2台以上の非同期カメラで撮影して、人物の3次元的な頭頂部位置を推定する、人物位置を推定するカメラシステムが存在した(特許文献1参照)。 As this type of system, there is a camera system that estimates the position of a person by photographing the same person with two or more asynchronous cameras and estimating the three-dimensional top position of the person (see Patent Document 1).
しかしながら、上記手法によるカメラ技術は、カメラ情報や設置位置を正確に測定する必要があり、また、カメラの設置位置によっては、測定が不可能な場合も存在するという問題があった。また、画像処理において、画面上に出現した変化領域からオブジェクトを特定する場合等、オブジェクトの存在位置がカメラからどの程度離れた位置なのか、オブジェクトの幅、高さが実際にどの程度の大きさなのかといった情報を利用する必要があり、カメラ映像から変化領域を抽出して、画像上のサイズのみで判断を行ったりするが、画面手前の小動物と画面奥の人物など対象物の大きさが異なり、その存在位置を正しく算出することができないという問題があった。
上述したように、従来のカメラ画像を対象とした画像処理技術に於いては、設置並びに設定に多くの時間を要するという問題があり、認識精度の面でも問題があった。 As described above, the conventional image processing technology for camera images has a problem that it takes a lot of time for installation and setting, and there is also a problem in terms of recognition accuracy.
本発明は、上記問題点を解消し、簡単な設定で、単眼カメラの画像から、精度の高いオブジェクト位置の推定を可能にした、画像処理装置および画像処理プログラムを提供することを目的とする。 It is an object of the present invention to provide an image processing apparatus and an image processing program that can solve the above-described problems and can estimate an object position with high accuracy from an image of a monocular camera with simple settings.
本発明は、単眼カメラの監視範囲のうち、地平面上の監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3枚以上のサンプル画像中のサンプル対象物についての画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求め、オブジェクトの接地位置からの奥行き方向画素位置から、前記画面上の奥行き方向の各画素を、前記地上面上での奥行き方向の前記実距離に対応した実距離テーブルを作成する実距離テーブル取得手段と、前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向の各画素を、前記地平面上での奥行き方向の各距離毎に、前記地平面上の監視範囲を基準とした座標系における横方向実座標に対応付けた横方向重みテーブルを作成する横方向重みテーブル取得手段と、前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向の各画素位置について、これに対応する奥行き方向実距離において、1画素が有する実高さ幅を格納する縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、前記各取得手段により作成された前記画素単位の実距離テーブル、前記画面上の横方向重みテーブル、および前記画面上の縦方向重みテーブルを参照テーブルとして保持し、少なくとも前記画素単位の実距離テーブルを用いて、前記単眼カメラで撮影した前記オブジェクトの実在位置を認識する画像処理を実行する画像処理手段と、を具備した画像処理装置を提供する。 The present invention relates to information on four vertices on a screen indicating a monitoring range on the ground plane among monitoring ranges of a monocular camera, and screen information about sample objects in three or more sample images taken by the monocular camera. Based on the actual measurement information, the actual distance to the pixels in the depth direction on the screen is obtained by an exponential approximation formula, and each pixel in the depth direction on the screen is determined from the depth direction pixel position from the ground contact position of the object . An actual distance table acquisition means for creating an actual distance table corresponding to the actual distance in the depth direction on the ground surface , information on the actual distance table in units of pixels, and four vertices on the screen indicating the monitoring range; information and, on the basis of the screen information and the actual information on the sample object in said three or more sample images, laterally from the ground position of the object on the screen Determined by linear approximation formula weight of the actual distance to the pixel, the coordinates of each pixel in the horizontal direction on the screen, for each distance in the depth direction on the ground plane, relative to the monitoring area on the ground plane Horizontal weight table acquisition means for creating a horizontal weight table associated with the horizontal real coordinates in the system , information on the actual distance table in pixel units, information on the four vertices on the screen indicating the monitoring range, Based on the screen information and the actual measurement information about the sample object in the three or more sample images , a linear approximation formula is used to calculate the weight of the actual distance for the vertical pixel from the ground contact position of the object on the screen. the calculated, for each pixel position in the vertical direction on the screen, in the depth direction actual distance corresponding to the vertical direction to create a longitudinal weight table that stores real height width 1 pixel has A weight table acquisition unit, an actual distance table in units of pixels created by each acquisition unit, a horizontal weight table on the screen, and a vertical weight table on the screen are stored as reference tables, and at least the pixels There is provided an image processing apparatus comprising image processing means for executing image processing for recognizing an actual position of the object photographed by the monocular camera using a unit real distance table.
また、本発明は、単眼カメラの画像処理装置としてコンピュータを機能させるための画像処理プログラムであって、単眼カメラの監視範囲のうち、地平面上の監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3枚以上のサンプル画像中のサンプル対象物についての画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求め、オブジェクトの接地位置からの奥行き方向画素位置から、前記画面上の奥行き方向の各画素を、前記地上面上での奥行き方向の前記実距離に対応した実距離テーブルを作成する機能と、前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向の各画素を、前記地平面上での奥行き方向の各距離毎に、前記地平面上の監視範囲を基準とした座標系における横方向実座標に対応付けた横方向重みテーブルを作成する機能と、前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向の各画素位置について、これに対応する奥行き方向実距離において、1画素が有する実高さ幅を格納する縦方向重みテーブルを作成する機能と、前記各機能により作成された前記画素単位の実距離テーブル、前記画面上の横方向重みテーブル、および前記画面上の縦方向重みテーブルを参照テーブルとして保持し、少なくとも前記画素単位の実距離テーブルを用いて、前記単眼カメラで撮影した前記オブジェクトの実在位置を認識する処理、又は前記単眼カメラで撮影した前記オブジェクトを処理対象から除去する処理を実行する画像処理機能と、をコンピュータに実現させるたことを特徴とする。 The present invention also provides an image processing program for causing a computer to function as an image processing apparatus for a monocular camera, and includes information on four vertices on a screen indicating a monitoring range on the ground plane among the monitoring range of the monocular camera. , on the basis of the screen information and the actual information on the sample object in a single camera shot with three or more sample images, obtained by the actual distance the exponential approximation formula for the depth direction of the pixels on the screen, the object A function of creating an actual distance table corresponding to the actual distance in the depth direction on the ground surface from each pixel in the depth direction on the screen from the pixel position in the depth direction from the ground contact position ; and information of the real distance table, screen information on the 4 and vertex information on a screen showing the monitoring range, the sample object in said three or more sample images Based on the preliminary actual measurement information, determined by the actual distance the linear approximation formula weights of the lateral direction of the pixel from the ground position of the object on the screen, each pixel in the horizontal direction on the screen, the ground plane A function for creating a horizontal weight table associated with the horizontal actual coordinates in the coordinate system based on the monitoring range on the ground plane for each distance in the depth direction above, and the actual distance table in units of pixels information and the 4 vertices of the information on the screen showing the monitoring range, on the basis of the screen information and the actual information on the sample object in said three or more sample images, the object on the screen It obtains the weight of the actual distance relative to the longitudinal direction of the pixels from the ground position of the linear approximation equation, for each pixel position in the vertical direction on the screen, in the depth direction actual distance corresponding to one pixel is chromatic And the ability to create a longitudinal weight table that stores real height width that the actual distance table of the pixel units created by the respective function, lateral weight table on the screen, and the longitudinal weights on the screen A table is stored as a reference table, and at least the actual distance table in units of pixels is used to recognize the actual position of the object photographed by the monocular camera, or the object photographed by the monocular camera is removed from the processing target And an image processing function for executing the processing to be executed by a computer.
この画像処理により、単眼(カメラ1台)の画像処理において、カメラ情報やカメラ設置条件を利用することなく、撮影された画像上の監視範囲(4頂点)と位置情報を3箇所以上入力することで撮影画面上の位置推定を行うことができる。また、画像上の位置に対する実距離を算出することが可能となり、実世界座標上の対象物の存在位置を高い精度で把握できる。また、撮影映像上のオブジェクトを抽出(領域)すると、そのサイズ(幅、高さ)の実距離を推定することができ、さらに、その位置の実距離を推定することができる。また、撮影映像上で監視範囲を設定することで、そのゾーンを外れたオブジェクトを対象外とすることができ、ノイズ除去を行うことができる。 By this image processing, three or more monitoring ranges (four vertices) and position information on the captured image can be input without using camera information or camera installation conditions in monocular (one camera) image processing. The position on the shooting screen can be estimated. In addition, it is possible to calculate the actual distance with respect to the position on the image, and the position of the object on the real world coordinates can be grasped with high accuracy. Further, when an object on the captured video is extracted (region), the actual distance of the size (width, height) can be estimated, and further, the actual distance of the position can be estimated. In addition, by setting a monitoring range on the captured video, an object outside the zone can be excluded and noise can be removed.
本発明によれば、簡単な設定で、単眼カメラの画像から、精度の高いオブジェクト位置の推定が可能である。 According to the present invention, it is possible to estimate an object position with high accuracy from an image of a monocular camera with a simple setting.
以下図面を参照して本発明の実施形態を説明する。なお、この実施形態では、本発明を単眼カメラの追跡処理技術に適用した例を示しているが、単眼カメラによる種々の画像処理技術において広く適用可能である。 Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, an example in which the present invention is applied to a tracking processing technique of a monocular camera is shown, but the present invention can be widely applied to various image processing techniques using a monocular camera.
本発明の実施形態に係る画像処理装置は、単眼カメラ(1台のカメラ)で撮影した画像により検出(抽出)または追跡した対象物の実在位置(実世界座標)を画像上の位置から求めるオブジェクト位置推定機能を実現している。 An image processing apparatus according to an embodiment of the present invention is an object that obtains an actual position (real world coordinates) of an object detected (extracted) or tracked from an image captured by a monocular camera (one camera) from a position on the image. The position estimation function is realized.
本発明は、単眼カメラの画像処理において、単眼カメラで撮影した入力画像から抽出したオブジェクトの画像上の位置に基づく世界座標上の位置の推定を行う機能を実現する構成要素として、
単眼カメラの監視範囲のうち、地平面上の監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3枚以上のサンプル画像中のサンプル対象物についての画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求め、オブジェクトの接地位置からの奥行き方向画素位置から、前記画面上の奥行き方向の各画素を、前記地上面上での奥行き方向の前記実距離に対応した実距離テーブルを作成する実距離テーブル取得手段と、前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向の各画素を、前記地平面上での奥行き方向の各距離毎に、前記地平面上の監視範囲を基準とした座標系における横方向実座標に対応付けた横方向重みテーブルを作成する横方向重みテーブル取得手段と、前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向の各画素位置について、これに対応する奥行き方向実距離において、1画素が有する実高さ幅を格納する縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、前記各取得手段により作成された前記画素単位の実距離テーブル、前記画面上の横方向重みテーブル、および前記画面上の縦方向重みテーブルを参照テーブルとして保持し、少なくとも前記画素単位の実距離テーブルを用いて、前記単眼カメラで撮影した前記オブジェクトの実在位置を認識する画像処理を実行する画像処理手段とを具備する。
In the image processing of the monocular camera, the present invention is a component that realizes a function for estimating the position on the world coordinates based on the position on the image of the object extracted from the input image captured by the monocular camera.
Among the monitoring range of the monocular camera, information on the four vertices on the screen indicating the monitoring range on the ground plane , screen information and actual measurement information on sample objects in three or more sample images taken by the monocular camera, The actual distance to the pixels in the depth direction on the screen is obtained by an exponential approximation formula, and each pixel in the depth direction on the screen is determined on the ground surface from the pixel position in the depth direction from the ground contact position of the object. Real distance table acquisition means for creating an actual distance table corresponding to the actual distance in the depth direction in the information, information on the actual distance table in units of pixels, information on the four vertices on the screen indicating the monitoring range, based on the screen information and the actual information on the sample object in three or more sample images, versus the horizontal direction of the pixel from the ground position of the object on the screen That obtained by the actual distance the linear approximation formula weights, each pixel in the lateral direction on the screen, for each distance in the depth direction on the ground plane, the coordinate system based on the monitoring area on the ground plane A horizontal weight table acquisition means for creating a horizontal weight table associated with the horizontal real coordinates in the information, information on the actual distance table in pixel units, information on the four vertices on the screen indicating the monitoring range, Based on the screen information and the actual measurement information about the sample object in three or more sample images , the weight of the actual distance with respect to the vertical pixel from the ground contact position of the object on the screen is expressed by a linear approximation formula. determined, for each pixel position in the vertical direction on the screen, in the depth direction actual distance corresponding to the vertical direction weight tape to create a longitudinal weight table that stores real height width 1 pixel has And a real distance table for each pixel created by each of the acquisition means, a horizontal weight table on the screen, and a vertical weight table on the screen as reference tables, and at least the pixel unit Image processing means for executing image processing for recognizing the actual position of the object photographed by the monocular camera using the real distance table.
本発明の実施形態に係る画像処理装置におけるオブジェクト位置の推定処理について、その動作の概要を、図1を参照して説明する。なお、ここでは、単眼カメラ11で撮影した画像を1フレーム320×240画素のQVGAでカメラ映像として出力するものとする。
An outline of the operation of the object position estimation process in the image processing apparatus according to the embodiment of the present invention will be described with reference to FIG. Here, it is assumed that an image captured by the
本発明の実施形態に係る、オブジェクト位置の推定は、サンプルモデルとなる実際のオブジェクト(対象物)を単眼カメラで撮影した画像をもとに行う。このサンプルモデルとなるオブジェクトは、例えば、図示するような、二人並んだ人物モデル等、幅方向(横方向)の間隔が設定可能なオブジェクトとする。 The estimation of the object position according to the embodiment of the present invention is performed based on an image obtained by photographing a real object (target object) serving as a sample model with a monocular camera. The object as the sample model is, for example, an object in which an interval in the width direction (lateral direction) can be set, such as a person model in which two people are arranged as shown in the figure.
まず、図1に示す処理A1において、単眼カメラ11の監視映像から、上記サンプルモデルとなるオブジェクトが撮影されている画像を3枚以上用意する。このとき、これらの画像は同一のオブジェクト(同一サンプルモデル)であり、画面上の異なる箇所にて撮影されているものとする。なお、単眼カメラ11は、例えば監視エリアを対象に、斜め上方から監視対象を撮像する設置条件のもとに画角が設定されている。
First, in process A1 shown in FIG. 1, three or more images in which an object to be the sample model is photographed are prepared from the monitoring video of the
次に、用意した画像からオブジェクトの領域を矩形(四角形)で囲み、矩形で囲った3箇所以上のオブジェクト情報を取得する。ここでは、図5に示すように、矩形の大きさを異にする(撮影位置を異にした)3枚の画像(P1,P2,P3)を取得し、この3枚の画像のオブジェクトを矩形で囲う処理を行う。 Next, an object region is enclosed by a rectangle (rectangle) from the prepared image, and object information at three or more places enclosed by the rectangle is acquired. Here, as shown in FIG. 5, three images (P1, P2, P3) having different rectangle sizes (different shooting positions) are acquired, and the objects of the three images are rectangular. The process enclosed by is performed.
図1に示す処理A2において、単眼カメラ11で監視する監視範囲(4頂点)を画面上で指定する。ここでは、図6に示すように、取得した画像の1枚にて、監視範囲(4頂点)を設定する。例えば、図6では、道路の歩行者を監視対象とする場合、4頂点は道路を示す領域である。そして、図6の画面左端のラインを横方向の基準ライン(0mライン)とし、この監視範囲(4頂点)内で位置を推定する。つまり、画面上のある位置がこの基準ライン(0mライン)から横方向に何mの位置かという結果を得るために使用する。
In process A2 shown in FIG. 1, the monitoring range (four vertices) monitored by the
次に、監視対象(4頂点)内の上記図5に示した3枚の画像(P1,P2,P3)の1枚1枚に対して、矩形で囲ったオブジェクトについて、図1又は図7に示すように、画像下側からの足元位置(接地位置)までの距離Pyi(pix:ピクセル)、Wyi(m:メートル)と、2人の間隔ΔPxi(pix:ピクセル)、ΔWx(m:メートル)と、どちらか一方のオブジェクトの高さΔPhi(pix:ピクセル)、ΔWh(m:メートル)の各情報を取得する(iは画像の枚数、ΔWx、ΔWhは各画像で共通)。 Next, with respect to each of the three images (P1, P2, P3) shown in FIG. 5 in the monitoring target (four vertices), an object enclosed by a rectangle is shown in FIG. 1 or FIG. as shown, the distance to the foot position from the image lower (ground position) Pyi (pix: pixels), Wyi (m: m) and, two spacing ΔPxi (pix: pixels), ΔWx (m: m) Each information of the height ΔPhi (pix : pixel ) and ΔWh (m : meter ) of either one of the objects is acquired (i is the number of images, and ΔWx and ΔWh are common to each image).
次に、上記した実距離グラフの取得処理(縦方向の距離モデル算出処理)と、横方向重みグラフの取得処理(横方向の距離の重みモデル算出処理)と、縦方向重みグラフの取得処理(縦方向の距離の重みモデル算出処理)により、実距離グラフ(足元位置−距離グラフ)と、横方向重みグラフ(距離−横方向重みグラフ)と、縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)とを取得する。 Next, the actual distance graph acquisition process (vertical distance model calculation process), the horizontal weight graph acquisition process (horizontal distance weight model calculation process), and the vertical weight graph acquisition process ( By the vertical distance weight model calculation process), the actual distance graph (foot position-distance graph), the horizontal weight graph (distance-horizontal weight graph), and the vertical (height) direction weight graph (distance-high). Directional weight graph).
実距離グラフ(足元位置−距離グラフ)の取得(算出)処理では、上記した3つ(または3つ以上)の画像の下側から足元位置(オブジェクト)までの距離Pyi(pix:ピクセル)、Wyi(m:メートル)(iは画像の枚数)の情報を用いて、最小二乗法により、画像上の足元位置Pyに対する実距離Wyの指数近似式を取得する。 In the acquisition (calculation) processing of the actual distance graph (foot position-distance graph), the distance Pyi (pix : pixel ) from the lower side of the above three (or three or more) images to the foot position (object ), Wyi Using the information of (m : meter ) (i is the number of images) , an exponential approximate expression of the actual distance Wy with respect to the foot position Py on the image is acquired by the least square method.
距離モデル:Wy=AeBPy(A、Bは最小二乗法により求まるパラメータ)…(1)
(1)式で算出した距離モデル近似式より、画像上の位置に対する実距離グラフを取得する(なお、カメラ直下から、画像下側の位置までの距離(死角となる距離)をWyの値にプラスすることにより、カメラ直下からの実距離を求めることも可能となる)。この実距離グラフ(足元位置−距離グラフ)の一例を図8に示している。
Distance model: Wy = Ae BPy (A and B are parameters determined by the method of least squares) (1)
An actual distance graph with respect to the position on the image is acquired from the distance model approximate expression calculated by the expression (1) (Note that the distance from the position immediately below the camera to the position on the lower side of the image (distance that becomes a blind spot) is set to the value of Wy. By adding it, it is also possible to find the actual distance from directly under the camera). An example of the actual distance graph (foot position-distance graph) is shown in FIG.
横方向重みグラフ(距離−横方向重みグラフ)の取得(算出)処理では、上記実距離グラフの取得処理で取得した縦方向の距離モデルと、3つ(または3つ以上)の画像の2人(オブジェクト)の間隔ΔPxi(pix:ピクセル)、ΔWx(m:メートル)(iは画像の枚数)から、実距離Wyの位置における横方向の1画素あたりの重み(ωxi=ΔWx/ΔPxi)を求める。 In the acquisition (calculation) process of the horizontal weight graph (distance-horizontal weight graph) , two persons of the vertical distance model acquired by the actual distance graph acquisition process and three (or more) images are used. From the (object) interval ΔPxi (pix : pixel ), ΔWx ( m: meter ) (i is the number of images) , the weight per pixel in the horizontal direction at the position of the actual distance Wy (ωxi = ΔWx / ΔPxi) is obtained. .
3つ(または3つ以上)の実距離Wyと横方向の1画素あたりの重みωxi(iは画像の枚数)を用いて、最小二乗法により、実距離Wyに対する横方向の1画素あたりの重みωxiの線形近似式を取得する。 The weight per pixel in the horizontal direction with respect to the actual distance Wy by the least square method using three (or more) three actual distances Wy and the weight ωxi per pixel in the horizontal direction (i is the number of images). Obtain a linear approximation of ωxi.
横方向の1画素あたりの重みモデル:ωx=CWy+D(C、Dは最小二乗法により求まるパラメータ)…(2)
(2)式で算出した横方向重み近似式より、実距離Wyに対する横方向重みグラフを取得する。この横方向重みグラフ(距離−横方向重みグラフ)の一例を図9に示している。
Weight model per pixel in the horizontal direction: ωx = CWy + D (C and D are parameters determined by the method of least squares) (2)
A horizontal weight graph with respect to the actual distance Wy is acquired from the horizontal weight approximate expression calculated by the expression (2). An example of this horizontal weight graph (distance-horizontal weight graph) is shown in FIG.
画面上の各画素での横方向位置は、基準ラインから画素までの画像上の距離に、算出した重みを掛けることにより算出される。 The horizontal position of each pixel on the screen is calculated by multiplying the distance on the image from the reference line to the pixel by the calculated weight.
縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)の取得(算出)処理では、上記実距離グラフの取得処理で取得した縦方向の距離モデルと、3つ以上の画像のオブジェクトの高さΔPhi(pix:ピクセル)、ΔWh(m:メートル)から、実距離Wyの位置における高さ方向の1画素あたりの重み(ωzi=ΔWh/ΔPhi)を求める。 In the acquisition (calculation) process of the vertical (height) direction weight graph (distance-height direction weight graph), the vertical distance model acquired in the real distance graph acquisition process and three or more image objects are obtained. From the height ΔPhi (pix : pixel ) and ΔWh ( m: meter ), the weight per pixel in the height direction at the position of the actual distance Wy (ωzi = ΔWh / ΔPhi) is obtained.
3つ(または3つ以上)の実距離Wyと高さ方向の1画素あたりの重みωzi(iは画像の枚数)を用いて、最小二乗法により、実距離Wyに対する高さ方向の1画素あたりの重みωziの線形近似式を取得する。 Using three (or three or more) actual distances Wy and a weight ωzi per pixel in the height direction (i is the number of images) , per pixel in the height direction with respect to the actual distance Wy by the least square method The linear approximation formula of the weight ωzi of
高さ方向の1画素あたりの重みモデル:ωz=EWy+F(E、Fは最小二乗法により求まるパラメータ)…(3)
(3)式で算出した高さ方向重み近似式より、実距離Wyに対する高さ方向重みグラフを取得する。この縦方向重みグラフ(距離−高さ方向重みグラフ)の一例を図10に示している。
Weight model per pixel in the height direction: ωz = EWy + F (E and F are parameters determined by the method of least squares) (3)
A height direction weight graph with respect to the actual distance Wy is acquired from the height direction weight approximate expression calculated by the expression (3). An example of this vertical weight graph (distance-height weight graph) is shown in FIG.
画面上の各画素での高さ方向位置は、画像上の足元位置から指定した高さ方向の画素までの画像上の距離に、算出した重みを掛けることにより算出される。 The height direction position of each pixel on the screen is calculated by multiplying the distance on the image from the foot position on the image to the designated pixel in the height direction by the calculated weight.
図1に示す処理A3において、上記した実距離グラフ(足元位置−距離グラフ)の情報(パラメータ値)をもとに、実距離テーブル(図3に示す実距離Yテーブル155a)が作成され、横方向重みグラフ(距離−横方向重みグラフ)の情報(パラメータ値)をもとに、横方向重みテーブル(図3に示す実距離X重みテーブル155b)が作成され、縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)の情報(パラメータ値)をもとに、縦方向重みテーブル(図3に示す実距離Z重みテーブル155c)が作成される。 In process A3 shown in FIG. 1, an actual distance table (actual distance Y table 155a shown in FIG. 3) is created based on the information (parameter values) of the above-described actual distance graph (foot position-distance graph). Based on the information (parameter values) of the direction weight graph (distance-horizontal weight graph), a horizontal weight table (actual distance X weight table 155b shown in FIG. 3) is created, and the vertical (height) direction weight graph Based on the information (parameter value) of (distance-height direction weight graph), a vertical direction weight table (actual distance Z weight table 155c shown in FIG. 3) is created.
これらの実距離テーブル(実距離Yテーブル155a)、横方向重みテーブル(実距離X重みテーブル155b)、縦方向重みテーブル(実距離Z重みテーブル155c)を参照テーブルとして、単眼カメラ11で撮影したオブジェクトの位置、サイズの推定、並びにこの推定に基づく画像処理が実施される。
These real distance tables (real distance Y table 155a ), horizontal weight table (real distance X weight table 155b ), and vertical weight table (real distance Z weight table 155c ) are used as reference tables for objects photographed with the
上記各グラフの作成で求めた推定係数により、画像上の位置における実距離や、2点間の距離または、高さを求めることが可能となる。また、ある点から何mの位置がどこかということも算出可能となる。 It is possible to obtain the actual distance at the position on the image, the distance between two points, or the height based on the estimation coefficient obtained by creating each graph. Also, it is possible to calculate how many meters a position is from a certain point.
画像上のある位置(i,j)の実距離を求める場合、上記(1)式(縦方向の距離モデル近似式Wy=AeBPy)より、Pyにjを代入して、縦方向の実距離Wyを算出する。算出したWyを上記(2)式(横方向の距離モデル重み近似式ωx=CWy+D)に代入してωxを算出する。 When calculating the actual distance of a certain position (i, j) on the image, the actual distance in the vertical direction is obtained by substituting j for Py from the above formula (1) (vertical distance model approximate expression Wy = Ae BPy). Wy is calculated. Ωx is calculated by substituting the calculated Wy into the above formula (2) (lateral distance model weight approximation formula ωx = CWy + D).
監視範囲(4頂点)の横方向基準ラインから、ある位置(i,j)までの横方向の画素数DPxを算出する。横方向の実距離Wxは、ωx×DPxにより算出される。 The number of pixels DPx in the horizontal direction from the horizontal reference line in the monitoring range (four vertices) to a certain position (i, j) is calculated. The actual distance Wx in the horizontal direction is calculated by ωx × DPx.
これにより、画像上のある位置(i,j)の実距離(Wx,Wy)が求められる。 Thereby, the actual distance (Wx, Wy) of a certain position (i, j) on the image is obtained.
画像上のある位置(i,j)から、画像上の画素数DPzの位置の高さの実距離を求める場合、上記(1)式(縦方向の距離モデル近似式Wy=AeBPy)より、Pyにjを代入して、縦方向の実距離Wyを算出する。算出したWyを上記(3)式(高さ方向の距離モデル重み近似式ωz=EWy+F)に代入してωzを算出する。高さ方向の実距離は、ωz×DPzにより算出される。 When obtaining the actual distance of the height of the number of pixels DPz on the image from a certain position (i, j) on the image, from the above formula (1) (vertical distance model approximation formula Wy = Ae BPy) , By substituting j for Py, the actual vertical distance Wy is calculated. Ωz is calculated by substituting the calculated Wy into the above formula (3) (distance model weight approximation formula in the height direction ωz = EWy + F). The actual distance in the height direction is calculated by ωz × DPz.
上記した実距離テーブル(実距離Yテーブル155a)、横方向重みテーブル(実距離X重みテーブル155b)、縦方向重みテーブル(実距離Z重みテーブル155c)を参照テーブルとして用いて、単眼カメラ11で撮影した画像に対してオブジェクト位置の推定並びにこれに伴う各種の画像処理が行われる。
Using the above-described actual distance table (actual distance Y table 155a ), horizontal weight table (actual distance X weight table 155b ), and vertical weight table (actual distance Z weight table 155c ) as a reference table, the image is taken with the
この実施形態では、図1に示す処理A11において、単眼カメラ11の映像を所定の周期で入力し、入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する。
In this embodiment, in the process A11 shown in FIG. 1, the image of the
図1に示す処理A12において、上記抽出した矩形の領域について、新たに抽出した矩形の領域を追跡開始オブジェクトとして、当該オブジェクトの追跡を行い、追跡したオブジェクト情報を保持し、追跡オブジェクトが出現する度にオブジェクト情報を更新する。 In the process A12 shown in FIG. 1, for the extracted rectangular area, the newly extracted rectangular area is used as a tracking start object, the object is tracked, the tracked object information is held, and a tracking object appears. Update object information.
図1に示す処理A13において、抽出した矩形の領域(追跡開始オブジェクト、および追跡オブジェクト)について、上記前処理により取得した参照テーブルを用いて、オブジェクト位置の推定並びにこの推定に基づく各種のオブジェクト処理を行う。このオブジェクト処理では、例えば、実距離テーブル(実距離Yテーブル155a)を用いて、単眼カメラ11で撮影した画像の実在位置を認識する処理を実行することができる。また、実距離テーブル(実距離Yテーブル155a)を用いて、単眼カメラ11で撮影した画像を処理対象から除外する処理を実行することができる。また、実距離テーブル(実距離Yテーブル155a)と、横方向重みテーブル(実距離X重みテーブル155b)または縦方向重みテーブル(実距離Z重みテーブル155c)を用いて、単眼カメラ11で撮影した画像の実体(例えばオブジェクトの実寸による大きさ)を認識する処理、実際のオブジェクトサイズに基づく仕分け処理等を実行することができる。また、監視範囲の4頂点の情報と、実距離テーブル(実距離Yテーブル155a)と、横方向重みテーブル(実距離X重みテーブル155b)または縦方向重みテーブル(実距離Z重みテーブル155c)を用いて、監視範囲(4頂点)を、実空間上に、設定することができ、さらに、この実空間の監視範囲(4頂点)を対象に、オブジェクトの弁別、選択(抽出)、画像削除、空間監視等、種々の処理が可能となる。これらの単眼カメラ映像による各処理は、上記した指数近似モデル、および各線形近似モデルによるグラフ処理によってはじめて可能になる。
In the process A13 shown in FIG. 1, for the extracted rectangular area (tracking start object and tracking object), the object position is estimated and various object processes based on the estimation are performed using the reference table acquired by the preprocessing. Do. In this object process, for example, a process of recognizing the actual position of an image taken by the
上記した実距離テーブル(実距離Yテーブル155a)、横方向重みテーブル(実距離X重みテーブル155b)、縦方向重みテーブル(実距離Z重みテーブル155c)を参照テーブルとして用いた実施形態に係る画像処理装置の構成を図2に示し、この画像処理装置の要部の構成を図3に示している。 Image processing according to the embodiment using the above-described actual distance table (real distance Y table 155a ), horizontal weight table (real distance X weight table 155b ), and vertical weight table (real distance Z weight table 155c ) as reference tables. The configuration of the apparatus is shown in FIG. 2, and the configuration of the main part of the image processing apparatus is shown in FIG.
本発明の実施形態に係る画像処理装置は、図2に示すように、カメラ(単眼カメラ)11と、キャプチャ部12と、画像処理記憶部13と、画像処理部15と、表示部16とを具備して構成される。
As shown in FIG. 2, the image processing apparatus according to the embodiment of the present invention includes a camera (monocular camera) 11, a
カメラ11は、レンズユニットとレンズユニットの結像位置に設けられた撮像素子(例えばCCD固体撮像素子、若しくはCMOSイメージセンサ)とを具備して、屋外若しくは屋内の動きを伴う被写体(動物体)を対象に、一定の画角で撮像した一画面分の画像を所定の画素単位(例えば1フレーム320×240画素(pix)=QVGA)で出力する。
The
キャプチャ部12は、カメラ11が撮像したフレーム単位の画像を画像処理部15の処理対象画像(入力画像)として取り込み、画像処理記憶部13内の画像バッファ131に保持する処理機能をもつ。この画像バッファメモリ131に取り込む画面上の入力画像は、ここでは原画像とするが、エッジ画像であってもよい。
The
画像処理記憶部13は、画像処理部15の処理に供される、キャプチャ部12が取り込んだ入力画像および処理中の各画像を含む各種データを記憶する。この画像処理記憶部13には、画像処理部15の制御の下に、キャプチャ部12が取り込んだフレーム単位の画像のうち、今回取り込んだ一画面分の画像(現在画像)と、前回取り込んだ一画面分の画像(過去画像)をそれぞれ処理対象画像として保持する画像バッファメモリ131を構成する領域が確保されるとともに、画像処理部15の処理に用いられる画像領域が確保される。さらに画像処理記憶部13には、画像処理部15の処理に供される各種のパラメータおよび制御データを記憶する記憶領域、追跡処理に於いて生成若しくは取得される各種情報の記憶領域等も確保される。
The image
位置推定係数パラメータ算出部14(図3を参照)は、上述した、4頂点の情報、単眼カメラ11で撮影した3箇所以上のサンプル画像の画面情報および実測情報等を入力情報として、上述した、距離モデル、および各重みモデルの位置推定係数パラメータ値を算出し、この位置推定係数パラメータ値を参照テーブル(実距離Yテーブル155a、実距離X重みテーブル155b、実距離Z重みテーブル155c)を作成する要素データとして画像処理部15に設けられた位置推定テーブル算出部154に供給する。
The position estimation coefficient parameter calculation unit 14 (see FIG. 3) is described above using, as input information, information on the four vertices described above, screen information on three or more sample images captured by the
画像処理部15は、画像処理記憶部13の画像バッファメモリ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この差分二値化画像から、変化画素を含む矩形の領域を抽出する変化領域抽出処理部151と、この変化領域抽出処理部151で抽出した矩形の領域を処理対象に、領域を追跡する追跡処理部152と、位置推定テーブル算出部154により算出された参照テーブル(実距離Yテーブル155a、実距離X重みテーブル155b、実距離Z重みテーブル155c)を用いて、上記したような位置推定による各種処理を実行するオブジェクト位置・サイズ推定処理部153と、を具備して構成される。
The
表示部(表示デバイス)16は、上記画像処理部15で画像処理された移動物体領域を表示出力する。
Display unit (display device) 16 displays and outputs the image processed moving objects area by the
上記した画像処理装置における処理の手順を図4に示している。図4に示すステップB3の処理において、上記参照テーブル(実距離Yテーブル155a、実距離X重みテーブル155b、実距離Z重みテーブル155c)を用いたオブジェクト位置・サイズ推定処理が実施される。 FIG. 4 shows a processing procedure in the above-described image processing apparatus. In the process of step B3 shown in FIG. 4, the object position / size estimation process using the reference tables (real distance Y table 155a , real distance X weight table 155b , real distance Z weight table 155c ) is performed.
図4に示す処理手順に従い、図2および図3に示す画像処理装置の動作を説明する。 The operation of the image processing apparatus shown in FIGS. 2 and 3 will be described according to the processing procedure shown in FIG.
画像処理部15に設けられた変化領域抽出処理部151は、画像処理記憶部13の画像バッファメモリ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この画像情報を変化領域バッファメモリ132に書き込み保持する。さらに、この差分二値化画像の情報から、変化画素を含む矩形の領域を抽出して、この矩形領域の情報を変化領域バッファメモリ132に書き込み保持する(図4ステップB1)。
The change area
追跡処理部152は、変化領域抽出処理部151により抽出され、変化領域バッファメモリ132に保持された矩形の領域を読み出し、追跡対象オブジェクトとして追跡処理する。その追跡処理結果は、追跡情報バッファメモリ133に書き込み保持される。この追跡処理は、初期動作時においては、追跡処理の対象となるオブジェクトが存在しないので、このオブジェクトを新規オブジェクトとして追跡情報バッファメモリ133に登録し、以降の追跡処理の対象とする。この追跡処理は、例えば、矩形の形状および重なりによる領域判定と、最小二乗近似により求めた予測方向に従う予測位置に基づく領域判定とを組み合わせた領域の追跡処理が適用できる(図4ステップB2)。
The
オブジェクト位置・サイズ推定処理部153は、変化領域抽出処理部151が抽出した矩形領域(追跡開始(新規)オブジェクト、および追跡オブジェクト)について、追跡処理部152の追跡処理と、位置推定テーブル算出部154が算出した参照テーブル(実距離Yテーブル155a、実距離X重みテーブル155b、実距離Z重みテーブル155c)を用いて、オブジェクトの推定を行う(図4ステップB3)。
The object position / size
オブジェクト位置・サイズ推定処理部153は、検出又は追跡した対象物の存在位置(実世界座標)を画像上の位置から求めるオブジェクト位置推定機能を実現する。例えば監視範囲(2次元平面=4頂点)をユーザが指定して、その監視範囲(4頂点)内に存在しているオブジェクトの足元、頭頂位置を比較的高い位置精度で推定することができる。
また、上述したように、実距離Yテーブル155aを用いて、単眼カメラ11で撮影した画像の実在位置を認識する処理、実距離Yテーブル155aを用いて、単眼カメラ11で撮影した画像を処理対象から除外する処理が可能である。更に、実距離Yテーブル155aと、実距離X重みテーブル155bまたは実距離Z重みテーブル155aを用いて、単眼カメラ11で撮影した画像の実体(例えばオブジェクトの実寸による大きさ)を認識する処理や、実際のオブジェクトサイズに基づく仕分け処理が可能である。更にまた、監視範囲の4頂点の情報と実距離Yテーブル155aと実距離X重みテーブル155bまたは実距離Z重みテーブル155cを用いて、監視範囲(4頂点)を、実空間上に、設定したオブジェクト認識処理、実空間の監視範囲(4頂点)を対象としたオブジェクトの弁別、選択(抽出)、画像削除、空間監視等、種々の処理が可能である。
The object position / size
As described above, by using the actual distance Y table 155a, the process of recognizing the actual position of the image taken by the
本発明の実施形態に係るオブジェクト位置およびサイズの推定機能について、図11乃至図21を参照してさらに説明を行う。 The object position and size estimation function according to the embodiment of the present invention will be further described with reference to FIGS.
(1).監視範囲(4頂点)の考え方
図11に示す、単眼カメラ11で撮影した画面上において、同画面上の4点、p0(x0,y0)、p1(x1,y1)、p2(x2,y1)、p3(x3,y0)を指定することで、その4点を結ぶ四角形を平面領域と見做し、その平面領域を監視範囲(4頂点)とする。監視範囲の指定イメージを図11に上記4点を結ぶ直線で示している。
(1). Concept of monitoring range (four vertices) On the screen photographed by the
奥行き方向の手前ライン(p0−p3ライン)、奥のライン(p1−p2ライン)のy座標は同じとし、並行とする(平面領域は正確な四角形でなくても良いが、このルールに従うものとする)。なお、画面外の点も入力可能とする(ただし、p1は画面内に必ず設定すること)。x1<x2、x0<x3、y0>y1であるように設定されること。また、高さ方向を設定する(世界座標の高さ)ことで、高さ方向の監視範囲(4頂点)が設定され、不要領域の削除が可能となること(X,Y,Zが求まった最後に、監視範囲(4頂点)の空間設定を行う)。p0,p1は基準ラインとなるため、p1を画面内に存在することとする。
(2).位置推定の考え方とリファレンス位置(基準位置)
監視範囲(4頂点)内にリファレンス(基準)となる複数の位置(等間隔の複数点)の座標(x,y)と、それに対応する世界座標(X,Y,Z)を取得し、距離(Y)−画面上位置(y)グラフを取得する。
The y-coordinates of the front line in the depth direction (p0-p3 line) and the back line (p1-p2 line) are the same and are parallel (the planar area does not have to be an exact quadrangle, To do). It should be noted that points outside the screen can also be input (however, p1 must be set within the screen). x1 <x2, x0 <x3, y0> y1 are set. Also, by setting the height direction (the height of the world coordinates), the monitoring range (4 vertices) in the height direction is set, and unnecessary areas can be deleted (X, Y, and Z are obtained) Finally, the space of the monitoring range (4 vertices) is set). Since p0 and p1 are reference lines, it is assumed that p1 exists in the screen .
(2). Position estimation concept and reference position (reference position)
The coordinates (x, y) of a plurality of positions (a plurality of equally spaced points) serving as a reference (reference ) in the monitoring range (four vertices) and the corresponding world coordinates (X, Y, Z) are acquired, and the distance (Y) —Position on screen (y) A graph is acquired.
取得した距離(Y)を利用して、1画素当たりの距離(ΔX)−距離(Y)、1画素当たりの高さ(ΔZ)−距離(Y)グラフを得る。カメラからの距離−画像座標の関係グラフ(Y−yグラフ)の一例を図12に示している。1画素当たりの距離−画像座標の関係グラフ(ΔX−Yグラフ)の一例を図13に示している。 Using the acquired distance (Y), a graph of distance per pixel (ΔX) −distance (Y), height per pixel (ΔZ) −distance (Y) is obtained. FIG. 12 shows an example of a distance-image coordinate relationship graph (Yy graph) from the camera. An example of a distance-image coordinate relationship graph (ΔX-Y graph) per pixel is shown in FIG.
リファレンス位置は以下のとおりとする。 The reference position is as follows.
図14の画面に示すように、監視範囲(4頂点)の画面手前、中央、奥の3点の基準位置(y0、y1、y2)を決め、それぞれの間隔ΔY0[m:メートル](目測による設定も可)、ΔY1[m]、ΔY2[m]を計測し、Y0[m]、Y1[m]、Y2[m]を得る。このΔY[m]間隔のリファレンス位置は、前項のオブジェクトモデルを得るための位置と共通にしてもよい。また、各基準位置で、ある等間隔ΔX1[m]、ΔX2[m]、ΔX3[m]の各画素幅(Δx[pix:ピクセル])を得る。この時、画像上のy座標が左右でほぼ同一である(並行である)ようにする。 As shown in the screen of FIG. 14, three reference positions (y0, y1, y2) at the front, center, and back of the monitoring range (four vertices) are determined, and each interval ΔY0 [m: meter] (according to the measurement) Also, ΔY1 [m] and ΔY2 [m] are measured to obtain Y0 [m], Y1 [m], and Y2 [m]. The reference position of this ΔY [m] interval may be made common with the position for obtaining the object model in the previous section. Further, in the reference position, is equidistant ΔX1 [m], Δ X2 [ m], each pixel width Δ X3 [m] (Δx [ pix: Pixel]) is obtained. At this time, the y coordinate on the image is set to be substantially the same on the left and right (in parallel).
取得したY0[m]、Y1[m]、Y2[m]、y0[pix]、y1[pix]、y2[pix]、ΔX1[m]、ΔX2[m]、ΔX3[m]、Δx1[pix]、Δx2[pix]、Δx3[pix]を利用して、最小二乗法により、最初に、距離(Y)−画像座標(y)の指数近似式を得る。次に、取得した距離(Y)を利用して、1画素当たりの距離(X)−距離(Y)の線形近似式を得る。同様の考え方で、取得したY0[m]、Y1[m]、Y2[m]、y0[pix]、y1[pix]、y2[pix]、ΔH1[m]、H2[m]、H3[m]、Δh1[pix]、Δh2[pix]、Δh3[pix]を利用して、1画素当りの高さ(Z)−距離(Y)の線形近似式を得る。 Acquired Y0 [m], Y1 [m ], Y2 [m], y0 [pix], y1 [pix], y2 [pix], ΔX1 [m], Δ X2 [m], Δ X3 [m], Δx1 Using [pix], Δx2 [pix], and Δx3 [pix], first, an exponential approximate expression of distance (Y) −image coordinates (y) is obtained by the least square method. Next, using the acquired distance (Y), a linear approximation formula of distance (X) per pixel−distance (Y) is obtained. In the same way, the obtained Y0 [m], Y1 [m], Y2 [m], y0 [pix], y1 [pix], y2 [pix], ΔH1 [m], H2 [m], H3 [m ], Δh1 [pix], Δh2 [pix], and Δh3 [pix] are used to obtain a linear approximate expression of height (Z) -distance (Y) per pixel.
上記指数近似式から、図16に示すようなY座標参照テーブル(実距離テーブル;実距離Yテーブル155a)を作成する。 From the exponential approximation equation, Y coordinate reference table as shown in FIG. 16; to create a (real distance table actual distance Y table 155a).
上記線形近似式から、図17に示すようなX座標参照テーブル(横方向重みテーブル;実距離X重みテーブル155b)を作成する。 From the above linear approximation formula, an X coordinate reference table (lateral weight table; actual distance X weight table 155b ) as shown in FIG. 17 is created.
上記線形近似式から、図18に示すようなZ座標参照テーブル(縦方向重みテーブル;実距離Z重みテーブル155c)を作成する。 From the linear approximation equation, Z coordinate reference table as shown in FIG. 18; to create a (longitudinal weight table actual distance Z weight table 155c).
(3).オブジェクト位置推定方法(監視範囲と3次元位置マップの考え方)
監視範囲(4頂点)を3次元マップに展開したとき、図19のようになる。
(3). Object position estimation method (Concept of monitoring range and 3D position map)
When the monitoring range (four vertices) is expanded into a three-dimensional map, it becomes as shown in FIG.
オブジェクトの足元位置(xp,yp)を入力とし、図16のY座標参照テーブル(155a)から、yp座標に対応するYp座標を得る。 Using the foot position (xp, yp) of the object as input, Yp coordinates corresponding to the yp coordinates are obtained from the Y coordinate reference table (155a) of FIG.
オブジェクトの足元位置(xp,yp)を入力とし、図17のX座標参照テーブル(155b)から、監視範囲(4頂点)の左辺を基準にした(xp,yp)座標に対応するXp座標を得る。 Using the foot position (xp, yp) of the object as an input, the Xp coordinate corresponding to the (xp, yp) coordinate based on the left side of the monitoring range (four vertices) is obtained from the X coordinate reference table (155b) of FIG. .
図18のZ座標参照テーブル(155c)から、(yt−yp)の差を利用して高さZを得る。 The height Z is obtained from the Z coordinate reference table (155c) of FIG. 18 using the difference of (yt−yp).
この方法で得られた(X,Y,Z)座標をオブジェクトの位置とする(3次元マップにプロットが可能となる)。 The (X, Y, Z) coordinates obtained by this method are used as object positions (plotting is possible on a three-dimensional map).
(4).監視範囲(4頂点)を利用した不要領域の削除
例として、監視対象となるオブジェクトの領域が、図20に直線で示した監視範囲(4頂点)の外部に出現したと判断した場合は、その領域(オブジェクト)を削除する。例えば、監視範囲(4頂点)に対して、空間設定(世界座標の高さ情報)が行われた場合のみ監視範囲の外部に出現したと判断したオブジェクトを削除する(監視範囲空間設定によって、高さ方向の設定を行わない場合は、削除しない)。また、例えば、図21に矩形で示すように、足元が監視平面上に存在しない、または、監視エリア外に頭頂位置が存在する場合は、当該領域を削除する。
(4). Deletion of unnecessary area using monitoring range (4 vertices) As an example, if it is determined that the area of the object to be monitored has appeared outside the monitoring range (4 vertices) indicated by a straight line in FIG. Delete an area (object). For example, an object that is determined to have appeared outside the monitoring range is deleted only when a space setting (world coordinate height information) is performed for the monitoring range (four vertices) . If you do not set the direction, do not delete.) Further, for example, as shown by a rectangle in FIG. 21, when the foot does not exist on the monitoring plane or the head position exists outside the monitoring area, the region is deleted.
上記した本発明の実施形態によれば、単眼(カメラ1台)の画像処理において、カメラ情報やカメラ設置条件を利用することなく、撮影された画像上の監視範囲(4頂点)と位置情報を3箇所以上入力することで撮影画面上の位置推定を行うことができる。また、画像上の位置に対する実距離を算出することが可能となり、実世界座標上の対象物の存在位置を高い精度で把握できる。また、撮影映像上のオブジェクトを抽出(領域)すると、そのサイズ(幅、高さ)の実距離を推定することができ、さらに、その位置の実距離を推定することができる。また、撮影映像上で監視範囲(4頂点)を設定することで、そのゾーンを外れたオブジェクトを対象外とすることができ、ノイズ除去を行うことができる。 According to the above-described embodiment of the present invention, in the image processing of a single eye (one camera), the monitoring range (four vertices) and the position information on the captured image can be obtained without using camera information or camera installation conditions. The position on the shooting screen can be estimated by inputting three or more locations. In addition, it is possible to calculate the actual distance with respect to the position on the image, and the position of the object on the real world coordinates can be grasped with high accuracy. Further, when an object on the captured video is extracted (region), the actual distance of the size (width, height) can be estimated, and further, the actual distance of the position can be estimated. In addition, by setting a monitoring range (four vertices) on the captured video, an object outside the zone can be excluded and noise can be removed.
11…単眼カメラ、12…キャプチャ部、13…画像処理記憶部、14…位置推定係数パラメータ算出部、15…画像処理部、16…表示部(表示デバイス)、151…変化領域抽出処理部、152…追跡処理部、153…オブジェクト位置・サイズ推定処理部、154…位置推定テーブル算出部。
DESCRIPTION OF
Claims (8)
前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向の各画素を、前記地平面上での奥行き方向の各距離毎に、前記地平面上の監視範囲を基準とした座標系における横方向実座標に対応付けた横方向重みテーブルを作成する横方向重みテーブル取得手段と、
前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向の各画素位置について、これに対応する奥行き方向実距離において、1画素が有する実高さ幅を格納する縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、
前記各取得手段により作成された前記画素単位の実距離テーブル、前記画面上の横方向重みテーブル、および前記画面上の縦方向重みテーブルを参照テーブルとして保持し、少なくとも前記画素単位の実距離テーブルを用いて、前記単眼カメラで撮影した前記オブジェクトの実在位置を認識する画像処理を実行する画像処理手段と、
を具備したことを特徴とする画像処理装置。 Among the monitoring range of the monocular camera, information on the four vertices on the screen indicating the monitoring range on the ground plane , screen information and actual measurement information on sample objects in three or more sample images taken by the monocular camera, The actual distance to the pixels in the depth direction on the screen is obtained by an exponential approximation formula, and each pixel in the depth direction on the screen is determined on the ground surface from the pixel position in the depth direction from the ground contact position of the object. An actual distance table acquisition means for creating an actual distance table corresponding to the actual distance in the depth direction at
Based on information on the actual distance table in units of pixels, information on four vertices on the screen indicating the monitoring range, and screen information and actual measurement information on the sample object in the three or more sample images , A weight of an actual distance from the ground contact position of the object on the screen to a pixel in the horizontal direction is obtained by a linear approximation formula , and each pixel in the horizontal direction on the screen is each distance in the depth direction on the ground plane. A horizontal weight table acquisition means for creating a horizontal weight table associated with the horizontal real coordinates in the coordinate system with reference to the monitoring range on the ground plane ,
Based on information on the actual distance table in units of pixels, information on four vertices on the screen indicating the monitoring range, and screen information and actual measurement information on the sample object in the three or more sample images The weight of the real distance for the vertical pixel from the contact position of the object on the screen is determined by a linear approximation formula, and the vertical pixel position on the screen is the corresponding depth direction real distance. Vertical weight table acquisition means for creating a vertical weight table for storing the actual height width of one pixel ;
The pixel-based real distance table, the horizontal weight table on the screen, and the vertical weight table on the screen, which are created by the respective acquisition means, are stored as reference tables, and at least the pixel-based real distance table. Using image processing means for executing image processing for recognizing the actual position of the object photographed by the monocular camera;
An image processing apparatus comprising:
単眼カメラの監視範囲のうち、地平面上の監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3枚以上のサンプル画像中のサンプル対象物についての画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求め、オブジェクトの接地位置からの奥行き方向画素位置から、前記画面上の奥行き方向の各画素を、前記地上面上での奥行き方向の前記実距離に対応した実距離テーブルを作成する機能と、
前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向の各画素を、前記地平面上での奥行き方向の各距離毎に、前記地平面上の監視範囲を基準とした座標系における横方向実座標に対応付けた横方向重みテーブルを作成する機能と、
前記画素単位の実距離テーブルの情報と、前記監視範囲を示す画面上の4頂点の情報と、前記3枚以上のサンプル画像中の前記サンプル対象物についての画面情報および実測情報とをもとに、前記画面上の前記オブジェクトの接地位置からの縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向の各画素位置について、これに対応する奥行き方向実距離において、1画素が有する実高さ幅を格納する縦方向重みテーブルを作成する機能と、
前記各機能により作成された前記画素単位の実距離テーブル、前記画面上の横方向重みテーブル、および前記画面上の縦方向重みテーブルを参照テーブルとして保持し、少なくとも前記画素単位の実距離テーブルを用いて、前記単眼カメラで撮影した前記オブジェクトの実在位置を認識する処理、又は前記単眼カメラで撮影した前記オブジェクトを処理対象から除去する処理を実行する画像処理機能と、
を有することを特徴とするコンピュータに実現させるための画像処理プログラム。 An image processing program for causing a computer to function as an image processing apparatus for a monocular camera,
Among the monitoring range of the monocular camera, information on the four vertices on the screen indicating the monitoring range on the ground plane , screen information and actual measurement information on sample objects in three or more sample images taken by the monocular camera, based on, determined by the actual distance the exponential approximation formula for the depth direction of the pixel on the screen, from the depth direction pixel position from the ground position of the object, each pixel in the depth direction on the screen, on the ground surface A function of creating an actual distance table corresponding to the actual distance in the depth direction at
Based on information on the actual distance table in units of pixels, information on four vertices on the screen indicating the monitoring range, and screen information and actual measurement information on the sample object in the three or more sample images , A weight of an actual distance from the ground contact position of the object on the screen to a pixel in the horizontal direction is obtained by a linear approximation formula , and each pixel in the horizontal direction on the screen is each distance in the depth direction on the ground plane. A function of creating a lateral weight table associated with the actual lateral coordinates in the coordinate system with reference to the monitoring range on the ground plane ,
Based on information on the actual distance table in units of pixels, information on four vertices on the screen indicating the monitoring range, and screen information and actual measurement information on the sample object in the three or more sample images The weight of the real distance for the vertical pixel from the contact position of the object on the screen is determined by a linear approximation formula, and the vertical pixel position on the screen is the corresponding depth direction real distance. A function of creating a vertical weight table for storing the actual height width of one pixel ;
The pixel-based actual distance table created by each function, the horizontal weight table on the screen, and the vertical weight table on the screen are stored as reference tables, and at least the pixel-based actual distance table is used. An image processing function for executing processing for recognizing an actual position of the object photographed by the monocular camera or processing for removing the object photographed by the monocular camera from a processing target;
An image processing program for causing a computer to include the image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008050976A JP4839330B2 (en) | 2008-02-29 | 2008-02-29 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008050976A JP4839330B2 (en) | 2008-02-29 | 2008-02-29 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009210286A JP2009210286A (en) | 2009-09-17 |
JP4839330B2 true JP4839330B2 (en) | 2011-12-21 |
Family
ID=41183608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008050976A Active JP4839330B2 (en) | 2008-02-29 | 2008-02-29 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4839330B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6428144B2 (en) * | 2014-10-17 | 2018-11-28 | オムロン株式会社 | Area information estimation device, area information estimation method, and air conditioner |
US20160142700A1 (en) * | 2014-11-19 | 2016-05-19 | Ginni Grover | Measuring Accuracy of Image Based Depth Sensing Systems |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03296200A (en) * | 1990-04-13 | 1991-12-26 | Matsushita Electric Ind Co Ltd | Relative speed detecting device and collision preventing device |
JP3786618B2 (en) * | 2002-03-25 | 2006-06-14 | 株式会社東芝 | Image processing apparatus and method |
JP4502733B2 (en) * | 2004-07-15 | 2010-07-14 | ダイハツ工業株式会社 | Obstacle measuring method and obstacle measuring device |
JP4899424B2 (en) * | 2005-11-04 | 2012-03-21 | トヨタ自動車株式会社 | Object detection device |
JP5034253B2 (en) * | 2006-02-08 | 2012-09-26 | パナソニック株式会社 | Object height calculation device, object search device using the same, and object height calculation method |
JP4687506B2 (en) * | 2006-03-03 | 2011-05-25 | パナソニック株式会社 | Object size calculation device, object search device, object classification device, and object size calculation method using the same |
JP2007249257A (en) * | 2006-03-13 | 2007-09-27 | Nissan Motor Co Ltd | Apparatus and method for detecting movable element |
JP4427052B2 (en) * | 2006-12-26 | 2010-03-03 | 東芝テリー株式会社 | Image processing apparatus and area tracking program |
JP2009036571A (en) * | 2007-07-31 | 2009-02-19 | Toshiba Corp | Position measuring system utilizing visible light communication system, position measuring device, and position measuring method |
JP4691570B2 (en) * | 2008-02-29 | 2011-06-01 | 東芝テリー株式会社 | Image processing apparatus and object estimation program |
-
2008
- 2008-02-29 JP JP2008050976A patent/JP4839330B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009210286A (en) | 2009-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108111818B (en) | Moving target actively perceive method and apparatus based on multiple-camera collaboration | |
JP6560480B2 (en) | Image processing system, image processing method, and program | |
US9594950B2 (en) | Depth mapping with enhanced resolution | |
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP6894725B2 (en) | Image processing device and its control method, program, storage medium | |
JP6587421B2 (en) | Information processing apparatus, information processing method, and program | |
CN103207664B (en) | A kind of image processing method and equipment | |
JP6286474B2 (en) | Image processing apparatus and area tracking program | |
JP6636042B2 (en) | Floor treatment method | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
KR20110032352A (en) | Image processing apparatus and method | |
CN107239744B (en) | Method and system for monitoring human body incidence relation and storage device | |
JP2019185281A5 (en) | ||
JP2019032599A5 (en) | ||
CN104700355A (en) | Generation method, device and system for indoor two-dimension plan | |
JP4691570B2 (en) | Image processing apparatus and object estimation program | |
JP2017003525A (en) | Three-dimensional measuring device | |
JP6950644B2 (en) | Attention target estimation device and attention target estimation method | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
JP4839330B2 (en) | Image processing apparatus and image processing program | |
JP2008033818A (en) | Object tracking device and its control method, object tracking system, object tracking program, and recording medium recording the program | |
JP2019096062A (en) | Object tracking device, object tracking method, and object tracking program | |
JP4449808B2 (en) | Human detection device | |
JP5425045B2 (en) | Object detection method, object detection apparatus, and object detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110906 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111003 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4839330 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |