JP2009210286A - Apparatus and program for image processing - Google Patents
Apparatus and program for image processing Download PDFInfo
- Publication number
- JP2009210286A JP2009210286A JP2008050976A JP2008050976A JP2009210286A JP 2009210286 A JP2009210286 A JP 2009210286A JP 2008050976 A JP2008050976 A JP 2008050976A JP 2008050976 A JP2008050976 A JP 2008050976A JP 2009210286 A JP2009210286 A JP 2009210286A
- Authority
- JP
- Japan
- Prior art keywords
- information
- screen
- image
- image processing
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、単眼カメラ(1台のカメラ)で撮影した画像を処理対象とした画像処理装置および画像処理プログラムに関する。 The present invention relates to an image processing apparatus and an image processing program for processing an image captured by a monocular camera (one camera).
カメラにより撮像された映像上の世界座標を求める手法としては、カメラ情報や、カメラ設置条件を利用した3次元計測等により、2次元の画面上にて3次元座標を求め、画面上の位置を求めるといった手法等がある。 As a method for obtaining the world coordinates on the image captured by the camera, the three-dimensional coordinates are obtained on the two-dimensional screen by the camera information, the three-dimensional measurement using the camera installation conditions, and the position on the screen is obtained. There are methods such as seeking.
この種のシステムとして、同一人物を2台以上の非同期カメラで撮影して、人物の3次元的な頭頂部位置を推定する、人物位置を推定するカメラシステムが存在した(特許文献1参照)。 As this type of system, there is a camera system that estimates the position of a person by photographing the same person with two or more asynchronous cameras and estimating the three-dimensional top position of the person (see Patent Document 1).
しかしながら、上記手法によるカメラ技術は、カメラ情報や設置位置を正確に測定する必要があり、また、カメラの設置位置によっては、測定が不可能な場合も存在するという問題があった。また、画像処理において、画面上に出現した変化領域からオブジェクトを特定する場合等、オブジェクトの存在位置がカメラからどの程度離れた位置なのか、オブジェクトの幅、高さが実際にどの程度の大きさなのかといった情報を利用する必要があり、カメラ映像から変化領域を抽出して、画像上のサイズのみで判断を行ったりするが、画面手前の小動物と画面奥の人物など対象物の大きさが異なり、その存在位置を正しく算出することができないという問題があった。
上述したように、従来のカメラ画像を対象とした画像処理技術に於いては、設置並びに設定に多くの時間を要するという問題があり、認識精度の面でも問題があった。 As described above, the conventional image processing technology for camera images has a problem that it takes a lot of time for installation and setting, and there is also a problem in terms of recognition accuracy.
本発明は、上記問題点を解消し、簡単な設定で、単眼カメラの画像から、精度の高いオブジェクト位置の推定を可能にした、画像処理装置および画像処理プログラムを提供することを目的とする。 It is an object of the present invention to provide an image processing apparatus and an image processing program that can solve the above-described problems and can estimate an object position with high accuracy from an image of a monocular camera with simple settings.
本発明は、単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する実距離テーブル取得手段と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する横方向重みテーブル取得手段と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する画像処理手段と、を具備した画像処理装置を提供する。 The present invention relates to the depth direction on the screen based on the information on the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information on three or more sample images taken by the monocular camera. Real distance table acquisition means for obtaining an actual distance table for each pixel in the vertical direction on the screen by obtaining an actual distance to the pixel by an exponential approximation formula, information on the actual distance table, information on the four vertices, A lateral weight table for obtaining a weight of an actual distance with respect to a pixel in the horizontal direction on the screen by a linear approximation formula based on the screen information and the actual measurement information of the sample image, and creating a horizontal weight table on the screen Based on the acquisition means, the information on the actual distance table, the information on the four vertices, the screen information and the actual measurement information on the sample image, the actual distance to the pixels in the vertical direction on the screen The weight is obtained by a linear approximation formula, and a vertical weight table acquisition means for creating a vertical weight table on the screen, and each table is held as a reference table, and at least one reference table of the reference tables is stored. And an image processing unit that executes predetermined image processing on an image captured by the monocular camera as a processing target.
また、本発明は、単眼カメラの画像処理装置としてコンピュータを機能させるための画像処理プログラムであって、単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する処理機能と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する処理機能と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する処理機能と、前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する処理機能と、をコンピュータに実現させることを特徴とする。 Further, the present invention is an image processing program for causing a computer to function as an image processing apparatus for a monocular camera, and information on four vertices on a screen indicating a monitoring range of the monocular camera and three locations photographed by the monocular camera. Based on the screen information and the actual measurement information of the sample image described above, an actual distance table for the pixels in the depth direction on the screen is obtained by an exponential approximation formula, and an actual distance table for each pixel in the vertical direction on the screen is created. Based on the processing function, the information on the real distance table, the information on the four vertices, the screen information on the sample image, and the actual measurement information, a linear approximation of the weight of the real distance on the horizontal pixel on the screen A processing function for creating a horizontal weight table on the screen, information on the real distance table, information on the four vertices, and screen information on the sample image. Based on the actual measurement information, the weight of the actual distance to the vertical pixel on the screen is obtained by a linear approximation formula, and a processing function for creating the vertical weight table on the screen and the respective tables are referred to. And a processing function for executing predetermined image processing on an image captured by the monocular camera using the at least one reference table among the reference tables as a processing target. It is characterized by that.
この画像処理により、単眼(カメラ1台)の画像処理において、カメラ情報やカメラ設置条件を利用することなく、撮影された画像上の監視範囲(4頂点)と位置情報を3箇所以上入力することで撮影画面上の位置推定を行うことができる。また、画像上の位置に対する実距離を算出することが可能となり、実世界座標上の対象物の存在位置を高い精度で把握できる。また、撮影映像上のオブジェクトを抽出(領域)すると、そのサイズ(幅、高さ)の実距離を推定することができ、さらに、その位置の実距離を推定することができる。また、撮影映像上で監視範囲を設定することで、そのゾーンを外れたオブジェクトを対象外とすることができ、ノイズ除去を行うことができる。 By this image processing, three or more monitoring ranges (four vertices) and position information on the captured image can be input without using camera information or camera installation conditions in monocular (one camera) image processing. The position on the shooting screen can be estimated. In addition, it is possible to calculate the actual distance with respect to the position on the image, and the position of the object on the real world coordinates can be grasped with high accuracy. Further, when an object on the captured video is extracted (region), the actual distance of the size (width, height) can be estimated, and further, the actual distance of the position can be estimated. In addition, by setting a monitoring range on the captured video, an object outside the zone can be excluded and noise can be removed.
本発明によれば、簡単な設定で、単眼カメラの画像から、精度の高いオブジェクト位置の推定が可能である。 According to the present invention, it is possible to estimate an object position with high accuracy from an image of a monocular camera with a simple setting.
以下図面を参照して本発明の実施形態を説明する。なお、この実施形態では、本発明を単眼カメラの追跡処理技術に適用した例を示しているが、単眼カメラによる種々の画像処理技術において広く適用可能である。 Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, an example in which the present invention is applied to a tracking processing technique of a monocular camera is shown, but the present invention can be widely applied to various image processing techniques using a monocular camera.
本発明の実施形態に係る画像処理装置は、単眼カメラ(1台のカメラ)で撮影した画像により検出(抽出)または追跡した対象物の実在位置(実世界座標)を画像上の位置から求めるオブジェクト位置推定機能を実現している。 An image processing apparatus according to an embodiment of the present invention is an object that obtains an actual position (real world coordinates) of an object detected (extracted) or tracked from an image captured by a monocular camera (one camera) from a position on the image. The position estimation function is realized.
本発明は、単眼カメラの画像処理において、単眼カメラで撮影した入力画像から抽出したオブジェクトの画像上の位置に基づく世界座標上の位置の推定を行う機能を実現する構成要素として、
単眼カメラの監視範囲を示す画面上の4頂点の情報と、上記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、上記画面上の奥行き方向の画素に対する実距離の指数近似式を求め、上記画面上の縦方向の画素単位の実距離グラフを取得する実距離グラフ取得手段と、上記実距離グラフ取得手段が取得した情報と上記4頂点の情報と上記サンプル画像の画面情報および実測情報とをもとに、上記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、上記画面上の横方向重みグラフを取得する横方向重みグラフ取得手段と、上記実距離グラフ取得手段が取得した情報と上記4頂点の情報と上記サンプル画像の画面情報および実測情報とをもとに、上記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、上記画面上の縦方向重みグラフを取得する縦方向重みグラフ取得手段と、上記各グラフをそれぞれ参照テーブルとして保持し、上記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、上記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する画像処理手段とを具備する。
In the image processing of the monocular camera, the present invention is a component that realizes a function for estimating the position on the world coordinates based on the position on the image of the object extracted from the input image captured by the monocular camera.
Based on the information of the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information of the three or more sample images taken by the monocular camera, the actual pixels for the depth direction on the screen are measured. An actual distance graph acquisition unit that obtains an exponential approximate expression of the distance and acquires an actual distance graph in pixel units in the vertical direction on the screen; information acquired by the actual distance graph acquisition unit; information on the four vertices; and the sample A lateral weight graph acquisition unit that obtains a weight of an actual distance to a pixel in the horizontal direction on the screen based on the screen information and the actual measurement information of the image by a linear approximation formula and acquires the horizontal weight graph on the screen On the basis of the information acquired by the actual distance graph acquisition means, the information on the four vertices, the screen information and the actual measurement information of the sample image, the actual distance to the vertical pixel on the screen A vertical weight graph acquisition means for acquiring a vertical weight graph on the screen and each of the graphs as a reference table, and at least one of the reference tables is stored as a reference table. And image processing means for executing predetermined image processing on an image captured by the monocular camera as a processing target.
本発明の実施形態に係る画像処理装置におけるオブジェクト位置の推定処理について、その動作の概要を、図1を参照して説明する。なお、ここでは、単眼カメラ11で撮影した画像を1フレーム320×240画素のQVGAでカメラ映像として出力するものとする。
An outline of the operation of the object position estimation process in the image processing apparatus according to the embodiment of the present invention will be described with reference to FIG. Here, it is assumed that an image captured by the
本発明の実施形態に係る、オブジェクト位置の推定は、サンプルモデルとなる実際のオブジェクト(対象物)を単眼カメラで撮影した画像をもとに行う。このサンプルモデルとなるオブジェクトは、例えば、図示するような、二人並んだ人物モデル等、幅方向(横方向)の間隔が設定可能なオブジェクトとする。 The estimation of the object position according to the embodiment of the present invention is performed based on an image obtained by photographing a real object (target object) serving as a sample model with a monocular camera. The object as the sample model is, for example, an object in which an interval in the width direction (lateral direction) can be set, such as a person model in which two people are arranged as shown in the figure.
まず、図1に示す処理A1において、単眼カメラ11の監視映像から、上記サンプルモデルとなるオブジェクトが撮影されている画像を3枚以上用意する。このとき、これらの画像は同一のオブジェクト(同一サンプルモデル)であり、画面上の異なる箇所にて撮影されているものとする。なお、単眼カメラ11は、例えば監視エリアを対象に、斜め上方から監視対象を撮像する設置条件のもとに画角が設定されている。
First, in process A1 shown in FIG. 1, three or more images in which an object to be the sample model is photographed are prepared from the monitoring video of the
次に、用意した画像からオブジェクトの領域を矩形(四角形)で囲み、矩形で囲った3箇所以上のオブジェクト情報を取得する。ここでは、図5に示すように、矩形の大きさを異にする(撮影位置を異にした)3枚の画像(P1,P2,P3)を用意し、この3枚の画像のオブジェクトを矩形で囲う処理を行う。 Next, an object region is enclosed by a rectangle (rectangle) from the prepared image, and object information at three or more places enclosed by the rectangle is acquired. Here, as shown in FIG. 5, three images (P1, P2, P3) having different rectangular sizes (different shooting positions) are prepared, and the objects of the three images are rectangular. The process enclosed by is performed.
図1に示す処理A2において、単眼カメラ11で監視する監視範囲(4頂点)を画面上で指定する。ここでは、図6に示すように、用意した画像の1枚にて、監視範囲を設定する。画面左端のラインを横方向の基準ライン(0mライン)とし、この監視範囲内で位置を推定する。
In process A2 shown in FIG. 1, the monitoring range (four vertices) monitored by the
上記図5に示した3枚の画像(P1,P2,P3)の1枚1枚に対して、矩形で囲ったオブジェクトについて、図7に示すように、画像下側からの足元位置(接地位置)までの距離Pyi(pix)、Wyi(m)と、2人の間隔ΔPxi(pix)、ΔWx(pix)と、どちらか一方のオブジェクトの高さΔPhi(pix)、ΔWh(m)の各情報を取得する(iは画像の枚数、ΔWx、ΔWhは各画像で共通)。 For each of the three images (P1, P2, P3) shown in FIG. 5 described above, the object enclosed by a rectangle is shown in FIG. ) Distances Pyi (pix), Wyi (m), the distance between two persons ΔPxi (pix), ΔWx (pix), and the height ΔPhi (pix), ΔWh (m) of one of the objects (I is the number of images, and ΔWx and ΔWh are common to each image).
次に、上記した実距離グラフの取得処理(縦方向の距離モデル算出処理)と、横方向重みグラフの取得処理(横方向の距離の重みモデル算出処理)と、縦方向重みグラフの取得処理(縦方向の距離の重みモデル算出処理)により、実距離グラフ(足元位置−距離グラフ)と、横方向重みグラフ(距離−横方向重みグラフ)と、縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)とを取得する。 Next, the actual distance graph acquisition process (vertical distance model calculation process), the horizontal weight graph acquisition process (horizontal distance weight model calculation process), and the vertical weight graph acquisition process ( By the vertical distance weight model calculation process), the actual distance graph (foot position-distance graph), the horizontal weight graph (distance-horizontal weight graph), and the vertical (height) direction weight graph (distance-high). Directional weight graph).
実距離グラフ(足元位置−距離グラフ)の取得(算出)処理では、上記した3つ(または3つ以上)の画像の下側から足元位置までの距離Pyi(pix)、Wyi(m)の情報を用いて、最小二乗法により、画像上の足元位置Pyに対する実距離Wyの指数近似式を取得する。 In the acquisition (calculation) processing of the actual distance graph (foot position-distance graph), information on the distances Pyi (pix) and Wyi (m) from the lower side of the above three (or three or more) images to the foot position. Is used to obtain an exponential approximate expression of the actual distance Wy with respect to the foot position Py on the image by the method of least squares.
距離モデル:Wy=AeBPy(A、Bは最小二乗法により求まるパラメータ)…(1)
(1)式で算出した距離モデル近似式より、画像上の位置に対する実距離グラフを取得する(なお、カメラ直下から、画像下側の位置までの距離(死角となる距離)をWyの値にプラスすることにより、カメラ直下からの実距離を求めることも可能となる)。この実距離グラフ(足元位置−距離グラフ)の一例を図8に示している。
Distance model: Wy = Ae BPy (A and B are parameters determined by the method of least squares) (1)
An actual distance graph with respect to the position on the image is acquired from the distance model approximate expression calculated by the expression (1) (Note that the distance from the position immediately below the camera to the position on the lower side of the image (distance that becomes a blind spot) is set to the value of Wy. By adding it, it is also possible to find the actual distance from directly under the camera). An example of the actual distance graph (foot position-distance graph) is shown in FIG.
横方向重みグラフ(距離−横方向重みグラフ)の取得(算出)処理では、上記実距離グラフの取得処理で取得した縦方向の距離モデルと、3つ(または3つ以上)の2人の間隔ΔPxi(pix)、ΔWx(pix)から、実距離Wyの位置における横方向の1画素あたりの重み(ωxi=ΔWx/ΔPxi)を求める。 In the acquisition (calculation) process of the horizontal weight graph (distance-horizontal weight graph), the vertical distance model acquired in the acquisition process of the actual distance graph and the interval between three (or three or more) two persons From ΔPxi (pix) and ΔWx (pix), a weight (ωxi = ΔWx / ΔPxi) per pixel in the horizontal direction at the position of the actual distance Wy is obtained.
3つ(または3つ以上)の実距離Wyと横方向の1画素あたりの重みωxiを用いて、最小二乗法により、実距離Wyに対する横方向の1画素あたりの重みωxiの線形近似式を取得する。 Using three (or three or more) actual distances Wy and lateral weights ωxi per pixel, a linear approximation formula of lateral weights ωxi per pixel with respect to actual distances Wy is obtained by the least square method. To do.
横方向の1画素あたりの重みモデル:ωx=CWy+D(C、Dは最小二乗法により求まるパラメータ)…(2)
(2)式で算出した横方向重み近似式より、実距離Wyに対する横方向重みグラフを取得する。この横方向重みグラフ(距離−横方向重みグラフ)の一例を図9に示している。
Weight model per pixel in the horizontal direction: ωx = CWy + D (C and D are parameters determined by the method of least squares) (2)
A horizontal weight graph with respect to the actual distance Wy is acquired from the horizontal weight approximate expression calculated by the expression (2). An example of this horizontal weight graph (distance-horizontal weight graph) is shown in FIG.
画面上の各画素での横方向位置は、基準ラインから画素までの画像上の距離に、算出した重みを掛けることにより算出される。 The horizontal position of each pixel on the screen is calculated by multiplying the distance on the image from the reference line to the pixel by the calculated weight.
縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)の取得(算出)処理では、上記実距離グラフの取得処理で取得した縦方向の距離モデルと、3つ以上のオブジェクトの高さΔPhi(pix)、ΔWh(pix)から、実距離Wyの位置における高さ方向の1画素あたりの重み(ωzi=ΔWh/ΔPhi)を求める。 In the acquisition (calculation) process of the vertical (height) direction weight graph (distance-height direction weight graph), the vertical distance model acquired in the actual distance graph acquisition process and the heights of three or more objects From ΔPhi (pix) and ΔWh (pix), the weight per pixel in the height direction at the position of the actual distance Wy (ωzi = ΔWh / ΔPhi) is obtained.
3つ(または3つ以上)の実距離Wyと高さ方向の1画素あたりの重みωziを用いて、最小二乗法により、実距離Wyに対する高さ方向の1画素あたりの重みωziの線形近似式を取得する。 Using three (or three or more) actual distances Wy and the weight ωzi per pixel in the height direction, a linear approximation formula of the weight ωzi per pixel in the height direction with respect to the actual distance Wy by the least square method To get.
高さ方向の1画素あたりの重みモデル:ωz=EWy+F(E、Fは最小二乗法により求まるパラメータ)…(3)
(3)式で算出した高さ方向重み近似式より、実距離Wyに対する高さ方向重みグラフを取得する。この縦方向重みグラフ(距離−高さ方向重みグラフ)の一例を図10に示している。
Weight model per pixel in the height direction: ωz = EWy + F (E and F are parameters determined by the method of least squares) (3)
A height direction weight graph with respect to the actual distance Wy is acquired from the height direction weight approximate expression calculated by the expression (3). An example of this vertical weight graph (distance-height weight graph) is shown in FIG.
画面上の各画素での高さ方向位置は、画像上の足元位置から指定した高さ方向の画素までの画像上の距離に、算出した重みを掛けることにより算出される。 The height direction position of each pixel on the screen is calculated by multiplying the distance on the image from the foot position on the image to the designated pixel in the height direction by the calculated weight.
図1に示す処理A3において、上記した実距離グラフ(足元位置−距離グラフ)の情報(パラメータ値)をもとに、実距離テーブル(図3に示す実距離Yテーブル)が作成され、横方向重みグラフ(距離−横方向重みグラフ)の情報(パラメータ値)をもとに、横方向重みテーブル(図3に示す実距離Xテーブル)が作成され、縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)の情報(パラメータ値)をもとに、縦方向重みテーブル(図3に示す実距離Zテーブル)が作成される。 In process A3 shown in FIG. 1, an actual distance table (actual distance Y table shown in FIG. 3) is created based on the information (parameter values) of the above-described actual distance graph (foot position-distance graph), and the horizontal direction Based on the information (parameter value) of the weight graph (distance-horizontal weight graph), a horizontal weight table (actual distance X table shown in FIG. 3) is created, and a vertical (height) direction weight graph (distance− Based on the information (parameter values) of the height direction weight graph), a vertical direction weight table (actual distance Z table shown in FIG. 3) is created.
これらの実距離テーブル(実距離Yテーブル)、横方向重みテーブル(実距離Xテーブル)、縦方向重みテーブル(実距離Zテーブル)を参照テーブルとして、単眼カメラ11で撮影したオブジェクトの位置、サイズの推定、並びにこの推定に基づく画像処理が実施される。
These real distance table (real distance Y table), horizontal weight table (real distance X table), and vertical weight table (real distance Z table) are used as reference tables for the position and size of the object photographed by the
上記各グラフの作成で求めた推定係数により、画像上の位置における実距離や、2点間の距離または、高さを求めることが可能となる。また、ある点から何mの位置がどこかということも算出可能となる。 It is possible to obtain the actual distance at the position on the image, the distance between two points, or the height based on the estimation coefficient obtained by creating each graph. Also, it is possible to calculate how many meters a position is from a certain point.
画像上のある位置(i,j)の実距離を求める場合、上記(1)式(縦方向の距離モデル近似式Wy=AeBPy)より、Pyにjを代入して、縦方向の実距離Wyを算出する。算出したWyを上記(2)式(横方向の距離モデル重み近似式ωx=CWy+D)に代入してωxを算出する。 When calculating the actual distance of a certain position (i, j) on the image, the actual distance in the vertical direction is obtained by substituting j for Py from the above formula (1) (vertical distance model approximate expression Wy = Ae BPy). Wy is calculated. Ωx is calculated by substituting the calculated Wy into the above formula (2) (lateral distance model weight approximation formula ωx = CWy + D).
監視範囲の横方向基準ラインから、ある位置(i,j)までの横方向の画素数DPxを算出する。横方向の実距離Wxは、ωx×DPxにより算出される。 The number of pixels DPx in the horizontal direction from the horizontal reference line in the monitoring range to a certain position (i, j) is calculated. The actual distance Wx in the horizontal direction is calculated by ωx × DPx.
これにより、画像上のある位置(i,j)の実距離(Wx,Wy)が求められる。 Thereby, the actual distance (Wx, Wy) of a certain position (i, j) on the image is obtained.
画像上のある位置(i,j)から、画像上の画素数DPzの位置の高さの実距離を求める場合、上記(1)式(縦方向の距離モデル近似式Wy=AeBPy)より、Pyにjを代入して、縦方向の実距離Wyを算出する。算出したWyを上記(3)式(高さ方向の距離モデル重み近似式ωz=EWy+F)に代入してωzを算出する。高さ方向の実距離は、ωz×DPzにより算出される。 When obtaining the actual distance of the height of the number of pixels DPz on the image from a certain position (i, j) on the image, from the above formula (1) (vertical distance model approximation formula Wy = Ae BPy) , By substituting j for Py, the actual vertical distance Wy is calculated. Ωz is calculated by substituting the calculated Wy into the above formula (3) (distance model weight approximation formula in the height direction ωz = EWy + F). The actual distance in the height direction is calculated by ωz × DPz.
上記した実距離テーブル(実距離Yテーブル)、横方向重みテーブル(実距離Xテーブル)、縦方向重みテーブル(実距離Zテーブル)を参照テーブルとして用いて、単眼カメラ11で撮影した画像に対してオブジェクト位置の推定並びにこれに伴う各種の画像処理が行われる。
Using the above-described actual distance table (actual distance Y table), horizontal weight table (actual distance X table), and vertical weight table (actual distance Z table) as a reference table, an image captured by the
この実施形態では、図1に示す処理A11において、単眼カメラ11の映像を所定の周期で入力し、入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する。
In this embodiment, in the process A11 shown in FIG. 1, the image of the
図1に示す処理A12において、上記抽出した矩形の領域について、新たに抽出した矩形の領域を追跡開始オブジェクトとして、当該オブジェクトの追跡を行い、追跡したオブジェクト情報を保持し、追跡オブジェクトが出現する度にオブジェクト情報を更新する。 In the process A12 shown in FIG. 1, for the extracted rectangular area, the newly extracted rectangular area is used as a tracking start object, the object is tracked, the tracked object information is held, and a tracking object appears. Update object information.
図1に示す処理A13において、抽出した矩形の領域(追跡開始オブジェクト、および追跡オブジェクト)について、上記前処理により取得した参照テーブルを用いて、オブジェクト位置の推定並びにこの推定に基づく各種のオブジェクト処理を行う。このオブジェクト処理では、例えば、実距離テーブル(実距離Yテーブル)を用いて、単眼カメラ11で撮影した画像の実在位置を認識する処理を実行することができる。また、実距離テーブル(実距離Yテーブル)を用いて、単眼カメラ11で撮影した画像を処理対象から除外する処理を実行することができる。また、実距離テーブル(実距離Yテーブル)と、横方向重みテーブル(実距離Xテーブル)または縦方向重みテーブル(実距離Zテーブル)を用いて、単眼カメラ11で撮影した画像の実体(例えばオブジェクトの実寸による大きさ)を認識する処理、実際のオブジェクトサイズに基づく仕分け処理等を実行することができる。また、監視範囲の4頂点の情報と、実距離テーブル(実距離Yテーブル)と、横方向重みテーブル(実距離Xテーブル)または縦方向重みテーブル(実距離Zテーブル)を用いて、監視範囲を、実空間上に、設定することができ、さらに、この実空間の監視範囲を対象に、オブジェクトの弁別、選択(抽出)、画像削除、空間監視等、種々の処理が可能となる。これらの単眼カメラ映像による各処理は、上記した指数近似モデル、および各線形近似モデルによるグラフ処理によってはじめて可能になる。
In the process A13 shown in FIG. 1, for the extracted rectangular area (tracking start object and tracking object), the object position is estimated and various object processes based on the estimation are performed using the reference table acquired by the preprocessing. Do. In this object process, for example, a process of recognizing the actual position of an image captured by the
上記した実距離テーブル(実距離Yテーブル)、横方向重みテーブル(実距離Xテーブル)、縦方向重みテーブル(実距離Zテーブル)を参照テーブルとして用いた実施形態に係る画像処理装置の構成を図2に示し、この画像処理装置の要部の構成を図3に示している。 The configuration of the image processing apparatus according to the embodiment using the above-described actual distance table (actual distance Y table), horizontal weight table (actual distance X table), and vertical weight table (actual distance Z table) as a reference table is illustrated. 2 shows the configuration of the main part of the image processing apparatus.
本発明の実施形態に係る画像処理装置は、図2に示すように、カメラ(単眼カメラ)11と、キャプチャ部12と、画像処理記憶部13と、画像処理部15と、表示部16とを具備して構成される。
As shown in FIG. 2, the image processing apparatus according to the embodiment of the present invention includes a camera (monocular camera) 11, a
カメラ11は、レンズユニットとレンズユニットの結像位置に設けられた撮像素子(例えばCCD固体撮像素子、若しくはCMOSイメージセンサ)とを具備して、屋外若しくは屋内の動きを伴う被写体(動物体)を対象に、一定の画角で撮像した一画面分の画像を所定の画素単位(例えば1フレーム320×240画素(pix)=QVGA)で出力する。
The
キャプチャ部12は、カメラ11が撮像したフレーム単位の画像を画像処理部15の処理対象画像(入力画像)として取り込み、画像処理記憶部13内の画像バッファ131に保持する処理機能をもつ。この画像バッファ131に取り込む画面上の入力画像は、ここでは原画像とするが、エッジ画像であってもよい。
The
画像処理記憶部13は、画像処理部15の処理に供される、キャプチャ部12が取り込んだ入力画像および処理中の各画像を含む各種データを記憶する。この画像処理記憶部13には、画像処理部15の制御の下に、キャプチャ部12が取り込んだフレーム単位の画像のうち、今回取り込んだ一画面分の画像(現在画像)と、前回取り込んだ一画面分の画像(過去画像)をそれぞれ処理対象画像として保持する画像バッファ131を構成する領域が確保されるとともに、画像処理部15の処理に用いられる画像領域が確保される。さらに画像処理記憶部13には、画像処理部15の処理に供される各種のパラメータおよび制御データを記憶する記憶領域、追跡処理に於いて生成若しくは取得される各種情報の記憶領域等も確保される。
The image
位置推定係数パラメータ算出部14は、上述した、4頂点の情報、単眼カメラ11で撮影した3箇所以上のサンプル画像の画面情報および実測情報等を入力情報として、上述した、距離モデル、および各重みモデルの位置推定係数パラメータ値を算出し、この位置推定係数パラメータ値を参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を作成する要素データとして画像処理部15に設けられた位置推定テーブル算出部154に供給する。
The position estimation coefficient
画像処理部15は、画像処理記憶部13の画像バッファ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この差分二値化画像から、変化画素を含む矩形の領域を抽出する変化領域抽出処理部151と、この変化領域抽出処理部151で抽出した矩形の領域を処理対象に、領域を追跡する追跡処理部152と、位置推定テーブル算出部154により算出された参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いて上記したような位置推定による各種処理を実行するオブジェクト位置・サイズ推定処理部153とを具備して構成される。
The
表示部(表示デバイス)16は上記画像処理部15で画像処理された動物体領域を表示出力する。
The display unit (display device) 16 displays and outputs the moving object region image-processed by the
上記した画像処理装置における処理の手順を図4に示している。図4に示すステップB3の処理において、上記参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いたオブジェクト位置・サイズ推定処理が実施される。 FIG. 4 shows a processing procedure in the above-described image processing apparatus. In the process of step B3 shown in FIG. 4, the object position / size estimation process using the reference table (actual distance Y table, actual distance X table, actual distance Z table) is performed.
図4に示す処理手順に従い図2および図3に示す画像処理装置の動作を説明する。 The operation of the image processing apparatus shown in FIGS. 2 and 3 will be described according to the processing procedure shown in FIG.
画像処理部15に設けられた変化領域抽出処理部151は、画像処理記憶部13の画像バッファ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この画像情報を変化領域バッファ132に保持する。さらに、この差分二値化画像の情報から、変化画素を含む矩形の領域を抽出して、この矩形領域の情報を追跡情報バッファ133に保持する(図4ステップB1)。
The change area
追跡処理部152は、変化領域抽出処理部151により抽出され、追跡情報バッファ133に保持された矩形の領域を追跡対象オブジェクトとして追跡処理する。この追跡処理は、初期動作時においては、追跡処理の対象となるオブジェクトが存在しないので、このオブジェクトを新規オブジェクトとして追跡情報バッファ133に登録し、以降の追跡処理の対象とする。この追跡処理は、例えば、矩形の形状および重なりによる領域判定と、最小二乗近似により求めた予測方向に従う予測位置に基づく領域判定とを組み合わせた領域の追跡処理が適用できる(図4ステップB2)。
The
オブジェクト位置・サイズ推定処理部153は、変化領域抽出処理部151が抽出した矩形領域(追跡開始(新規)オブジェクト、および追跡オブジェクト)について、位置推定テーブル算出部154が算出した参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いて、オブジェクトの推定を行う(図4ステップB3)。
The object position / size
この参照テーブルを用いて、図4に示す処理手順に従う画像処理が実施される。 Image processing according to the processing procedure shown in FIG. 4 is performed using this reference table.
画像処理部15に設けられた変化領域抽出処理部151は、画像処理記憶部13の画像バッファ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この画像情報を変化領域バッファ132に保持する。さらに、この差分二値化画像の情報から、変化画素を含む矩形の領域を抽出して、この矩形領域の情報を追跡情報バッファ133に保持する(図4ステップB1)。
The change area
追跡処理部152は、変化領域抽出処理部151により抽出され、追跡情報バッファ133に保持された矩形の領域を追跡対象オブジェクトとして追跡処理する。この追跡処理は、初期動作時においては、追跡処理の対象となるオブジェクトが存在しないので、このオブジェクトを新規オブジェクトとして追跡情報バッファ133に登録し、以降の追跡処理の対象とする。この追跡処理は、例えば、矩形の形状および重なりによる領域判定と、最小二乗近似により求めた予測方向に従う予測位置に基づく領域判定とを組み合わせた領域の追跡処理が適用できる(図4ステップB2)。
The
オブジェクト位置・サイズ推定処理部153は、変化領域抽出処理部151が抽出した矩形領域(追跡開始(新規)オブジェクト、および追跡オブジェクト)について、オブジェクトモデルテーブル算出部154が算出した参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いて、オブジェクト位置およびサイズの推定と、これに伴う各種のオブジェクト処理を行う(図4ステップB3)。ここでは、検出又は追跡した対象物の存在位置(実世界座標)を画像上の位置から求めるオブジェクト位置推定機能を実現する。例えば監視範囲(2次元平面)をユーザが指定して、その監視範囲内に存在しているオブジェクトの足元、頭頂位置を比較的高い位置精度で推定することができる。また、上述したように、実距離Yテーブルを用いて、単眼カメラ11で撮影した画像の実在位置を認識する処理、実距離Yテーブルを用いて、単眼カメラ11で撮影した画像を処理対象から除外する処理、実距離Yテーブルと、実距離Xテーブルまたは実距離Zテーブルを用いて、単眼カメラ11で撮影した画像の実体(例えばオブジェクトの実寸による大きさ)を認識する処理、実際のオブジェクトサイズに基づく仕分け処理、監視範囲の4頂点の情報と実距離Yテーブルと実距離Xテーブルまたは実距離Zテーブルを用いて、監視範囲を、実空間上に、設定したオブジェクト認識処理、実空間の監視範囲を対象としたオブジェクトの弁別、選択(抽出)、画像削除、空間監視等、種々の処理が可能である。
The object position / size
本発明の実施形態に係るオブジェクト位置およびサイズの推定機能について、図11乃至図21を参照してさらに説明を行う。 The object position and size estimation function according to the embodiment of the present invention will be further described with reference to FIGS.
(1).監視範囲の考え方
図11に示す、単眼カメラ11で撮影した画面上において、同画面上の4点、p0(x0,y0)、p1(x1,y1)、p2(x2,y1)、p3(x3,y0)を指定することで、その4点を結ぶ四角形を平面領域と見做し、その平面領域を監視範囲とする。監視範囲の指定イメージを図11に上記4点を結ぶ直線で示している。
(1). Concept of monitoring range On the screen imaged by the
奥行き方向の手前ライン(p0−p3ライン)、奥のライン(p1−p2ライン)のy座標は同じとし、並行とする(平面領域は正確な四角形でなくても良いが、このルールに従うものとする)。なお、画面外の点も入力可能とする(ただし、p1は画面内に必ず設定すること)。x1<x2、x0<x3、y0>y1であるように設定されること。また、高さ方向を設定する(世界座標の高さ)ことで、高さ方向の監視範囲が設定され、不要領域の削除が可能となること(X,Y,Zが求まった最後に、監視範囲空間設定を行う)。p0,p1は基準ラインとなるため、p1を画面内に存在することとする
(2).位置推定の考え方とリファレンス位置(基準位置)
監視範囲内にリファレンス(基準)となる複数の位置(等間隔の複数点)の座標(x,y)と、それに対応する世界座標(X,Y,Z)を取得し、距離(Y)−画面上位置(y)グラフを取得する。
The y-coordinates of the front line in the depth direction (p0-p3 line) and the back line (p1-p2 line) are the same and are parallel (the planar area does not have to be an exact quadrangle, To do). It should be noted that points outside the screen can also be input (however, p1 must be set within the screen). x1 <x2, x0 <x3, y0> y1 are set. In addition, by setting the height direction (the height of the world coordinates), the monitoring range in the height direction is set, and it is possible to delete the unnecessary area (the monitoring is performed at the end when X, Y, and Z are obtained). Set the range space). Since p0 and p1 are reference lines, it is assumed that p1 exists in the screen (2). Position estimation concept and reference position (reference position)
The coordinates (x, y) and the corresponding world coordinates (X, Y, Z) of a plurality of positions (a plurality of equally spaced points) serving as a reference (reference) within the monitoring range are obtained, and the distance (Y) − A screen position (y) graph is acquired.
取得した距離(Y)を利用して、1画素当たりの距離(ΔX)−距離(Y)、1画素当たりの高さ(ΔZ)−距離(Y)グラフを得る。カメラからの距離−画像座標の関係グラフ(Y−yグラフ)の一例を図12に示している。1画素当たりの距離−画像座標の関係グラフ(ΔX−Yグラフ)の一例を図13に示している。 Using the acquired distance (Y), a graph of distance per pixel (ΔX) −distance (Y), height per pixel (ΔZ) −distance (Y) is obtained. FIG. 12 shows an example of a distance-image coordinate relationship graph (Yy graph) from the camera. An example of a distance-image coordinate relationship graph (ΔX-Y graph) per pixel is shown in FIG.
リファレンス位置は以下のとおりとする。 The reference position is as follows.
図14の画面に示すように、監視範囲の画面手前、中央、奥の3点の基準位置(y0、y1、y2)を決め、それぞれの間隔ΔY0[m](目測による設定も可)、ΔY1[m]、ΔY2[m]を計測し、Y0[m]、Y1[m]、Y2[m]を得る。このΔY[m]間隔のリファレンス位置は、前項のオブジェクトモデルを得るための位置と共通にしてもよい。また、各基準位置で、ある等間隔ΔX1[m]、X2[m]、X3[m]の画素幅(Δx[pix])を得る。この時、画像上のy座標が左右でほぼ同一である(並行である)ようにする。 As shown in the screen of FIG. 14, three reference positions (y0, y1, y2) at the front, center, and back of the monitoring range are determined, and their respective intervals ΔY0 [m] (can be set by eye measurement), ΔY1 [M] and ΔY2 [m] are measured to obtain Y0 [m], Y1 [m], and Y2 [m]. The reference position of this ΔY [m] interval may be made common with the position for obtaining the object model in the previous section. In addition, pixel widths (Δx [pix]) of certain equal intervals ΔX1 [m], X2 [m], and X3 [m] are obtained at each reference position. At this time, the y coordinate on the image is set to be substantially the same on the left and right (in parallel).
取得したY0[m]、Y1[m]、Y2[m]、y0[pix]、y1[pix]、y2[pix]、ΔX1[m]、X2[m]、X3[m]、Δx1[pix]、Δx2[pix]、Δx3[pix]を利用して、最小二乗法により、最初に距離(Y)−画像座標(y)の指数近似式を得る。次に、取得した距離(Y)を利用して、1画素当たりの距離(X)−距離(Y)の線形近似式を得る(同様の考え方で、1画素当りの高さ(Z)−距離(Y)の線形近似式を得る)。 Obtained Y0 [m], Y1 [m], Y2 [m], y0 [pix], y1 [pix], y2 [pix], ΔX1 [m], X2 [m], X3 [m], Δx1 [pix ], Δx2 [pix], and Δx3 [pix] are used to obtain an exponential approximate expression of distance (Y) −image coordinates (y) first by the least square method. Next, using the acquired distance (Y), a linear approximate expression of distance (X) per pixel−distance (Y) is obtained (in the same way of thinking, height (Z) per pixel−distance (Y) is obtained.
取得した近似式から、図15に示すような参照テーブル(図8に示した実距離グラフ;足元位置−距離グラフ)を作成する。 A reference table (actual distance graph shown in FIG. 8; foot position-distance graph shown in FIG. 8) is created from the obtained approximate expression.
指数近似式から、図16に示すようなY座標参照テーブル(実距離テーブル;実距離Yテーブル)を作成する。 A Y coordinate reference table (actual distance table; actual distance Y table) as shown in FIG. 16 is created from the exponential approximation formula.
線形近似式から、図17に示すようなX座標参照テーブル(横方向重みテーブル;実距離Xテーブル)を作成する。 An X coordinate reference table (lateral weight table; actual distance X table) as shown in FIG. 17 is created from the linear approximation formula.
線形近似式から、図18に示すようなZ座標参照テーブル(縦方向重みテーブル;実距離Zテーブル)を作成する。 A Z coordinate reference table (vertical weight table; actual distance Z table) as shown in FIG. 18 is created from the linear approximation formula.
(3).オブジェクト位置推定方法(監視範囲と3次元位置マップの考え方)
監視範囲を3次元マップに展開したとき、図19のようになる。
(3). Object position estimation method (Concept of monitoring range and 3D position map)
When the monitoring range is expanded into a three-dimensional map, it becomes as shown in FIG.
オブジェクトの足元位置(xp,yp)を入力とし、Y座標参照テーブルから、yp座標に対応するYp座標を得る。 Using the foot position (xp, yp) of the object as input, Yp coordinates corresponding to the yp coordinates are obtained from the Y coordinate reference table.
オブジェクトの足元位置(xp,yp)を入力とし、X座標参照テーブルから、監視範囲左辺を基準にした(xp,yp)座標に対応するXp座標を得る。 Using the foot position (xp, yp) of the object as an input, the Xp coordinate corresponding to the (xp, yp) coordinate based on the left side of the monitoring range is obtained from the X coordinate reference table.
Z座標参照テーブルから、(yt−yp)の差を利用して高さZを得る。 From the Z coordinate reference table, the height Z is obtained using the difference (yt−yp).
この方法で得られた(X,Y,Z)座標をオブジェクトの位置とする(3次元マップにプロットが可能となる)。 The (X, Y, Z) coordinates obtained by this method are used as object positions (plotting is possible on a three-dimensional map).
(4).監視範囲を利用した不要領域の削除
例として、監視対象となるオブジェクトの領域が、図20に直線で示した監視範囲の外部に出現したと判断した場合は、その領域(オブジェクト)を削除する。例えば、監視範囲に対して、空間設定(世界座標の高さ情報)が行われた場合のみ監視範囲の外部に出現したと判断したオブジェクトを削除する(監視範囲空間設定によって、高さ方向の設定を行わない場合は、削除しない)。また、例えば、図21に矩形で示すように、足元が監視平面上に存在しない、または、監視エリア外に頭頂位置が存在する場合は、当該領域を削除する。
(4). Deletion of Unnecessary Area Using Monitoring Range As an example, when it is determined that an area of an object to be monitored appears outside the monitoring range indicated by a straight line in FIG. 20, the area (object) is deleted. For example, an object that is determined to have appeared outside the monitoring range is deleted only when the space setting (world coordinate height information) is performed for the monitoring range (the height direction setting is set by the monitoring range space setting). If not, do not delete). Further, for example, as shown by a rectangle in FIG. 21, when the foot does not exist on the monitoring plane or the head position exists outside the monitoring area, the region is deleted.
上記した本発明の実施形態によれば、単眼(カメラ1台)の画像処理において、カメラ情報やカメラ設置条件を利用することなく、撮影された画像上の監視範囲(4頂点)と位置情報を3箇所以上入力することで撮影画面上の位置推定を行うことができる。また、画像上の位置に対する実距離を算出することが可能となり、実世界座標上の対象物の存在位置を高い精度で把握できる。また、撮影映像上のオブジェクトを抽出(領域)すると、そのサイズ(幅、高さ)の実距離を推定することができ、さらに、その位置の実距離を推定することができる。また、撮影映像上で監視範囲を設定することで、そのゾーンを外れたオブジェクトを対象外とすることができ、ノイズ除去を行うことができる。 According to the above-described embodiment of the present invention, in the image processing of a single eye (one camera), the monitoring range (four vertices) and the position information on the captured image can be obtained without using camera information or camera installation conditions. The position on the shooting screen can be estimated by inputting three or more locations. In addition, it is possible to calculate the actual distance with respect to the position on the image, and the position of the object on the real world coordinates can be grasped with high accuracy. Further, when an object on the captured video is extracted (region), the actual distance of the size (width, height) can be estimated, and further, the actual distance of the position can be estimated. In addition, by setting a monitoring range on the captured video, an object outside the zone can be excluded and noise can be removed.
11…単眼カメラ、12…キャプチャ部、13…画像処理記憶部、14…位置推定係数パラメータ算出部、15…画像処理部、16…表示部(表示デバイス)、151…変化領域抽出処理部、152…追跡処理部、153…オブジェクト位置・サイズ推定処理部、154…位置推定テーブル算出部。
DESCRIPTION OF
Claims (9)
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する横方向重みテーブル取得手段と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、
前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する画像処理手段と、
を具備したことを特徴とする画像処理装置。 Based on the information of the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information of three or more sample images taken by the monocular camera, the actual pixels for the depth direction on the screen are measured. An actual distance table obtaining means for obtaining a distance by an exponential approximation formula and creating an actual distance table in units of vertical pixels on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the horizontal direction on the screen is obtained by a linear approximation formula, A horizontal weight table obtaining means for creating a horizontal weight table on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the vertical direction on the screen is obtained by a linear approximation formula, Vertical weight table acquisition means for creating a vertical weight table on the screen;
Image processing means for holding each table as a reference table and executing predetermined image processing on an image captured by the monocular camera using at least one of the reference tables as a processing target When,
An image processing apparatus comprising:
単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する処理機能と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する処理機能と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する処理機能と、
前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する処理機能と、
をコンピュータに実現させるための画像処理プログラム。 An image processing program for causing a computer to function as an image processing apparatus for a monocular camera,
Based on the information of the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information of three or more sample images taken by the monocular camera, the actual pixels for the depth direction on the screen are measured. A processing function for obtaining a distance by an exponential approximation formula and creating an actual distance table in units of pixels in the vertical direction on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the horizontal direction on the screen is obtained by a linear approximation formula, A processing function for creating a horizontal weight table on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the vertical direction on the screen is obtained by a linear approximation formula, A processing function for creating a vertical weight table on the screen;
A processing function for holding each of the tables as a reference table and executing predetermined image processing on an image captured by the monocular camera using at least one of the reference tables as a processing target; ,
An image processing program for realizing a computer.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008050976A JP4839330B2 (en) | 2008-02-29 | 2008-02-29 | Image processing apparatus and image processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008050976A JP4839330B2 (en) | 2008-02-29 | 2008-02-29 | Image processing apparatus and image processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009210286A true JP2009210286A (en) | 2009-09-17 |
JP4839330B2 JP4839330B2 (en) | 2011-12-21 |
Family
ID=41183608
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008050976A Active JP4839330B2 (en) | 2008-02-29 | 2008-02-29 | Image processing apparatus and image processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4839330B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016080550A (en) * | 2014-10-17 | 2016-05-16 | オムロン株式会社 | Area information estimation device, area information estimation method and air conditioner |
WO2016081118A1 (en) * | 2014-11-19 | 2016-05-26 | Intel Corporation | Measuring accuracy of image based depth sensing systems |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03296200A (en) * | 1990-04-13 | 1991-12-26 | Matsushita Electric Ind Co Ltd | Relative speed detecting device and collision preventing device |
JP2003281552A (en) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | Image processor and method |
JP2006031313A (en) * | 2004-07-15 | 2006-02-02 | Daihatsu Motor Co Ltd | Method and apparatus for measuring obstacle |
JP2007129560A (en) * | 2005-11-04 | 2007-05-24 | Toyota Motor Corp | Object detector |
JP2007212216A (en) * | 2006-02-08 | 2007-08-23 | Matsushita Electric Ind Co Ltd | Object height calculation device and method, object retrieval device using same, and object height calculation method |
JP2007233908A (en) * | 2006-03-03 | 2007-09-13 | Matsushita Electric Ind Co Ltd | Object size calculation device, object retrieval device using it, object classification device and object size calculation method |
JP2007249257A (en) * | 2006-03-13 | 2007-09-27 | Nissan Motor Co Ltd | Apparatus and method for detecting movable element |
JP2008158984A (en) * | 2006-12-26 | 2008-07-10 | Toshiba Teli Corp | Image processor and area tracing program |
JP2009036571A (en) * | 2007-07-31 | 2009-02-19 | Toshiba Corp | Position measuring system utilizing visible light communication system, position measuring device, and position measuring method |
JP2009211122A (en) * | 2008-02-29 | 2009-09-17 | Toshiba Teli Corp | Image processor and object estimation program |
-
2008
- 2008-02-29 JP JP2008050976A patent/JP4839330B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03296200A (en) * | 1990-04-13 | 1991-12-26 | Matsushita Electric Ind Co Ltd | Relative speed detecting device and collision preventing device |
JP2003281552A (en) * | 2002-03-25 | 2003-10-03 | Toshiba Corp | Image processor and method |
JP2006031313A (en) * | 2004-07-15 | 2006-02-02 | Daihatsu Motor Co Ltd | Method and apparatus for measuring obstacle |
JP2007129560A (en) * | 2005-11-04 | 2007-05-24 | Toyota Motor Corp | Object detector |
JP2007212216A (en) * | 2006-02-08 | 2007-08-23 | Matsushita Electric Ind Co Ltd | Object height calculation device and method, object retrieval device using same, and object height calculation method |
JP2007233908A (en) * | 2006-03-03 | 2007-09-13 | Matsushita Electric Ind Co Ltd | Object size calculation device, object retrieval device using it, object classification device and object size calculation method |
JP2007249257A (en) * | 2006-03-13 | 2007-09-27 | Nissan Motor Co Ltd | Apparatus and method for detecting movable element |
JP2008158984A (en) * | 2006-12-26 | 2008-07-10 | Toshiba Teli Corp | Image processor and area tracing program |
JP2009036571A (en) * | 2007-07-31 | 2009-02-19 | Toshiba Corp | Position measuring system utilizing visible light communication system, position measuring device, and position measuring method |
JP2009211122A (en) * | 2008-02-29 | 2009-09-17 | Toshiba Teli Corp | Image processor and object estimation program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016080550A (en) * | 2014-10-17 | 2016-05-16 | オムロン株式会社 | Area information estimation device, area information estimation method and air conditioner |
WO2016081118A1 (en) * | 2014-11-19 | 2016-05-26 | Intel Corporation | Measuring accuracy of image based depth sensing systems |
Also Published As
Publication number | Publication date |
---|---|
JP4839330B2 (en) | 2011-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6700752B2 (en) | Position detecting device, position detecting method and program | |
JP6587421B2 (en) | Information processing apparatus, information processing method, and program | |
US9697607B2 (en) | Method of estimating imaging device parameters | |
JP6125188B2 (en) | Video processing method and apparatus | |
JP6273685B2 (en) | Tracking processing apparatus, tracking processing system including the tracking processing apparatus, and tracking processing method | |
JP6286474B2 (en) | Image processing apparatus and area tracking program | |
JP6894725B2 (en) | Image processing device and its control method, program, storage medium | |
JP6636042B2 (en) | Floor treatment method | |
WO2016029939A1 (en) | Method and system for determining at least one image feature in at least one image | |
JP6352208B2 (en) | 3D model processing apparatus and camera calibration system | |
JP6638723B2 (en) | Image analysis device, image analysis method, and image analysis program | |
CN110926330A (en) | Image processing apparatus, image processing method, and program | |
JP4691570B2 (en) | Image processing apparatus and object estimation program | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP4839330B2 (en) | Image processing apparatus and image processing program | |
JP6659095B2 (en) | Image processing apparatus, image processing method, and program | |
JP2005196359A (en) | Moving object detection apparatus, moving object detection method and moving object detection program | |
JP2016194847A (en) | Image detection device, image detection method, and program | |
WO2016181672A1 (en) | Image analysis device, image analysis method, and image analysis program | |
JP7341712B2 (en) | Image processing device, image processing method, imaging device, and program | |
JP2006285569A (en) | Person detecting apparatus | |
JP6597277B2 (en) | Projection apparatus, projection method, and computer program for projection | |
KR101844004B1 (en) | Image generating apparatus including distance information | |
JP2016139172A5 (en) | ||
KR101748333B1 (en) | Method and apparatus for tracking object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100914 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110511 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110628 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110817 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110906 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111003 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141007 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4839330 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |