JP2009210286A - Apparatus and program for image processing - Google Patents

Apparatus and program for image processing Download PDF

Info

Publication number
JP2009210286A
JP2009210286A JP2008050976A JP2008050976A JP2009210286A JP 2009210286 A JP2009210286 A JP 2009210286A JP 2008050976 A JP2008050976 A JP 2008050976A JP 2008050976 A JP2008050976 A JP 2008050976A JP 2009210286 A JP2009210286 A JP 2009210286A
Authority
JP
Japan
Prior art keywords
information
screen
image
image processing
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008050976A
Other languages
Japanese (ja)
Other versions
JP4839330B2 (en
Inventor
Akira Wada
亮 和田
Hiroyuki Otoyama
弘幸 音山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Teli Corp
Original Assignee
Toshiba Teli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Teli Corp filed Critical Toshiba Teli Corp
Priority to JP2008050976A priority Critical patent/JP4839330B2/en
Publication of JP2009210286A publication Critical patent/JP2009210286A/en
Application granted granted Critical
Publication of JP4839330B2 publication Critical patent/JP4839330B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus enabling estimation of an object with high accuracy from an image of a single-lens camera by simple setting. <P>SOLUTION: Regarding a rectangular area (tracking start (new) object and tracking object) extracted by a change area extraction processing part 151, an object position-size estimation processing part 153 performs estimation of the position and the size of the object and various object processings annexed thereto, by using reference tables (real distance Y table, real distance X table and real distance Z table) calculated by an object model table calculating part 154. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、単眼カメラ(1台のカメラ)で撮影した画像を処理対象とした画像処理装置および画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program for processing an image captured by a monocular camera (one camera).

カメラにより撮像された映像上の世界座標を求める手法としては、カメラ情報や、カメラ設置条件を利用した3次元計測等により、2次元の画面上にて3次元座標を求め、画面上の位置を求めるといった手法等がある。   As a method for obtaining the world coordinates on the image captured by the camera, the three-dimensional coordinates are obtained on the two-dimensional screen by the camera information, the three-dimensional measurement using the camera installation conditions, and the position on the screen is obtained. There are methods such as seeking.

この種のシステムとして、同一人物を2台以上の非同期カメラで撮影して、人物の3次元的な頭頂部位置を推定する、人物位置を推定するカメラシステムが存在した(特許文献1参照)。   As this type of system, there is a camera system that estimates the position of a person by photographing the same person with two or more asynchronous cameras and estimating the three-dimensional top position of the person (see Patent Document 1).

しかしながら、上記手法によるカメラ技術は、カメラ情報や設置位置を正確に測定する必要があり、また、カメラの設置位置によっては、測定が不可能な場合も存在するという問題があった。また、画像処理において、画面上に出現した変化領域からオブジェクトを特定する場合等、オブジェクトの存在位置がカメラからどの程度離れた位置なのか、オブジェクトの幅、高さが実際にどの程度の大きさなのかといった情報を利用する必要があり、カメラ映像から変化領域を抽出して、画像上のサイズのみで判断を行ったりするが、画面手前の小動物と画面奥の人物など対象物の大きさが異なり、その存在位置を正しく算出することができないという問題があった。
特開2007−233523号公報
However, the camera technique based on the above method has a problem that it is necessary to accurately measure camera information and an installation position, and depending on the installation position of the camera, there are cases where measurement is not possible. Also, in image processing, when identifying an object from a change area that appears on the screen, how far the object is located from the camera, and how large the object's width and height are actually It is necessary to use information such as whether or not, extracting the change area from the camera video and making a judgment only by the size on the image, but the size of the target object such as a small animal in front of the screen and a person at the back of the screen In contrast, there is a problem that the position of the existence cannot be calculated correctly.
JP 2007-233523 A

上述したように、従来のカメラ画像を対象とした画像処理技術に於いては、設置並びに設定に多くの時間を要するという問題があり、認識精度の面でも問題があった。   As described above, the conventional image processing technology for camera images has a problem that it takes a lot of time for installation and setting, and there is also a problem in terms of recognition accuracy.

本発明は、上記問題点を解消し、簡単な設定で、単眼カメラの画像から、精度の高いオブジェクト位置の推定を可能にした、画像処理装置および画像処理プログラムを提供することを目的とする。   It is an object of the present invention to provide an image processing apparatus and an image processing program that can solve the above-described problems and can estimate an object position with high accuracy from an image of a monocular camera with simple settings.

本発明は、単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する実距離テーブル取得手段と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する横方向重みテーブル取得手段と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する画像処理手段と、を具備した画像処理装置を提供する。   The present invention relates to the depth direction on the screen based on the information on the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information on three or more sample images taken by the monocular camera. Real distance table acquisition means for obtaining an actual distance table for each pixel in the vertical direction on the screen by obtaining an actual distance to the pixel by an exponential approximation formula, information on the actual distance table, information on the four vertices, A lateral weight table for obtaining a weight of an actual distance with respect to a pixel in the horizontal direction on the screen by a linear approximation formula based on the screen information and the actual measurement information of the sample image, and creating a horizontal weight table on the screen Based on the acquisition means, the information on the actual distance table, the information on the four vertices, the screen information and the actual measurement information on the sample image, the actual distance to the pixels in the vertical direction on the screen The weight is obtained by a linear approximation formula, and a vertical weight table acquisition means for creating a vertical weight table on the screen, and each table is held as a reference table, and at least one reference table of the reference tables is stored. And an image processing unit that executes predetermined image processing on an image captured by the monocular camera as a processing target.

また、本発明は、単眼カメラの画像処理装置としてコンピュータを機能させるための画像処理プログラムであって、単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する処理機能と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する処理機能と、前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する処理機能と、前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する処理機能と、をコンピュータに実現させることを特徴とする。   Further, the present invention is an image processing program for causing a computer to function as an image processing apparatus for a monocular camera, and information on four vertices on a screen indicating a monitoring range of the monocular camera and three locations photographed by the monocular camera. Based on the screen information and the actual measurement information of the sample image described above, an actual distance table for the pixels in the depth direction on the screen is obtained by an exponential approximation formula, and an actual distance table for each pixel in the vertical direction on the screen is created. Based on the processing function, the information on the real distance table, the information on the four vertices, the screen information on the sample image, and the actual measurement information, a linear approximation of the weight of the real distance on the horizontal pixel on the screen A processing function for creating a horizontal weight table on the screen, information on the real distance table, information on the four vertices, and screen information on the sample image. Based on the actual measurement information, the weight of the actual distance to the vertical pixel on the screen is obtained by a linear approximation formula, and a processing function for creating the vertical weight table on the screen and the respective tables are referred to. And a processing function for executing predetermined image processing on an image captured by the monocular camera using the at least one reference table among the reference tables as a processing target. It is characterized by that.

この画像処理により、単眼(カメラ1台)の画像処理において、カメラ情報やカメラ設置条件を利用することなく、撮影された画像上の監視範囲(4頂点)と位置情報を3箇所以上入力することで撮影画面上の位置推定を行うことができる。また、画像上の位置に対する実距離を算出することが可能となり、実世界座標上の対象物の存在位置を高い精度で把握できる。また、撮影映像上のオブジェクトを抽出(領域)すると、そのサイズ(幅、高さ)の実距離を推定することができ、さらに、その位置の実距離を推定することができる。また、撮影映像上で監視範囲を設定することで、そのゾーンを外れたオブジェクトを対象外とすることができ、ノイズ除去を行うことができる。   By this image processing, three or more monitoring ranges (four vertices) and position information on the captured image can be input without using camera information or camera installation conditions in monocular (one camera) image processing. The position on the shooting screen can be estimated. In addition, it is possible to calculate the actual distance with respect to the position on the image, and the position of the object on the real world coordinates can be grasped with high accuracy. Further, when an object on the captured video is extracted (region), the actual distance of the size (width, height) can be estimated, and further, the actual distance of the position can be estimated. In addition, by setting a monitoring range on the captured video, an object outside the zone can be excluded and noise can be removed.

本発明によれば、簡単な設定で、単眼カメラの画像から、精度の高いオブジェクト位置の推定が可能である。   According to the present invention, it is possible to estimate an object position with high accuracy from an image of a monocular camera with a simple setting.

以下図面を参照して本発明の実施形態を説明する。なお、この実施形態では、本発明を単眼カメラの追跡処理技術に適用した例を示しているが、単眼カメラによる種々の画像処理技術において広く適用可能である。   Embodiments of the present invention will be described below with reference to the drawings. In this embodiment, an example in which the present invention is applied to a tracking processing technique of a monocular camera is shown, but the present invention can be widely applied to various image processing techniques using a monocular camera.

本発明の実施形態に係る画像処理装置は、単眼カメラ(1台のカメラ)で撮影した画像により検出(抽出)または追跡した対象物の実在位置(実世界座標)を画像上の位置から求めるオブジェクト位置推定機能を実現している。   An image processing apparatus according to an embodiment of the present invention is an object that obtains an actual position (real world coordinates) of an object detected (extracted) or tracked from an image captured by a monocular camera (one camera) from a position on the image. The position estimation function is realized.

本発明は、単眼カメラの画像処理において、単眼カメラで撮影した入力画像から抽出したオブジェクトの画像上の位置に基づく世界座標上の位置の推定を行う機能を実現する構成要素として、
単眼カメラの監視範囲を示す画面上の4頂点の情報と、上記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、上記画面上の奥行き方向の画素に対する実距離の指数近似式を求め、上記画面上の縦方向の画素単位の実距離グラフを取得する実距離グラフ取得手段と、上記実距離グラフ取得手段が取得した情報と上記4頂点の情報と上記サンプル画像の画面情報および実測情報とをもとに、上記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、上記画面上の横方向重みグラフを取得する横方向重みグラフ取得手段と、上記実距離グラフ取得手段が取得した情報と上記4頂点の情報と上記サンプル画像の画面情報および実測情報とをもとに、上記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、上記画面上の縦方向重みグラフを取得する縦方向重みグラフ取得手段と、上記各グラフをそれぞれ参照テーブルとして保持し、上記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、上記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する画像処理手段とを具備する。
In the image processing of the monocular camera, the present invention is a component that realizes a function for estimating the position on the world coordinates based on the position on the image of the object extracted from the input image captured by the monocular camera.
Based on the information of the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information of the three or more sample images taken by the monocular camera, the actual pixels for the depth direction on the screen are measured. An actual distance graph acquisition unit that obtains an exponential approximate expression of the distance and acquires an actual distance graph in pixel units in the vertical direction on the screen; information acquired by the actual distance graph acquisition unit; information on the four vertices; and the sample A lateral weight graph acquisition unit that obtains a weight of an actual distance to a pixel in the horizontal direction on the screen based on the screen information and the actual measurement information of the image by a linear approximation formula and acquires the horizontal weight graph on the screen On the basis of the information acquired by the actual distance graph acquisition means, the information on the four vertices, the screen information and the actual measurement information of the sample image, the actual distance to the vertical pixel on the screen A vertical weight graph acquisition means for acquiring a vertical weight graph on the screen and each of the graphs as a reference table, and at least one of the reference tables is stored as a reference table. And image processing means for executing predetermined image processing on an image captured by the monocular camera as a processing target.

本発明の実施形態に係る画像処理装置におけるオブジェクト位置の推定処理について、その動作の概要を、図1を参照して説明する。なお、ここでは、単眼カメラ11で撮影した画像を1フレーム320×240画素のQVGAでカメラ映像として出力するものとする。   An outline of the operation of the object position estimation process in the image processing apparatus according to the embodiment of the present invention will be described with reference to FIG. Here, it is assumed that an image captured by the monocular camera 11 is output as a camera image by a QVGA of 320 × 240 pixels per frame.

本発明の実施形態に係る、オブジェクト位置の推定は、サンプルモデルとなる実際のオブジェクト(対象物)を単眼カメラで撮影した画像をもとに行う。このサンプルモデルとなるオブジェクトは、例えば、図示するような、二人並んだ人物モデル等、幅方向(横方向)の間隔が設定可能なオブジェクトとする。   The estimation of the object position according to the embodiment of the present invention is performed based on an image obtained by photographing a real object (target object) serving as a sample model with a monocular camera. The object as the sample model is, for example, an object in which an interval in the width direction (lateral direction) can be set, such as a person model in which two people are arranged as shown in the figure.

まず、図1に示す処理A1において、単眼カメラ11の監視映像から、上記サンプルモデルとなるオブジェクトが撮影されている画像を3枚以上用意する。このとき、これらの画像は同一のオブジェクト(同一サンプルモデル)であり、画面上の異なる箇所にて撮影されているものとする。なお、単眼カメラ11は、例えば監視エリアを対象に、斜め上方から監視対象を撮像する設置条件のもとに画角が設定されている。   First, in process A1 shown in FIG. 1, three or more images in which an object to be the sample model is photographed are prepared from the monitoring video of the monocular camera 11. At this time, these images are the same object (same sample model) and are taken at different locations on the screen. Note that the angle of view of the monocular camera 11 is set based on installation conditions for imaging a monitoring target from obliquely above, for example, in a monitoring area.

次に、用意した画像からオブジェクトの領域を矩形(四角形)で囲み、矩形で囲った3箇所以上のオブジェクト情報を取得する。ここでは、図5に示すように、矩形の大きさを異にする(撮影位置を異にした)3枚の画像(P1,P2,P3)を用意し、この3枚の画像のオブジェクトを矩形で囲う処理を行う。   Next, an object region is enclosed by a rectangle (rectangle) from the prepared image, and object information at three or more places enclosed by the rectangle is acquired. Here, as shown in FIG. 5, three images (P1, P2, P3) having different rectangular sizes (different shooting positions) are prepared, and the objects of the three images are rectangular. The process enclosed by is performed.

図1に示す処理A2において、単眼カメラ11で監視する監視範囲(4頂点)を画面上で指定する。ここでは、図6に示すように、用意した画像の1枚にて、監視範囲を設定する。画面左端のラインを横方向の基準ライン(0mライン)とし、この監視範囲内で位置を推定する。   In process A2 shown in FIG. 1, the monitoring range (four vertices) monitored by the monocular camera 11 is designated on the screen. Here, as shown in FIG. 6, the monitoring range is set with one of the prepared images. The line at the left end of the screen is the horizontal reference line (0m line), and the position is estimated within this monitoring range.

上記図5に示した3枚の画像(P1,P2,P3)の1枚1枚に対して、矩形で囲ったオブジェクトについて、図7に示すように、画像下側からの足元位置(接地位置)までの距離Pyi(pix)、Wyi(m)と、2人の間隔ΔPxi(pix)、ΔWx(pix)と、どちらか一方のオブジェクトの高さΔPhi(pix)、ΔWh(m)の各情報を取得する(iは画像の枚数、ΔWx、ΔWhは各画像で共通)。   For each of the three images (P1, P2, P3) shown in FIG. 5 described above, the object enclosed by a rectangle is shown in FIG. ) Distances Pyi (pix), Wyi (m), the distance between two persons ΔPxi (pix), ΔWx (pix), and the height ΔPhi (pix), ΔWh (m) of one of the objects (I is the number of images, and ΔWx and ΔWh are common to each image).

次に、上記した実距離グラフの取得処理(縦方向の距離モデル算出処理)と、横方向重みグラフの取得処理(横方向の距離の重みモデル算出処理)と、縦方向重みグラフの取得処理(縦方向の距離の重みモデル算出処理)により、実距離グラフ(足元位置−距離グラフ)と、横方向重みグラフ(距離−横方向重みグラフ)と、縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)とを取得する。   Next, the actual distance graph acquisition process (vertical distance model calculation process), the horizontal weight graph acquisition process (horizontal distance weight model calculation process), and the vertical weight graph acquisition process ( By the vertical distance weight model calculation process), the actual distance graph (foot position-distance graph), the horizontal weight graph (distance-horizontal weight graph), and the vertical (height) direction weight graph (distance-high). Directional weight graph).

実距離グラフ(足元位置−距離グラフ)の取得(算出)処理では、上記した3つ(または3つ以上)の画像の下側から足元位置までの距離Pyi(pix)、Wyi(m)の情報を用いて、最小二乗法により、画像上の足元位置Pyに対する実距離Wyの指数近似式を取得する。   In the acquisition (calculation) processing of the actual distance graph (foot position-distance graph), information on the distances Pyi (pix) and Wyi (m) from the lower side of the above three (or three or more) images to the foot position. Is used to obtain an exponential approximate expression of the actual distance Wy with respect to the foot position Py on the image by the method of least squares.

距離モデル:Wy=AeBPy(A、Bは最小二乗法により求まるパラメータ)…(1)
(1)式で算出した距離モデル近似式より、画像上の位置に対する実距離グラフを取得する(なお、カメラ直下から、画像下側の位置までの距離(死角となる距離)をWyの値にプラスすることにより、カメラ直下からの実距離を求めることも可能となる)。この実距離グラフ(足元位置−距離グラフ)の一例を図8に示している。
Distance model: Wy = Ae BPy (A and B are parameters determined by the method of least squares) (1)
An actual distance graph with respect to the position on the image is acquired from the distance model approximate expression calculated by the expression (1) (Note that the distance from the position immediately below the camera to the position on the lower side of the image (distance that becomes a blind spot) is set to the value of Wy. By adding it, it is also possible to find the actual distance from directly under the camera). An example of the actual distance graph (foot position-distance graph) is shown in FIG.

横方向重みグラフ(距離−横方向重みグラフ)の取得(算出)処理では、上記実距離グラフの取得処理で取得した縦方向の距離モデルと、3つ(または3つ以上)の2人の間隔ΔPxi(pix)、ΔWx(pix)から、実距離Wyの位置における横方向の1画素あたりの重み(ωxi=ΔWx/ΔPxi)を求める。   In the acquisition (calculation) process of the horizontal weight graph (distance-horizontal weight graph), the vertical distance model acquired in the acquisition process of the actual distance graph and the interval between three (or three or more) two persons From ΔPxi (pix) and ΔWx (pix), a weight (ωxi = ΔWx / ΔPxi) per pixel in the horizontal direction at the position of the actual distance Wy is obtained.

3つ(または3つ以上)の実距離Wyと横方向の1画素あたりの重みωxiを用いて、最小二乗法により、実距離Wyに対する横方向の1画素あたりの重みωxiの線形近似式を取得する。   Using three (or three or more) actual distances Wy and lateral weights ωxi per pixel, a linear approximation formula of lateral weights ωxi per pixel with respect to actual distances Wy is obtained by the least square method. To do.

横方向の1画素あたりの重みモデル:ωx=CWy+D(C、Dは最小二乗法により求まるパラメータ)…(2)
(2)式で算出した横方向重み近似式より、実距離Wyに対する横方向重みグラフを取得する。この横方向重みグラフ(距離−横方向重みグラフ)の一例を図9に示している。
Weight model per pixel in the horizontal direction: ωx = CWy + D (C and D are parameters determined by the method of least squares) (2)
A horizontal weight graph with respect to the actual distance Wy is acquired from the horizontal weight approximate expression calculated by the expression (2). An example of this horizontal weight graph (distance-horizontal weight graph) is shown in FIG.

画面上の各画素での横方向位置は、基準ラインから画素までの画像上の距離に、算出した重みを掛けることにより算出される。   The horizontal position of each pixel on the screen is calculated by multiplying the distance on the image from the reference line to the pixel by the calculated weight.

縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)の取得(算出)処理では、上記実距離グラフの取得処理で取得した縦方向の距離モデルと、3つ以上のオブジェクトの高さΔPhi(pix)、ΔWh(pix)から、実距離Wyの位置における高さ方向の1画素あたりの重み(ωzi=ΔWh/ΔPhi)を求める。   In the acquisition (calculation) process of the vertical (height) direction weight graph (distance-height direction weight graph), the vertical distance model acquired in the actual distance graph acquisition process and the heights of three or more objects From ΔPhi (pix) and ΔWh (pix), the weight per pixel in the height direction at the position of the actual distance Wy (ωzi = ΔWh / ΔPhi) is obtained.

3つ(または3つ以上)の実距離Wyと高さ方向の1画素あたりの重みωziを用いて、最小二乗法により、実距離Wyに対する高さ方向の1画素あたりの重みωziの線形近似式を取得する。 Using three (or three or more) actual distances Wy and the weight ωzi per pixel in the height direction, a linear approximation formula of the weight ωzi per pixel in the height direction with respect to the actual distance Wy by the least square method To get.

高さ方向の1画素あたりの重みモデル:ωz=EWy+F(E、Fは最小二乗法により求まるパラメータ)…(3)
(3)式で算出した高さ方向重み近似式より、実距離Wyに対する高さ方向重みグラフを取得する。この縦方向重みグラフ(距離−高さ方向重みグラフ)の一例を図10に示している。
Weight model per pixel in the height direction: ωz = EWy + F (E and F are parameters determined by the method of least squares) (3)
A height direction weight graph with respect to the actual distance Wy is acquired from the height direction weight approximate expression calculated by the expression (3). An example of this vertical weight graph (distance-height weight graph) is shown in FIG.

画面上の各画素での高さ方向位置は、画像上の足元位置から指定した高さ方向の画素までの画像上の距離に、算出した重みを掛けることにより算出される。   The height direction position of each pixel on the screen is calculated by multiplying the distance on the image from the foot position on the image to the designated pixel in the height direction by the calculated weight.

図1に示す処理A3において、上記した実距離グラフ(足元位置−距離グラフ)の情報(パラメータ値)をもとに、実距離テーブル(図3に示す実距離Yテーブル)が作成され、横方向重みグラフ(距離−横方向重みグラフ)の情報(パラメータ値)をもとに、横方向重みテーブル(図3に示す実距離Xテーブル)が作成され、縦(高さ)方向重みグラフ(距離−高さ方向重みグラフ)の情報(パラメータ値)をもとに、縦方向重みテーブル(図3に示す実距離Zテーブル)が作成される。   In process A3 shown in FIG. 1, an actual distance table (actual distance Y table shown in FIG. 3) is created based on the information (parameter values) of the above-described actual distance graph (foot position-distance graph), and the horizontal direction Based on the information (parameter value) of the weight graph (distance-horizontal weight graph), a horizontal weight table (actual distance X table shown in FIG. 3) is created, and a vertical (height) direction weight graph (distance− Based on the information (parameter values) of the height direction weight graph), a vertical direction weight table (actual distance Z table shown in FIG. 3) is created.

これらの実距離テーブル(実距離Yテーブル)、横方向重みテーブル(実距離Xテーブル)、縦方向重みテーブル(実距離Zテーブル)を参照テーブルとして、単眼カメラ11で撮影したオブジェクトの位置、サイズの推定、並びにこの推定に基づく画像処理が実施される。   These real distance table (real distance Y table), horizontal weight table (real distance X table), and vertical weight table (real distance Z table) are used as reference tables for the position and size of the object photographed by the monocular camera 11. Estimation and image processing based on this estimation are performed.

上記各グラフの作成で求めた推定係数により、画像上の位置における実距離や、2点間の距離または、高さを求めることが可能となる。また、ある点から何mの位置がどこかということも算出可能となる。   It is possible to obtain the actual distance at the position on the image, the distance between two points, or the height based on the estimation coefficient obtained by creating each graph. Also, it is possible to calculate how many meters a position is from a certain point.

画像上のある位置(i,j)の実距離を求める場合、上記(1)式(縦方向の距離モデル近似式Wy=AeBPy)より、Pyにjを代入して、縦方向の実距離Wyを算出する。算出したWyを上記(2)式(横方向の距離モデル重み近似式ωx=CWy+D)に代入してωxを算出する。 When calculating the actual distance of a certain position (i, j) on the image, the actual distance in the vertical direction is obtained by substituting j for Py from the above formula (1) (vertical distance model approximate expression Wy = Ae BPy). Wy is calculated. Ωx is calculated by substituting the calculated Wy into the above formula (2) (lateral distance model weight approximation formula ωx = CWy + D).

監視範囲の横方向基準ラインから、ある位置(i,j)までの横方向の画素数DPxを算出する。横方向の実距離Wxは、ωx×DPxにより算出される。   The number of pixels DPx in the horizontal direction from the horizontal reference line in the monitoring range to a certain position (i, j) is calculated. The actual distance Wx in the horizontal direction is calculated by ωx × DPx.

これにより、画像上のある位置(i,j)の実距離(Wx,Wy)が求められる。   Thereby, the actual distance (Wx, Wy) of a certain position (i, j) on the image is obtained.

画像上のある位置(i,j)から、画像上の画素数DPzの位置の高さの実距離を求める場合、上記(1)式(縦方向の距離モデル近似式Wy=AeBPy)より、Pyにjを代入して、縦方向の実距離Wyを算出する。算出したWyを上記(3)式(高さ方向の距離モデル重み近似式ωz=EWy+F)に代入してωzを算出する。高さ方向の実距離は、ωz×DPzにより算出される。 When obtaining the actual distance of the height of the number of pixels DPz on the image from a certain position (i, j) on the image, from the above formula (1) (vertical distance model approximation formula Wy = Ae BPy) , By substituting j for Py, the actual vertical distance Wy is calculated. Ωz is calculated by substituting the calculated Wy into the above formula (3) (distance model weight approximation formula in the height direction ωz = EWy + F). The actual distance in the height direction is calculated by ωz × DPz.

上記した実距離テーブル(実距離Yテーブル)、横方向重みテーブル(実距離Xテーブル)、縦方向重みテーブル(実距離Zテーブル)を参照テーブルとして用いて、単眼カメラ11で撮影した画像に対してオブジェクト位置の推定並びにこれに伴う各種の画像処理が行われる。   Using the above-described actual distance table (actual distance Y table), horizontal weight table (actual distance X table), and vertical weight table (actual distance Z table) as a reference table, an image captured by the monocular camera 11 is used. Estimation of the object position and various image processing associated therewith are performed.

この実施形態では、図1に示す処理A11において、単眼カメラ11の映像を所定の周期で入力し、入力した画面上の現在画像と過去画像を差分処理して、変化した画素を含む矩形の領域を抽出する。   In this embodiment, in the process A11 shown in FIG. 1, the image of the monocular camera 11 is input at a predetermined cycle, the input current image on the screen and the past image are subjected to differential processing, and a rectangular area including changed pixels To extract.

図1に示す処理A12において、上記抽出した矩形の領域について、新たに抽出した矩形の領域を追跡開始オブジェクトとして、当該オブジェクトの追跡を行い、追跡したオブジェクト情報を保持し、追跡オブジェクトが出現する度にオブジェクト情報を更新する。   In the process A12 shown in FIG. 1, for the extracted rectangular area, the newly extracted rectangular area is used as a tracking start object, the object is tracked, the tracked object information is held, and a tracking object appears. Update object information.

図1に示す処理A13において、抽出した矩形の領域(追跡開始オブジェクト、および追跡オブジェクト)について、上記前処理により取得した参照テーブルを用いて、オブジェクト位置の推定並びにこの推定に基づく各種のオブジェクト処理を行う。このオブジェクト処理では、例えば、実距離テーブル(実距離Yテーブル)を用いて、単眼カメラ11で撮影した画像の実在位置を認識する処理を実行することができる。また、実距離テーブル(実距離Yテーブル)を用いて、単眼カメラ11で撮影した画像を処理対象から除外する処理を実行することができる。また、実距離テーブル(実距離Yテーブル)と、横方向重みテーブル(実距離Xテーブル)または縦方向重みテーブル(実距離Zテーブル)を用いて、単眼カメラ11で撮影した画像の実体(例えばオブジェクトの実寸による大きさ)を認識する処理、実際のオブジェクトサイズに基づく仕分け処理等を実行することができる。また、監視範囲の4頂点の情報と、実距離テーブル(実距離Yテーブル)と、横方向重みテーブル(実距離Xテーブル)または縦方向重みテーブル(実距離Zテーブル)を用いて、監視範囲を、実空間上に、設定することができ、さらに、この実空間の監視範囲を対象に、オブジェクトの弁別、選択(抽出)、画像削除、空間監視等、種々の処理が可能となる。これらの単眼カメラ映像による各処理は、上記した指数近似モデル、および各線形近似モデルによるグラフ処理によってはじめて可能になる。   In the process A13 shown in FIG. 1, for the extracted rectangular area (tracking start object and tracking object), the object position is estimated and various object processes based on the estimation are performed using the reference table acquired by the preprocessing. Do. In this object process, for example, a process of recognizing the actual position of an image captured by the monocular camera 11 can be executed using an actual distance table (actual distance Y table). Moreover, the process which excludes the image image | photographed with the monocular camera 11 from a process target can be performed using an actual distance table (actual distance Y table). In addition, an actual image (for example, an object) captured by the monocular camera 11 using an actual distance table (actual distance Y table) and a horizontal weight table (actual distance X table) or a vertical weight table (actual distance Z table). For example, a sorting process based on the actual object size can be executed. Further, the monitoring range is determined using the information on the four vertices of the monitoring range, the actual distance table (actual distance Y table), and the horizontal weight table (actual distance X table) or the vertical weight table (actual distance Z table). In the real space, various processes such as object discrimination, selection (extraction), image deletion, space monitoring, and the like can be performed for the real space monitoring range. Each processing using these monocular camera images is possible only by the graph processing using the exponential approximation model and each linear approximation model.

上記した実距離テーブル(実距離Yテーブル)、横方向重みテーブル(実距離Xテーブル)、縦方向重みテーブル(実距離Zテーブル)を参照テーブルとして用いた実施形態に係る画像処理装置の構成を図2に示し、この画像処理装置の要部の構成を図3に示している。   The configuration of the image processing apparatus according to the embodiment using the above-described actual distance table (actual distance Y table), horizontal weight table (actual distance X table), and vertical weight table (actual distance Z table) as a reference table is illustrated. 2 shows the configuration of the main part of the image processing apparatus.

本発明の実施形態に係る画像処理装置は、図2に示すように、カメラ(単眼カメラ)11と、キャプチャ部12と、画像処理記憶部13と、画像処理部15と、表示部16とを具備して構成される。   As shown in FIG. 2, the image processing apparatus according to the embodiment of the present invention includes a camera (monocular camera) 11, a capture unit 12, an image processing storage unit 13, an image processing unit 15, and a display unit 16. It is provided and configured.

カメラ11は、レンズユニットとレンズユニットの結像位置に設けられた撮像素子(例えばCCD固体撮像素子、若しくはCMOSイメージセンサ)とを具備して、屋外若しくは屋内の動きを伴う被写体(動物体)を対象に、一定の画角で撮像した一画面分の画像を所定の画素単位(例えば1フレーム320×240画素(pix)=QVGA)で出力する。   The camera 11 includes a lens unit and an image pickup device (for example, a CCD solid-state image pickup device or a CMOS image sensor) provided at an image forming position of the lens unit, so that a subject (animal body) that moves outdoors or indoors can be used. An image for one screen imaged at a certain angle of view is output to the target in a predetermined pixel unit (for example, one frame 320 × 240 pixels (pix) = QVGA).

キャプチャ部12は、カメラ11が撮像したフレーム単位の画像を画像処理部15の処理対象画像(入力画像)として取り込み、画像処理記憶部13内の画像バッファ131に保持する処理機能をもつ。この画像バッファ131に取り込む画面上の入力画像は、ここでは原画像とするが、エッジ画像であってもよい。   The capture unit 12 has a processing function of capturing an image in frame units captured by the camera 11 as a processing target image (input image) of the image processing unit 15 and holding it in the image buffer 131 in the image processing storage unit 13. The input image on the screen captured in the image buffer 131 is an original image here, but may be an edge image.

画像処理記憶部13は、画像処理部15の処理に供される、キャプチャ部12が取り込んだ入力画像および処理中の各画像を含む各種データを記憶する。この画像処理記憶部13には、画像処理部15の制御の下に、キャプチャ部12が取り込んだフレーム単位の画像のうち、今回取り込んだ一画面分の画像(現在画像)と、前回取り込んだ一画面分の画像(過去画像)をそれぞれ処理対象画像として保持する画像バッファ131を構成する領域が確保されるとともに、画像処理部15の処理に用いられる画像領域が確保される。さらに画像処理記憶部13には、画像処理部15の処理に供される各種のパラメータおよび制御データを記憶する記憶領域、追跡処理に於いて生成若しくは取得される各種情報の記憶領域等も確保される。   The image processing storage unit 13 stores various data including the input image captured by the capture unit 12 and each image being processed, which is used for the processing of the image processing unit 15. In this image processing storage unit 13, under the control of the image processing unit 15, among the frame-unit images captured by the capture unit 12, an image for one screen captured this time (current image) and one previously captured image are stored. An area constituting the image buffer 131 that holds images for the screen (past images) as processing target images is secured, and an image area used for processing by the image processing unit 15 is secured. Further, the image processing storage unit 13 has a storage area for storing various parameters and control data used for the processing of the image processing unit 15, a storage area for various information generated or obtained in the tracking process, and the like. The

位置推定係数パラメータ算出部14は、上述した、4頂点の情報、単眼カメラ11で撮影した3箇所以上のサンプル画像の画面情報および実測情報等を入力情報として、上述した、距離モデル、および各重みモデルの位置推定係数パラメータ値を算出し、この位置推定係数パラメータ値を参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を作成する要素データとして画像処理部15に設けられた位置推定テーブル算出部154に供給する。   The position estimation coefficient parameter calculation unit 14 uses the information on the four vertices described above, the screen information of three or more sample images captured by the monocular camera 11, the actual measurement information, and the like as input information. A position estimation coefficient parameter value of the model is calculated, and the position estimation coefficient parameter value is provided in the image processing unit 15 as element data for creating a reference table (actual distance Y table, actual distance X table, actual distance Z table). This is supplied to the position estimation table calculation unit 154.

画像処理部15は、画像処理記憶部13の画像バッファ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この差分二値化画像から、変化画素を含む矩形の領域を抽出する変化領域抽出処理部151と、この変化領域抽出処理部151で抽出した矩形の領域を処理対象に、領域を追跡する追跡処理部152と、位置推定テーブル算出部154により算出された参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いて上記したような位置推定による各種処理を実行するオブジェクト位置・サイズ推定処理部153とを具備して構成される。   The image processing unit 15 generates a difference binarized image obtained by binarizing the past image and the current image held in the image buffer 131 of the image processing storage unit 13 and includes the difference image. The change area extraction processing unit 151 that extracts a rectangular area including the change pixel from the difference binarized image and the rectangular area extracted by the change area extraction processing unit 151 are processed. The tracking processing unit 152 that tracks the area and the reference tables calculated by the position estimation table calculation unit 154 (actual distance Y table, actual distance X table, actual distance Z table) are used for various types of position estimation as described above. And an object position / size estimation processing unit 153 that executes processing.

表示部(表示デバイス)16は上記画像処理部15で画像処理された動物体領域を表示出力する。   The display unit (display device) 16 displays and outputs the moving object region image-processed by the image processing unit 15.

上記した画像処理装置における処理の手順を図4に示している。図4に示すステップB3の処理において、上記参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いたオブジェクト位置・サイズ推定処理が実施される。   FIG. 4 shows a processing procedure in the above-described image processing apparatus. In the process of step B3 shown in FIG. 4, the object position / size estimation process using the reference table (actual distance Y table, actual distance X table, actual distance Z table) is performed.

図4に示す処理手順に従い図2および図3に示す画像処理装置の動作を説明する。   The operation of the image processing apparatus shown in FIGS. 2 and 3 will be described according to the processing procedure shown in FIG.

画像処理部15に設けられた変化領域抽出処理部151は、画像処理記憶部13の画像バッファ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この画像情報を変化領域バッファ132に保持する。さらに、この差分二値化画像の情報から、変化画素を含む矩形の領域を抽出して、この矩形領域の情報を追跡情報バッファ133に保持する(図4ステップB1)。   The change area extraction processing unit 151 provided in the image processing unit 15 generates a difference binarized image obtained by binarizing the past image and the current image stored in the image buffer 131 of the image processing storage unit 13 by performing a difference process. Then, noise included in the difference binarized image is removed, and the image information is held in the change area buffer 132. Further, a rectangular area including the change pixel is extracted from the information of the difference binarized image, and the information of the rectangular area is held in the tracking information buffer 133 (step B1 in FIG. 4).

追跡処理部152は、変化領域抽出処理部151により抽出され、追跡情報バッファ133に保持された矩形の領域を追跡対象オブジェクトとして追跡処理する。この追跡処理は、初期動作時においては、追跡処理の対象となるオブジェクトが存在しないので、このオブジェクトを新規オブジェクトとして追跡情報バッファ133に登録し、以降の追跡処理の対象とする。この追跡処理は、例えば、矩形の形状および重なりによる領域判定と、最小二乗近似により求めた予測方向に従う予測位置に基づく領域判定とを組み合わせた領域の追跡処理が適用できる(図4ステップB2)。   The tracking processing unit 152 performs tracking processing on the rectangular area extracted by the change area extraction processing unit 151 and held in the tracking information buffer 133 as a tracking target object. In this tracking process, since there is no object to be tracked in the initial operation, this object is registered as a new object in the tracking information buffer 133 and is set as a target for the subsequent tracking process. For example, a region tracking process combining region determination based on a rectangular shape and overlap and region determination based on a prediction position according to a prediction direction obtained by least square approximation can be applied to this tracking processing (step B2 in FIG. 4).

オブジェクト位置・サイズ推定処理部153は、変化領域抽出処理部151が抽出した矩形領域(追跡開始(新規)オブジェクト、および追跡オブジェクト)について、位置推定テーブル算出部154が算出した参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いて、オブジェクトの推定を行う(図4ステップB3)。   The object position / size estimation processing unit 153 uses the reference table (actual distance Y) calculated by the position estimation table calculation unit 154 for the rectangular regions (tracking start (new) object and tracking object) extracted by the change region extraction processing unit 151. The object is estimated using the table, the actual distance X table, and the actual distance Z table (step B3 in FIG. 4).

この参照テーブルを用いて、図4に示す処理手順に従う画像処理が実施される。   Image processing according to the processing procedure shown in FIG. 4 is performed using this reference table.

画像処理部15に設けられた変化領域抽出処理部151は、画像処理記憶部13の画像バッファ131に保持された過去画像と現在画像を差分処理して二値化した差分二値化画像を生成し、この差分二値化画像に含まれるノイズを除去して、この画像情報を変化領域バッファ132に保持する。さらに、この差分二値化画像の情報から、変化画素を含む矩形の領域を抽出して、この矩形領域の情報を追跡情報バッファ133に保持する(図4ステップB1)。   The change area extraction processing unit 151 provided in the image processing unit 15 generates a difference binarized image obtained by binarizing the past image and the current image stored in the image buffer 131 of the image processing storage unit 13 by performing a difference process. Then, noise included in the difference binarized image is removed, and the image information is held in the change area buffer 132. Further, a rectangular area including the change pixel is extracted from the information of the difference binarized image, and the information of the rectangular area is held in the tracking information buffer 133 (step B1 in FIG. 4).

追跡処理部152は、変化領域抽出処理部151により抽出され、追跡情報バッファ133に保持された矩形の領域を追跡対象オブジェクトとして追跡処理する。この追跡処理は、初期動作時においては、追跡処理の対象となるオブジェクトが存在しないので、このオブジェクトを新規オブジェクトとして追跡情報バッファ133に登録し、以降の追跡処理の対象とする。この追跡処理は、例えば、矩形の形状および重なりによる領域判定と、最小二乗近似により求めた予測方向に従う予測位置に基づく領域判定とを組み合わせた領域の追跡処理が適用できる(図4ステップB2)。   The tracking processing unit 152 performs tracking processing on the rectangular area extracted by the change area extraction processing unit 151 and held in the tracking information buffer 133 as a tracking target object. In this tracking process, since there is no object to be tracked in the initial operation, this object is registered as a new object in the tracking information buffer 133 and is set as a target for the subsequent tracking process. For example, a region tracking process combining region determination based on a rectangular shape and overlap and region determination based on a prediction position according to a prediction direction obtained by least square approximation can be applied to this tracking processing (step B2 in FIG. 4).

オブジェクト位置・サイズ推定処理部153は、変化領域抽出処理部151が抽出した矩形領域(追跡開始(新規)オブジェクト、および追跡オブジェクト)について、オブジェクトモデルテーブル算出部154が算出した参照テーブル(実距離Yテーブル、実距離Xテーブル、実距離Zテーブル)を用いて、オブジェクト位置およびサイズの推定と、これに伴う各種のオブジェクト処理を行う(図4ステップB3)。ここでは、検出又は追跡した対象物の存在位置(実世界座標)を画像上の位置から求めるオブジェクト位置推定機能を実現する。例えば監視範囲(2次元平面)をユーザが指定して、その監視範囲内に存在しているオブジェクトの足元、頭頂位置を比較的高い位置精度で推定することができる。また、上述したように、実距離Yテーブルを用いて、単眼カメラ11で撮影した画像の実在位置を認識する処理、実距離Yテーブルを用いて、単眼カメラ11で撮影した画像を処理対象から除外する処理、実距離Yテーブルと、実距離Xテーブルまたは実距離Zテーブルを用いて、単眼カメラ11で撮影した画像の実体(例えばオブジェクトの実寸による大きさ)を認識する処理、実際のオブジェクトサイズに基づく仕分け処理、監視範囲の4頂点の情報と実距離Yテーブルと実距離Xテーブルまたは実距離Zテーブルを用いて、監視範囲を、実空間上に、設定したオブジェクト認識処理、実空間の監視範囲を対象としたオブジェクトの弁別、選択(抽出)、画像削除、空間監視等、種々の処理が可能である。   The object position / size estimation processing unit 153 uses the reference table (actual distance Y) calculated by the object model table calculation unit 154 for the rectangular regions (tracking start (new) object and tracking object) extracted by the change region extraction processing unit 151. Table, actual distance X table, and actual distance Z table) are used to estimate the object position and size and perform various object processing (step B3 in FIG. 4). Here, an object position estimation function for obtaining the position (real world coordinates) of the detected or tracked object from the position on the image is realized. For example, the user can specify a monitoring range (two-dimensional plane), and can estimate the feet and top positions of objects existing in the monitoring range with relatively high position accuracy. In addition, as described above, the processing for recognizing the actual position of an image captured by the monocular camera 11 using the actual distance Y table, and the image captured by the monocular camera 11 using the actual distance Y table are excluded from the processing target. Processing, real distance Y table, real distance X table, or real distance Z table to recognize the substance of an image photographed by the monocular camera 11 (for example, the actual size of the object), the actual object size Sorting process based on the information, information on the four vertices of the monitoring range, real distance Y table and real distance X table or real distance Z table, the monitoring range is set in the real space, the object recognition processing, the real space monitoring range Various processes such as object discrimination, selection (extraction), image deletion, space monitoring, and the like can be performed.

本発明の実施形態に係るオブジェクト位置およびサイズの推定機能について、図11乃至図21を参照してさらに説明を行う。   The object position and size estimation function according to the embodiment of the present invention will be further described with reference to FIGS.

(1).監視範囲の考え方
図11に示す、単眼カメラ11で撮影した画面上において、同画面上の4点、p0(x0,y0)、p1(x1,y1)、p2(x2,y1)、p3(x3,y0)を指定することで、その4点を結ぶ四角形を平面領域と見做し、その平面領域を監視範囲とする。監視範囲の指定イメージを図11に上記4点を結ぶ直線で示している。
(1). Concept of monitoring range On the screen imaged by the monocular camera 11 shown in FIG. 11, four points on the screen, p0 (x0, y0), p1 (x1, y1), p2 (x2, y1), p3 (x3) , Y0), a quadrilateral connecting the four points is regarded as a plane area, and the plane area is set as a monitoring range. A monitoring range designation image is shown in FIG. 11 by a straight line connecting the four points.

奥行き方向の手前ライン(p0−p3ライン)、奥のライン(p1−p2ライン)のy座標は同じとし、並行とする(平面領域は正確な四角形でなくても良いが、このルールに従うものとする)。なお、画面外の点も入力可能とする(ただし、p1は画面内に必ず設定すること)。x1<x2、x0<x3、y0>y1であるように設定されること。また、高さ方向を設定する(世界座標の高さ)ことで、高さ方向の監視範囲が設定され、不要領域の削除が可能となること(X,Y,Zが求まった最後に、監視範囲空間設定を行う)。p0,p1は基準ラインとなるため、p1を画面内に存在することとする
(2).位置推定の考え方とリファレンス位置(基準位置)
監視範囲内にリファレンス(基準)となる複数の位置(等間隔の複数点)の座標(x,y)と、それに対応する世界座標(X,Y,Z)を取得し、距離(Y)−画面上位置(y)グラフを取得する。
The y-coordinates of the front line in the depth direction (p0-p3 line) and the back line (p1-p2 line) are the same and are parallel (the planar area does not have to be an exact quadrangle, To do). It should be noted that points outside the screen can also be input (however, p1 must be set within the screen). x1 <x2, x0 <x3, y0> y1 are set. In addition, by setting the height direction (the height of the world coordinates), the monitoring range in the height direction is set, and it is possible to delete the unnecessary area (the monitoring is performed at the end when X, Y, and Z are obtained). Set the range space). Since p0 and p1 are reference lines, it is assumed that p1 exists in the screen (2). Position estimation concept and reference position (reference position)
The coordinates (x, y) and the corresponding world coordinates (X, Y, Z) of a plurality of positions (a plurality of equally spaced points) serving as a reference (reference) within the monitoring range are obtained, and the distance (Y) − A screen position (y) graph is acquired.

取得した距離(Y)を利用して、1画素当たりの距離(ΔX)−距離(Y)、1画素当たりの高さ(ΔZ)−距離(Y)グラフを得る。カメラからの距離−画像座標の関係グラフ(Y−yグラフ)の一例を図12に示している。1画素当たりの距離−画像座標の関係グラフ(ΔX−Yグラフ)の一例を図13に示している。   Using the acquired distance (Y), a graph of distance per pixel (ΔX) −distance (Y), height per pixel (ΔZ) −distance (Y) is obtained. FIG. 12 shows an example of a distance-image coordinate relationship graph (Yy graph) from the camera. An example of a distance-image coordinate relationship graph (ΔX-Y graph) per pixel is shown in FIG.

リファレンス位置は以下のとおりとする。   The reference position is as follows.

図14の画面に示すように、監視範囲の画面手前、中央、奥の3点の基準位置(y0、y1、y2)を決め、それぞれの間隔ΔY0[m](目測による設定も可)、ΔY1[m]、ΔY2[m]を計測し、Y0[m]、Y1[m]、Y2[m]を得る。このΔY[m]間隔のリファレンス位置は、前項のオブジェクトモデルを得るための位置と共通にしてもよい。また、各基準位置で、ある等間隔ΔX1[m]、X2[m]、X3[m]の画素幅(Δx[pix])を得る。この時、画像上のy座標が左右でほぼ同一である(並行である)ようにする。   As shown in the screen of FIG. 14, three reference positions (y0, y1, y2) at the front, center, and back of the monitoring range are determined, and their respective intervals ΔY0 [m] (can be set by eye measurement), ΔY1 [M] and ΔY2 [m] are measured to obtain Y0 [m], Y1 [m], and Y2 [m]. The reference position of this ΔY [m] interval may be made common with the position for obtaining the object model in the previous section. In addition, pixel widths (Δx [pix]) of certain equal intervals ΔX1 [m], X2 [m], and X3 [m] are obtained at each reference position. At this time, the y coordinate on the image is set to be substantially the same on the left and right (in parallel).

取得したY0[m]、Y1[m]、Y2[m]、y0[pix]、y1[pix]、y2[pix]、ΔX1[m]、X2[m]、X3[m]、Δx1[pix]、Δx2[pix]、Δx3[pix]を利用して、最小二乗法により、最初に距離(Y)−画像座標(y)の指数近似式を得る。次に、取得した距離(Y)を利用して、1画素当たりの距離(X)−距離(Y)の線形近似式を得る(同様の考え方で、1画素当りの高さ(Z)−距離(Y)の線形近似式を得る)。   Obtained Y0 [m], Y1 [m], Y2 [m], y0 [pix], y1 [pix], y2 [pix], ΔX1 [m], X2 [m], X3 [m], Δx1 [pix ], Δx2 [pix], and Δx3 [pix] are used to obtain an exponential approximate expression of distance (Y) −image coordinates (y) first by the least square method. Next, using the acquired distance (Y), a linear approximate expression of distance (X) per pixel−distance (Y) is obtained (in the same way of thinking, height (Z) per pixel−distance (Y) is obtained.

取得した近似式から、図15に示すような参照テーブル(図8に示した実距離グラフ;足元位置−距離グラフ)を作成する。   A reference table (actual distance graph shown in FIG. 8; foot position-distance graph shown in FIG. 8) is created from the obtained approximate expression.

指数近似式から、図16に示すようなY座標参照テーブル(実距離テーブル;実距離Yテーブル)を作成する。   A Y coordinate reference table (actual distance table; actual distance Y table) as shown in FIG. 16 is created from the exponential approximation formula.

線形近似式から、図17に示すようなX座標参照テーブル(横方向重みテーブル;実距離Xテーブル)を作成する。   An X coordinate reference table (lateral weight table; actual distance X table) as shown in FIG. 17 is created from the linear approximation formula.

線形近似式から、図18に示すようなZ座標参照テーブル(縦方向重みテーブル;実距離Zテーブル)を作成する。   A Z coordinate reference table (vertical weight table; actual distance Z table) as shown in FIG. 18 is created from the linear approximation formula.

(3).オブジェクト位置推定方法(監視範囲と3次元位置マップの考え方)
監視範囲を3次元マップに展開したとき、図19のようになる。
(3). Object position estimation method (Concept of monitoring range and 3D position map)
When the monitoring range is expanded into a three-dimensional map, it becomes as shown in FIG.

オブジェクトの足元位置(xp,yp)を入力とし、Y座標参照テーブルから、yp座標に対応するYp座標を得る。   Using the foot position (xp, yp) of the object as input, Yp coordinates corresponding to the yp coordinates are obtained from the Y coordinate reference table.

オブジェクトの足元位置(xp,yp)を入力とし、X座標参照テーブルから、監視範囲左辺を基準にした(xp,yp)座標に対応するXp座標を得る。   Using the foot position (xp, yp) of the object as an input, the Xp coordinate corresponding to the (xp, yp) coordinate based on the left side of the monitoring range is obtained from the X coordinate reference table.

Z座標参照テーブルから、(yt−yp)の差を利用して高さZを得る。   From the Z coordinate reference table, the height Z is obtained using the difference (yt−yp).

この方法で得られた(X,Y,Z)座標をオブジェクトの位置とする(3次元マップにプロットが可能となる)。   The (X, Y, Z) coordinates obtained by this method are used as object positions (plotting is possible on a three-dimensional map).

(4).監視範囲を利用した不要領域の削除
例として、監視対象となるオブジェクトの領域が、図20に直線で示した監視範囲の外部に出現したと判断した場合は、その領域(オブジェクト)を削除する。例えば、監視範囲に対して、空間設定(世界座標の高さ情報)が行われた場合のみ監視範囲の外部に出現したと判断したオブジェクトを削除する(監視範囲空間設定によって、高さ方向の設定を行わない場合は、削除しない)。また、例えば、図21に矩形で示すように、足元が監視平面上に存在しない、または、監視エリア外に頭頂位置が存在する場合は、当該領域を削除する。
(4). Deletion of Unnecessary Area Using Monitoring Range As an example, when it is determined that an area of an object to be monitored appears outside the monitoring range indicated by a straight line in FIG. 20, the area (object) is deleted. For example, an object that is determined to have appeared outside the monitoring range is deleted only when the space setting (world coordinate height information) is performed for the monitoring range (the height direction setting is set by the monitoring range space setting). If not, do not delete). Further, for example, as shown by a rectangle in FIG. 21, when the foot does not exist on the monitoring plane or the head position exists outside the monitoring area, the region is deleted.

上記した本発明の実施形態によれば、単眼(カメラ1台)の画像処理において、カメラ情報やカメラ設置条件を利用することなく、撮影された画像上の監視範囲(4頂点)と位置情報を3箇所以上入力することで撮影画面上の位置推定を行うことができる。また、画像上の位置に対する実距離を算出することが可能となり、実世界座標上の対象物の存在位置を高い精度で把握できる。また、撮影映像上のオブジェクトを抽出(領域)すると、そのサイズ(幅、高さ)の実距離を推定することができ、さらに、その位置の実距離を推定することができる。また、撮影映像上で監視範囲を設定することで、そのゾーンを外れたオブジェクトを対象外とすることができ、ノイズ除去を行うことができる。   According to the above-described embodiment of the present invention, in the image processing of a single eye (one camera), the monitoring range (four vertices) and the position information on the captured image can be obtained without using camera information or camera installation conditions. The position on the shooting screen can be estimated by inputting three or more locations. In addition, it is possible to calculate the actual distance with respect to the position on the image, and the position of the object on the real world coordinates can be grasped with high accuracy. Further, when an object on the captured video is extracted (region), the actual distance of the size (width, height) can be estimated, and further, the actual distance of the position can be estimated. In addition, by setting a monitoring range on the captured video, an object outside the zone can be excluded and noise can be removed.

本発明の実施形態に係る実施形態に係る画像処理装置の動作概要を示す図。The figure which shows the operation | movement outline | summary of the image processing apparatus which concerns on embodiment which concerns on embodiment of this invention. 上記実施形態に係る画像処理装置の構成を示すブロック図。The block diagram which shows the structure of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の構成要素間における情報の流れを示す図。The figure which shows the flow of the information between the components of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の処理手順を示すフローチャート。5 is a flowchart showing a processing procedure of the image processing apparatus according to the embodiment. 上記実施形態に係る画像処理装置の参照テーブルを作成するための撮影画像を示す図。The figure which shows the picked-up image for creating the reference table of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の監視範囲設定例を示す図。The figure which shows the example of the monitoring range setting of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の位置情報設定方法を説明するための図。The figure for demonstrating the positional information setting method of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の取得グラフ例を示す図。The figure which shows the example of an acquisition graph of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の取得グラフ例を示す図。The figure which shows the example of an acquisition graph of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の取得グラフ例を示す図。The figure which shows the example of an acquisition graph of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の監視範囲設定方法を説明するための図。The figure for demonstrating the monitoring range setting method of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の取得グラフ例を示す図。The figure which shows the example of an acquisition graph of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の取得グラフ例を示す図。The figure which shows the example of an acquisition graph of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の位置座標を説明するための図。The figure for demonstrating the position coordinate of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の取得グラフ例を示す図。The figure which shows the example of an acquisition graph of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の参照テーブル構成例を示す図。The figure which shows the reference table structural example of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の参照テーブル構成例を示す図。The figure which shows the reference table structural example of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の参照テーブル構成例を示す図。The figure which shows the reference table structural example of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置のオブジェクト位置推定方法を説明するための図。The figure for demonstrating the object position estimation method of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の処理動作例を示す図。The figure which shows the processing operation example of the image processing apparatus which concerns on the said embodiment. 上記実施形態に係る画像処理装置の処理動作例を示す図。The figure which shows the processing operation example of the image processing apparatus which concerns on the said embodiment.

符号の説明Explanation of symbols

11…単眼カメラ、12…キャプチャ部、13…画像処理記憶部、14…位置推定係数パラメータ算出部、15…画像処理部、16…表示部(表示デバイス)、151…変化領域抽出処理部、152…追跡処理部、153…オブジェクト位置・サイズ推定処理部、154…位置推定テーブル算出部。   DESCRIPTION OF SYMBOLS 11 ... Monocular camera, 12 ... Capture part, 13 ... Image processing memory | storage part, 14 ... Position estimation coefficient parameter calculation part, 15 ... Image processing part, 16 ... Display part (display device), 151 ... Change area extraction process part, 152 ... Tracking processing unit, 153... Object position / size estimation processing unit, 154.

Claims (9)

単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する実距離テーブル取得手段と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する横方向重みテーブル取得手段と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する縦方向重みテーブル取得手段と、
前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する画像処理手段と、
を具備したことを特徴とする画像処理装置。
Based on the information of the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information of three or more sample images taken by the monocular camera, the actual pixels for the depth direction on the screen are measured. An actual distance table obtaining means for obtaining a distance by an exponential approximation formula and creating an actual distance table in units of vertical pixels on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the horizontal direction on the screen is obtained by a linear approximation formula, A horizontal weight table obtaining means for creating a horizontal weight table on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the vertical direction on the screen is obtained by a linear approximation formula, Vertical weight table acquisition means for creating a vertical weight table on the screen;
Image processing means for holding each table as a reference table and executing predetermined image processing on an image captured by the monocular camera using at least one of the reference tables as a processing target When,
An image processing apparatus comprising:
前記サンプル画像の画面情報および実測情報は、それぞれ、間隔が設定可能なサンプルモデルの、基準位置から接地位置までの距離を示す情報と、前記サンプルモデルの、高さおよび間隔を示す情報とを有することを特徴とする請求項1に記載の画像処理装置。   The screen information and the actual measurement information of the sample image each include information indicating a distance from a reference position to a grounding position of a sample model in which the interval can be set, and information indicating a height and an interval of the sample model. The image processing apparatus according to claim 1. 前記画像処理手段は、前記実距離テーブルを用いて、前記単眼カメラで撮影した画像の実在位置を認識する処理を実行する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image processing unit executes a process of recognizing an actual position of an image captured by the monocular camera using the actual distance table. 前記画像処理手段は、前記実距離テーブルを用いて、前記単眼カメラで撮影した画像を処理対象から除外する処理を実行する請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the image processing unit executes a process of excluding an image captured by the monocular camera from a processing target using the real distance table. 前記画像処理手段は、前記実距離テーブルと、前記横方向重みテーブル若しくは前記縦方向重みテーブルを用いて、前記単眼カメラで撮影した画像の実体を認識する処理を実行する請求項2に記載の画像処理装置。   3. The image according to claim 2, wherein the image processing unit executes processing for recognizing an entity of an image captured by the monocular camera using the actual distance table and the horizontal weight table or the vertical weight table. Processing equipment. 前記画像処理手段は、前記4頂点の情報と、前記実距離テーブルと、前記横方向重みテーブル若しくは前記縦方向重みテーブルを用いて、前記監視範囲を実空間上に設定する処理手段を具備したことを特徴とする請求項2に記載の画像処理装置。   The image processing means includes processing means for setting the monitoring range in real space using the information on the four vertices, the real distance table, and the horizontal weight table or the vertical weight table. The image processing apparatus according to claim 2. 前記画像処理手段は、前記実距離テーブルと、前記横方向重みテーブル若しくは前記縦方向重みテーブルを用いて、前記単眼カメラで撮影した画像の推定若しくは特定を行うことを特徴とする請求項2に記載の画像処理装置。   The image processing means estimates or specifies an image captured by the monocular camera using the actual distance table and the horizontal weight table or the vertical weight table. Image processing apparatus. 前記サンプル画像は、前記画面上に矩形領域化して示され、この矩形領域の位置とサイズをもとに前記サンプル画像の画面情報および実測情報が取得されることを特徴とする請求項1に記載の画像処理装置。   The sample image is shown as a rectangular area on the screen, and screen information and actual measurement information of the sample image are acquired based on the position and size of the rectangular area. Image processing apparatus. 単眼カメラの画像処理装置としてコンピュータを機能させるための画像処理プログラムであって、
単眼カメラの監視範囲を示す画面上の4頂点の情報と、前記単眼カメラで撮影した3箇所以上のサンプル画像の画面情報および実測情報とをもとに、前記画面上の奥行き方向の画素に対する実距離を指数近似式により求めて前記画面上の縦方向の画素単位の実距離テーブルを作成する処理機能と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の横方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の横方向重みテーブルを作成する処理機能と、
前記実距離テーブルの情報と、前記4頂点の情報と、前記サンプル画像の画面情報および実測情報とをもとに、前記画面上の縦方向の画素に対する実距離の重みを線形近似式により求め、前記画面上の縦方向重みテーブルを作成する処理機能と、
前記各テーブルをそれぞれ参照テーブルとして保持し、前記参照テーブルのうち、少なくとも1つの参照テーブルを用いて、前記単眼カメラで撮影した画像を処理対象に、予め定められた画像処理を実行する処理機能と、
をコンピュータに実現させるための画像処理プログラム。
An image processing program for causing a computer to function as an image processing apparatus for a monocular camera,
Based on the information of the four vertices on the screen indicating the monitoring range of the monocular camera and the screen information and measured information of three or more sample images taken by the monocular camera, the actual pixels for the depth direction on the screen are measured. A processing function for obtaining a distance by an exponential approximation formula and creating an actual distance table in units of pixels in the vertical direction on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the horizontal direction on the screen is obtained by a linear approximation formula, A processing function for creating a horizontal weight table on the screen;
Based on the information of the real distance table, the information of the four vertices, the screen information and the actual measurement information of the sample image, the weight of the real distance for the pixels in the vertical direction on the screen is obtained by a linear approximation formula, A processing function for creating a vertical weight table on the screen;
A processing function for holding each of the tables as a reference table and executing predetermined image processing on an image captured by the monocular camera using at least one of the reference tables as a processing target; ,
An image processing program for realizing a computer.
JP2008050976A 2008-02-29 2008-02-29 Image processing apparatus and image processing program Active JP4839330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008050976A JP4839330B2 (en) 2008-02-29 2008-02-29 Image processing apparatus and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008050976A JP4839330B2 (en) 2008-02-29 2008-02-29 Image processing apparatus and image processing program

Publications (2)

Publication Number Publication Date
JP2009210286A true JP2009210286A (en) 2009-09-17
JP4839330B2 JP4839330B2 (en) 2011-12-21

Family

ID=41183608

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008050976A Active JP4839330B2 (en) 2008-02-29 2008-02-29 Image processing apparatus and image processing program

Country Status (1)

Country Link
JP (1) JP4839330B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080550A (en) * 2014-10-17 2016-05-16 オムロン株式会社 Area information estimation device, area information estimation method and air conditioner
WO2016081118A1 (en) * 2014-11-19 2016-05-26 Intel Corporation Measuring accuracy of image based depth sensing systems

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03296200A (en) * 1990-04-13 1991-12-26 Matsushita Electric Ind Co Ltd Relative speed detecting device and collision preventing device
JP2003281552A (en) * 2002-03-25 2003-10-03 Toshiba Corp Image processor and method
JP2006031313A (en) * 2004-07-15 2006-02-02 Daihatsu Motor Co Ltd Method and apparatus for measuring obstacle
JP2007129560A (en) * 2005-11-04 2007-05-24 Toyota Motor Corp Object detector
JP2007212216A (en) * 2006-02-08 2007-08-23 Matsushita Electric Ind Co Ltd Object height calculation device and method, object retrieval device using same, and object height calculation method
JP2007233908A (en) * 2006-03-03 2007-09-13 Matsushita Electric Ind Co Ltd Object size calculation device, object retrieval device using it, object classification device and object size calculation method
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element
JP2008158984A (en) * 2006-12-26 2008-07-10 Toshiba Teli Corp Image processor and area tracing program
JP2009036571A (en) * 2007-07-31 2009-02-19 Toshiba Corp Position measuring system utilizing visible light communication system, position measuring device, and position measuring method
JP2009211122A (en) * 2008-02-29 2009-09-17 Toshiba Teli Corp Image processor and object estimation program

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03296200A (en) * 1990-04-13 1991-12-26 Matsushita Electric Ind Co Ltd Relative speed detecting device and collision preventing device
JP2003281552A (en) * 2002-03-25 2003-10-03 Toshiba Corp Image processor and method
JP2006031313A (en) * 2004-07-15 2006-02-02 Daihatsu Motor Co Ltd Method and apparatus for measuring obstacle
JP2007129560A (en) * 2005-11-04 2007-05-24 Toyota Motor Corp Object detector
JP2007212216A (en) * 2006-02-08 2007-08-23 Matsushita Electric Ind Co Ltd Object height calculation device and method, object retrieval device using same, and object height calculation method
JP2007233908A (en) * 2006-03-03 2007-09-13 Matsushita Electric Ind Co Ltd Object size calculation device, object retrieval device using it, object classification device and object size calculation method
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element
JP2008158984A (en) * 2006-12-26 2008-07-10 Toshiba Teli Corp Image processor and area tracing program
JP2009036571A (en) * 2007-07-31 2009-02-19 Toshiba Corp Position measuring system utilizing visible light communication system, position measuring device, and position measuring method
JP2009211122A (en) * 2008-02-29 2009-09-17 Toshiba Teli Corp Image processor and object estimation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016080550A (en) * 2014-10-17 2016-05-16 オムロン株式会社 Area information estimation device, area information estimation method and air conditioner
WO2016081118A1 (en) * 2014-11-19 2016-05-26 Intel Corporation Measuring accuracy of image based depth sensing systems

Also Published As

Publication number Publication date
JP4839330B2 (en) 2011-12-21

Similar Documents

Publication Publication Date Title
JP6700752B2 (en) Position detecting device, position detecting method and program
JP6587421B2 (en) Information processing apparatus, information processing method, and program
US9697607B2 (en) Method of estimating imaging device parameters
JP6125188B2 (en) Video processing method and apparatus
JP6273685B2 (en) Tracking processing apparatus, tracking processing system including the tracking processing apparatus, and tracking processing method
JP6286474B2 (en) Image processing apparatus and area tracking program
JP6894725B2 (en) Image processing device and its control method, program, storage medium
JP6636042B2 (en) Floor treatment method
WO2016029939A1 (en) Method and system for determining at least one image feature in at least one image
JP6352208B2 (en) 3D model processing apparatus and camera calibration system
JP6638723B2 (en) Image analysis device, image analysis method, and image analysis program
CN110926330A (en) Image processing apparatus, image processing method, and program
JP4691570B2 (en) Image processing apparatus and object estimation program
KR101469099B1 (en) Auto-Camera Calibration Method Based on Human Object Tracking
JP4839330B2 (en) Image processing apparatus and image processing program
JP6659095B2 (en) Image processing apparatus, image processing method, and program
JP2005196359A (en) Moving object detection apparatus, moving object detection method and moving object detection program
JP2016194847A (en) Image detection device, image detection method, and program
WO2016181672A1 (en) Image analysis device, image analysis method, and image analysis program
JP7341712B2 (en) Image processing device, image processing method, imaging device, and program
JP2006285569A (en) Person detecting apparatus
JP6597277B2 (en) Projection apparatus, projection method, and computer program for projection
KR101844004B1 (en) Image generating apparatus including distance information
JP2016139172A5 (en)
KR101748333B1 (en) Method and apparatus for tracking object

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111003

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141007

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4839330

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250