JP4268644B2 - Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program - Google Patents

Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program Download PDF

Info

Publication number
JP4268644B2
JP4268644B2 JP2007011237A JP2007011237A JP4268644B2 JP 4268644 B2 JP4268644 B2 JP 4268644B2 JP 2007011237 A JP2007011237 A JP 2007011237A JP 2007011237 A JP2007011237 A JP 2007011237A JP 4268644 B2 JP4268644 B2 JP 4268644B2
Authority
JP
Japan
Prior art keywords
image
moving body
mobile
still images
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007011237A
Other languages
Japanese (ja)
Other versions
JP2007164804A (en
Inventor
秀樹 錠
明 吉越
達雄 花田
啓雄 荒井
広和 村木
重則 藤巻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Asia Air Survey Co Ltd
Original Assignee
Asia Air Survey Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asia Air Survey Co Ltd filed Critical Asia Air Survey Co Ltd
Priority to JP2007011237A priority Critical patent/JP4268644B2/en
Publication of JP2007164804A publication Critical patent/JP2007164804A/en
Application granted granted Critical
Publication of JP4268644B2 publication Critical patent/JP4268644B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、通行人や車両等の移動体の数や、移動方向、移動時間等の移動情報を検出するための移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラムに関する。   The present invention relates to a moving body detection system, a moving body detection device, a moving body detection method, and a moving body detection program for detecting movement information such as the number of passersby, vehicles, and the like, movement direction, and movement time. .

従来、道路等を通行する通行人や車両等の移動体の数や、移動方向、移動時間等の移動情報を検出するための技術が種々考案されている。   2. Description of the Related Art Conventionally, various techniques for detecting movement information such as the number of moving objects such as passers-by and roads, vehicles, and the like, movement directions, and movement times have been devised.

例えば、特許文献1、2には、2台の撮影装置(ビデオカメラ等。)を用い、時刻同期をとって撮影した2つの画像(以下、ステレオ画像と総称するが、動画、静止画に応じてステレオ動画像、ステレオ静止画像と区別して称する場合がある。)に基づき、車両等の移動体の3次元座標を算出し、当該3次元座標に基づいて当該移動体を特定する技術が開示されている。   For example, in Patent Documents 1 and 2, two images (hereinafter, collectively referred to as stereo images) captured using time-synchronization using two image capturing devices (such as a video camera) are used according to a moving image and a still image. In other words, a technique for calculating a three-dimensional coordinate of a moving object such as a vehicle and identifying the moving object based on the three-dimensional coordinate is disclosed. ing.

特に、特許文献1に開示された移動体検出技術では、ユークリッド距離のばらつきの度合いに基づいて剛体(この場合、移動体。)が特定(剛体か否かの判定)され、また、特許文献2に開示された移動体の検出技術では、移動体が人の場合、個々の人物の身長からクラスタリング処理を行うことによって人物が特定される。   In particular, in the moving body detection technique disclosed in Patent Document 1, a rigid body (in this case, a moving body) is specified (determining whether or not it is a rigid body) based on the degree of variation in Euclidean distance. In the moving body detection technique disclosed in the above, when the moving body is a person, the person is specified by performing clustering processing from the height of each person.

また、最近では、上記ステレオ画像に基づいて、当該画像内の3次元物体の座標(形状)を特定する技術(以下、ステレオマッチング法という。)も考案されている(例えば、特許文献3参照。)。
特開平11−66319号公報 特開平10−49718号公報 特開平3−167678号公報
Recently, a technique for specifying the coordinates (shape) of a three-dimensional object in the image based on the stereo image (hereinafter referred to as a stereo matching method) has also been devised (see, for example, Patent Document 3). ).
JP-A-11-66319 Japanese Patent Laid-Open No. 10-49718 Japanese Patent Laid-Open No. 3-167678

しかしながら、上記従来の技術には、次のような問題点がある。
すなわち、上記特許文献1、2及び3に開示された技術では、空間内(3次元座標系)における移動体位置(移動体が占める空間領域)が特定されるのみであり、当該特定された移動体に係る時間経過に伴う移動情報の取得は困難である。
However, the conventional technique has the following problems.
That is, in the techniques disclosed in Patent Documents 1, 2, and 3, only the position of the moving body (space area occupied by the moving body) in space (three-dimensional coordinate system) is specified, and the specified movement is performed. It is difficult to acquire movement information over time related to the body.

本発明の課題は、空間内の移動体位置を正確に特定するとともに、当該位置特定された移動体の時間経過に伴う移動情報を正確に取得できるようにすることである。   An object of the present invention is to accurately specify a position of a moving body in a space and to accurately acquire movement information with the passage of time of the position-specified moving body.

上記課題を解決するため、請求項1に記載の発明は、
ステレオ基線に配置された左右2台の撮影装置と、当該2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像に基づいて、該ステレオ静止画像に写される移動体の検出を行う移動体検出装置とを備えた移動体検出システムにおいて、
前記移動体検出装置は、
前記複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする。
In order to solve the above-mentioned problem, the invention described in claim 1
Based on the left and right imaging devices arranged on the stereo baseline and the time-sequential multiple frames of the stereo still images taken by the two imaging devices in time synchronization, the images are copied to the stereo still images. In a mobile body detection system comprising a mobile body detection device for detecting a mobile body
The mobile object detection device is:
Among the plurality of frames of stereo still images, for each of the left and right still images, an inter-frame difference image representing a difference between two frames of still images and one of the two frames of still images and the background Creating a background difference image representing a difference between the images, and then combining the inter-frame difference image and the background difference image to identify a moving body region in the composite image;
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
It is provided with.

また、上記課題を解決するため、請求項2に記載の発明は、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする。
Moreover, in order to solve the said subject, invention of Claim 2 is the following.
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Moving body region specifying means for specifying the moving body region in the composite image by combining
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
It is provided with.

また、上記課題を解決するため、請求項3に記載の発明は、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定するステップと、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付けるステップと、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離するステップと、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡するステップと、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測するステップと、
を含むことを特徴とする。
Moreover, in order to solve the said subject, invention of Claim 3 is the following.
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Identifying a moving body region in the composite image by combining
Assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. Assigning a different label for each color to the body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
Determining whether or not the mobile objects corresponding to the respective times are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracking the mobile object based on the determination results;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Measuring the direction, and
It is characterized by including.

また、上記課題を解決するため、請求項4に記載の発明は、
画像解析を行うコンピュータに、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する機能と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける機能と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する機能と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する機能と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する機能と、
を実現させる。
Moreover, in order to solve the said subject, invention of Claim 4 is the following.
In the computer that performs image analysis,
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image A function for identifying a moving body region in the composite image by combining
A function of assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference image;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A function of assigning a different label for each color to a body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
According to the degree of overlap of the moving body region corresponding to two different times, it is determined whether or not the moving body corresponding to each time is the same, and the function of tracking the moving body based on the determination result;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects A function to measure the direction,
Is realized.

本発明によれば、空間内において通行人等の移動体位置(移動体が占める空間領域)が正確に特定できるだけでなく、当該特定した移動体に係る時間経過に伴う移動情報も正確に取得できるので、高度な移動体検出が実現できる。   According to the present invention, not only the position of a moving body such as a passerby (a space area occupied by the moving body) can be accurately identified in the space, but also the movement information associated with the passage of time related to the identified moving body can be accurately acquired. Therefore, advanced mobile object detection can be realized.

以下、添付図面を参照して本発明に係る好適な第1及び第2の実施の形態を順に説明する。   Hereinafter, preferred first and second embodiments of the present invention will be described in order with reference to the accompanying drawings.

(第1の実施の形態)
図面を参照して本発明を適用した第1の実施の形態の移動体検出システム100について詳細に説明する。
移動体検出システム100は、ステレオ基線に配置された2台の撮影装置により時刻同期をとって撮影した複数の時系列的なステレオ画像に基づき、道路等を通行する通行人等の移動体の数や、移動方向、移動時間等の移動情報を取得するためのものである。本第1の実施の形態においては、一例として、図1(a)、図1(b)に示す所定の駅階段1を通行する通行人の移動情報を取得する場合について説明するが、これに限らず、道路を通行する車両や、駐車場に入庫・出庫する車両等に対しても適用可能である。以下、移動体とは通行人を意味する。
(First embodiment)
A mobile object detection system 100 according to a first embodiment to which the present invention is applied will be described in detail with reference to the drawings.
The mobile object detection system 100 is based on a plurality of time-series stereo images taken in time synchronization by two imaging devices arranged on a stereo baseline, and the number of mobile objects such as passers-by passing on a road or the like. And movement information such as movement direction and movement time. In the first embodiment, as an example, a case will be described in which movement information of passers-by passing through the predetermined station staircase 1 shown in FIGS. 1A and 1B is acquired. The present invention is not limited to this, and the present invention can also be applied to vehicles passing on a road, vehicles entering / exiting a parking lot, and the like. Hereinafter, the mobile means a passerby.

まず、移動体検出システム100の構成を説明する。
移動体検出システム100は、図2に示すように、ステレオ基線装置10、移動体検出装置20、データベース30等を備えて構成される。
First, the configuration of the moving object detection system 100 will be described.
As shown in FIG. 2, the moving body detection system 100 includes a stereo base line device 10, a moving body detection device 20, a database 30, and the like.

ステレオ基線装置10は、ビデオカメラ等の撮影装置10a、10bを備える。また、ステレオ基線装置10は、図1(a)、図1(b)に示すような配置で駅階段1に設置され、移動体が駅階段1を通行する様子を、撮影装置10a、10bの時刻同期をとって撮影する。なお、ステレオ基線装置10の配置は、図1(a)、図1(b)に示すものに限らず、自由に設定可能である。   The stereo baseline device 10 includes photographing devices 10a and 10b such as video cameras. In addition, the stereo base line device 10 is installed on the station staircase 1 in the arrangement as shown in FIGS. 1A and 1B, and a state in which the moving body passes through the station staircase 1 is shown in the imaging devices 10 a and 10 b. Shoot with time synchronization. The arrangement of the stereo base line device 10 is not limited to that shown in FIGS. 1A and 1B, and can be freely set.

移動体検出装置20は、移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24を備え、移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24を用いて図3のフローチャートに示す移動体検出処理を行う。   The moving body detection device 20 includes a moving body area specifying means 21, a congestion level specifying means 22, a moving body specifying means 23, and a movement information acquiring means 24. The moving body area specifying means 21, the congestion level specifying means 22, and the moving body specifying means are provided. The moving body detection process shown in the flowchart of FIG. 3 is performed using the means 23 and the movement information acquisition means 24.

移動体検出装置20は、図示しない内蔵メモリに予め格納された移動体検出プログラムを実行することにより移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24の各々を制御し、図3のフローチャートに示す移動体検出処理を行う。   The mobile body detection device 20 executes a mobile body detection program stored in advance in a built-in memory (not shown), thereby moving the mobile body area specifying means 21, the congestion level specifying means 22, the mobile body specifying means 23, and the movement information acquiring means 24. Each is controlled and the moving body detection process shown in the flowchart of FIG. 3 is performed.

なお、移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24は、移動体検出プログラムが有する各機能を表すものとしてもよいし、ハードウェアによるものとしてもよい。   Note that the mobile object region specifying means 21, the congestion level specifying means 22, the mobile object specifying means 23, and the movement information acquiring means 24 may represent functions of the mobile object detection program, or may be hardware. Good.

データベース30は、過去の移動体検出結果(駅階段1を通行する移動体の数や、移動方向、移動時間等の移動情報。)や、上記移動体検出処理の際に用いられる各種情報(例えば、写真測量的な標定要素として設定された3次元座標系情報、駅階段1の背景画像、移動体テンプレート等。)を格納する。   The database 30 stores past moving object detection results (moving information such as the number of moving objects passing through the station staircase 1, moving direction, moving time, etc.) and various types of information used in the moving object detection process (for example, 3D coordinate system information set as a photogrammetric orientation element, a background image of the station staircase 1, a moving body template, etc.).

ここで、上記3次元座標系情報は、例えば、ステレオ基線装置10が図1(a)、図1(b)に示すような位置に設置された場合に、駅階段1を含む3次元空間に対して設定される座標系を表す情報である。ステレオ基線装置10の設置位置が変更された場合には、この3次元座標系は、当該変更に応じて再設定される。   Here, the three-dimensional coordinate system information is stored in a three-dimensional space including the station staircase 1 when the stereo base line device 10 is installed at a position as shown in FIGS. 1A and 1B, for example. This is information representing a coordinate system set for the user. When the installation position of the stereo base line device 10 is changed, the three-dimensional coordinate system is reset according to the change.

上記駅階段1の背景画像は、移動体が写っていない駅階段1のみの画像である。例えば、朝、昼、夕、夜等の各時間帯に撮影された複数の背景画像が用意されている。   The background image of the station staircase 1 is an image of only the station staircase 1 where no moving object is shown. For example, a plurality of background images taken in each time zone such as morning, noon, evening, and night are prepared.

上記移動体テンプレートは、例えば、図4に示すような、移動体検出処理の際に特定される混雑レベルに応じた複数種類の人物形状のものが用意されている。   For example, as shown in FIG. 4, a plurality of types of human shapes corresponding to the congestion level specified in the mobile body detection process are prepared as the mobile body template.

図4に、4段階の混雑レベル1〜4に応じた4種類の移動体テンプレートを示す。移動体テンプレートA1は混雑レベル1(例えば、移動体と移動体との平均間隔が0〜0.1m以内。)の場合に用いられ、移動体テンプレートA2は混雑レベル2(例えば、移動体と移動体との平均間隔が0.1〜0.5m以内。)の場合に用いられ、移動体テンプレートA3は混雑レベル3(例えば、移動体と移動体との平均間隔が0.5〜1m以内。)の場合に用いられ、移動体テンプレートA4は混雑レベル4(例えば、移動体と移動体との平均間隔が1m以上。)の場合に用いられる。
なお、混雑レベルや混雑レベルの判定基準は、上記したものに限らず、自由に設定可能である。
FIG. 4 shows four types of mobile templates corresponding to four levels of congestion levels 1 to 4. The moving body template A1 is used when the congestion level is 1 (for example, the average interval between the moving body and the moving body is within 0 to 0.1 m), and the moving body template A2 is the congestion level 2 (for example, the moving body and the moving body Mobile unit template A3 has a congestion level 3 (for example, the average interval between the mobile unit and the mobile unit is within 0.5 to 1 m). ) And the moving body template A4 is used when the congestion level is 4 (for example, the average interval between the moving body and the moving body is 1 m or more).
The congestion level and the criterion for determining the congestion level are not limited to those described above, and can be freely set.

次に、図3を参照して、移動体検出装置20が行う移動体検出処理について説明する。
まず、移動体領域特定手段21により、以下に説明するステップS1、S2の各処理が行われる。
Next, the moving body detection process performed by the moving body detection device 20 will be described with reference to FIG.
First, each process of step S1 and S2 demonstrated below is performed by the mobile body area | region identification means 21. FIG.

すなわち、ステレオ基線装置10により撮影されたステレオ動画像が所定時間(例えば、1秒等であり、移動体の動きが追跡可能な時間。)毎に静止画像として抽出され、複数のステレオ静止画像が時系列的に作成される。   That is, a stereo moving image photographed by the stereo base line device 10 is extracted as a still image every predetermined time (for example, 1 second or the like, a time during which the movement of the moving body can be tracked), and a plurality of stereo still images are extracted. Created in time series.

そして、上記作成された複数のステレオ静止画像のうちの一つと、当該ステレオ静止画像に写されている所定の対象物(例えば、駅階段1の幅等。)の長さとに基づき、駅階段1を含む3次元空間に対して写真測量的な標定要素としての3次元座標系が設定される(ステップS1)。   Then, based on one of the created stereo still images and the length of a predetermined object (for example, the width of the station stair 1 etc.) captured in the stereo still image, the station stair 1 A three-dimensional coordinate system as a photogrammetric orientation element is set for a three-dimensional space including (step S1).

ステップS1の後、上記作成されたステレオ静止画像の各々に対し、当該ステレオ静止画像に写されている各移動体の空間領域(移動体の3次元形状を特定するための3次元座標)が、上記設定された3次元座標系に基づき、上記ステレオマッチング法により算出される(ステップS2)。
更に、ステップ2の後、混雑レベル特定手段22により、以下に説明するステップS3、S4の各処理が行われる。
After step S1, for each of the created stereo still images, the space area of each moving object (three-dimensional coordinates for specifying the three-dimensional shape of the moving object) captured in the stereo still image is Based on the set three-dimensional coordinate system, it is calculated by the stereo matching method (step S2).
Further, after step 2, the congestion level specifying means 22 performs steps S3 and S4 described below.

すなわち、ステップS2の後、当該撮影が行われた時間帯に合致する背景画像が選択され、上記作成されたステレオ静止画像の各々に対して当該背景画像に対する差分領域(移動体が占める領域を示す。)が抽出される(ステップS3)。   That is, after step S2, a background image that matches the time zone in which the image was taken is selected, and a difference area with respect to the background image (indicating an area occupied by the moving object) for each of the created stereo still images. .) Is extracted (step S3).

ステップS3の後、当該抽出された差分領域の全画像に対する面積率が算出され、当該算出された面積率に応じて駅階段1における混雑レベル(例えば、図4に示すような4段階の混雑レベル。)が特定される(ステップS4)。   After step S3, the area ratio for the entire image of the extracted difference area is calculated, and the congestion level in the station staircase 1 (for example, four levels of congestion as shown in FIG. 4) is calculated according to the calculated area ratio. .) Is specified (step S4).

更に、ステップS4の後、移動体特定手段23により、以下に説明するステップS5、S6の各処理が行われる。   Furthermore, after step S4, each process of steps S5 and S6 described below is performed by the moving body specifying means 23.

すなわち、ステップS4の後、当該特定された混雑レベルに応じて移動体テンプレートが選択される(ステップS5)。   That is, after step S4, a mobile template is selected according to the specified congestion level (step S5).

ステップS5の後、上記ステップS2の段階で算出された各通行人の空間領域に対してステップS5の段階で選択された移動体テンプレートが割り当てられ、移動体が特定される(ステップS6)。   After step S5, the mobile object template selected in step S5 is assigned to the space area of each passerby calculated in step S2, and the mobile object is specified (step S6).

ここで、移動体テンプレートが移動体の空間領域に割り当てられる様子を図5に示す。画像B1には、移動体の空間領域B13を検出するため、移動体テンプレートB12が移動経路B11に沿って移動される様子が示され、画像B2には、空間領域B13が検出され、移動体テンプレートB12が空間領域B13に割り当てられた様子が示されている。   Here, a state in which the mobile object template is assigned to the space area of the mobile object is shown in FIG. The image B1 shows a state where the moving body template B12 is moved along the moving path B11 in order to detect the space area B13 of the moving body, and the image B2 detects the space area B13, and the moving body template A state in which B12 is assigned to the space area B13 is shown.

以上説明したステップS1〜S5の各処理は、上記時系列的に作成された複数のステレオ静止画像の各々に対して行われる。   Each process of step S1-S5 demonstrated above is performed with respect to each of the several stereo still image produced in the said time series.

更に、ステップS6の後、移動情報取得手段24により、上記複数の時系列的なステレオ静止画像に基づいて、各移動体の動きが追跡され、同一の移動体に対しては当該移動体の空間領域に割り当てられた移動体テンプレートに同一の色が付されて当該移動体の動きが記録されるとともに、この移動体テンプレートに付された色に基づいて各移動体の移動情報(各移動体の移動方向や移動時間等。)が算出される(ステップS7)。   Further, after step S6, the movement information acquisition means 24 tracks the movement of each moving object based on the plurality of time-series stereo still images, and for the same moving object, the space of the moving object is tracked. The moving body template assigned to the region is assigned the same color and the movement of the moving body is recorded, and the movement information of each moving body (based on the moving body template) is recorded based on the color attached to the moving body template. The moving direction, the moving time, etc.) are calculated (step S7).

ここで、移動体の動きを追跡する方法としては、例えば、オプティカルフローを用いた方法がある。この方法は、移動体各点のオプティカルフロー(移動ベクトル)を算出して当該移動体の動きを推定する方法であり、具体的には、マッチング法、勾配法と称する2つの方法が一般に用いられている。   Here, as a method for tracking the movement of the moving object, for example, there is a method using an optical flow. This method is a method for estimating the motion of a moving object by calculating an optical flow (movement vector) at each point of the moving object. Specifically, two methods called a matching method and a gradient method are generally used. ing.

上記オプティカルフローを用いて移動体の動きが追跡される様子を図6に示す。画像C1、C2は、時刻Lの時点でのステレオ静止画像のうち、左(Left)/右(Right)の各
々に対応する静止画像であり、画像C3、C4は、時刻LからΔTだけ時間経過した後のステレオ静止画像のうち、左/右の各々に対応する静止画像である。ΔTが小さければ小さいほど、多くの処理時間が必要となるが、移動体の追跡はより正確なものとなる。
FIG. 6 shows a state in which the movement of the moving body is tracked using the optical flow. Images C1 and C2 are still images corresponding to each of the left (Left) / right (Right) of the stereo still images at time L, and images C3 and C4 have elapsed by ΔT from time L. Of the stereo still images after the above, the still images corresponding to the left / right. The smaller ΔT, the more processing time is required, but the tracking of the moving object becomes more accurate.

なお、画像C3、C4には、図示簡略化のため、各々二つのオプティカルフローのみが表されている。   In the images C3 and C4, only two optical flows are shown for simplification of illustration.

また、移動体テンプレートに付した色に基づいて各移動体の移動情報を求める方法としては、例えば、色の識別にマンセル表色系を用いる方法がある。   Further, as a method for obtaining movement information of each moving body based on the color attached to the moving body template, for example, there is a method using a Munsell color system for color identification.

以上説明したように、移動体検出システム100は、ステレオ基線に配置された2台の撮影装置10a、10bにより時刻同期をとって撮影した複数の時系列的なステレオ静止画像に基づき、道路等を通行する各移動体が占める空間領域(3次元座標)を特定し、当該ステレオ静止画像の背景画像に対する差分領域を抽出し、全画像領域に対する当該差分領域の面積率を算出し、当該面積率に基づいて移動体の混雑レベルを特定し、当該混雑レベルに応じた移動体テンプレートA1〜A4を、上記特定した移動体の空間領域に割り当てて移動体の特定を行う。   As described above, the moving body detection system 100 detects a road or the like based on a plurality of time-series stereo still images that are captured in time synchronization by the two imaging devices 10a and 10b arranged on the stereo baseline. The spatial area (three-dimensional coordinates) occupied by each moving mobile object is specified, the difference area with respect to the background image of the stereo still image is extracted, the area ratio of the difference area with respect to the entire image area is calculated, and the area ratio is calculated. Based on this, the congestion level of the mobile body is specified, and the mobile body templates A1 to A4 corresponding to the congestion level are assigned to the space area of the specified mobile body to specify the mobile body.

更に、複数の時系列的なステレオ静止画像に基づいて移動体の動きを追跡し、同一移動体の空間領域に割り当てられた移動体テンプレートに同じ色を付して各移動体の動きを記録し、当該色に基づいて移動体の移動情報(移動方向や移動時間等。)を取得する。   Furthermore, the movement of a moving object is tracked based on a plurality of time-series stereo still images, and the movement object template assigned to the space area of the same moving object is assigned the same color to record the movement of each moving object. The movement information (movement direction, movement time, etc.) of the moving body is acquired based on the color.

従って、3次元空間内において移動体等の移動体位置(移動体が占める空間領域)が正確に特定できるだけでなく、当該特定した移動体に係る時間経過に伴う移動情報も正確に取得できるので、高度な移動体検出が実現できる。   Therefore, not only can the mobile object position (the space area occupied by the mobile object) such as the mobile object be accurately identified in the three-dimensional space, but also the movement information associated with the passage of time related to the identified mobile object can be accurately acquired. Advanced mobile object detection can be realized.

なお、本第1の実施の形態における記述は、本発明に係る移動体検出システム及び移動体検出装置の一例を示すものであり、これに限定されるものではない。本第1の実施の形態における移動体検出システム100、移動体検出装置20の細部構成および詳細動作に関しては、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The description in the first embodiment shows an example of the moving body detection system and the moving body detection device according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of the moving object detection system 100 and the moving object detection device 20 in the first embodiment can be changed as appropriate without departing from the spirit of the present invention.

例えば、移動体領域特定手段21が、ステレオ基線装置10により撮影されたステレオ動画像を所定時間毎に静止画像として抽出し、複数のステレオ静止画像を時系列的に作成するとしたが、これに限らず、撮影装置10a、10bが連写により複数の時系列的なステレオ静止画像を撮影することも可能である。この場合、撮影装置10a、10bは、連写可能であれば、ビデオカメラ、デジタルカメラのうち何れであってもよい。   For example, the moving body region specifying unit 21 extracts a stereo moving image captured by the stereo base line device 10 as a still image every predetermined time, and creates a plurality of stereo still images in time series. Alternatively, the photographing apparatuses 10a and 10b can photograph a plurality of time-series stereo still images by continuous shooting. In this case, the imaging devices 10a and 10b may be either a video camera or a digital camera as long as continuous shooting is possible.

また、撮影装置10a、10bにより撮影されるステレオ画像は、ビデオテープ、DVD(Digital Versatile Disk)等の記録媒体を介して移動体検出装置20に入力されるようにしてもよいし、ステレオ基線装置10と移動体検出装置20との間にデータ回線を予め設け、当該データ回線を介してステレオ基線装置10から移動体検出装置20に入力されるようにしてもよい。   Moreover, the stereo image image | photographed with imaging | photography apparatus 10a, 10b may be made to input into the mobile body detection apparatus 20 via recording media, such as a videotape and DVD (Digital Versatile Disk), or a stereo base line apparatus. 10 and the mobile object detection device 20 may be provided in advance, and the stereo base line device 10 may input to the mobile object detection device 20 via the data line.

(第2の実施の形態)
次に、図面を参照して本発明を適用した第2の実施の形態の移動体検出システム100aについて詳細に説明する。
移動体検出システム100aは、移動体検出システム100と同様に、ステレオ基線に配置された2台の撮影装置により時刻同期をとって撮影した複数の時系列的なステレオ画像に基づき、道路等を通行する通行人等の移動体の数や、移動方向、移動時間等の移動情報を取得するためのものである。本第2の実施の形態においては、第1の実施の形態と同様に、図1(a)、図1(b)に示す所定の駅階段1を通行する通行人の移動情報を取得する場合について説明するが、これに限らず、道路を通行する車両や、駐車場に入庫・出庫する車両等に対しても適用可能である。以下、移動体とは通行人を意味する。
(Second Embodiment)
Next, a mobile object detection system 100a according to a second embodiment to which the present invention is applied will be described in detail with reference to the drawings.
Similar to the moving body detection system 100, the moving body detection system 100 a travels on a road or the like based on a plurality of time-series stereo images captured in time synchronization by two imaging devices arranged on the stereo baseline. This is for acquiring movement information such as the number of moving bodies such as passersby, the moving direction, and the moving time. In the second embodiment, as in the first embodiment, the movement information of passers-by passing through the predetermined station staircase 1 shown in FIGS. 1A and 1B is acquired. However, the present invention is not limited to this, and the present invention can be applied to a vehicle passing on a road, a vehicle entering and leaving a parking lot, and the like. Hereinafter, the mobile means a passerby.

まず、移動体検出システム100aの構成を説明する。
移動体検出システム100aは、図7に示すように、ステレオ基線装置10、データベース30、移動体検出装置40を備えて構成
される。ここで、ステレオ基線装置10、データベース30は、第1の実施の形態に記載したものと同じものであり、簡略化のため、同一符号を付して説明を省略する。
First, the configuration of the moving object detection system 100a will be described.
As shown in FIG. 7, the moving object detection system 100 a includes a stereo base line device 10, a database 30, and a moving object detection device 40. Here, the stereo base line device 10 and the database 30 are the same as those described in the first embodiment, and the same reference numerals are given for the sake of brevity and description thereof is omitted.

移動体検出装置40は、移動体領域特定手段41、3次元計測手段42、移動体分離手段43、移動体追跡手段44、移動体計測手段45を備え、これら各手段を用いて図8のフローチャートに示す移動体検出処理を行う。   The moving object detection device 40 includes a moving object region specifying means 41, a three-dimensional measuring means 42, a moving object separating means 43, a moving object tracking means 44, and a moving object measuring means 45, and using these means, the flowchart of FIG. The moving body detection process shown in FIG.

移動体検出装置40は、図示しない内蔵メモリに予め格納された移動体検出プログラムを実行することにより移動体領域特定手段41、3次元計測手段42、移動体分離手段43、移動体追跡手段44、移動体計測手段45の各々を制御し、図8に示す移動体検出処理を行う。   The mobile object detection device 40 executes a mobile object detection program 41, a three-dimensional measurement means 42, a mobile object separation means 43, a mobile object tracking means 44, by executing a mobile object detection program stored in advance in a built-in memory (not shown). Each of the moving body measuring means 45 is controlled to perform a moving body detection process shown in FIG.

なお、移動体領域特定手段41、3次元計測手段42、移動体分離手段43、移動体追跡手段44、移動体計測手段45は、移動体検出プログラムが有する各機能を表すものとしてもよいし、ハードウェアによるものとしてもよい。   The moving body region specifying means 41, the three-dimensional measuring means 42, the moving body separating means 43, the moving body tracking means 44, and the moving body measuring means 45 may represent each function of the moving body detection program. It may be based on hardware.

次に、図8を参照して、移動体検出装置40が行う移動体検出処理について説明する。
まず、駅階段1の様子がステレオ画像(動画)としてステレオ基線装置10により撮影され(ステップS1a)、また、移動体が存在しない駅階段1が、左右の背景画像(静止画像であり、左背景画像、右背景画像という。)としてステレオ基線装置10により撮影される(ステップS1b)。
Next, a moving body detection process performed by the moving body detection device 40 will be described with reference to FIG.
First, the state of the station staircase 1 is photographed as a stereo image (moving image) by the stereo base line device 10 (step S1a), and the station staircase 1 without a moving body is a left and right background image (still image, left background). An image, which is referred to as a right background image) is taken by the stereo baseline device 10 (step S1b).

次に、移動体領域特定処理D1の各処理(ステップS10〜S14)について説明する。移動体領域特定処理D1は移動体領域特定手段41によって実行される。   Next, each process (steps S10 to S14) of the moving body region specifying process D1 will be described. The moving body area specifying process D1 is executed by the moving body area specifying means 41.

上記ステレオ画像(動画)のうち、所定時間(例えば、0.1秒等の短時間。)だけ互いに離れた左右それぞれ2フレーム分の静止画像(時刻t1、t2の静止画像。)が取得される。当該取得された左右それぞれ2フレーム分の静止画像を、t1左画像、t2左画像(以上、左静止画像。)、t1右画像、t2右画像(以上、右静止画像。)という。   Of the stereo images (moving images), still images (still images at times t1 and t2) for two left and right frames separated from each other by a predetermined time (for example, a short time such as 0.1 second) are acquired. . The acquired still images for two frames on each of the left and right sides are referred to as a t1 left image, a t2 left image (hereinafter referred to as a left still image), a t1 right image, and a t2 right image (hereinafter referred to as a right still image).

次に、t1左画像、t2左画像、t1右画像、t2右画像と、上記左右の背景画像とが、HSV(Hue Saturation Value;色相、彩度、明度)処理され、RGB表色系から色相・彩度・明度によるHSV表色系に変換される(ステップS10)。   Next, the t1 left image, the t2 left image, the t1 right image, the t2 right image, and the left and right background images are subjected to HSV (Hue Saturation Value; hue, saturation, brightness) processing, and the hue from the RGB color system. Conversion into the HSV color system based on saturation and lightness (Step S10).

ステップS10の後、t1左画像とt2左画像とに対して、及び、t1右画像とt2右画像とに対して、それぞれフレーム間差分画像(左フレーム間差分画像、右フレーム間差分画像)を作成する(ステップS11)。ここで、フレーム間差分とは、異なる時間の画像の差分(変化領域)であり、移動体領域のエッジ部に該当する。   After step S10, inter-frame difference images (left inter-frame difference image and right inter-frame difference image) are respectively applied to the t1 left image and the t2 left image and to the t1 right image and the t2 right image. Create (step S11). Here, the inter-frame difference is a difference (change region) between images at different times, and corresponds to an edge portion of the moving object region.

そして、t1左画像(或いはt2左画像)と左背景画像とに対して、及び、t1右画像(或いはt2右画像)と右背景画像とに対して、彩度と色相のそれぞれに基づく背景差分画像を各々作成する(ステップS12)。背景差分は移動体領域の内部に該当する。   The background difference based on the saturation and the hue for the t1 left image (or t2 left image) and the left background image, and for the t1 right image (or t2 right image) and the right background image, respectively. Each image is created (step S12). The background difference corresponds to the inside of the moving object area.

ここで、色相と彩度とでは、差分として抽出される領域が異なるため、双方を合成し、当該合成後の画像を最終的な背景差分画像(左背景差分画像、右背景差分画像)とする。   Here, since the area extracted as the difference is different between the hue and the saturation, the two are combined, and the combined image is used as the final background difference image (left background difference image, right background difference image). .

ステップS11、S12の後、左フレーム間差分画像、右フレーム間差分画像の各々が白黒による2値化処理及び膨張収縮処理される(ステップS13)。   After steps S11 and S12, each of the left frame difference image and the right frame difference image is subjected to black and white binarization processing and expansion / contraction processing (step S13).

上記膨張収縮処理により、左背景差分画像、右背景差分画像の各背景差分領域(移動体領域の内部)と、左フレーム間差分画像、右フレーム間差分画像の各フレーム差分領域(移動体領域のエッジ部)とが、それぞれ良好に適合可能となる。   By the above expansion and contraction processing, each background difference area (inside the moving body area) of the left background difference image and right background difference image, and each frame difference area (in the moving body area) of the left frame difference image and right frame difference image. Edge portions) can be adapted to each other well.

ステップS13の後、左フレーム間差分画像と左背景差分画像とが合成されて(左合成画像という。)左画像に対する移動体領域が特定され、右フレーム間差分画像と右背景差分画像とが合成されて(右合成画像という。)右画像に対する移動体領域が特定される(ステップS14)。   After step S13, the left frame difference image and the left background difference image are combined (referred to as a left combined image), a moving body region for the left image is specified, and the right frame difference image and the right background difference image are combined. Then, the moving body region for the right image is specified (referred to as the right composite image) (step S14).

次に、3次元計測処理D2の各処理(ステップS11、S21〜S23)について説明する。3次元計測処理D2は3次元計測手段42によって実行される。   Next, each process (steps S11, S21 to S23) of the three-dimensional measurement process D2 will be described. The three-dimensional measurement process D2 is executed by the three-dimensional measurement unit 42.

上記ステップS11において作成された左右の各フレーム間差分画像が、図9(a)に示すような区分K1〜Kn(nは自然数。)までのn個の区分に分割され、各区分毎に、画像横方向(図中符号Rに示す方向。)の各画素に対する輝度値が積算される(ステップS21)。   The left and right inter-frame difference images created in step S11 are divided into n sections up to sections K1 to Kn (n is a natural number) as shown in FIG. 9A. The luminance value for each pixel in the horizontal direction of the image (the direction indicated by symbol R in the figure) is integrated (step S21).

上記輝度値の積算結果の一例を、図9(b)に示す。ここには、区分1に対する積算結果が示されている。横軸は、画像横方向の位置を画素座標によって表し、縦軸は、積算された輝度値を表す。ここで、画素座標とは、画像を構成する全画素に対して割り当てられた画素番号を用いて、画像内の位置を一意的に特定するための座標である。   An example of the luminance value integration result is shown in FIG. Here, the integration results for category 1 are shown. The horizontal axis represents the position in the horizontal direction of the image using pixel coordinates, and the vertical axis represents the integrated luminance value. Here, the pixel coordinates are coordinates for uniquely specifying a position in the image using pixel numbers assigned to all the pixels constituting the image.

次に、画像に3次元座標を割り付けるための計測点を特定する。
ステップS21で算出された輝度値の積算結果のうち、ピーク値に該当する箇所(例えば、図中符号P1、P2等に示す箇所であり、複数存在する。)が区分K1〜Kn毎に抽出され、当該ピーク値をとる左右の各フレーム間差分画像内の位置(計測点)が画素座標によって特定される(ステップS22)。
Next, measurement points for assigning three-dimensional coordinates to the image are specified.
Of the luminance value integration results calculated in step S21, locations corresponding to the peak value (for example, locations indicated by reference signs P1, P2, etc. in the figure, a plurality of locations) are extracted for each of the categories K1 to Kn. The position (measurement point) in the difference image between the left and right frames taking the peak value is specified by pixel coordinates (step S22).

そして、当該計測点(ピーク値をとる位置)を左右の各フレーム間差分画像で厳密に一致させるため、テンプレートマッチングが行われる。例えば、図10を参照して、左フレーム間差分画像内でピーク値をとる所定の一の位置(左ピーク点という。)に厳密に対応する、右フレーム間差分画像内の位置(右ピーク点という。)を、テンプレートマッチングを用いて特定する場合について説明する。   Then, template matching is performed in order to make the measurement point (position where the peak value is obtained) exactly match between the left and right frame difference images. For example, referring to FIG. 10, a position (right peak point) in the right interframe difference image that exactly corresponds to a predetermined position (referred to as a left peak point) that takes a peak value in the left interframe difference image. Will be described with reference to template matching.

まず、左ピーク点V1を中心とする所定の画像近傍(左テンプレートT1という。)が抽出され、次に、当該左ピーク点に対応する右ピーク点V1を中心とした左テンプレートV1より広い(例えば、2倍程度。)所定の画像領域(右テンプレートT2という。)が抽出される。そして、左テンプレートT2内において、右テンプレートT1と最も相関(すなわち、画素値の相関)が高い箇所が特定され、更に、この結果に基づいて右フレーム
間差分画像における左ピーク点に対応する位置が特定される(この位置は、当初の右ピーク点と異なっていてもよい。)。
First, a predetermined image vicinity centered on the left peak point V1 (referred to as a left template T1) is extracted, and then wider than the left template V1 centered on the right peak point V1 corresponding to the left peak point (for example, A predetermined image area (referred to as right template T2) is extracted. Then, in the left template T2, a location having the highest correlation (that is, the correlation of pixel values) with the right template T1 is specified, and further, based on this result, the position corresponding to the left peak point in the right interframe difference image is (This location may be different from the original right peak point.)

ステップS22の後、ステレオ計測に基づき、予め取得された標定計測結果S1cを用いて上記特定された計測点に対する3次元座標値の割り付けを行う(ステップS23)。   After step S22, the three-dimensional coordinate value is assigned to the specified measurement point using the orientation measurement result S1c acquired in advance based on stereo measurement (step S23).

ここで、標定計測とは、撮影装置10a、10bの傾き等の計測値を求めること、更に、当該計測値を用いて、撮影装置10a、10bにより各々撮影された画像上の同一点(画素座標)が指定されると、当該計測値を用いて実空間を表す3次元座標が求まるようなパラメータを算出することである。   Here, the orientation measurement refers to obtaining measurement values such as the inclinations of the imaging devices 10a and 10b, and using the measurement values, the same points (pixel coordinates) on the images respectively captured by the imaging devices 10a and 10b. ) Is specified, a parameter is calculated so that three-dimensional coordinates representing the real space can be obtained using the measured value.

また、上記標定計測による計測値(撮影装置10a、10bの傾き等。)を用いて、上記3次元座標を座標変換し、何れかの座標軸(例えば、z軸等。)の向きが鉛直方向に一致するようにしておくのが好ましい。このような座標系を用いれば、後述する移動体分離処理D3が行い易くなる。   Further, the three-dimensional coordinates are transformed using the measurement values obtained by the orientation measurement (the inclinations of the imaging devices 10a and 10b, etc.), and the direction of any one of the coordinate axes (for example, the z-axis) is in the vertical direction. It is preferable to match. If such a coordinate system is used, it becomes easy to perform the moving body separation process D3 described later.

次に、移動体分離処理D3の各処理(ステップS30〜S32)について説明する。移動体分離処理D3は、移動体分離手段43によって実行される。   Next, each process (steps S30 to S32) of the moving object separation process D3 will be described. The moving body separating process D3 is executed by the moving body separating means 43.

上記した移動体領域特定処理D1のステップS14の後、ステップS14で特定された各移動体領域が、色に基づいてラベリング(番号付け)される。   After step S14 of the above-described moving body region specifying process D1, each moving body region specified in step S14 is labeled (numbered) based on the color.

まず、t1左画像(或いはt2左画像)と、t1右画像(或いはt2右画像)とがRGB表色系の元で減色処理及び平滑化処理される。当該減色処理及び平滑化処理により、色に基づいてラベリングされる領域の数が制限され、不必要なラベリングが回避可能となる。   First, the t1 left image (or t2 left image) and the t1 right image (or t2 right image) are subjected to color reduction processing and smoothing processing under the RGB color system. By the color reduction process and the smoothing process, the number of regions labeled based on the color is limited, and unnecessary labeling can be avoided.

上記減色処理及び平滑化処理後のt1左画像(或いはt2左画像)及びt1右画像(或いはt2右画像)と、ステップS14で特定された各移動体領域とに基づき、当該各移動体領域に色が割り付けられてラベリングされる(ステップS30)。   Based on the t1 left image (or t2 left image) and t1 right image (or t2 right image) after the color reduction processing and the smoothing processing, and each moving body region specified in step S14, Colors are assigned and labeled (step S30).

その後、ステップS30でラベリングされた各移動体領域に対しステップS23で特定された3次元座標が割り付けられ、当該3次元座標に基づき、クラスター分析(ウォード法)によって各移動体が分離される(ステップS32)。この際、ラベル間の距離が所定の閾値(移動体分離係数)以下の場合には、当該ラベルがグループ化され、単一のラベルに改めて割り付けされる。ここで、上記移動体分離係数は、予め設定されている、或いは、操作者によりその都度設定されるものとする(ステップS31)。   Thereafter, the three-dimensional coordinates specified in step S23 are assigned to each moving object region labeled in step S30, and each moving object is separated by cluster analysis (ward method) based on the three-dimensional coordinates (steps). S32). At this time, if the distance between the labels is equal to or less than a predetermined threshold (moving body separation coefficient), the labels are grouped and assigned again to a single label. Here, the moving body separation coefficient is set in advance or is set each time by the operator (step S31).

次に、移動体追跡処理D4(ステップS40)について説明する。移動体追跡処理D4は移動体追跡手段44によって実行される。   Next, the moving body tracking process D4 (step S40) will be described. The moving body tracking process D4 is executed by the moving body tracking means 44.

ここでは、ステップS32で取得された各移動体が、ラップ率(以下で説明する。)を用いて時間毎に追跡される。以下、図11を参照して、当該ラップ率を用いた追跡法について説明する。   Here, each moving body acquired in step S32 is tracked every time using a lap rate (described below). Hereinafter, the tracking method using the wrap rate will be described with reference to FIG.

図11に示すように、時刻tでは、3つの移動体(それぞれ、L11、L12、L13にラベリングされている。)が上記方法(すなわち、クラスター分析。)により分離・特定され、時刻t+Δtでは、5つの移動体(それぞれ、L21、L22、L23、L24、L25にラベリングされている。)がこの方法により分離・特定されているものとする。   As shown in FIG. 11, at time t, three mobile bodies (labeled L11, L12, and L13, respectively) are separated and identified by the above method (ie, cluster analysis), and at time t + Δt, It is assumed that five moving bodies (labeled L21, L22, L23, L24, and L25, respectively) are separated and specified by this method.

ここで、時刻tにおける各移動体の移動体領域と、時刻t+Δtにおける各移動体の移動体領域とが重ね合わされる。そして、当該重ね合わせの結果、重なり合っている面積の割合(ラップ率)が50%以上の場合には、当該時刻tと時刻t+Δtの各移動体は、同一であると判定され、時刻t+Δtにおける移動体として、改めてラベル付けされる。   Here, the moving body region of each moving body at time t overlaps the moving body region of each moving body at time t + Δt. As a result of the superposition, when the ratio of overlapping areas (lap ratio) is 50% or more, it is determined that the moving bodies at the time t and the time t + Δt are the same, and the movement at the time t + Δt. Relabeled as a body.

例えば、時刻tにおける移動体L11が、時刻t+Δtにおける移動体L21、L22と重なり合っているが、何れもラップ率が50%以上であるため、移動体L11と移動体L21及びL22とは同一移動体であると判定される。   For example, the moving body L11 at time t overlaps with the moving bodies L21 and L22 at time t + Δt, but since both have a lap ratio of 50% or more, the moving body L11 and the moving bodies L21 and L22 are the same moving body. It is determined that

また、時刻tにおける移動体L12が、時刻t+Δtにおける移動体L23と重なり合っているが、ラップ率が50%以上であるため、移動体L23と移動体L12とは同一移動体であると判定される。   Further, although the moving body L12 at time t overlaps with the moving body L23 at time t + Δt, since the lap rate is 50% or more, it is determined that the moving body L23 and the moving body L12 are the same moving body. .

また、時刻tにおける移動体L13は、時刻t+Δtにおける移動体L24、L25と重なり合うが、移動体L25についてはラップ率が50%に満たないため、移動体L13と移動体L25とは同一ではないと判定され、移動体L24についてはラップ率が50%以上であるため、移動体L13と移動体L24とは同一であると判定される。   Further, the moving body L13 at time t overlaps with the moving bodies L24 and L25 at time t + Δt, but the moving body L13 and the moving body L25 are not the same because the wrap rate of the moving body L25 is less than 50%. Since the lap rate is 50% or more for the moving body L24, it is determined that the moving body L13 and the moving body L24 are the same.

更に、上記移動体の追跡処理が比較的長時間にわたって順次行われることにより、移動体の正確な計測が可能となる。以下、図12を参照して、この移動体計測法について説明する。   Furthermore, since the tracking process of the mobile body is sequentially performed over a relatively long time, the mobile body can be accurately measured. Hereinafter, this moving body measuring method will be described with reference to FIG.

図12には、時刻t10では、3つの移動体(それぞれ、L101、L102、L103にラべリングされている。)が特定され、時刻t11では、3つの移動体(それぞれ、L111、L112、L113にラベリングされている。)が特定され、時刻t12では、3つの移動体(それぞれ、L121、L122、L123にラベリングされている。)が特定され、時刻t13では、4つの移動体(それぞれ、L131、L132、L133、L134にラベリングされている。)が特定され、時刻t14では、4つの移動体(それぞれ、L141、L142、L143、L144にラベリングされている。)が特定されている。   In FIG. 12, three mobile bodies (labeled L101, L102, and L103, respectively) are identified at time t10, and three mobile bodies (L111, L112, and L113, respectively) are identified at time t11. At time t12, three mobile bodies (labeled at L121, L122, and L123, respectively) are specified, and at time t13, four mobile bodies (each at L131) are specified. , L132, L133, and L134) are identified, and at time t14, four mobile bodies (labeled L141, L142, L143, and L144, respectively) are identified.

時刻t10では、2つの移動体L101、L102が異なる移動体であると判定されたが、上記ラップ率による移動体追跡処理により、時刻t11では、上記移動体L101、L102は、共に単一の移動体L111の一部であると判定される。以降、時刻t12、t13、t14では、当該移動体は、L121、L131、L141として順次ラベルリングされている。   At time t10, the two mobile bodies L101 and L102 are determined to be different mobile bodies. However, at time t11, the mobile bodies L101 and L102 are both moved in a single movement by the mobile body tracking process based on the lap rate. It is determined that it is a part of the body L111. Thereafter, at times t12, t13, and t14, the mobile body is sequentially labeled as L121, L131, and L141.

また、時刻t11までの間に同一動体であると判定された移動体L103、L112は、時刻t12以降には消滅しているため、移動体数の計測には加えられない。   In addition, since the moving bodies L103 and L112 determined to be the same moving body before time t11 have disappeared after time t12, they are not added to the measurement of the number of moving bodies.

また、時刻t12では、単一の移動体であると判定された移動体L122は、時刻t13以降では、二つの移動体であると判定される。一つは、L132、L142にラベリングされた移動体であり、他の一つは、L133、L143にラベリングされた移動体である。   In addition, at time t12, the mobile body L122 determined to be a single mobile body is determined to be two mobile bodies after time t13. One is a moving body labeled L132 and L142, and the other is a moving body labeled L133 and L143.

また、時刻t11では、単一の移動体であると判定された移動体L113は、時刻t12以降も単一の移動体(L123、L134、L144にラベリングされた移動体。)であると判定される。   In addition, at time t11, the moving body L113 determined to be a single moving body is determined to be a single moving body (moving bodies labeled at L123, L134, and L144) after time t12. The

次に、移動体計測処理D5(ステップS50)について説明する。移動体計測処理D5は、移動体計測手段45によって実行される。   Next, the moving body measurement process D5 (step S50) will be described. The moving body measuring process D5 is executed by the moving body measuring means 45.

ここでは、ステップS40において時間毎に追跡された各移動体がどの方向に移動しているのかが判定されると共に、上り/下り等の移動方向毎の移動体数が計測される。   Here, in step S40, it is determined in which direction each moving body tracked for each time is moving, and the number of moving bodies in each moving direction such as up / down is measured.

すなわち、図13(a)に示すように、背景画像(すなわち、駅階段1を表す画像。)が3つの計測エリアM1〜M3に分割され、各移動体の移動体領域の各計測エリアM1〜M3に占める割合が時間毎(t1〜t10)に算出される。当該算出結果の一例を、図13(b)、図13(c)に示す。   That is, as shown to Fig.13 (a), a background image (namely, image showing the station staircase 1) is divided | segmented into three measurement areas M1-M3, and each measurement area M1- of the mobile body area | region of each mobile body. The proportion of M3 is calculated every hour (t1 to t10). An example of the calculation result is shown in FIGS. 13 (b) and 13 (c).

図13(b)には、移動体が計測エリアM1から計測エリアM3に向かう(下り方向)際に当該移動体が各計測エリアM1〜M3に占める割合が表示され、図13(c)には、移動体が計測エリアM3から計測エリアM1に向かう(上り方向)際に当該移動体が各計測エリアM1〜M3に占める割合が表示されている。   In FIG. 13B, when the moving body moves from the measurement area M1 to the measurement area M3 (downward direction), the ratio of the moving body to each of the measurement areas M1 to M3 is displayed, and FIG. When the mobile body moves from the measurement area M3 to the measurement area M1 (upward direction), the ratio of the mobile body to the measurement areas M1 to M3 is displayed.

また、移動体数は、ある程度時間をかけて追跡する必要があるため、駅階段1を表す画像の略中央に位置する計測エリアM2内において、上り/下り等の移動方向毎に計測される。   Further, since it is necessary to track the number of moving bodies over a certain amount of time, the number of moving bodies is measured for each moving direction such as up / down in the measurement area M2 located in the approximate center of the image representing the station staircase 1.

以上説明したように、移動体検出システム100aは、左右それぞれ2フレーム分の画像に基づいて、フレーム間差分画像、背景差分画像を作成し、当該両差分画像から移動体領域を特定し(移動体領域特定処理D1)、更に、当該フレーム間差分画像に対して3次元座標の割り付けを行い(3次元計測処理D2)、更に、移動体領域を色毎にラベリングし、当該ラベリングした各移動体領域に3次元座標を割り付け、当該3次元座標に基づき、クラスター解析により各移動体を分離・特定し(移動体分離処理D3)、更に、ラップ率を用いて移動体を時間毎に追跡し(移動体追跡処理D4)、更に、当該追跡結果に基づいて、移動方向や移動体数の計測を行う(移動体計測処理D5)。   As described above, the moving object detection system 100a creates an inter-frame difference image and a background difference image based on two left and right images, and specifies a moving object region from the difference images (moving object). Area specifying process D1), further, assigning three-dimensional coordinates to the inter-frame difference image (three-dimensional measurement process D2), labeling the moving body area for each color, and labeling each moving body area 3D coordinates are assigned to each, and each moving body is separated and specified by cluster analysis based on the 3D coordinates (moving body separation processing D3), and further, the moving body is tracked by time using the lap rate (moving) Body tracking processing D4), and further, based on the tracking result, the moving direction and the number of moving bodies are measured (moving body measuring processing D5).

従って、3次元空間内において移動体等の移動体位置(移動体が占める空間領域)が正確に特定できるだけでなく、当該特定した移動体に係る時間経過に伴う移動情報も正確に取得できるので、高度な移動体検出が実現できる。   Therefore, not only can the mobile object position (the space area occupied by the mobile object) such as the mobile object be accurately identified in the three-dimensional space, but also the movement information associated with the passage of time related to the identified mobile object can be accurately acquired. Advanced mobile object detection can be realized.

なお、本第2の実施の形態における記述は、本発明に係る移動体検出システム及び移動体検出装置の一例を示すものであり、これに限定されるものではない。本第2の実施の形態における移動体検出システム100a、移動体検出装置40の細部構成および詳細動作に関しては、本発明の趣旨を逸脱しない範囲で適宜変更可能である。   The description in the second embodiment shows an example of the moving object detection system and the moving object detection device according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of the moving object detection system 100a and the moving object detection device 40 in the second embodiment can be changed as appropriate without departing from the spirit of the present invention.

例えば、撮影装置10a、10bにより撮影されるステレオ画像は、ビデオテープ、DVD(Digital Versatile Disk)等の記録媒体を介して移動体検出装置40に入力されるようにしてもよいし、ステレオ基線装置10と移動体検出装置40との間にデータ回線を予め設け、当該データ回線を介してステレオ基線装置10から移動体検出装置40に入力されるようにしてもよい。   For example, stereo images captured by the imaging devices 10a and 10b may be input to the moving object detection device 40 via a recording medium such as a video tape or a DVD (Digital Versatile Disk), or a stereo baseline device. 10 and the mobile object detection device 40 may be provided in advance, and the stereo base line device 10 may input to the mobile object detection device 40 via the data line.

本発明を適用した移動体検出システムが有するステレオ基線装置の設置例を示し、(a)は、ステレオ基線装置の設置場所を上方から見た図であり、(b)は、(a)に示すステレオ基線装置の設置場所を側面か見た図である。The example of installation of the stereo baseline apparatus which the mobile body detection system to which the present invention is applied is shown, (a) is a view of the installation location of the stereo baseline apparatus from above, and (b) is shown in (a). It is the figure which looked at the installation place of a stereo base line apparatus from the side. 本発明を適用した移動体検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the mobile body detection system to which this invention is applied. 本発明を適用した移動体検出システムによって行われる移動体検出処理を説明するフローチャートである。It is a flowchart explaining the mobile body detection process performed by the mobile body detection system to which this invention is applied. 図3のフローチャートに示す移動体検出処理の際に用いられる移動体テンプレートを示す図である。It is a figure which shows the mobile body template used in the case of the mobile body detection process shown to the flowchart of FIG. 図4に示す移動体テンプレートが移動体の空間領域に割り当てられる様子を示す図である。It is a figure which shows a mode that the mobile body template shown in FIG. 4 is allocated to the space area | region of a mobile body. オプティカルフローを用いて移動体の動きが追跡される様子を示す図である。It is a figure which shows a mode that the motion of a moving body is tracked using an optical flow. 本発明を適用した他の移動体検出システムの構成を示すブロック図である。It is a block diagram which shows the structure of the other mobile body detection system to which this invention is applied. 図7に示す移動体検出システムによって行われる移動体検出処理を説明するフローチャートである。It is a flowchart explaining the mobile body detection process performed by the mobile body detection system shown in FIG. (a)フレーム間差分画像における輝度値の積算対象となる区分領域を示す図であり、(b)一区分における輝度値の積算値を、画像横方向の各画素座標に対して示す図である。(A) It is a figure which shows the division | segmentation area | region used as the integration object of the luminance value in a difference image between frames, (b) It is a figure which shows the integrated value of the luminance value in one division with respect to each pixel coordinate of an image horizontal direction. . テンプレートマッチングを説明するための図である。It is a figure for demonstrating template matching. ラップ率を用いた移動体追跡法を説明するための図である。It is a figure for demonstrating the mobile body tracking method using a lap | wrap rate. 移動体が追跡されている様子を示す図である。It is a figure which shows a mode that a mobile body is tracked. (a)は、駅階段を示す画像に3つの計測エリアが設けられている様子を示す図であり、(b)は、移動体が下り方向に移動する際に、移動体が各計測エリアに重なる割合を時間毎に示す図であり、(c)は、移動体が上り方向に移動する際に、移動体が各計測エリアに重なる割合を時間毎に示す図である。(A) is a figure which shows a mode that three measurement areas are provided in the image which shows a station stairs, (b) is a mobile body in each measurement area, when a mobile body moves to a down direction. It is a figure which shows the ratio which overlaps for every time, (c) is a figure which shows the ratio for which a mobile body overlaps each measurement area for every time when a mobile body moves to an up direction.

符号の説明Explanation of symbols

1 駅階段
10 ステレオ基線装置
10a 撮影装置
10b 撮影装置
20 移動体検出装置
21 移動体領域特定手段
22 混雑レベル特定手段
23 移動体特定手段
24 移動情報取得手段
30 データベース
40 移動体検出装置
41 移動体領域特定手段
42 3次元計測手段
43 移動体分離手段
44 移動体追跡手段
45 移動体計測手段
100、100a 移動体検出システム
DESCRIPTION OF SYMBOLS 1 Station stairway 10 Stereo base line apparatus 10a Imaging apparatus 10b Imaging apparatus 20 Moving body detection apparatus 21 Moving body area identification means 22 Congestion level identification means 23 Moving body identification means 24 Movement information acquisition means 30 Database 40 Moving body detection apparatus 41 Moving body area Identifying means 42 Three-dimensional measuring means 43 Moving object separating means 44 Moving object tracking means 45 Moving object measuring means 100, 100a Moving object detection system

Claims (4)

ステレオ基線に配置された左右2台の撮影装置と、当該2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像に基づいて、該ステレオ静止画像に写される移動体の検出を行う移動体検出装置とを備えた移動体検出システムにおいて、
前記移動体検出装置は、
前記複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする移動体検出システム。
Based on the left and right imaging devices arranged on the stereo baseline and the time-sequential multiple frames of the stereo still images taken by the two imaging devices in time synchronization, the images are copied to the stereo still images. In a mobile body detection system comprising a mobile body detection device for detecting a mobile body
The mobile object detection device is:
Among the plurality of frames of stereo still images, for each of the left and right still images, an inter-frame difference image representing a difference between two frames of still images and one of the two frames of still images and the background Creating a background difference image representing a difference between the images, and then combining the inter-frame difference image and the background difference image to identify a moving body region in the composite image;
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
A moving body detection system comprising:
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする移動体検出装置。
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Moving body region specifying means for specifying the moving body region in the composite image by combining
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
A moving body detection apparatus comprising:
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定するステップと、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付けるステップと、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離するステップと、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡するステップと、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測するステップと、
を含むことを特徴とする移動体検出方法。
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Identifying a moving body region in the composite image by combining
Assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. Assigning a different label for each color to the body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
Determining whether or not the mobile objects corresponding to the respective times are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracking the mobile object based on the determination results;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Measuring the direction, and
A moving body detection method comprising:
画像解析を行うコンピュータに、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する機能と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける機能と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する機能と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する機能と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する機能と、
を実現させるための移動体検出プログラム。
In the computer that performs image analysis,
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image A function for identifying a moving body region in the composite image by combining
A function of assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference image;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A function of assigning a different label for each color to a body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
According to the degree of overlap of the moving body region corresponding to two different times, it is determined whether or not the moving body corresponding to each time is the same, and the function of tracking the moving body based on the determination result;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects A function to measure the direction,
A moving body detection program for realizing.
JP2007011237A 2007-01-22 2007-01-22 Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program Expired - Fee Related JP4268644B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007011237A JP4268644B2 (en) 2007-01-22 2007-01-22 Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007011237A JP4268644B2 (en) 2007-01-22 2007-01-22 Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2004046642A Division JP3934113B2 (en) 2004-02-23 2004-02-23 Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program

Publications (2)

Publication Number Publication Date
JP2007164804A JP2007164804A (en) 2007-06-28
JP4268644B2 true JP4268644B2 (en) 2009-05-27

Family

ID=38247564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007011237A Expired - Fee Related JP4268644B2 (en) 2007-01-22 2007-01-22 Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program

Country Status (1)

Country Link
JP (1) JP4268644B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107741217A (en) * 2017-09-30 2018-02-27 福建农林大学 Straight circle/point of tangent the recognition positioning method of horizontal curve in road linearity information

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008571A (en) * 2009-06-26 2011-01-13 Shunkosha:Kk Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method
KR20160058607A (en) 2014-11-17 2016-05-25 현대자동차주식회사 Apparatus and method for processing image
CN104484997B (en) * 2014-12-24 2016-09-07 福州大学 A kind of regional movement traffic flow detecting method based on video image technology
CN106408577B (en) * 2016-09-21 2019-12-31 安徽慧视金瞳科技有限公司 Continuous frame connected domain parallel marking method for projection interactive system
GB2573703B (en) * 2017-03-06 2020-09-09 Mitsubishi Electric Corp Object tracking device and object tracking method
JP7012457B2 (en) * 2017-05-19 2022-01-28 キヤノン株式会社 Image processing device, image processing method
JP6922951B2 (en) * 2019-08-09 2021-08-18 フジテック株式会社 Image processing device and image processing method
CN113781665B (en) * 2020-07-28 2024-09-20 北京沃东天骏信息技术有限公司 Method and device for auditing annotation information
JP2023005584A (en) * 2021-06-29 2023-01-18 パナソニックIpマネジメント株式会社 Information processing device, information processing method, and program
CN113554008B (en) * 2021-09-18 2021-12-31 深圳市安软慧视科技有限公司 Method and device for detecting static object in area, electronic equipment and storage medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107741217A (en) * 2017-09-30 2018-02-27 福建农林大学 Straight circle/point of tangent the recognition positioning method of horizontal curve in road linearity information

Also Published As

Publication number Publication date
JP2007164804A (en) 2007-06-28

Similar Documents

Publication Publication Date Title
JP4268644B2 (en) Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program
US8913791B2 (en) Automatically determining field of view overlap among multiple cameras
CN108648194B (en) Three-dimensional target identification segmentation and pose measurement method and device based on CAD model
US20200145590A1 (en) Computer-implemented method for generating an output video from multiple video sources
JP3934113B2 (en) Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program
WO2010113239A1 (en) Image integration unit and image integration method
US8098897B2 (en) Multi dimensional imaging system
JP5371040B2 (en) Moving object tracking device, moving object tracking method, and moving object tracking program
CN111523385B (en) Stationary vehicle detection method and system based on frame difference method
Haberdar et al. Disparity map refinement for video based scene change detection using a mobile stereo camera platform
TWI682361B (en) Method and system for road image reconstruction and vehicle positioning
Gloudemans et al. So you think you can track?
JP7360303B2 (en) Image processing device and image processing method
JP4447309B2 (en) Intersection traffic measuring device and intersection traffic measuring method
Nielsen et al. Taking the temperature of pedestrian movement in public spaces
Lenac et al. Moving objects detection using a thermal Camera and IMU on a vehicle
JP2018133042A (en) Left object detector
Sincan et al. Moving object detection by a mounted moving camera
Lee et al. Vehicle counting based on a stereo vision depth maps for parking management
JP2011090708A (en) Apparatus and method for detecting the number of objects
KR101827114B1 (en) Apparatus and method for detecting proximal entity in pen
JPH0991439A (en) Object monitor
JP6348020B2 (en) Image processing apparatus, image processing method, and inspection method using the same
JP4744789B2 (en) Object identification method and object identification apparatus
JP2011043863A (en) Apparatus, method, program for determining/tracking object region, and apparatus for determining object region

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090217

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090220

R150 Certificate of patent or registration of utility model

Ref document number: 4268644

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees