JP4268644B2 - Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program - Google Patents
Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program Download PDFInfo
- Publication number
- JP4268644B2 JP4268644B2 JP2007011237A JP2007011237A JP4268644B2 JP 4268644 B2 JP4268644 B2 JP 4268644B2 JP 2007011237 A JP2007011237 A JP 2007011237A JP 2007011237 A JP2007011237 A JP 2007011237A JP 4268644 B2 JP4268644 B2 JP 4268644B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving body
- mobile
- still images
- frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000001514 detection method Methods 0.000 title claims description 73
- 238000005259 measurement Methods 0.000 claims description 62
- 210000000746 body region Anatomy 0.000 claims description 54
- 238000003384 imaging method Methods 0.000 claims description 22
- 238000000926 separation method Methods 0.000 claims description 10
- 239000002131 composite material Substances 0.000 claims description 9
- 238000010191 image analysis Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 description 53
- 230000006870 function Effects 0.000 description 7
- 230000003287 optical effect Effects 0.000 description 5
- 238000009434 installation Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 238000007621 cluster analysis Methods 0.000 description 3
- 238000009499 grossing Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 230000008602 contraction Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本発明は、通行人や車両等の移動体の数や、移動方向、移動時間等の移動情報を検出するための移動体検出システム、移動体検出装置、移動体検出方法及び移動体検出プログラムに関する。 The present invention relates to a moving body detection system, a moving body detection device, a moving body detection method, and a moving body detection program for detecting movement information such as the number of passersby, vehicles, and the like, movement direction, and movement time. .
従来、道路等を通行する通行人や車両等の移動体の数や、移動方向、移動時間等の移動情報を検出するための技術が種々考案されている。 2. Description of the Related Art Conventionally, various techniques for detecting movement information such as the number of moving objects such as passers-by and roads, vehicles, and the like, movement directions, and movement times have been devised.
例えば、特許文献1、2には、2台の撮影装置(ビデオカメラ等。)を用い、時刻同期をとって撮影した2つの画像(以下、ステレオ画像と総称するが、動画、静止画に応じてステレオ動画像、ステレオ静止画像と区別して称する場合がある。)に基づき、車両等の移動体の3次元座標を算出し、当該3次元座標に基づいて当該移動体を特定する技術が開示されている。
For example, in
特に、特許文献1に開示された移動体検出技術では、ユークリッド距離のばらつきの度合いに基づいて剛体(この場合、移動体。)が特定(剛体か否かの判定)され、また、特許文献2に開示された移動体の検出技術では、移動体が人の場合、個々の人物の身長からクラスタリング処理を行うことによって人物が特定される。
In particular, in the moving body detection technique disclosed in
また、最近では、上記ステレオ画像に基づいて、当該画像内の3次元物体の座標(形状)を特定する技術(以下、ステレオマッチング法という。)も考案されている(例えば、特許文献3参照。)。
しかしながら、上記従来の技術には、次のような問題点がある。
すなわち、上記特許文献1、2及び3に開示された技術では、空間内(3次元座標系)における移動体位置(移動体が占める空間領域)が特定されるのみであり、当該特定された移動体に係る時間経過に伴う移動情報の取得は困難である。
However, the conventional technique has the following problems.
That is, in the techniques disclosed in
本発明の課題は、空間内の移動体位置を正確に特定するとともに、当該位置特定された移動体の時間経過に伴う移動情報を正確に取得できるようにすることである。 An object of the present invention is to accurately specify a position of a moving body in a space and to accurately acquire movement information with the passage of time of the position-specified moving body.
上記課題を解決するため、請求項1に記載の発明は、
ステレオ基線に配置された左右2台の撮影装置と、当該2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像に基づいて、該ステレオ静止画像に写される移動体の検出を行う移動体検出装置とを備えた移動体検出システムにおいて、
前記移動体検出装置は、
前記複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする。
In order to solve the above-mentioned problem, the invention described in
Based on the left and right imaging devices arranged on the stereo baseline and the time-sequential multiple frames of the stereo still images taken by the two imaging devices in time synchronization, the images are copied to the stereo still images. In a mobile body detection system comprising a mobile body detection device for detecting a mobile body
The mobile object detection device is:
Among the plurality of frames of stereo still images, for each of the left and right still images, an inter-frame difference image representing a difference between two frames of still images and one of the two frames of still images and the background Creating a background difference image representing a difference between the images, and then combining the inter-frame difference image and the background difference image to identify a moving body region in the composite image;
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
It is provided with.
また、上記課題を解決するため、請求項2に記載の発明は、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする。
Moreover, in order to solve the said subject, invention of Claim 2 is the following.
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Moving body region specifying means for specifying the moving body region in the composite image by combining
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
It is provided with.
また、上記課題を解決するため、請求項3に記載の発明は、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定するステップと、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付けるステップと、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離するステップと、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡するステップと、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測するステップと、
を含むことを特徴とする。
Moreover, in order to solve the said subject, invention of Claim 3 is the following.
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Identifying a moving body region in the composite image by combining
Assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. Assigning a different label for each color to the body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
Determining whether or not the mobile objects corresponding to the respective times are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracking the mobile object based on the determination results;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Measuring the direction, and
It is characterized by including.
また、上記課題を解決するため、請求項4に記載の発明は、
画像解析を行うコンピュータに、
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する機能と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける機能と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する機能と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する機能と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する機能と、
を実現させる。
Moreover, in order to solve the said subject, invention of Claim 4 is the following.
In the computer that performs image analysis,
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image A function for identifying a moving body region in the composite image by combining
A function of assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference image;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A function of assigning a different label for each color to a body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
According to the degree of overlap of the moving body region corresponding to two different times, it is determined whether or not the moving body corresponding to each time is the same, and the function of tracking the moving body based on the determination result;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects A function to measure the direction,
Is realized.
本発明によれば、空間内において通行人等の移動体位置(移動体が占める空間領域)が正確に特定できるだけでなく、当該特定した移動体に係る時間経過に伴う移動情報も正確に取得できるので、高度な移動体検出が実現できる。 According to the present invention, not only the position of a moving body such as a passerby (a space area occupied by the moving body) can be accurately identified in the space, but also the movement information associated with the passage of time related to the identified moving body can be accurately acquired. Therefore, advanced mobile object detection can be realized.
以下、添付図面を参照して本発明に係る好適な第1及び第2の実施の形態を順に説明する。 Hereinafter, preferred first and second embodiments of the present invention will be described in order with reference to the accompanying drawings.
(第1の実施の形態)
図面を参照して本発明を適用した第1の実施の形態の移動体検出システム100について詳細に説明する。
移動体検出システム100は、ステレオ基線に配置された2台の撮影装置により時刻同期をとって撮影した複数の時系列的なステレオ画像に基づき、道路等を通行する通行人等の移動体の数や、移動方向、移動時間等の移動情報を取得するためのものである。本第1の実施の形態においては、一例として、図1(a)、図1(b)に示す所定の駅階段1を通行する通行人の移動情報を取得する場合について説明するが、これに限らず、道路を通行する車両や、駐車場に入庫・出庫する車両等に対しても適用可能である。以下、移動体とは通行人を意味する。
(First embodiment)
A mobile
The mobile
まず、移動体検出システム100の構成を説明する。
移動体検出システム100は、図2に示すように、ステレオ基線装置10、移動体検出装置20、データベース30等を備えて構成される。
First, the configuration of the moving
As shown in FIG. 2, the moving
ステレオ基線装置10は、ビデオカメラ等の撮影装置10a、10bを備える。また、ステレオ基線装置10は、図1(a)、図1(b)に示すような配置で駅階段1に設置され、移動体が駅階段1を通行する様子を、撮影装置10a、10bの時刻同期をとって撮影する。なお、ステレオ基線装置10の配置は、図1(a)、図1(b)に示すものに限らず、自由に設定可能である。
The
移動体検出装置20は、移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24を備え、移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24を用いて図3のフローチャートに示す移動体検出処理を行う。
The moving
移動体検出装置20は、図示しない内蔵メモリに予め格納された移動体検出プログラムを実行することにより移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24の各々を制御し、図3のフローチャートに示す移動体検出処理を行う。
The mobile
なお、移動体領域特定手段21、混雑レベル特定手段22、移動体特定手段23、移動情報取得手段24は、移動体検出プログラムが有する各機能を表すものとしてもよいし、ハードウェアによるものとしてもよい。
Note that the mobile object region specifying means 21, the congestion
データベース30は、過去の移動体検出結果(駅階段1を通行する移動体の数や、移動方向、移動時間等の移動情報。)や、上記移動体検出処理の際に用いられる各種情報(例えば、写真測量的な標定要素として設定された3次元座標系情報、駅階段1の背景画像、移動体テンプレート等。)を格納する。
The
ここで、上記3次元座標系情報は、例えば、ステレオ基線装置10が図1(a)、図1(b)に示すような位置に設置された場合に、駅階段1を含む3次元空間に対して設定される座標系を表す情報である。ステレオ基線装置10の設置位置が変更された場合には、この3次元座標系は、当該変更に応じて再設定される。
Here, the three-dimensional coordinate system information is stored in a three-dimensional space including the
上記駅階段1の背景画像は、移動体が写っていない駅階段1のみの画像である。例えば、朝、昼、夕、夜等の各時間帯に撮影された複数の背景画像が用意されている。
The background image of the
上記移動体テンプレートは、例えば、図4に示すような、移動体検出処理の際に特定される混雑レベルに応じた複数種類の人物形状のものが用意されている。 For example, as shown in FIG. 4, a plurality of types of human shapes corresponding to the congestion level specified in the mobile body detection process are prepared as the mobile body template.
図4に、4段階の混雑レベル1〜4に応じた4種類の移動体テンプレートを示す。移動体テンプレートA1は混雑レベル1(例えば、移動体と移動体との平均間隔が0〜0.1m以内。)の場合に用いられ、移動体テンプレートA2は混雑レベル2(例えば、移動体と移動体との平均間隔が0.1〜0.5m以内。)の場合に用いられ、移動体テンプレートA3は混雑レベル3(例えば、移動体と移動体との平均間隔が0.5〜1m以内。)の場合に用いられ、移動体テンプレートA4は混雑レベル4(例えば、移動体と移動体との平均間隔が1m以上。)の場合に用いられる。
なお、混雑レベルや混雑レベルの判定基準は、上記したものに限らず、自由に設定可能である。
FIG. 4 shows four types of mobile templates corresponding to four levels of
The congestion level and the criterion for determining the congestion level are not limited to those described above, and can be freely set.
次に、図3を参照して、移動体検出装置20が行う移動体検出処理について説明する。
まず、移動体領域特定手段21により、以下に説明するステップS1、S2の各処理が行われる。
Next, the moving body detection process performed by the moving
First, each process of step S1 and S2 demonstrated below is performed by the mobile body area | region identification means 21. FIG.
すなわち、ステレオ基線装置10により撮影されたステレオ動画像が所定時間(例えば、1秒等であり、移動体の動きが追跡可能な時間。)毎に静止画像として抽出され、複数のステレオ静止画像が時系列的に作成される。
That is, a stereo moving image photographed by the stereo
そして、上記作成された複数のステレオ静止画像のうちの一つと、当該ステレオ静止画像に写されている所定の対象物(例えば、駅階段1の幅等。)の長さとに基づき、駅階段1を含む3次元空間に対して写真測量的な標定要素としての3次元座標系が設定される(ステップS1)。
Then, based on one of the created stereo still images and the length of a predetermined object (for example, the width of the
ステップS1の後、上記作成されたステレオ静止画像の各々に対し、当該ステレオ静止画像に写されている各移動体の空間領域(移動体の3次元形状を特定するための3次元座標)が、上記設定された3次元座標系に基づき、上記ステレオマッチング法により算出される(ステップS2)。
更に、ステップ2の後、混雑レベル特定手段22により、以下に説明するステップS3、S4の各処理が行われる。
After step S1, for each of the created stereo still images, the space area of each moving object (three-dimensional coordinates for specifying the three-dimensional shape of the moving object) captured in the stereo still image is Based on the set three-dimensional coordinate system, it is calculated by the stereo matching method (step S2).
Further, after step 2, the congestion
すなわち、ステップS2の後、当該撮影が行われた時間帯に合致する背景画像が選択され、上記作成されたステレオ静止画像の各々に対して当該背景画像に対する差分領域(移動体が占める領域を示す。)が抽出される(ステップS3)。 That is, after step S2, a background image that matches the time zone in which the image was taken is selected, and a difference area with respect to the background image (indicating an area occupied by the moving object) for each of the created stereo still images. .) Is extracted (step S3).
ステップS3の後、当該抽出された差分領域の全画像に対する面積率が算出され、当該算出された面積率に応じて駅階段1における混雑レベル(例えば、図4に示すような4段階の混雑レベル。)が特定される(ステップS4)。 After step S3, the area ratio for the entire image of the extracted difference area is calculated, and the congestion level in the station staircase 1 (for example, four levels of congestion as shown in FIG. 4) is calculated according to the calculated area ratio. .) Is specified (step S4).
更に、ステップS4の後、移動体特定手段23により、以下に説明するステップS5、S6の各処理が行われる。 Furthermore, after step S4, each process of steps S5 and S6 described below is performed by the moving body specifying means 23.
すなわち、ステップS4の後、当該特定された混雑レベルに応じて移動体テンプレートが選択される(ステップS5)。 That is, after step S4, a mobile template is selected according to the specified congestion level (step S5).
ステップS5の後、上記ステップS2の段階で算出された各通行人の空間領域に対してステップS5の段階で選択された移動体テンプレートが割り当てられ、移動体が特定される(ステップS6)。 After step S5, the mobile object template selected in step S5 is assigned to the space area of each passerby calculated in step S2, and the mobile object is specified (step S6).
ここで、移動体テンプレートが移動体の空間領域に割り当てられる様子を図5に示す。画像B1には、移動体の空間領域B13を検出するため、移動体テンプレートB12が移動経路B11に沿って移動される様子が示され、画像B2には、空間領域B13が検出され、移動体テンプレートB12が空間領域B13に割り当てられた様子が示されている。 Here, a state in which the mobile object template is assigned to the space area of the mobile object is shown in FIG. The image B1 shows a state where the moving body template B12 is moved along the moving path B11 in order to detect the space area B13 of the moving body, and the image B2 detects the space area B13, and the moving body template A state in which B12 is assigned to the space area B13 is shown.
以上説明したステップS1〜S5の各処理は、上記時系列的に作成された複数のステレオ静止画像の各々に対して行われる。 Each process of step S1-S5 demonstrated above is performed with respect to each of the several stereo still image produced in the said time series.
更に、ステップS6の後、移動情報取得手段24により、上記複数の時系列的なステレオ静止画像に基づいて、各移動体の動きが追跡され、同一の移動体に対しては当該移動体の空間領域に割り当てられた移動体テンプレートに同一の色が付されて当該移動体の動きが記録されるとともに、この移動体テンプレートに付された色に基づいて各移動体の移動情報(各移動体の移動方向や移動時間等。)が算出される(ステップS7)。 Further, after step S6, the movement information acquisition means 24 tracks the movement of each moving object based on the plurality of time-series stereo still images, and for the same moving object, the space of the moving object is tracked. The moving body template assigned to the region is assigned the same color and the movement of the moving body is recorded, and the movement information of each moving body (based on the moving body template) is recorded based on the color attached to the moving body template. The moving direction, the moving time, etc.) are calculated (step S7).
ここで、移動体の動きを追跡する方法としては、例えば、オプティカルフローを用いた方法がある。この方法は、移動体各点のオプティカルフロー(移動ベクトル)を算出して当該移動体の動きを推定する方法であり、具体的には、マッチング法、勾配法と称する2つの方法が一般に用いられている。 Here, as a method for tracking the movement of the moving object, for example, there is a method using an optical flow. This method is a method for estimating the motion of a moving object by calculating an optical flow (movement vector) at each point of the moving object. Specifically, two methods called a matching method and a gradient method are generally used. ing.
上記オプティカルフローを用いて移動体の動きが追跡される様子を図6に示す。画像C1、C2は、時刻Lの時点でのステレオ静止画像のうち、左(Left)/右(Right)の各
々に対応する静止画像であり、画像C3、C4は、時刻LからΔTだけ時間経過した後のステレオ静止画像のうち、左/右の各々に対応する静止画像である。ΔTが小さければ小さいほど、多くの処理時間が必要となるが、移動体の追跡はより正確なものとなる。
FIG. 6 shows a state in which the movement of the moving body is tracked using the optical flow. Images C1 and C2 are still images corresponding to each of the left (Left) / right (Right) of the stereo still images at time L, and images C3 and C4 have elapsed by ΔT from time L. Of the stereo still images after the above, the still images corresponding to the left / right. The smaller ΔT, the more processing time is required, but the tracking of the moving object becomes more accurate.
なお、画像C3、C4には、図示簡略化のため、各々二つのオプティカルフローのみが表されている。 In the images C3 and C4, only two optical flows are shown for simplification of illustration.
また、移動体テンプレートに付した色に基づいて各移動体の移動情報を求める方法としては、例えば、色の識別にマンセル表色系を用いる方法がある。 Further, as a method for obtaining movement information of each moving body based on the color attached to the moving body template, for example, there is a method using a Munsell color system for color identification.
以上説明したように、移動体検出システム100は、ステレオ基線に配置された2台の撮影装置10a、10bにより時刻同期をとって撮影した複数の時系列的なステレオ静止画像に基づき、道路等を通行する各移動体が占める空間領域(3次元座標)を特定し、当該ステレオ静止画像の背景画像に対する差分領域を抽出し、全画像領域に対する当該差分領域の面積率を算出し、当該面積率に基づいて移動体の混雑レベルを特定し、当該混雑レベルに応じた移動体テンプレートA1〜A4を、上記特定した移動体の空間領域に割り当てて移動体の特定を行う。
As described above, the moving
更に、複数の時系列的なステレオ静止画像に基づいて移動体の動きを追跡し、同一移動体の空間領域に割り当てられた移動体テンプレートに同じ色を付して各移動体の動きを記録し、当該色に基づいて移動体の移動情報(移動方向や移動時間等。)を取得する。 Furthermore, the movement of a moving object is tracked based on a plurality of time-series stereo still images, and the movement object template assigned to the space area of the same moving object is assigned the same color to record the movement of each moving object. The movement information (movement direction, movement time, etc.) of the moving body is acquired based on the color.
従って、3次元空間内において移動体等の移動体位置(移動体が占める空間領域)が正確に特定できるだけでなく、当該特定した移動体に係る時間経過に伴う移動情報も正確に取得できるので、高度な移動体検出が実現できる。 Therefore, not only can the mobile object position (the space area occupied by the mobile object) such as the mobile object be accurately identified in the three-dimensional space, but also the movement information associated with the passage of time related to the identified mobile object can be accurately acquired. Advanced mobile object detection can be realized.
なお、本第1の実施の形態における記述は、本発明に係る移動体検出システム及び移動体検出装置の一例を示すものであり、これに限定されるものではない。本第1の実施の形態における移動体検出システム100、移動体検出装置20の細部構成および詳細動作に関しては、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
The description in the first embodiment shows an example of the moving body detection system and the moving body detection device according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of the moving
例えば、移動体領域特定手段21が、ステレオ基線装置10により撮影されたステレオ動画像を所定時間毎に静止画像として抽出し、複数のステレオ静止画像を時系列的に作成するとしたが、これに限らず、撮影装置10a、10bが連写により複数の時系列的なステレオ静止画像を撮影することも可能である。この場合、撮影装置10a、10bは、連写可能であれば、ビデオカメラ、デジタルカメラのうち何れであってもよい。
For example, the moving body
また、撮影装置10a、10bにより撮影されるステレオ画像は、ビデオテープ、DVD(Digital Versatile Disk)等の記録媒体を介して移動体検出装置20に入力されるようにしてもよいし、ステレオ基線装置10と移動体検出装置20との間にデータ回線を予め設け、当該データ回線を介してステレオ基線装置10から移動体検出装置20に入力されるようにしてもよい。
Moreover, the stereo image image | photographed with imaging |
(第2の実施の形態)
次に、図面を参照して本発明を適用した第2の実施の形態の移動体検出システム100aについて詳細に説明する。
移動体検出システム100aは、移動体検出システム100と同様に、ステレオ基線に配置された2台の撮影装置により時刻同期をとって撮影した複数の時系列的なステレオ画像に基づき、道路等を通行する通行人等の移動体の数や、移動方向、移動時間等の移動情報を取得するためのものである。本第2の実施の形態においては、第1の実施の形態と同様に、図1(a)、図1(b)に示す所定の駅階段1を通行する通行人の移動情報を取得する場合について説明するが、これに限らず、道路を通行する車両や、駐車場に入庫・出庫する車両等に対しても適用可能である。以下、移動体とは通行人を意味する。
(Second Embodiment)
Next, a mobile
Similar to the moving
まず、移動体検出システム100aの構成を説明する。
移動体検出システム100aは、図7に示すように、ステレオ基線装置10、データベース30、移動体検出装置40を備えて構成
される。ここで、ステレオ基線装置10、データベース30は、第1の実施の形態に記載したものと同じものであり、簡略化のため、同一符号を付して説明を省略する。
First, the configuration of the moving
As shown in FIG. 7, the moving
移動体検出装置40は、移動体領域特定手段41、3次元計測手段42、移動体分離手段43、移動体追跡手段44、移動体計測手段45を備え、これら各手段を用いて図8のフローチャートに示す移動体検出処理を行う。
The moving
移動体検出装置40は、図示しない内蔵メモリに予め格納された移動体検出プログラムを実行することにより移動体領域特定手段41、3次元計測手段42、移動体分離手段43、移動体追跡手段44、移動体計測手段45の各々を制御し、図8に示す移動体検出処理を行う。
The mobile
なお、移動体領域特定手段41、3次元計測手段42、移動体分離手段43、移動体追跡手段44、移動体計測手段45は、移動体検出プログラムが有する各機能を表すものとしてもよいし、ハードウェアによるものとしてもよい。 The moving body region specifying means 41, the three-dimensional measuring means 42, the moving body separating means 43, the moving body tracking means 44, and the moving body measuring means 45 may represent each function of the moving body detection program. It may be based on hardware.
次に、図8を参照して、移動体検出装置40が行う移動体検出処理について説明する。
まず、駅階段1の様子がステレオ画像(動画)としてステレオ基線装置10により撮影され(ステップS1a)、また、移動体が存在しない駅階段1が、左右の背景画像(静止画像であり、左背景画像、右背景画像という。)としてステレオ基線装置10により撮影される(ステップS1b)。
Next, a moving body detection process performed by the moving
First, the state of the
次に、移動体領域特定処理D1の各処理(ステップS10〜S14)について説明する。移動体領域特定処理D1は移動体領域特定手段41によって実行される。
Next, each process (steps S10 to S14) of the moving body region specifying process D1 will be described. The moving body area specifying process D1 is executed by the moving body
上記ステレオ画像(動画)のうち、所定時間(例えば、0.1秒等の短時間。)だけ互いに離れた左右それぞれ2フレーム分の静止画像(時刻t1、t2の静止画像。)が取得される。当該取得された左右それぞれ2フレーム分の静止画像を、t1左画像、t2左画像(以上、左静止画像。)、t1右画像、t2右画像(以上、右静止画像。)という。 Of the stereo images (moving images), still images (still images at times t1 and t2) for two left and right frames separated from each other by a predetermined time (for example, a short time such as 0.1 second) are acquired. . The acquired still images for two frames on each of the left and right sides are referred to as a t1 left image, a t2 left image (hereinafter referred to as a left still image), a t1 right image, and a t2 right image (hereinafter referred to as a right still image).
次に、t1左画像、t2左画像、t1右画像、t2右画像と、上記左右の背景画像とが、HSV(Hue Saturation Value;色相、彩度、明度)処理され、RGB表色系から色相・彩度・明度によるHSV表色系に変換される(ステップS10)。 Next, the t1 left image, the t2 left image, the t1 right image, the t2 right image, and the left and right background images are subjected to HSV (Hue Saturation Value; hue, saturation, brightness) processing, and the hue from the RGB color system. Conversion into the HSV color system based on saturation and lightness (Step S10).
ステップS10の後、t1左画像とt2左画像とに対して、及び、t1右画像とt2右画像とに対して、それぞれフレーム間差分画像(左フレーム間差分画像、右フレーム間差分画像)を作成する(ステップS11)。ここで、フレーム間差分とは、異なる時間の画像の差分(変化領域)であり、移動体領域のエッジ部に該当する。 After step S10, inter-frame difference images (left inter-frame difference image and right inter-frame difference image) are respectively applied to the t1 left image and the t2 left image and to the t1 right image and the t2 right image. Create (step S11). Here, the inter-frame difference is a difference (change region) between images at different times, and corresponds to an edge portion of the moving object region.
そして、t1左画像(或いはt2左画像)と左背景画像とに対して、及び、t1右画像(或いはt2右画像)と右背景画像とに対して、彩度と色相のそれぞれに基づく背景差分画像を各々作成する(ステップS12)。背景差分は移動体領域の内部に該当する。 The background difference based on the saturation and the hue for the t1 left image (or t2 left image) and the left background image, and for the t1 right image (or t2 right image) and the right background image, respectively. Each image is created (step S12). The background difference corresponds to the inside of the moving object area.
ここで、色相と彩度とでは、差分として抽出される領域が異なるため、双方を合成し、当該合成後の画像を最終的な背景差分画像(左背景差分画像、右背景差分画像)とする。 Here, since the area extracted as the difference is different between the hue and the saturation, the two are combined, and the combined image is used as the final background difference image (left background difference image, right background difference image). .
ステップS11、S12の後、左フレーム間差分画像、右フレーム間差分画像の各々が白黒による2値化処理及び膨張収縮処理される(ステップS13)。 After steps S11 and S12, each of the left frame difference image and the right frame difference image is subjected to black and white binarization processing and expansion / contraction processing (step S13).
上記膨張収縮処理により、左背景差分画像、右背景差分画像の各背景差分領域(移動体領域の内部)と、左フレーム間差分画像、右フレーム間差分画像の各フレーム差分領域(移動体領域のエッジ部)とが、それぞれ良好に適合可能となる。 By the above expansion and contraction processing, each background difference area (inside the moving body area) of the left background difference image and right background difference image, and each frame difference area (in the moving body area) of the left frame difference image and right frame difference image. Edge portions) can be adapted to each other well.
ステップS13の後、左フレーム間差分画像と左背景差分画像とが合成されて(左合成画像という。)左画像に対する移動体領域が特定され、右フレーム間差分画像と右背景差分画像とが合成されて(右合成画像という。)右画像に対する移動体領域が特定される(ステップS14)。 After step S13, the left frame difference image and the left background difference image are combined (referred to as a left combined image), a moving body region for the left image is specified, and the right frame difference image and the right background difference image are combined. Then, the moving body region for the right image is specified (referred to as the right composite image) (step S14).
次に、3次元計測処理D2の各処理(ステップS11、S21〜S23)について説明する。3次元計測処理D2は3次元計測手段42によって実行される。
Next, each process (steps S11, S21 to S23) of the three-dimensional measurement process D2 will be described. The three-dimensional measurement process D2 is executed by the three-
上記ステップS11において作成された左右の各フレーム間差分画像が、図9(a)に示すような区分K1〜Kn(nは自然数。)までのn個の区分に分割され、各区分毎に、画像横方向(図中符号Rに示す方向。)の各画素に対する輝度値が積算される(ステップS21)。 The left and right inter-frame difference images created in step S11 are divided into n sections up to sections K1 to Kn (n is a natural number) as shown in FIG. 9A. The luminance value for each pixel in the horizontal direction of the image (the direction indicated by symbol R in the figure) is integrated (step S21).
上記輝度値の積算結果の一例を、図9(b)に示す。ここには、区分1に対する積算結果が示されている。横軸は、画像横方向の位置を画素座標によって表し、縦軸は、積算された輝度値を表す。ここで、画素座標とは、画像を構成する全画素に対して割り当てられた画素番号を用いて、画像内の位置を一意的に特定するための座標である。
An example of the luminance value integration result is shown in FIG. Here, the integration results for
次に、画像に3次元座標を割り付けるための計測点を特定する。
ステップS21で算出された輝度値の積算結果のうち、ピーク値に該当する箇所(例えば、図中符号P1、P2等に示す箇所であり、複数存在する。)が区分K1〜Kn毎に抽出され、当該ピーク値をとる左右の各フレーム間差分画像内の位置(計測点)が画素座標によって特定される(ステップS22)。
Next, measurement points for assigning three-dimensional coordinates to the image are specified.
Of the luminance value integration results calculated in step S21, locations corresponding to the peak value (for example, locations indicated by reference signs P1, P2, etc. in the figure, a plurality of locations) are extracted for each of the categories K1 to Kn. The position (measurement point) in the difference image between the left and right frames taking the peak value is specified by pixel coordinates (step S22).
そして、当該計測点(ピーク値をとる位置)を左右の各フレーム間差分画像で厳密に一致させるため、テンプレートマッチングが行われる。例えば、図10を参照して、左フレーム間差分画像内でピーク値をとる所定の一の位置(左ピーク点という。)に厳密に対応する、右フレーム間差分画像内の位置(右ピーク点という。)を、テンプレートマッチングを用いて特定する場合について説明する。 Then, template matching is performed in order to make the measurement point (position where the peak value is obtained) exactly match between the left and right frame difference images. For example, referring to FIG. 10, a position (right peak point) in the right interframe difference image that exactly corresponds to a predetermined position (referred to as a left peak point) that takes a peak value in the left interframe difference image. Will be described with reference to template matching.
まず、左ピーク点V1を中心とする所定の画像近傍(左テンプレートT1という。)が抽出され、次に、当該左ピーク点に対応する右ピーク点V1を中心とした左テンプレートV1より広い(例えば、2倍程度。)所定の画像領域(右テンプレートT2という。)が抽出される。そして、左テンプレートT2内において、右テンプレートT1と最も相関(すなわち、画素値の相関)が高い箇所が特定され、更に、この結果に基づいて右フレーム
間差分画像における左ピーク点に対応する位置が特定される(この位置は、当初の右ピーク点と異なっていてもよい。)。
First, a predetermined image vicinity centered on the left peak point V1 (referred to as a left template T1) is extracted, and then wider than the left template V1 centered on the right peak point V1 corresponding to the left peak point (for example, A predetermined image area (referred to as right template T2) is extracted. Then, in the left template T2, a location having the highest correlation (that is, the correlation of pixel values) with the right template T1 is specified, and further, based on this result, the position corresponding to the left peak point in the right interframe difference image is (This location may be different from the original right peak point.)
ステップS22の後、ステレオ計測に基づき、予め取得された標定計測結果S1cを用いて上記特定された計測点に対する3次元座標値の割り付けを行う(ステップS23)。 After step S22, the three-dimensional coordinate value is assigned to the specified measurement point using the orientation measurement result S1c acquired in advance based on stereo measurement (step S23).
ここで、標定計測とは、撮影装置10a、10bの傾き等の計測値を求めること、更に、当該計測値を用いて、撮影装置10a、10bにより各々撮影された画像上の同一点(画素座標)が指定されると、当該計測値を用いて実空間を表す3次元座標が求まるようなパラメータを算出することである。
Here, the orientation measurement refers to obtaining measurement values such as the inclinations of the
また、上記標定計測による計測値(撮影装置10a、10bの傾き等。)を用いて、上記3次元座標を座標変換し、何れかの座標軸(例えば、z軸等。)の向きが鉛直方向に一致するようにしておくのが好ましい。このような座標系を用いれば、後述する移動体分離処理D3が行い易くなる。
Further, the three-dimensional coordinates are transformed using the measurement values obtained by the orientation measurement (the inclinations of the
次に、移動体分離処理D3の各処理(ステップS30〜S32)について説明する。移動体分離処理D3は、移動体分離手段43によって実行される。 Next, each process (steps S30 to S32) of the moving object separation process D3 will be described. The moving body separating process D3 is executed by the moving body separating means 43.
上記した移動体領域特定処理D1のステップS14の後、ステップS14で特定された各移動体領域が、色に基づいてラベリング(番号付け)される。 After step S14 of the above-described moving body region specifying process D1, each moving body region specified in step S14 is labeled (numbered) based on the color.
まず、t1左画像(或いはt2左画像)と、t1右画像(或いはt2右画像)とがRGB表色系の元で減色処理及び平滑化処理される。当該減色処理及び平滑化処理により、色に基づいてラベリングされる領域の数が制限され、不必要なラベリングが回避可能となる。 First, the t1 left image (or t2 left image) and the t1 right image (or t2 right image) are subjected to color reduction processing and smoothing processing under the RGB color system. By the color reduction process and the smoothing process, the number of regions labeled based on the color is limited, and unnecessary labeling can be avoided.
上記減色処理及び平滑化処理後のt1左画像(或いはt2左画像)及びt1右画像(或いはt2右画像)と、ステップS14で特定された各移動体領域とに基づき、当該各移動体領域に色が割り付けられてラベリングされる(ステップS30)。 Based on the t1 left image (or t2 left image) and t1 right image (or t2 right image) after the color reduction processing and the smoothing processing, and each moving body region specified in step S14, Colors are assigned and labeled (step S30).
その後、ステップS30でラベリングされた各移動体領域に対しステップS23で特定された3次元座標が割り付けられ、当該3次元座標に基づき、クラスター分析(ウォード法)によって各移動体が分離される(ステップS32)。この際、ラベル間の距離が所定の閾値(移動体分離係数)以下の場合には、当該ラベルがグループ化され、単一のラベルに改めて割り付けされる。ここで、上記移動体分離係数は、予め設定されている、或いは、操作者によりその都度設定されるものとする(ステップS31)。 Thereafter, the three-dimensional coordinates specified in step S23 are assigned to each moving object region labeled in step S30, and each moving object is separated by cluster analysis (ward method) based on the three-dimensional coordinates (steps). S32). At this time, if the distance between the labels is equal to or less than a predetermined threshold (moving body separation coefficient), the labels are grouped and assigned again to a single label. Here, the moving body separation coefficient is set in advance or is set each time by the operator (step S31).
次に、移動体追跡処理D4(ステップS40)について説明する。移動体追跡処理D4は移動体追跡手段44によって実行される。 Next, the moving body tracking process D4 (step S40) will be described. The moving body tracking process D4 is executed by the moving body tracking means 44.
ここでは、ステップS32で取得された各移動体が、ラップ率(以下で説明する。)を用いて時間毎に追跡される。以下、図11を参照して、当該ラップ率を用いた追跡法について説明する。 Here, each moving body acquired in step S32 is tracked every time using a lap rate (described below). Hereinafter, the tracking method using the wrap rate will be described with reference to FIG.
図11に示すように、時刻tでは、3つの移動体(それぞれ、L11、L12、L13にラベリングされている。)が上記方法(すなわち、クラスター分析。)により分離・特定され、時刻t+Δtでは、5つの移動体(それぞれ、L21、L22、L23、L24、L25にラベリングされている。)がこの方法により分離・特定されているものとする。 As shown in FIG. 11, at time t, three mobile bodies (labeled L11, L12, and L13, respectively) are separated and identified by the above method (ie, cluster analysis), and at time t + Δt, It is assumed that five moving bodies (labeled L21, L22, L23, L24, and L25, respectively) are separated and specified by this method.
ここで、時刻tにおける各移動体の移動体領域と、時刻t+Δtにおける各移動体の移動体領域とが重ね合わされる。そして、当該重ね合わせの結果、重なり合っている面積の割合(ラップ率)が50%以上の場合には、当該時刻tと時刻t+Δtの各移動体は、同一であると判定され、時刻t+Δtにおける移動体として、改めてラベル付けされる。 Here, the moving body region of each moving body at time t overlaps the moving body region of each moving body at time t + Δt. As a result of the superposition, when the ratio of overlapping areas (lap ratio) is 50% or more, it is determined that the moving bodies at the time t and the time t + Δt are the same, and the movement at the time t + Δt. Relabeled as a body.
例えば、時刻tにおける移動体L11が、時刻t+Δtにおける移動体L21、L22と重なり合っているが、何れもラップ率が50%以上であるため、移動体L11と移動体L21及びL22とは同一移動体であると判定される。 For example, the moving body L11 at time t overlaps with the moving bodies L21 and L22 at time t + Δt, but since both have a lap ratio of 50% or more, the moving body L11 and the moving bodies L21 and L22 are the same moving body. It is determined that
また、時刻tにおける移動体L12が、時刻t+Δtにおける移動体L23と重なり合っているが、ラップ率が50%以上であるため、移動体L23と移動体L12とは同一移動体であると判定される。 Further, although the moving body L12 at time t overlaps with the moving body L23 at time t + Δt, since the lap rate is 50% or more, it is determined that the moving body L23 and the moving body L12 are the same moving body. .
また、時刻tにおける移動体L13は、時刻t+Δtにおける移動体L24、L25と重なり合うが、移動体L25についてはラップ率が50%に満たないため、移動体L13と移動体L25とは同一ではないと判定され、移動体L24についてはラップ率が50%以上であるため、移動体L13と移動体L24とは同一であると判定される。 Further, the moving body L13 at time t overlaps with the moving bodies L24 and L25 at time t + Δt, but the moving body L13 and the moving body L25 are not the same because the wrap rate of the moving body L25 is less than 50%. Since the lap rate is 50% or more for the moving body L24, it is determined that the moving body L13 and the moving body L24 are the same.
更に、上記移動体の追跡処理が比較的長時間にわたって順次行われることにより、移動体の正確な計測が可能となる。以下、図12を参照して、この移動体計測法について説明する。 Furthermore, since the tracking process of the mobile body is sequentially performed over a relatively long time, the mobile body can be accurately measured. Hereinafter, this moving body measuring method will be described with reference to FIG.
図12には、時刻t10では、3つの移動体(それぞれ、L101、L102、L103にラべリングされている。)が特定され、時刻t11では、3つの移動体(それぞれ、L111、L112、L113にラベリングされている。)が特定され、時刻t12では、3つの移動体(それぞれ、L121、L122、L123にラベリングされている。)が特定され、時刻t13では、4つの移動体(それぞれ、L131、L132、L133、L134にラベリングされている。)が特定され、時刻t14では、4つの移動体(それぞれ、L141、L142、L143、L144にラベリングされている。)が特定されている。 In FIG. 12, three mobile bodies (labeled L101, L102, and L103, respectively) are identified at time t10, and three mobile bodies (L111, L112, and L113, respectively) are identified at time t11. At time t12, three mobile bodies (labeled at L121, L122, and L123, respectively) are specified, and at time t13, four mobile bodies (each at L131) are specified. , L132, L133, and L134) are identified, and at time t14, four mobile bodies (labeled L141, L142, L143, and L144, respectively) are identified.
時刻t10では、2つの移動体L101、L102が異なる移動体であると判定されたが、上記ラップ率による移動体追跡処理により、時刻t11では、上記移動体L101、L102は、共に単一の移動体L111の一部であると判定される。以降、時刻t12、t13、t14では、当該移動体は、L121、L131、L141として順次ラベルリングされている。 At time t10, the two mobile bodies L101 and L102 are determined to be different mobile bodies. However, at time t11, the mobile bodies L101 and L102 are both moved in a single movement by the mobile body tracking process based on the lap rate. It is determined that it is a part of the body L111. Thereafter, at times t12, t13, and t14, the mobile body is sequentially labeled as L121, L131, and L141.
また、時刻t11までの間に同一動体であると判定された移動体L103、L112は、時刻t12以降には消滅しているため、移動体数の計測には加えられない。 In addition, since the moving bodies L103 and L112 determined to be the same moving body before time t11 have disappeared after time t12, they are not added to the measurement of the number of moving bodies.
また、時刻t12では、単一の移動体であると判定された移動体L122は、時刻t13以降では、二つの移動体であると判定される。一つは、L132、L142にラベリングされた移動体であり、他の一つは、L133、L143にラベリングされた移動体である。 In addition, at time t12, the mobile body L122 determined to be a single mobile body is determined to be two mobile bodies after time t13. One is a moving body labeled L132 and L142, and the other is a moving body labeled L133 and L143.
また、時刻t11では、単一の移動体であると判定された移動体L113は、時刻t12以降も単一の移動体(L123、L134、L144にラベリングされた移動体。)であると判定される。 In addition, at time t11, the moving body L113 determined to be a single moving body is determined to be a single moving body (moving bodies labeled at L123, L134, and L144) after time t12. The
次に、移動体計測処理D5(ステップS50)について説明する。移動体計測処理D5は、移動体計測手段45によって実行される。 Next, the moving body measurement process D5 (step S50) will be described. The moving body measuring process D5 is executed by the moving body measuring means 45.
ここでは、ステップS40において時間毎に追跡された各移動体がどの方向に移動しているのかが判定されると共に、上り/下り等の移動方向毎の移動体数が計測される。 Here, in step S40, it is determined in which direction each moving body tracked for each time is moving, and the number of moving bodies in each moving direction such as up / down is measured.
すなわち、図13(a)に示すように、背景画像(すなわち、駅階段1を表す画像。)が3つの計測エリアM1〜M3に分割され、各移動体の移動体領域の各計測エリアM1〜M3に占める割合が時間毎(t1〜t10)に算出される。当該算出結果の一例を、図13(b)、図13(c)に示す。 That is, as shown to Fig.13 (a), a background image (namely, image showing the station staircase 1) is divided | segmented into three measurement areas M1-M3, and each measurement area M1- of the mobile body area | region of each mobile body. The proportion of M3 is calculated every hour (t1 to t10). An example of the calculation result is shown in FIGS. 13 (b) and 13 (c).
図13(b)には、移動体が計測エリアM1から計測エリアM3に向かう(下り方向)際に当該移動体が各計測エリアM1〜M3に占める割合が表示され、図13(c)には、移動体が計測エリアM3から計測エリアM1に向かう(上り方向)際に当該移動体が各計測エリアM1〜M3に占める割合が表示されている。 In FIG. 13B, when the moving body moves from the measurement area M1 to the measurement area M3 (downward direction), the ratio of the moving body to each of the measurement areas M1 to M3 is displayed, and FIG. When the mobile body moves from the measurement area M3 to the measurement area M1 (upward direction), the ratio of the mobile body to the measurement areas M1 to M3 is displayed.
また、移動体数は、ある程度時間をかけて追跡する必要があるため、駅階段1を表す画像の略中央に位置する計測エリアM2内において、上り/下り等の移動方向毎に計測される。
Further, since it is necessary to track the number of moving bodies over a certain amount of time, the number of moving bodies is measured for each moving direction such as up / down in the measurement area M2 located in the approximate center of the image representing the
以上説明したように、移動体検出システム100aは、左右それぞれ2フレーム分の画像に基づいて、フレーム間差分画像、背景差分画像を作成し、当該両差分画像から移動体領域を特定し(移動体領域特定処理D1)、更に、当該フレーム間差分画像に対して3次元座標の割り付けを行い(3次元計測処理D2)、更に、移動体領域を色毎にラベリングし、当該ラベリングした各移動体領域に3次元座標を割り付け、当該3次元座標に基づき、クラスター解析により各移動体を分離・特定し(移動体分離処理D3)、更に、ラップ率を用いて移動体を時間毎に追跡し(移動体追跡処理D4)、更に、当該追跡結果に基づいて、移動方向や移動体数の計測を行う(移動体計測処理D5)。
As described above, the moving
従って、3次元空間内において移動体等の移動体位置(移動体が占める空間領域)が正確に特定できるだけでなく、当該特定した移動体に係る時間経過に伴う移動情報も正確に取得できるので、高度な移動体検出が実現できる。 Therefore, not only can the mobile object position (the space area occupied by the mobile object) such as the mobile object be accurately identified in the three-dimensional space, but also the movement information associated with the passage of time related to the identified mobile object can be accurately acquired. Advanced mobile object detection can be realized.
なお、本第2の実施の形態における記述は、本発明に係る移動体検出システム及び移動体検出装置の一例を示すものであり、これに限定されるものではない。本第2の実施の形態における移動体検出システム100a、移動体検出装置40の細部構成および詳細動作に関しては、本発明の趣旨を逸脱しない範囲で適宜変更可能である。
The description in the second embodiment shows an example of the moving object detection system and the moving object detection device according to the present invention, and the present invention is not limited to this. The detailed configuration and detailed operation of the moving
例えば、撮影装置10a、10bにより撮影されるステレオ画像は、ビデオテープ、DVD(Digital Versatile Disk)等の記録媒体を介して移動体検出装置40に入力されるようにしてもよいし、ステレオ基線装置10と移動体検出装置40との間にデータ回線を予め設け、当該データ回線を介してステレオ基線装置10から移動体検出装置40に入力されるようにしてもよい。
For example, stereo images captured by the
1 駅階段
10 ステレオ基線装置
10a 撮影装置
10b 撮影装置
20 移動体検出装置
21 移動体領域特定手段
22 混雑レベル特定手段
23 移動体特定手段
24 移動情報取得手段
30 データベース
40 移動体検出装置
41 移動体領域特定手段
42 3次元計測手段
43 移動体分離手段
44 移動体追跡手段
45 移動体計測手段
100、100a 移動体検出システム
DESCRIPTION OF
Claims (4)
前記移動体検出装置は、
前記複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する移動体領域特定手段と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする移動体検出システム。 Based on the left and right imaging devices arranged on the stereo baseline and the time-sequential multiple frames of the stereo still images taken by the two imaging devices in time synchronization, the images are copied to the stereo still images. In a mobile body detection system comprising a mobile body detection device for detecting a mobile body
The mobile object detection device is:
Among the plurality of frames of stereo still images, for each of the left and right still images, an inter-frame difference image representing a difference between two frames of still images and one of the two frames of still images and the background Creating a background difference image representing a difference between the images, and then combining the inter-frame difference image and the background difference image to identify a moving body region in the composite image;
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
A moving body detection system comprising:
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける3次元計測手段と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する移動体分離手段と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する移動体追跡手段と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する移動体計測手段と、
を備えたことを特徴とする移動体検出装置。 Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Moving body region specifying means for specifying the moving body region in the composite image by combining
Three-dimensional measuring means for assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A different label for each color is assigned to the body region, the three-dimensional coordinates are assigned to the labeled mobile body regions, and the labeled mobile body regions are separated based on the three-dimensional coordinates. Body separation means;
Mobile object tracking that determines whether or not the mobile objects corresponding to each time are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracks the mobile object based on the determination result Means,
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Moving body measuring means for measuring the direction,
A moving body detection apparatus comprising:
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付けるステップと、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離するステップと、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡するステップと、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測するステップと、
を含むことを特徴とする移動体検出方法。 Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image Identifying a moving body region in the composite image by combining
Assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference images;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. Assigning a different label for each color to the body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
Determining whether or not the mobile objects corresponding to the respective times are the same according to the degree of overlap of the mobile object regions corresponding to two different times, and tracking the mobile object based on the determination results;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects Measuring the direction, and
A moving body detection method comprising:
ステレオ基線に配置された左右2台の撮影装置により時刻同期をとって撮影される時系列的な複数フレームのステレオ静止画像のうち、左右の各静止画像に対し、2フレーム分の静止画像間の差分を表すフレーム間差分画像と、当該2フレーム分の静止画像のうちの何れか一と背景画像との差分を表す背景差分画像とを作成し、その後、当該フレーム間差分画像と背景差分画像とを合成して当該合成画像内の移動体領域を特定する機能と、
前記作成された左右のフレーム間差分画像内の各差分領域に対し、左右共通の3次元座標を割り付ける機能と、
左右の静止画像毎に、前記2フレーム分の静止画像のうちの何れか一を減色させ、当該減色後の静止画像と前記特定された移動体領域とを重ね合わせ、当該重ね合わせ後の各移動体領域に対し色毎に異なるラベルを割り付け、当該ラベル付けされた各移動体領域に対し前記3次元座標を割り付け、当該3次元座標に基づいて当該ラベル付けされた各移動体領域を分離する機能と、
二つの異なる時間に対応する前記移動体領域の重なり合いの度合いに応じて、当該各時間に対応する移動体が同一か否かを判定し、当該判定結果に基づいて移動体を追跡する機能と、
前記静止画像を予め複数の計測エリアに分割し、前記追跡中の移動体が、当該複数の計測エリアのうちのどの計測エリアをどの順序で通過したかを判別して、移動体の数と移動方向とを計測する機能と、
を実現させるための移動体検出プログラム。 In the computer that performs image analysis,
Among the time-sequential multiple frames of stereo still images that are captured in time synchronization by the left and right imaging devices arranged on the stereo baseline, for each left and right still image, between two frames of still images An inter-frame difference image representing a difference and a background difference image representing a difference between any one of the two frames of still images and the background image are created, and then the inter-frame difference image and the background difference image A function for identifying a moving body region in the composite image by combining
A function of assigning left and right common three-dimensional coordinates to each difference area in the created left and right inter-frame difference image;
For each of the left and right still images, the color of any one of the two frames of still images is reduced, the still image after the color reduction is overlapped with the specified moving body region, and each movement after the overlapping is performed. A function of assigning a different label for each color to a body region, assigning the three-dimensional coordinates to each labeled mobile body region, and separating each labeled mobile body region based on the three-dimensional coordinates When,
According to the degree of overlap of the moving body region corresponding to two different times, it is determined whether or not the moving body corresponding to each time is the same, and the function of tracking the moving body based on the determination result;
Dividing the still image into a plurality of measurement areas in advance, determining which measurement area of the plurality of measurement areas the measurement object has passed in which order, and the number and movement of the movement objects A function to measure the direction,
A moving body detection program for realizing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007011237A JP4268644B2 (en) | 2007-01-22 | 2007-01-22 | Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007011237A JP4268644B2 (en) | 2007-01-22 | 2007-01-22 | Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004046642A Division JP3934113B2 (en) | 2004-02-23 | 2004-02-23 | Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007164804A JP2007164804A (en) | 2007-06-28 |
JP4268644B2 true JP4268644B2 (en) | 2009-05-27 |
Family
ID=38247564
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007011237A Expired - Fee Related JP4268644B2 (en) | 2007-01-22 | 2007-01-22 | Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4268644B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107741217A (en) * | 2017-09-30 | 2018-02-27 | 福建农林大学 | Straight circle/point of tangent the recognition positioning method of horizontal curve in road linearity information |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008571A (en) * | 2009-06-26 | 2011-01-13 | Shunkosha:Kk | Passer-by fluidity data generating device, content distribution controlling device, passer-by fluidity data generating method, and content distribution controlling method |
KR20160058607A (en) | 2014-11-17 | 2016-05-25 | 현대자동차주식회사 | Apparatus and method for processing image |
CN104484997B (en) * | 2014-12-24 | 2016-09-07 | 福州大学 | A kind of regional movement traffic flow detecting method based on video image technology |
CN106408577B (en) * | 2016-09-21 | 2019-12-31 | 安徽慧视金瞳科技有限公司 | Continuous frame connected domain parallel marking method for projection interactive system |
GB2573703B (en) * | 2017-03-06 | 2020-09-09 | Mitsubishi Electric Corp | Object tracking device and object tracking method |
JP7012457B2 (en) * | 2017-05-19 | 2022-01-28 | キヤノン株式会社 | Image processing device, image processing method |
JP6922951B2 (en) * | 2019-08-09 | 2021-08-18 | フジテック株式会社 | Image processing device and image processing method |
CN113781665B (en) * | 2020-07-28 | 2024-09-20 | 北京沃东天骏信息技术有限公司 | Method and device for auditing annotation information |
JP2023005584A (en) * | 2021-06-29 | 2023-01-18 | パナソニックIpマネジメント株式会社 | Information processing device, information processing method, and program |
CN113554008B (en) * | 2021-09-18 | 2021-12-31 | 深圳市安软慧视科技有限公司 | Method and device for detecting static object in area, electronic equipment and storage medium |
-
2007
- 2007-01-22 JP JP2007011237A patent/JP4268644B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107741217A (en) * | 2017-09-30 | 2018-02-27 | 福建农林大学 | Straight circle/point of tangent the recognition positioning method of horizontal curve in road linearity information |
Also Published As
Publication number | Publication date |
---|---|
JP2007164804A (en) | 2007-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4268644B2 (en) | Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program | |
US8913791B2 (en) | Automatically determining field of view overlap among multiple cameras | |
CN108648194B (en) | Three-dimensional target identification segmentation and pose measurement method and device based on CAD model | |
US20200145590A1 (en) | Computer-implemented method for generating an output video from multiple video sources | |
JP3934113B2 (en) | Mobile object detection system, mobile object detection apparatus, mobile object detection method, and mobile object detection program | |
WO2010113239A1 (en) | Image integration unit and image integration method | |
US8098897B2 (en) | Multi dimensional imaging system | |
JP5371040B2 (en) | Moving object tracking device, moving object tracking method, and moving object tracking program | |
CN111523385B (en) | Stationary vehicle detection method and system based on frame difference method | |
Haberdar et al. | Disparity map refinement for video based scene change detection using a mobile stereo camera platform | |
TWI682361B (en) | Method and system for road image reconstruction and vehicle positioning | |
Gloudemans et al. | So you think you can track? | |
JP7360303B2 (en) | Image processing device and image processing method | |
JP4447309B2 (en) | Intersection traffic measuring device and intersection traffic measuring method | |
Nielsen et al. | Taking the temperature of pedestrian movement in public spaces | |
Lenac et al. | Moving objects detection using a thermal Camera and IMU on a vehicle | |
JP2018133042A (en) | Left object detector | |
Sincan et al. | Moving object detection by a mounted moving camera | |
Lee et al. | Vehicle counting based on a stereo vision depth maps for parking management | |
JP2011090708A (en) | Apparatus and method for detecting the number of objects | |
KR101827114B1 (en) | Apparatus and method for detecting proximal entity in pen | |
JPH0991439A (en) | Object monitor | |
JP6348020B2 (en) | Image processing apparatus, image processing method, and inspection method using the same | |
JP4744789B2 (en) | Object identification method and object identification apparatus | |
JP2011043863A (en) | Apparatus, method, program for determining/tracking object region, and apparatus for determining object region |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090217 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090220 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4268644 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |