JP2006209334A - Position detection apparatus, method and program - Google Patents
Position detection apparatus, method and program Download PDFInfo
- Publication number
- JP2006209334A JP2006209334A JP2005018438A JP2005018438A JP2006209334A JP 2006209334 A JP2006209334 A JP 2006209334A JP 2005018438 A JP2005018438 A JP 2005018438A JP 2005018438 A JP2005018438 A JP 2005018438A JP 2006209334 A JP2006209334 A JP 2006209334A
- Authority
- JP
- Japan
- Prior art keywords
- height
- dimensional
- peak
- dimensional space
- horizontal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、一の撮影手段を用いて、対象物、例えば、人間の3次元位置を検出する位置検出装置及び位置検出方法に関するものである。 The present invention relates to a position detection apparatus and a position detection method for detecting a three-dimensional position of an object, for example, a human, using a single photographing unit.
近年、画像取得技術の進歩及びネットワーク化により、画像監視システムが市中に設置されるようになっている。このような画像監視システムが、近い将来、安全面に問題のある人を監視したり、歩行者、特に老人及び子供に有益な情報を提供したり、種々の重要な目的のために使用されることが予想され、これらのサービスから提供されるデータを分析することにより生活の質を向上させることができる。 In recent years, image monitoring systems have been installed in the city due to advances in image acquisition technology and networking. Such image surveillance systems will be used for various important purposes in the near future, monitoring people with safety problems, providing useful information to pedestrians, especially the elderly and children, etc. The quality of life can be improved by analyzing the data provided by these services.
上記のような画像監視システムには、人間の位置を検出して追跡することが必要となり、例えば、複数のカメラを使用したステレオ技術を用いて人間の3次元位置を追跡することが報告されている(非特許文献1参照)。このステレオ技術を用いて人間を追跡する場合、人間が重なり合った状態でも、正確に各人間の3次元位置を検出することができる。
しかしながら、上記のように複数のカメラを用いた場合、多数の画像データを処理する必要があり、計算コストが増加する。また、一つの撮影範囲に対して複数台のカメラが必要となり、広い範囲を撮影する場合、多数のカメラが必要となり、装置のコストが増大する。このため、1台のカメラを用いて撮影した画像を3次元空間中の所定高さに配置された仮想平面に投影して人間の位置を検出することも考えられるが、この場合、水平面の高さが固定されるため、測定物体の高さと想定した平面の高さとが一致しない場合、正確な2次元位置を検出することは困難である。一方、本発明が測定対象としている人間の身長は、個人ごとに異なるのが一般的であるため、測定可能な高さが固定される問題の影響は深刻である。 However, when a plurality of cameras are used as described above, it is necessary to process a large number of image data, which increases the calculation cost. In addition, a plurality of cameras are required for one shooting range. When shooting a wide range, a large number of cameras are required, which increases the cost of the apparatus. For this reason, it is conceivable to detect the position of a human by projecting an image photographed by one camera onto a virtual plane arranged at a predetermined height in the three-dimensional space. Therefore, it is difficult to detect an accurate two-dimensional position when the height of the measurement object does not match the assumed height of the plane. On the other hand, since the height of the human subject to be measured by the present invention is generally different for each individual, the influence of the problem that the measurable height is fixed is serious.
本発明の目的は、一の撮影手段を用いて簡略な検出処理により、人間のように様々な高さを有する物体の2次元位置を検出することができる位置検出装置、位置検出方法及び位置検出プログラムを提供することである。 An object of the present invention is to provide a position detection apparatus, a position detection method, and position detection that can detect two-dimensional positions of objects having various heights such as human beings by a simple detection process using a single photographing means. Is to provide a program.
本発明に係る位置検出装置は、対象物を撮影して当該対象物を含む2次元画像を取得する一の撮影手段と、撮影手段により取得された2次元画像から対象物領域を抽出して当該対象物領域を3次元空間中に所定間隔で予め設定された複数の水平面上に投影する投影手段と、投影手段により各水平面上に投影された対象物の写像を積分して写像の積分値を算出する積分手段と、積分手段により算出された積分値のピークが位置する3次元空間中の水平位置を対象物の位置として検出する検出手段とを備えるものである。 The position detection device according to the present invention includes a photographing unit that captures a target and acquires a two-dimensional image including the target, and extracts a target region from the two-dimensional image acquired by the photographing unit. Projecting means for projecting the object region onto a plurality of horizontal planes set in advance in the three-dimensional space at predetermined intervals, and integrating the mapping of the target object projected onto each horizontal plane by the projecting means, the integral value of the mapping is obtained. An integrating means for calculating, and a detecting means for detecting the horizontal position in the three-dimensional space where the peak of the integrated value calculated by the integrating means is located as the position of the object.
本発明に係る位置検出装置においては、一の撮影手段により対象物を撮影して当該対象物を含む2次元画像が取得され、取得された2次元画像から抽出された対象物領域が3次元空間中に所定間隔で予め設定された複数の水平面上に投影され、各水平面上に投影された対象物の写像を積分して写像の積分値が算出され、算出された積分値のピークが位置する3次元空間中の水平位置が対象物の位置として検出される。 In the position detection apparatus according to the present invention, a two-dimensional image including the target object is acquired by shooting the target object with one imaging unit, and the target object region extracted from the acquired two-dimensional image is a three-dimensional space. Are projected onto a plurality of preset horizontal planes at predetermined intervals, and the integral of the projection is calculated by integrating the projection of the object projected onto each horizontal plane, and the peak of the calculated integral value is located A horizontal position in the three-dimensional space is detected as the position of the object.
このように、対象物が直立していると仮定して、積分値のピークの位置を対象物の水平位置として検出するとともに、このピークの位置に対象物の写像が存在する最も高い水平面の高さを対象物の高さとして検出しているので、一の撮影手段により撮影された画像のみを用いて、人間のように様々な高さを有する物体の2次元位置を検出することができる。また、一の撮影手段により撮影された画像のみを用いているので、検出処理を簡略化することができる。 In this way, assuming that the object is upright, the position of the peak of the integrated value is detected as the horizontal position of the object, and the height of the highest horizontal plane where the mapping of the object exists at this peak position is detected. Since the height is detected as the height of the object, it is possible to detect the two-dimensional position of an object having various heights such as a human by using only an image photographed by one photographing means. Moreover, since only the image photographed by one photographing means is used, the detection process can be simplified.
検出手段は、対象物の3次元形状を近似した近似フィルタと積分値との畳み込み値が最大となる3次元空間中の水平位置を対象物の位置として検出することが好ましい。 Preferably, the detecting means detects a horizontal position in the three-dimensional space where the convolution value of the approximate filter approximating the three-dimensional shape of the object and the integral value is the maximum as the position of the object.
この場合、近似フィルタにより対象物のみを抽出することができ、他の物体等による外乱に対してロバストな検出を行うことができる。 In this case, only the target object can be extracted by the approximate filter, and robust detection can be performed against disturbance caused by other objects.
検出手段は、ピークが位置する3次元空間中の水平位置に対象物の写像が存在する最も高い水平面の高さを対象物の高さとして検出することが好ましい。 Preferably, the detection means detects the height of the highest horizontal plane where the mapping of the object exists at a horizontal position in the three-dimensional space where the peak is located as the height of the object.
この場合、ピークが位置する3次元空間中の水平位置に対象物の写像が存在する最も高い水平面の高さを対象物の高さとして検出することができるので、3次元物体の登頂部の位置(3次元物体が地図上で存在する2次元座標及びその高さ)を物体の3次元位置として検出することができる。 In this case, since the height of the highest horizontal plane where the mapping of the object exists at the horizontal position in the three-dimensional space where the peak is located can be detected as the height of the object, the position of the top of the three-dimensional object It is possible to detect (a two-dimensional coordinate where the three-dimensional object exists on the map and its height) as the three-dimensional position of the object.
検出手段は、積分手段により算出された積分値に複数のピークが存在する場合、隣接するピーク間の谷の高さとピークの高さとの間隔が所定間隔以上のピーク毎に、当該ピークが位置する3次元空間中の水平位置を対象物の位置として検出するとともに、当該ピークが位置する3次元空間中の水平位置に対象物の写像が存在する最も高い水平面の高さを対象物の高さとして検出することが好ましい。 When a plurality of peaks are present in the integration value calculated by the integration unit, the detection unit is positioned for each peak in which the interval between the height of the valley between adjacent peaks and the peak height is equal to or greater than a predetermined interval. The horizontal position in the three-dimensional space is detected as the position of the object, and the height of the highest horizontal plane where the mapping of the object exists at the horizontal position in the three-dimensional space where the peak is located is defined as the height of the object. It is preferable to detect.
この場合、隣接するピーク間の谷の高さとピークの高さとの間隔が所定間隔以上の各ピークが対象物によるものであると判断することができるので、複数の対象物が近接している状態でも、各対象物の3次元位置を高精度に検出することができる。 In this case, since it can be determined that each peak having an interval between the height of the valley between adjacent peaks and the height of the peak is a predetermined interval or more is due to the object, a plurality of objects are close to each other However, the three-dimensional position of each object can be detected with high accuracy.
検出手段は、隣接するピーク間の谷の高さとピークの高さとの間隔が所定間隔未満である場合、第1の対象物と、撮影手段から第1の対象物より離れている第2の対象物とが重なっていると判断し、基準高さ以上のピークが位置する3次元空間中の水平位置を第1の対象物の位置として検出するとともに、第1の対象物の高さとして所定時間前に検出された高さを用いることが好ましい。 When the interval between the height of the valley between the adjacent peaks and the peak height is less than the predetermined interval, the detection unit detects the first object and the second object that is separated from the first object from the imaging unit. It is determined that the object overlaps, and the horizontal position in the three-dimensional space where the peak equal to or higher than the reference height is detected as the position of the first object, and the height of the first object is determined for a predetermined time. It is preferred to use the previously detected height.
この場合、第1及び第2の対象物が非常に近接して撮影画像上で重なり合っていても、撮影手段側に位置する第1の対象物の3次元位置を高精度に検出することができる。 In this case, even if the first and second objects are very close to each other and overlap on the photographed image, the three-dimensional position of the first object located on the photographing means side can be detected with high accuracy. .
検出手段は、3次元空間における撮影手段の撮影中心位置と3次元空間における基準高さ以上のピークの3次元位置とを結ぶ直線と、第2の対象物の高さとして所定時間前に検出された高さに位置する水平面とが交わる点が位置する3次元空間中の水平位置を第2の対象物の位置として検出するとともに、第2の対象物の高さとして所定時間前に検出された高さを用いることが好ましい。 The detection means is detected a predetermined time ago as a straight line connecting the photographing center position of the photographing means in the three-dimensional space and the three-dimensional position of the peak higher than the reference height in the three-dimensional space, and the height of the second object. The horizontal position in the three-dimensional space where the point where the horizontal plane located at the height intersects is located is detected as the position of the second object, and the height of the second object is detected a predetermined time ago. It is preferable to use the height.
この場合、第1及び第2の対象物が非常に近接して撮影画像上で重なり合っていても、撮影手段から第1の対象物より離れている第2の対象物の3次元位置を高精度に検出することができる。 In this case, even if the first and second objects are very close to each other and overlap each other on the photographed image, the three-dimensional position of the second object that is farther from the first object from the photographing means is highly accurate. Can be detected.
本発明に係る位置検出方法は、一の撮影手段を用いて対象物を撮影して当該対象物を含む2次元画像を取得する第1のステップと、取得された2次元画像から対象物領域を抽出して当該対象物領域を3次元空間中に所定間隔で予め設定された複数の水平面上に投影する第2のステップと、各水平面上に投影された対象物の写像を積分して写像の積分値を算出する第3のステップと、算出された積分値のピークが位置する3次元空間中の水平位置を対象物の位置として検出するとともに、ピークが位置する3次元空間中の水平位置に対象物の写像が存在する最も高い水平面の高さを対象物の高さとして検出するステップとを含むものである。 The position detection method according to the present invention includes a first step of capturing an object using one image capturing unit to acquire a two-dimensional image including the object, and an object region from the acquired two-dimensional image. A second step of extracting and projecting the object region onto a plurality of preset horizontal planes at predetermined intervals in a three-dimensional space, and integrating the mapping of the target object projected onto each horizontal plane to A third step of calculating an integral value, and detecting a horizontal position in the three-dimensional space where the peak of the calculated integral value is located as the position of the object, and at the horizontal position in the three-dimensional space where the peak is located Detecting the height of the highest horizontal plane where the mapping of the object exists as the height of the object.
本発明に係る位置検出プログラムは、対象物を撮影して当該対象物を含む2次元画像を取得する一の撮影手段により取得された2次元画像から対象物領域を抽出して当該対象物領域を3次元空間中に所定間隔で予め設定された複数の水平面上に投影する投影手段と、投影手段により各水平面上に投影された対象物の写像を積分して写像の積分値を算出する積分手段と、積分手段により算出された積分値のピークが位置する3次元空間中の水平位置を対象物の位置として検出する検出手段としてコンピュータを機能させるものである。 The position detection program according to the present invention extracts a target area from a two-dimensional image acquired by one imaging unit that captures a target and acquires a two-dimensional image including the target. Projection means for projecting onto a plurality of horizontal planes set in advance in the three-dimensional space at predetermined intervals, and integration means for calculating the integral value of the map by integrating the mapping of the object projected onto each horizontal plane by the projection means The computer is caused to function as detection means for detecting the horizontal position in the three-dimensional space where the peak of the integration value calculated by the integration means is located as the position of the object.
本発明によれば、対象物が直立していると仮定して、積分値のピークの位置を対象物の水平位置として検出しているので、一の撮影手段により撮影された画像のみを用いて、人間のように様々な高さを有する物体の2次元位置を検出することができるとともに、検出処理を簡略化することができる。 According to the present invention, since the position of the peak of the integrated value is detected as the horizontal position of the object on the assumption that the object is upright, only the image photographed by one photographing means is used. It is possible to detect a two-dimensional position of an object having various heights, such as a human being, and to simplify the detection process.
以下、本発明の一実施の形態による位置検出装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による位置検出装置の構成を示すブロック図である。 Hereinafter, a position detection device according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing a configuration of a position detection apparatus according to an embodiment of the present invention.
図1に示す位置検出装置は、1台のビデオカメラ11、投影部12、積分部13、検出部14及び追跡部15を備える。投影部12、積分部13、検出部14及び追跡部15は、入力装置、ROM(リードオンリメモリ)、CPU(中央演算処理装置)、RAM(ランダムアクセスメモリ)、画像I/F(インターフェース)部及び外部記憶装置等を備えるコンピュータを用いて後述する各処理を行うための位置検出プログラムをCPU等で実行することにより実現される。なお、投影部12、積分部13、検出部14及び追跡部15の構成例は、本例に特に限定されず、各ブロックを専用のハードウエアから構成したり、一部のブロック又はブロック内の一部の処理のみを専用のハードウエアで構成したりする等の種々の変更が可能である。
The position detection apparatus shown in FIG. 1 includes a
ビデオカメラ11は、通常の監視カメラ等から構成され、撮影空間の所定位置、例えば、天井の隅に取り付けられる。ビデオカメラ11は、後述する校正方法により校正されており、対象物である人間を撮影して人間を含む2次元画像を取得して投影部12へ出力する。なお、ビデオカメラ11としては、既設の監視カメラを用いてもよい。
The
投影部12は、取得された2次元画像から対象物領域となる人物領域を抽出し、抽出した人物領域を3次元空間中に所定間隔で予め設定された複数の水平面(各水平面の高さは既知)上に投影する。なお、2次元画像における背景領域(人間以外の領域)と人物領域(人間のシルエット)との分離には、背景差分等の公知の画像処理手法を用いることができる。
The projecting
ここで、ビデオカメラ11の校正方法について説明する。3次元空間中に設定された複数の水平面上に人物領域画像を投影するためには、ビデオカメラ11の撮影画像と3次元空間中に設定された二つの基準面(水平面)との間の2次元射影変換行列が必要となる。まず、二つの基準面のうち一方の面が地面の高さ(高さ0)に位置し、他方の面は高さYhに位置するものとし、撮影空間となる3次元空間に普通の人間の身長より高い4本の校正用バーを地面に対して垂直に所定間隔に(4本の校正用バーが立方体をなすように)設置する。各校正用バーの頭部及び底部には色付けされたマーカーが設けられ、各基準面に対して4個のマーカーを観測することにより、2次元射影変換行列H0、H1を計算する。ここで、二つの基準面の間に位置する中間の高さの水平面の高さをYnとすると、この水平面の2次元射影変換行列Hnは、下記の式(1)に示すように、2次元射影変換行列H0、H1を用いた補間により推定することができる。
Here, a calibration method of the
Hn=((Yh−Yn)H0+(Yn)H1)/Yh (1)
上記のようにして、各設置位置で校正用バーの3次元位置を正確に測定することにより、複数の水平面と3次元世界座標系との間の変換を容易に行うことができ、ビデオカメラ11の校正を簡略に行うことができる。
Hn = ((Yh−Yn) H0 + (Yn) H1) / Yh (1)
As described above, by accurately measuring the three-dimensional position of the calibration bar at each installation position, conversion between a plurality of horizontal planes and the three-dimensional world coordinate system can be easily performed. Can be simplified.
積分部13は、各水平面上に投影された人間の写像を積分して写像の積分値を算出して検出部14へ出力する。検出部14は、算出された積分値のピークが位置する3次元空間中の水平位置を人間の位置として検出するとともに、このピークが位置する3次元空間中の水平位置に人物領域の写像が存在する最も高い水平面の高さを人物の高さとして検出する。追跡部15は、検出された3次元位置を用いて人間を追跡し、各観測時刻における人間の3次元位置(水平位置及び高さ)を記憶している。
The
なお、ビデオカメラ11がパン方向及びチルト方向に移動可能な可動カメラから構成される場合、追跡部15は、追跡結果に応じてビデオカメラ11の撮影位置を制御するようにしてもよい。この場合、その撮影位置でカメラ校正を行うことにより、常に最適な観測位置で対象物を撮影することができ、3次元位置を高精度に検出することができる。
When the
具体的には、検出部14は、対象物の3次元形状を近似した近似フィルタと積分値との畳み込み値が最大となる3次元空間中の水平位置を対象物の位置として検出するとともに、この対象物の位置において人間の写像が存在する最も高い水平面の高さを人間の高さとして検出することにより、人間の3次元位置を検出する。
Specifically, the
また、検出部14は、近接する複数の人間が撮影され、積分値に複数のピークが存在する場合、隣接するピーク間の谷の高さとピークの高さとの間隔が所定間隔以上、例えば、1m以上あるピーク毎に、当該ピークが位置する3次元空間中の水平位置を人間の位置として検出するとともに、当該ピークが位置する3次元空間中の水平位置に人間の写像が存在する最も高い水平面の高さを対象物の高さとして検出する。
In addition, the
さらに、検出部14は、複数の人間が非常に近接して撮影画像上で重なり、隣接するピーク間の谷の高さとピークの高さとの間隔が所定間隔未満である場合、二人以上の人間が重なっていると判断し、基準高さ以上、例えば、2.5m以上のピークが位置する3次元空間中の水平位置をビデオカメラ11に近い方の人間の位置として検出するとともに、この人間の高さとして所定時間前、例えば、1又は数フレーム前に検出された高さを追跡部15から読み出し、読み出した高さを現在の高さとして用いる。
Further, the
このとき、検出部14は、ビデオカメラ11から遠い方の人間の高さとして所定時間前、例えば、1又は数フレーム前に検出された高さを追跡部15から読み出し、読み出した高さを現在の高さとして用いるとともに、3次元空間におけるビデオカメラ11のカメラ中心位置と3次元空間における基準高さ以上のピークの3次元位置とを結ぶ直線と、追跡部15から読み出した高さに位置する水平面との交点が位置する3次元空間中の水平位置をこの人間の位置として検出する。
At this time, the
上記のように、本実施の形態では、3次元空間中に一つの水平面ではなく、複数の水平面を設定し、校正されたビデオカメラ11により撮影された単眼画像だけを使用している。この単眼画像すなわち2次元情報のみを使用して3次元位置を推定する場合、次元数が1次元不足するが、これを補うために人間が垂直に立っていることを仮定し、複数の水平面上に人間のシルエットである人物領域を投影し、この投影領域を垂直軸に沿って積分した積分値のピークを用いて人間の3次元位置(水平位置及び高さ)を検出し、3次元空間において種々の高さの人間を追跡することができる。
As described above, in the present embodiment, not a single horizontal plane but a plurality of horizontal planes are set in the three-dimensional space, and only a monocular image photographed by the calibrated
なお、本実施の形態では、ビデオカメラ11が撮影手段の一例に相当し、投影部12が投影手段の一例に相当し、積分部13が積分手段の一例に相当し、検出部14が検出手段の一例に相当する。
In the present embodiment, the
次に、一人の人間を撮影した画像を用いて当該人間の3次元位置を検出する通常3次元位置検出処理について説明する。図2は、図1に示す位置検出装置による通常3次元位置検出処理を説明するための原理図である。 Next, normal three-dimensional position detection processing for detecting the three-dimensional position of a person using an image obtained by photographing one person will be described. FIG. 2 is a principle diagram for explaining normal three-dimensional position detection processing by the position detection apparatus shown in FIG.
図2に示すように、3次元空間中に複数の水平面HPが設定され、各水平面HPの2次元座標は、X軸及びY軸によって規定され、高さ方向がY軸であり、対象物である人間OBは、説明を容易にするため、図中にバー形状で示している。まず、投影部12は、高さYn(0≦Yn≦Yh)を変更することにより、ビデオカメラ11により撮影された2次元画像から分割された人物領域Sを水平面n(各水平面HP)に投影する。この投影結果P(Yn)は、高さYnを用いて下記式(2)により表すことができる。
As shown in FIG. 2, a plurality of horizontal planes HP are set in a three-dimensional space, and the two-dimensional coordinates of each horizontal plane HP are defined by the X axis and the Y axis, the height direction is the Y axis, A certain human OB is shown in a bar shape in the drawing for easy explanation. First, the
P(Yn)=HnS (2)
ここで、人間OBが直立していると仮定すると、投影された人物領域PR(図中の斜線部)は、常に、実際の人間が存在する水平面n上のある点(X,Z)を含み、全ての水平面nを統合(マージ)することにより人物の3次元位置を推定することができる。
P (Yn) = HnS (2)
Here, assuming that the human OB is standing upright, the projected human region PR (shaded portion in the figure) always includes a certain point (X, Z) on the horizontal plane n where the actual human exists. The three-dimensional position of the person can be estimated by integrating (merging) all the horizontal planes n.
積分部13は、下記式(3)を用いて、点(X,Z)で垂直軸Yに沿って対象物の写像である人物領域P(Y)の積分値Itg(X,Z)を算出する。
The
また、積分値のピークを検出するために、人間の形状を近似する近似フィルタである3次元凸フィルタが使用され、例えば、下記式(4)に表される円筒形状フィルタCvx(X,Z)を用いることができ、ここで、rは円筒の底部の半径である。なお、近似フィルタとしては、本例に特に限定されず、対象物の3次元形状等に応じて種々のものを用いることができる。また、積分値のピークを検出する方法も、以下の方法に特に限定されず、種々の方法を用いることができ、例えば、上記式(3)により表される積分値を微分してピークを検出する方法(微分フィルタを用いる方法)を用いてもよい。 Further, in order to detect the peak of the integral value, a three-dimensional convex filter that is an approximation filter that approximates a human shape is used. For example, a cylindrical filter Cvx (X, Z) represented by the following formula (4) Where r is the radius of the bottom of the cylinder. The approximate filter is not particularly limited to this example, and various filters can be used according to the three-dimensional shape of the object. Also, the method for detecting the peak of the integral value is not particularly limited to the following method, and various methods can be used. For example, the peak is detected by differentiating the integral value represented by the above formula (3). A method (a method using a differential filter) may be used.
検出部14は、上記の凸フィルタCvx(X,Z)と積分値Itg(X,Z)との畳み込み値を算出し、畳み込み値が最大となる座標値(Xm,Zm)を人間の水平位置として検出し、人間の水平位置(Xm,Zm)における人物領域の最大高さ(人間の写像が存在する最も高い水平面の高さ)を人間の高さYmとして検出する。図2に示す例では、畳み込み値CVが算出され、そのピークPIが位置する座標値(Xm,Zm)が人間の水平位置として検出され、そのピークPIが位置する座標値(Xm,Zm)における人物領域の最大高さが人間の高さYmとして検出される。
The
上記の積分処理の計算中に画像中の小さなホールやクラックなどの分割エラーがスムーズ化され、各領域を完全に分割する必要がなくなるとともに、凸フィルタCvx(X,Z)により人間のみを抽出することができ、他の物体等による外乱に対してロバストな検出を行うことができる。 During calculation of the above integration processing, division errors such as small holes and cracks in the image are smoothed, and it is not necessary to completely divide each region, and only the human is extracted by the convex filter Cvx (X, Z). It is possible to perform robust detection against disturbances caused by other objects.
次に、複数の人間が撮影された画像を用いて各人間の3次元位置を検出する複数3次元位置検出処理について説明する。まず、複数の人間が入力画像に撮影され、各人物領域を分割できる場合、第1の複数3次元位置検出処理として、投影部12は、2次元画像を一人の人物領域のみを含む分割領域に分割し、積分部13及び検出部14は、分割領域毎に一人に対して上記の通常3次元位置検出処理を繰り返すことにより、全ての人間の3次元位置を検出する。
Next, a plurality of three-dimensional position detection processing for detecting the three-dimensional position of each person using images obtained by photographing a plurality of persons will be described. First, when a plurality of persons are photographed in an input image and each person area can be divided, as a first plurality of three-dimensional position detection processing, the
しかしながら、例えば、撮影された複数の人間が手をつないでいる場合、二つの人物領域の一部が連結され、二つの人物領域が弱く連結されるため、上記のように領域を分割することができない。この場合、第2の複数3次元位置検出処理として、複数の人物領域の一部が連結された連結領域を一つの領域として上記の通常3次元位置検出処理が実行される。 However, for example, when a plurality of photographed people are holding hands, a part of the two person areas are connected and the two person areas are weakly connected, so the area can be divided as described above. Can not. In this case, as the second plurality of three-dimensional position detection processes, the above-described normal three-dimensional position detection process is executed with a connected region in which a part of a plurality of person regions is connected as one region.
すなわち、上記と同様に、投影部12は、複数の人物領域の一部が連結された連結領域を一つの領域として複数の水平面に投影し、積分部13は、投影領域の積分値Itg(Xn,Zn)を算出し、検出部14は、凸フィルタCvx(Xn,Zn)及び積分値Itg(Xn,Zn)の畳み込み値を算出する。
That is, similarly to the above, the projecting
次に、検出部14は、隣接する畳み込み値のピーク間に位置する谷の高さと畳み込み値のピークの高さとの間隔と、予め記憶している所定間隔とを比較して所定間隔以上のピークを検出する。次に、検出部14は、検出した畳み込み値のピークと、予め記憶している所定値、例えば、1.5mとを比較して所定値以上のピークを抽出する。次に、検出部14は、抽出したピーク毎に当該ピークが位置する座標点(Xn,Zn)を一人の人間の水平位置として検出するとともに、水平位置(Xn,Zn)における人物領域の最大高さを人間の高さYnとして検出する。上記の処理が3次元空間の全体に適用され、複数の人間の3次元位置が順次検出される。なお、上記のピークの高さ及び谷の高さは、人間の3次元位置の検出と同様に検出され、ピーク及び谷が位置する座標点をピーク及び谷の水平位置として検出し、検出された水平位置における人物領域の最大高さをピークの高さとして検出することができる。
Next, the
上記の処理により、隣接する畳み込み値のピーク間の谷の高さと畳み込み値のピークの高さとの間隔が所定間隔以上の各ピークが人間によるものであると判断することができるので、複数の人間が近接している状態でも、各人間の3次元位置を高精度に検出することができる。 With the above processing, it is possible to determine that each peak whose interval between the height of the valley between the peaks of adjacent convolution values and the peak height of the convolution values is equal to or greater than a predetermined interval is caused by humans. Even in the state of being close to each other, the three-dimensional position of each person can be detected with high accuracy.
次に、ビデオカメラ11のカメラ中心と人間とを結ぶ直線上に他の人間がいるとき、二人の人間の人物領域が大きく重なり合い、二つの人物領域が強く連結されるため、隣接する畳み込み値のピーク間に位置する谷の高さと畳み込み値のピークの高さとの間隔が所定間隔未満となり、上記のフィルタ処理では連結している領域を分割することが困難なため、上記の第2の複数3次元位置検出処理を適用することができない。この場合、数フレーム前に既に検出された各人間の位置を用いて重なり合った人間の位置を検出する第3の複数3次元位置検出処理が実行される。なお、同じ投影領域に二人以上の人間がいる場合は、下記の処理を人間の数だけ繰り返す。
Next, when there is another person on the straight line connecting the camera center of the
まず、上記と同様に、投影部12は、二人の人間を含む連結領域を複数の水平面に投影し、積分部13は、投影領域の積分値Itg(Xn,Zn)を算出する。検出部14は、凸フィルタCvx(Xn,Zn)及び積分値Itg(Xn,Zn)の畳み込み値を算出し、最大となる座標値(X0(t),Z0(t))における人物領域の最大高さY0(t)’を検出する(ここで、tは時間パラメータ)。
First, similarly to the above, the
次に、検出部14は、検出した高さY0(t)’と、予め記憶している基準値Yr(例えば、2.5m)とを比較して高さY0(t)’が基準値Yr以上の場合、ビデオカメラ11に近い方の人間が水平位置(X0(t),Z0(t))にいると判断し、前のフレームを用いて検出された同一人物(ビデオカメラ11に近い方の人間)の高さY0(t−1)を追跡部15から読み出し、読み出した高さY0(t−1)を現在の高さY0(t)として用いる。
Next, the
上記の処理により、検出部14は、ビデオカメラ11に近い方の人間の3次元位置として、水平位置(X0(t),Z0(t))及び高さY0(t−1)を取得することができるので、二人の人間が非常に近接して撮影画像上で重なり合っていても、ビデオカメラ11に近い方の人間の3次元位置を高精度に検出することができる。
Through the above processing, the
次に、検出部14は、ビデオカメラ11から遠い方の人間として前のフレームを用いて検出された同一人物の高さY1(t−1)を追跡部15から読み出し、読み出した高さY1(t−1)をビデオカメラ11から遠い方の人間の現在の高さY1(t)として用いるとともに、基準値Yr以上のピークとして検出された座標値(X0(t),Y0(t)’,Z0(t))とビデオカメラ11のカメラ中心(Xc,Yc,Zc)とを結ぶ直線を設定し、読み出した高さY1(t−1)に位置する水平面とこの直線との交点の座標値(X1(t),Z1(t))をビデオカメラ11から遠い方の人間の位置として検出する。
Next, the
上記の処理により、検出部14は、ビデオカメラ11から遠い方の人間の3次元位置として、水平位置(X1(t),Z1(t))及び高さY1(t−1)を取得することができるので、二人の人間が非常に近接して撮影画像上で重なり合っていても、ビデオカメラ11から遠い方の人間の3次元位置を高精度に検出することができる。
Through the above processing, the
なお、上記の同一人物予測処理としては、例えば、追跡部15において、各フレームで検出された人間の3次元位置を記憶しておき、各3次元位置を用いて人間の移動(例えば、等速度移動)に対する速度予測及び/又は加速度予測を行うことにより現在の3次元位置を予測し、予測した3次元位置と検出された現在の水平位置とが最も近い人間が、現在の水平位置にいる人間と同一人物であると判定することにより行うことができる。この場合、速度予測及び/又は加速度予測を用いた人間の3次元位置予測を3次元空間において直接行っているので、投影による幾何学的な非線形性の影響を受けず、高精度に速度予測及び/又は加速度予測を行うことができ、同一人物を高精度に判定することができる。
As the above same person prediction process, for example, the
次に、上記の位置検出装置を用いて実際に人間の3次元位置を検出した結果について説明する。図3は、撮影空間を説明するための模式図であり、図4は、図1に示す位置検出装置による検出結果の一例を示す図である。 Next, the result of actually detecting the three-dimensional position of a human using the above position detection device will be described. FIG. 3 is a schematic diagram for explaining an imaging space, and FIG. 4 is a diagram illustrating an example of a detection result by the position detection device illustrated in FIG.
図3に示すように、ビデオカメラ11をそのカメラ中心の高さが2.6mになる位置に取り付け、2.5×11mの撮影空間(廊下)に対して水平面において68度傾けるとともに撮影空間を見下ろすように配置し、撮影空間を移動する人間を撮影して320×240pixelの画像を1秒間隔で100枚取得した。撮影空間には、22個のランドマークを配置し、3次元レーザー測定装置を用いて全ての点の3次元位置を測定し、この3次元位置情報と撮影画像の2次元位置情報とを用いてビデオカメラ11を校正した。撮影画像の空間分解能は距離に依存し、廊下の端部に位置する対象物を撮影した場合の空間分解能は、約56mmであり、撮影された対象物がビデオカメラ11の正面に立っている場合の空間分解能は、約17mmであった。
As shown in FIG. 3, the
上記の測定条件の下、人間の3次元位置を検出した結果、図4に示す結果を得られた。まず、図4の(a)は一人の人間が歩いている場面、(b)は一人の人間が屈伸している場面、(c)は二人の人間がすれ違う場面(人物領域が弱く結合されている状態)、(d)は二人の人間が撮影画像中で重なり合った場面(人物領域が強く結合されている状態)をそれぞれ示している。また、図4の上段は撮影画像を示し、中段は撮影画像から抽出された人物領域を示し、下段は撮影空間の水平面への写像を積分した結果を示し、上段及び下段の四角及び丸は検出されたピークの位置すなわち人間の位置を示している。図4から、上記の4種類の場面において、一人又は二人の人間を正確に検出することができ、複数の人間が重なり合っても、正確に追跡することができることがわかった。 As a result of detecting the three-dimensional position of a human under the above measurement conditions, the result shown in FIG. 4 was obtained. First, (a) in FIG. 4 is a scene where one person is walking, (b) is a scene where one person is bending, and (c) is a scene where two persons pass each other (the person area is weakly combined). (D) and (d) respectively show a scene where two people overlap in a captured image (a state in which person areas are strongly coupled). 4 shows the photographed image, the middle part shows the person area extracted from the photographed image, the lower part shows the result of integrating the mapping onto the horizontal plane of the photographing space, and the upper and lower squares and circles are detected. The position of the recorded peak, that is, the position of a human being is shown. FIG. 4 shows that one or two people can be accurately detected in the above four types of scenes, and can be accurately tracked even if a plurality of people overlap.
上記のように、本発明では、入力センサとして1台のビデオカメラだけを必要とするので、既に広く設置されている監視カメラを用いて人間の3次元位置を容易に検出することができ、また、検出結果が3次元座標系で記述されているので、他のセンサ(例えば、GPS、RFID)と同じ内容を共有したり、ネットワークを介してロボットをナビゲートしたりする場合等に好適に用いることができる。 As described above, since the present invention requires only one video camera as an input sensor, it is possible to easily detect the three-dimensional position of a human using a surveillance camera that is already widely installed. Since the detection result is described in a three-dimensional coordinate system, it is suitably used when sharing the same contents as other sensors (for example, GPS, RFID) or navigating the robot via a network. be able to.
なお、上記の説明では、検出される対象物として、人間を例に説明したが、他の動物、他の移動体等にも同様に適用することができ、同様の効果を得ることができる。 In the above description, a human is described as an example of an object to be detected. However, the present invention can be similarly applied to other animals, other moving objects, and the like, and similar effects can be obtained.
11 ビデオカメラ
12 投影部
13 積分部
14 検出部
15 追跡部
DESCRIPTION OF
Claims (8)
前記撮影手段により取得された2次元画像から対象物領域を抽出して当該対象物領域を3次元空間中に所定間隔で予め設定された複数の水平面上に投影する投影手段と、
前記投影手段により各水平面上に投影された対象物の写像を積分して写像の積分値を算出する積分手段と、
前記積分手段により算出された積分値のピークが位置する前記3次元空間中の水平位置を対象物の位置として検出する検出手段とを備えることを特徴とする位置検出装置。 A photographing means for photographing the object and obtaining a two-dimensional image including the object;
Projection means for extracting an object region from the two-dimensional image acquired by the photographing means and projecting the object region onto a plurality of horizontal planes set in advance in the three-dimensional space at predetermined intervals;
Integrating means for integrating the mapping of the object projected on each horizontal plane by the projection means to calculate an integral value of the mapping;
A position detection apparatus comprising: a detection unit configured to detect a horizontal position in the three-dimensional space where the peak of the integration value calculated by the integration unit is located as a position of an object.
取得された2次元画像から対象物領域を抽出して当該対象物領域を3次元空間中に所定間隔で予め設定された複数の水平面上に投影する第2のステップと、
各水平面上に投影された対象物の写像を積分して写像の積分値を算出する第3のステップと、
算出された積分値のピークが位置する前記3次元空間中の水平位置を対象物の位置として検出するステップとを含むことを特徴とする位置検出方法。 A first step of capturing an object using one imaging means to obtain a two-dimensional image including the object;
A second step of extracting an object region from the acquired two-dimensional image and projecting the object region onto a plurality of predetermined horizontal planes at predetermined intervals in the three-dimensional space;
A third step of calculating an integral value of the mapping by integrating the mapping of the object projected on each horizontal plane;
And a step of detecting a horizontal position in the three-dimensional space where the peak of the calculated integral value is located as the position of the object.
前記投影手段により各水平面上に投影された対象物の写像を積分して写像の積分値を算出する積分手段と、
前記積分手段により算出された積分値のピークが位置する前記3次元空間中の水平位置を対象物の位置として検出する検出手段としてコンピュータを機能させることを特徴とする位置検出プログラム。 A target area is extracted from a two-dimensional image acquired by one imaging unit that captures a target and acquires a two-dimensional image including the target, and the target area is previously stored in a three-dimensional space at predetermined intervals. Projection means for projecting onto a plurality of set horizontal planes;
Integrating means for integrating the mapping of the object projected on each horizontal plane by the projection means to calculate an integral value of the mapping;
A position detection program for causing a computer to function as detection means for detecting a horizontal position in the three-dimensional space where the peak of the integration value calculated by the integration means is located as the position of an object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005018438A JP4674316B2 (en) | 2005-01-26 | 2005-01-26 | Position detection apparatus, position detection method, and position detection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005018438A JP4674316B2 (en) | 2005-01-26 | 2005-01-26 | Position detection apparatus, position detection method, and position detection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006209334A true JP2006209334A (en) | 2006-08-10 |
JP4674316B2 JP4674316B2 (en) | 2011-04-20 |
Family
ID=36966140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005018438A Expired - Fee Related JP4674316B2 (en) | 2005-01-26 | 2005-01-26 | Position detection apparatus, position detection method, and position detection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4674316B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011058910A1 (en) | 2009-11-16 | 2011-05-19 | ソニー株式会社 | Information processing device, information processing method, program, and information processing system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197463A (en) * | 2000-12-26 | 2002-07-12 | Matsushita Electric Ind Co Ltd | Device and system for detecting behavior |
-
2005
- 2005-01-26 JP JP2005018438A patent/JP4674316B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002197463A (en) * | 2000-12-26 | 2002-07-12 | Matsushita Electric Ind Co Ltd | Device and system for detecting behavior |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011058910A1 (en) | 2009-11-16 | 2011-05-19 | ソニー株式会社 | Information processing device, information processing method, program, and information processing system |
Also Published As
Publication number | Publication date |
---|---|
JP4674316B2 (en) | 2011-04-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9965870B2 (en) | Camera calibration method using a calibration target | |
KR101776622B1 (en) | Apparatus for recognizing location mobile robot using edge based refinement and method thereof | |
US10260862B2 (en) | Pose estimation using sensors | |
CN104902246B (en) | Video monitoring method and device | |
US7321386B2 (en) | Robust stereo-driven video-based surveillance | |
KR101776620B1 (en) | Apparatus for recognizing location mobile robot using search based correlative matching and method thereof | |
US20180075614A1 (en) | Method of Depth Estimation Using a Camera and Inertial Sensor | |
US20190244381A1 (en) | Displacement detecting apparatus and displacement detecting method | |
WO2018227576A1 (en) | Method and system for detecting ground shape, method for drone landing, and drone | |
JP6524529B2 (en) | Building limit judging device | |
JP2018180772A (en) | Object detection device | |
EP2476999B1 (en) | Method for measuring displacement, device for measuring displacement, and program for measuring displacement | |
KR20110084028A (en) | Apparatus and method for measuring distance using image data | |
KR101090082B1 (en) | System and method for automatic measuring of the stair dimensions using a single camera and a laser | |
JP6749498B2 (en) | Imaging target tracking device and imaging target tracking method | |
KR101469099B1 (en) | Auto-Camera Calibration Method Based on Human Object Tracking | |
JP5915130B2 (en) | Three-dimensional coordinate measuring apparatus, three-dimensional coordinate measuring method, and program | |
CN115371673A (en) | Binocular camera target positioning method based on Bundle Adjustment in unknown environment | |
JP2007025863A (en) | Photographing system, photographing method, and image processing program | |
CN112146620B (en) | Target object ranging method and device | |
JP4914870B2 (en) | Congestion degree measuring device, congestion degree measuring method, congestion degree measuring program, and recording medium recording the program | |
JP4674316B2 (en) | Position detection apparatus, position detection method, and position detection program | |
CN111220073B (en) | Camera monitoring and coordinate monitoring association and cross validation method under condition of no prior knowledge | |
KR20170104242A (en) | Apparatus and method for estimating of camera pose | |
JP4332629B2 (en) | Distance measuring method and distance measuring system for reducing quantization error |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071109 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100910 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100921 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20101207 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20101224 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140204 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |