JP6351917B2 - Moving object detection device - Google Patents

Moving object detection device Download PDF

Info

Publication number
JP6351917B2
JP6351917B2 JP2018515317A JP2018515317A JP6351917B2 JP 6351917 B2 JP6351917 B2 JP 6351917B2 JP 2018515317 A JP2018515317 A JP 2018515317A JP 2018515317 A JP2018515317 A JP 2018515317A JP 6351917 B2 JP6351917 B2 JP 6351917B2
Authority
JP
Japan
Prior art keywords
moving
moving object
unit
data
speed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018515317A
Other languages
Japanese (ja)
Other versions
JPWO2018011964A1 (en
Inventor
響介 小西
響介 小西
小幡 康
康 小幡
守屋 芳美
芳美 守屋
勝治 今城
勝治 今城
亮史 服部
亮史 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6351917B2 publication Critical patent/JP6351917B2/en
Publication of JPWO2018011964A1 publication Critical patent/JPWO2018011964A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M7/00Counting of objects carried by a conveyor

Description

この発明は、移動物体の個数、位置、および、移動方向を含む移動速度等を推定する移動物体検出装置に関するものである。   The present invention relates to a moving object detection apparatus that estimates the number and position of moving objects, a moving speed including a moving direction, and the like.

従来より、各種のセンサを用い、センサ観測範囲内の歩行者等の移動物体について個数、位置、あるいは、移動方向を推定する技術が知られている。
移動物体の個数、位置、あるいは、移動方向を推定するには、例えば、複数のカメラによって通路を通過する物体を観測し、各カメラが撮影した画像上における移動物体の画像のずれを基に、個数、位置等を推定する方法がある。
しかしながら、このように、複数のカメラによって移動物体の個数、位置等を推定する方法では、低解像度のカメラを利用した場合に推定精度が著しく劣化してしまう。また、例えば、夜間に可視光カメラを用いる場合等、移動物体による光の反射強度が低い場合は、画像から移動物体の形状が正しく得られず、推定精度が著しく劣化する。また、例えば、歩行者が顔の向きを変える等、移動物体の形状が時間的に変化する場合も、推定精度が劣化する。
Conventionally, a technique for estimating the number, position, or moving direction of a moving object such as a pedestrian within a sensor observation range using various sensors is known.
In order to estimate the number, position, or moving direction of moving objects, for example, by observing an object passing through a passage by a plurality of cameras, and based on the displacement of the moving object image on the image captured by each camera, There are methods for estimating the number, position, etc.
However, in this way, in the method of estimating the number and positions of moving objects using a plurality of cameras, the estimation accuracy is significantly degraded when a low-resolution camera is used. In addition, for example, when a visible light camera is used at night and the reflection intensity of light by a moving object is low, the shape of the moving object cannot be obtained correctly from the image, and the estimation accuracy is significantly deteriorated. In addition, for example, when the shape of the moving object changes with time, such as when a pedestrian changes the face direction, the estimation accuracy deteriorates.

移動物体の個数、位置、あるいは、移動方向を推定する他の方法として、例えば、複数のレーザセンサによって物体を観測し、各レーザセンサの観測情報を同一座標上に統合することで、移動物体の個数、位置等を推定する方法がある。
このように複数のレーザセンサを用いて移動物体を検出する方法では、移動物体の移動方向を推定するために、時刻フレーム当たりの移動物体の移動範囲に比べ十分に広い範囲がレーザセンサによって観測されることを前提としている。しかし、レーザ光を投光するレーザセンサは、カメラに比べ単位時間当たりの観測可能範囲が狭いため、レーザセンサの台数が少ないほど観測範囲が狭まり、結果として移動方向の推定精度が著しく劣化する。
As another method for estimating the number, position, or moving direction of moving objects, for example, by observing an object with a plurality of laser sensors and integrating observation information of each laser sensor on the same coordinate, There are methods for estimating the number, position, etc.
As described above, in the method of detecting a moving object using a plurality of laser sensors, in order to estimate the moving direction of the moving object, a sufficiently wide range compared to the moving range of the moving object per time frame is observed by the laser sensor. It is assumed that. However, since a laser sensor that projects laser light has a narrower observable range per unit time than a camera, the smaller the number of laser sensors, the narrower the observation range, and as a result, the estimation accuracy of the moving direction is significantly degraded.

上述したような問題に関し、特許文献1には、通路上にスリット光を照射するレーザと、スリット光の反射光を観測する撮像装置とを用いて、人物がスリット光の照射位置を通過した際の輝度変化から人物の数、位置、あるいは、進行方向を推定する技術が開示されている。
特許文献1に開示された技術では、1つの撮像装置と、当該撮像装置の近傍に配置された1つのレーザとを用いた場合には、通路における人物の通過数を計数することができる。また、1つの撮像装置と、当該撮像装置の近傍の複数箇所に配置されたレーザとを用いた場合には、人物の進行の向きごとに通過数を計数することができる。
Regarding the above-described problem, Patent Document 1 discloses that when a person passes through a slit light irradiation position using a laser that irradiates slit light on a passage and an imaging device that observes reflected light of the slit light. Discloses a technique for estimating the number, position, or traveling direction of a person from a change in luminance.
In the technique disclosed in Patent Literature 1, when one imaging device and one laser arranged in the vicinity of the imaging device are used, the number of passages of a person in the passage can be counted. In addition, when one imaging device and lasers arranged at a plurality of locations in the vicinity of the imaging device are used, it is possible to count the number of passes for each direction of person movement.

特開2005−25593号公報JP 2005-25593 A

歩行者等の移動物体の流れを観測することが必要となる範囲は、広域にわたることがあるため、移動方向検出装置は低コストであることが望ましい。   Since the range in which the flow of a moving object such as a pedestrian needs to be observed may be wide, it is desirable that the moving direction detection device be low-cost.

特許文献1に開示されているような技術によると、移動物体の移動方向ごとの個数等を推定するためには、レーザを、少なくとも2箇所に配置することが必要となるという課題があった。   According to the technique disclosed in Patent Document 1, in order to estimate the number of moving objects in each moving direction, there is a problem that it is necessary to arrange lasers in at least two places.

この発明は上記のような課題を解決するためになされたもので、1箇所に設置された1台のカメラと1台のレーザセンサとによって、移動物体の個数、位置、移動方向を精度よく推定することができる移動物体検出装置を提供することを目的とする。   The present invention has been made to solve the above problems, and accurately estimates the number, position, and moving direction of a moving object by using one camera and one laser sensor installed at one place. It is an object of the present invention to provide a moving object detection device that can do this.

この発明に係る移動物体検出装置は、測距センサで測定された測距情報に基づき、移動物体の位置座標を算出する物体位置データ作成部と、映像取得センサで撮影された映像情報に基づき、映像上の領域それぞれの推定移動方向を算出する画素移動方向データ作成部と、位置座標および推定移動方向に基づき、移動物体の個数および移動方向を推定する位置移動方向相関部とを備えたものである。   The moving object detection device according to the present invention is based on an object position data creation unit that calculates a position coordinate of a moving object based on distance measurement information measured by a distance sensor, and on video information captured by a video acquisition sensor. A pixel movement direction data creation unit that calculates the estimated movement direction of each area on the video, and a position movement direction correlation unit that estimates the number of moving objects and the movement direction based on the position coordinates and the estimated movement direction. is there.

この発明によれば、1箇所に設置された1台のカメラと1台のレーザセンサとによって、移動物体の個数、位置、および、移動方向を含む移動速度を精度よく推定することができる。   According to the present invention, it is possible to accurately estimate the moving speed including the number, position, and moving direction of moving objects by using one camera and one laser sensor installed at one place.

この発明の実施の形態1に係る移動物体検出装置を備えた移動物体検出システムの構成図である。It is a block diagram of the moving object detection system provided with the moving object detection apparatus which concerns on Embodiment 1 of this invention. この実施の形態1における、測距センサと映像取得センサの設置状況、および、測距センサと映像取得センサの観測条件の一例を説明するための図である。It is a figure for demonstrating an example of the installation condition of a ranging sensor and a video acquisition sensor in this Embodiment 1, and the observation conditions of a ranging sensor and a video acquisition sensor. この実施の形態1における、測距センサと映像取得センサの設置状況、および、測距センサと映像取得センサの観測条件の一例を説明するための図であり、図2を、z軸の正方向から見た俯瞰図である。It is a figure for demonstrating an example of the installation condition of a ranging sensor and a video acquisition sensor in this Embodiment 1, and an example of the observation conditions of a ranging sensor and a video acquisition sensor, and FIG. It is the bird's-eye view seen from. この発明の実施の形態1に係る移動物体検出装置の構成図である。It is a block diagram of the moving object detection apparatus which concerns on Embodiment 1 of this invention. 図5A,図5Bは、この発明の実施の形態1に係る移動物体検出装置のハードウェア構成の一例を示す図である。5A and 5B are diagrams showing an example of the hardware configuration of the moving object detection device according to Embodiment 1 of the present invention. この発明の実施の形態1に係る移動物体検出装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the moving object detection apparatus which concerns on Embodiment 1 of this invention. 図6のステップST603における移動物体の速度推定動作を説明する概念図である。It is a conceptual diagram explaining the speed estimation operation | movement of the moving object in step ST603 of FIG. この発明の実施の形態2に係る移動物体検出装置の構成図である。It is a block diagram of the moving object detection apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係る移動物体検出装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the moving object detection apparatus which concerns on Embodiment 2 of this invention. i=1の場合を例として、図9のステップST904における、移動方向仮説設定部による速度仮説の設定の動作を表した概念図である。FIG. 10 is a conceptual diagram illustrating an operation of setting a speed hypothesis by a moving direction hypothesis setting unit in step ST904 of FIG. 9, taking the case of i = 1 as an example. 図9のステップST904の動作を詳細に説明するフローチャートである。It is a flowchart explaining the operation | movement of step ST904 of FIG. 9 in detail. j=1およびj=2の場合を例として、図9のステップST909における、移動方向決定部による速度仮説v、v、vの尤度の更新の動作を表した概念図である。FIG. 10 is a conceptual diagram showing an operation of updating the likelihood of speed hypotheses v 0 , v 1 , v 2 by the moving direction determination unit in step ST 909 of FIG. 9, taking the case of j = 1 and j = 2 as an example. 図9のステップST909の詳細な動作について説明するフローチャートである。It is a flowchart explaining the detailed operation | movement of step ST909 of FIG. この発明の実施の形態3に係る移動物体検出装置の構成図である。It is a block diagram of the moving object detection apparatus which concerns on Embodiment 3 of this invention. この発明の実施の形態3に係る移動物体検出装置の動作を説明するフローチャートである。It is a flowchart explaining operation | movement of the moving object detection apparatus which concerns on Embodiment 3 of this invention.

以下、この発明の実施の形態について、図面を参照しながら詳細に説明する。
実施の形態1.
以下の説明においては、一例として、この発明の実施の形態1に係る移動物体検出装置100を、1方向に延びた通路を移動する歩行者を検出対象として、適用したものとする。すなわち、ここでは、移動物体として歩行者を検出するものとして、以下説明する。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
In the following description, as an example, it is assumed that the moving object detection device 100 according to Embodiment 1 of the present invention is applied to a pedestrian moving in a path extending in one direction as a detection target. In other words, the following description will be made assuming that a pedestrian is detected as a moving object.

図1は、この発明の実施の形態1に係る移動物体検出装置100を備えた移動物体検出システムの構成図である。
図1に示すように、移動物体検出システムにおいて、移動物体検出装置100は、測距センサ200および映像取得センサ300と、ネットワークを介して接続される。
測距センサ200は、例えば、レーザ測距計、レーダ、超音波センサ、アクティブステレオセンサ等であり、映像取得センサ300が撮影した画像の1時刻フレーム内を走査し、測距データを取得する。
映像取得センサ300は、可視光カメラ、赤外線カメラ等であり、歩行者を検出する通路を見下ろすように設置され、通路を撮影する。
移動物体検出装置100は、測距センサ200から取得した時刻フレームにおける測距センサ観測範囲の測距情報と、映像取得センサ300から取得した時刻フレームにおける映像取得センサ観測範囲内の映像とに基づき、通路を移動する歩行者の位置、移動方向を含む移動速度等を推定する。
FIG. 1 is a configuration diagram of a moving object detection system including a moving object detection device 100 according to Embodiment 1 of the present invention.
As shown in FIG. 1, in the moving object detection system, the moving object detection device 100 is connected to a distance measuring sensor 200 and a video acquisition sensor 300 via a network.
The distance measuring sensor 200 is, for example, a laser distance meter, a radar, an ultrasonic sensor, an active stereo sensor, or the like, and scans within one time frame of an image captured by the image acquisition sensor 300 to acquire distance measurement data.
The image acquisition sensor 300 is a visible light camera, an infrared camera, or the like, and is installed so as to look down the passage for detecting a pedestrian, and images the passage.
The moving object detection device 100 is based on the distance measurement information in the distance measurement sensor observation range in the time frame acquired from the distance measurement sensor 200 and the image in the image acquisition sensor observation range in the time frame acquired from the image acquisition sensor 300. The position of the pedestrian moving along the passage, the moving speed including the moving direction, etc. are estimated.

なお、1つの測距センサ200と1つの映像取得センサ300とが1セットになっており、1つの移動物体検出対象領域に対して、当該1セットの測距センサ200および映像取得センサ300が設置される。
また、上記1つの測距センサ200と1つの映像取得センサ300とからなるセットが複数、1台の移動物体検出装置100にネットワークを介して接続され、移動物体検出装置100は、1つの測距センサ200と1つの映像取得センサ300とからなる1セットごとに、通路を移動する歩行者の位置、移動速度等を推定する処理を実施することができる。具体的な処理内容については後述する。
Note that one distance measuring sensor 200 and one image acquisition sensor 300 form one set, and the one set of distance measurement sensor 200 and image acquisition sensor 300 is installed for one moving object detection target region. Is done.
In addition, a plurality of sets including the one distance measuring sensor 200 and one image acquisition sensor 300 are connected to one moving object detecting device 100 via a network, and the moving object detecting device 100 has one distance measuring method. For each set of the sensor 200 and one image acquisition sensor 300, a process for estimating the position, moving speed, etc. of a pedestrian moving through the passage can be performed. Specific processing contents will be described later.

図2,図3は、この実施の形態1における、測距センサ200と映像取得センサ300の設置状況、および、測距センサ200と映像取得センサ300の観測条件の一例を説明するための図である。なお、図3は、図2を、z軸の正方向から見た俯瞰図である。
図2,図3において、x軸方向は通路の延伸方向、z軸方向は地面と垂直な方向、y軸方向は通路の延伸方向と垂直かつ地面と平行な方向とし、x軸、y軸、z軸の正方向は右手系の直交座標系とする。
2 and 3 are diagrams for explaining an example of the installation status of the distance measurement sensor 200 and the image acquisition sensor 300 and the observation conditions of the distance measurement sensor 200 and the image acquisition sensor 300 in the first embodiment. is there. FIG. 3 is an overhead view of FIG. 2 viewed from the positive direction of the z-axis.
2 and 3, the x-axis direction is the direction in which the passage extends, the z-axis direction is the direction perpendicular to the ground, the y-axis direction is perpendicular to the direction in which the passage extends and is parallel to the ground, and the x-axis, y-axis, The positive direction of the z-axis is a right-handed orthogonal coordinate system.

図2,図3に示すように、映像取得センサ300および測距センサ200は通路を見下ろすように設置される。
映像取得センサ300は、予め設定された視野角で通路の映像を取得するものであり、映像取得センサ300の設置位置から通路上のxy平面へ射影した範囲を、映像取得センサ300の観測範囲53とする。
測距センサ200は、1時刻フレーム内にy軸方向を少なくとも1回走査し、測距データを取得するものであり、測距センサ200の設置位置からy軸に平行なxy平面上の1次元ラインへ射影した範囲を測距センサ200の観測範囲54とする。
映像取得センサ300の観測範囲53と、測距センサ200の観測範囲54は、一部が重複しており、測距センサ200の観測範囲54のx軸方向の幅は、映像取得センサ300の観測範囲53のx軸方向の幅に比べて十分に狭い。
なお測距センサ200の観測範囲である1次元ラインは、観測環境に応じて選択可能としてもよい。例えば、測距センサ200は複数の1次元ラインを観測し、各1次元ラインの中から障害物等によって遮られる可能性が低い1次元ラインを観測範囲として選択するとしてもよい。
As shown in FIGS. 2 and 3, the image acquisition sensor 300 and the distance measuring sensor 200 are installed so as to look down the passage.
The image acquisition sensor 300 acquires the image of the passage at a preset viewing angle, and the range obtained by projecting the installation position of the image acquisition sensor 300 onto the xy plane on the passage is the observation range 53 of the image acquisition sensor 300. And
The distance measuring sensor 200 scans the y-axis direction at least once in one time frame to acquire distance measurement data, and is one-dimensional on the xy plane parallel to the y-axis from the position where the distance measuring sensor 200 is installed. A range projected onto the line is set as an observation range 54 of the distance measuring sensor 200.
The observation range 53 of the image acquisition sensor 300 and the observation range 54 of the distance measurement sensor 200 partially overlap, and the width of the observation range 54 of the distance measurement sensor 200 in the x-axis direction is the observation of the image acquisition sensor 300. It is sufficiently narrower than the width of the range 53 in the x-axis direction.
The one-dimensional line that is the observation range of the distance measuring sensor 200 may be selectable according to the observation environment. For example, the distance measuring sensor 200 may observe a plurality of one-dimensional lines and select a one-dimensional line that is less likely to be blocked by an obstacle or the like as an observation range from each one-dimensional line.

図4は、この発明の実施の形態1に係る移動物体検出装置100の構成図である。
図4に示すように、移動物体検出装置100は、測距データ取得部11と、物体位置データ作成部12と、映像取得部13と、画素移動方向データ作成部14と、位置移動方向相関部15と、表示部16と、記録部17とを備える。
測距データ取得部11と物体位置データ作成部12とは、測距センサ処理部101を構成し、映像取得部13と画素移動方向データ作成部14とは、映像取得センサ処理部102を構成し、位置移動方向相関部15は、融合処理部103を構成する。
FIG. 4 is a configuration diagram of the moving object detection device 100 according to Embodiment 1 of the present invention.
As shown in FIG. 4, the moving object detection apparatus 100 includes a distance measurement data acquisition unit 11, an object position data creation unit 12, a video acquisition unit 13, a pixel movement direction data creation unit 14, and a position movement direction correlation unit. 15, a display unit 16, and a recording unit 17.
The distance measurement data acquisition unit 11 and the object position data creation unit 12 constitute a distance measurement sensor processing unit 101, and the video acquisition unit 13 and the pixel movement direction data creation unit 14 constitute a video acquisition sensor processing unit 102. The position movement direction correlation unit 15 constitutes a fusion processing unit 103.

測距データ取得部11、測距センサ200に命令を送り、測距センサ200から最新時刻フレームにおける測距センサ観測範囲の測距情報を取得する。測距データ取得部11は、取得した測距情報を、物体位置データ作成部12に出力する。
物体位置データ作成部12は、測距データ取得部11から取得した複数の時刻フレームにおける測距情報に基づき、移動物体の重心位置が測距センサ200の観測範囲54を通過した時刻フレームを特定する。また、物体位置データ作成部12は、測距データ取得部11から取得した複数の時刻フレームから、移動物体のx軸およびy軸方向の重心位置を算出して、当該重心位置を表す物体位置データを作成する。
物体位置データ作成部12は、移動物体の重心が通過した時刻フレーム、すなわち、移動物体の測距センサ200の観測範囲54の通過時刻と、物体位置データを、位置移動方向相関部15に出力する。
なおここでは、移動物体の位置座標を表す物理量の一例として移動物体全体の重心位置を算出する装置としたが、重心位置の代わりに移動物体の一部に関する位置座標としてもよい。例えば、歩行者に対する両肩の位置や、自動車に対する車輪の位置としてもよい。
A command is sent to the distance measurement data acquisition unit 11 and the distance measurement sensor 200, and distance measurement information of the distance measurement sensor observation range in the latest time frame is acquired from the distance measurement sensor 200. The distance measurement data acquisition unit 11 outputs the acquired distance measurement information to the object position data creation unit 12.
The object position data creation unit 12 identifies a time frame in which the center of gravity position of the moving object has passed through the observation range 54 of the distance measurement sensor 200 based on the distance measurement information acquired from the distance measurement data acquisition unit 11 in a plurality of time frames. . Further, the object position data creation unit 12 calculates the gravity center position of the moving object in the x-axis and y-axis directions from the plurality of time frames acquired from the distance measurement data acquisition unit 11, and the object position data representing the gravity center position. Create
The object position data creation unit 12 outputs the time frame when the center of gravity of the moving object passes, that is, the passing time of the moving object in the observation range 54 of the distance measuring sensor 200 and the object position data to the position movement direction correlation unit 15. .
In this example, the apparatus calculates the center of gravity position of the entire moving object as an example of the physical quantity representing the position coordinates of the moving object. However, the position coordinates of a part of the moving object may be used instead of the center of gravity position. For example, it is good also as a position of the both shoulders with respect to a pedestrian, and the position of the wheel with respect to a motor vehicle.

映像取得部13は、映像取得センサ300に命令を送り、映像取得センサ300から最新時刻フレームにおける映像取得センサ300の観測範囲53内の映像を取得する。映像取得部13は、取得した映像を、画素移動方向データ作成部14に出力する。
画素移動方向データ作成部14は、映像取得部13から取得した複数の時刻フレームにおける映像に基づき、画素ごとのx軸およびy軸方向の推定速度を算出し、当該推定速度を表す画素速度データを、時刻フレームごとに作成する。画素移動方向データ作成部14は、画素速度データを、位置移動方向相関部15に出力する。
なおここでは、映像上の領域ごとに推定速度を算出する装置の一例として、画素ごとに推定速度を算出する装置である画素移動方向データ作成部14としたが、映像上の推定速度を算出する領域の選び方は、必ずしも1画素ごとである必要はない。例えば、縦10画素、横10画素の領域ごとに推定速度を算出することで、処理負荷を軽減させてもよい。
またここでは、画素移動方向データ作成部14は、物体の移動方向を表す物理量の一例としてx軸およびy軸方向の速度を算出することとしたが、各移動物体の移動方向のみを推定する目的においては、必ずしも速度を算出する必要はない。例えば、画素移動方向データ作成部14は、移動方向のみを表す大きさ一定のベクトルや、移動方向を表す方位角を算出することとしてもよい。
The video acquisition unit 13 sends a command to the video acquisition sensor 300 and acquires the video in the observation range 53 of the video acquisition sensor 300 in the latest time frame from the video acquisition sensor 300. The video acquisition unit 13 outputs the acquired video to the pixel movement direction data creation unit 14.
The pixel movement direction data creation unit 14 calculates the estimated speeds in the x-axis and y-axis directions for each pixel based on the videos in the plurality of time frames acquired from the video acquisition unit 13, and generates pixel speed data representing the estimated speeds. Create for each time frame. The pixel movement direction data creation unit 14 outputs the pixel velocity data to the position movement direction correlation unit 15.
Here, as an example of a device that calculates the estimated speed for each region on the video, the pixel movement direction data creation unit 14 that is a device that calculates the estimated speed for each pixel is used, but the estimated speed on the video is calculated. It is not always necessary to select the region for each pixel. For example, the processing load may be reduced by calculating the estimated speed for each area of 10 pixels vertically and 10 pixels horizontally.
Here, the pixel movement direction data creation unit 14 calculates the velocity in the x-axis and y-axis directions as an example of the physical quantity representing the movement direction of the object, but the purpose is to estimate only the movement direction of each moving object. In, it is not always necessary to calculate the speed. For example, the pixel movement direction data creation unit 14 may calculate a vector having a constant size that represents only the movement direction or an azimuth angle that represents the movement direction.

位置移動方向相関部15は、物体位置データ作成部12から出力された物体位置データと、画素移動方向データ作成部14から出力された画素速度データを受け取り、物体位置データによって特定される移動物体の移動速度を推定する。
位置移動方向相関部15は、移動物体について、重心位置が測距センサ200の観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表すデータを、表示部16に表示させる。また、位置移動方向相関部15は、移動物体ごとに、重心位置が測距センサ200の観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表すデータを、記録部17に記憶させる。
ここでは、移動物体ごとの、重心位置が測距センサ200の観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表すデータを合わせて、融合データという。
The position movement direction correlation unit 15 receives the object position data output from the object position data creation unit 12 and the pixel velocity data output from the pixel movement direction data creation unit 14, and receives the moving object specified by the object position data. Estimate the moving speed.
The position movement direction correlator 15 is data representing the time at which the center of gravity position passes through the observation range 54 of the distance measuring sensor 200, the center of gravity position on the x axis and the y axis, and the estimated speed in the x axis and y axis directions for the moving object Is displayed on the display unit 16. The position movement direction correlator 15 also determines, for each moving object, the time when the centroid position passes the observation range 54 of the distance measuring sensor 200, the centroid position on the x and y axes, and the estimated speed in the x and y axis directions. Is stored in the recording unit 17.
Here, for each moving object, the time when the centroid position passes the observation range 54 of the distance measuring sensor 200, the centroid position on the x-axis and the y-axis, and data representing the estimated speed in the x-axis and y-axis directions are combined, This is called fusion data.

表示部16は、例えば、ディスプレイ等の表示装置であり、位置移動方向相関部15から出力された融合データを表示する。
記録部17は、位置移動方向相関部15から出力された融合データを記憶する。
なお、ここでは、図4に示すように、表示部16と記録部17とは、移動物体検出装置100が備えるものとしたが、これに限らず、表示部16と記録部17とを、移動物体検出装置100の外部に備え、移動物体検出装置100と表示部16および記録部17とが、ネットワークを介して接続されるようにしてもよい。
The display unit 16 is a display device such as a display, for example, and displays the fusion data output from the position movement direction correlation unit 15.
The recording unit 17 stores the fusion data output from the position movement direction correlation unit 15.
Here, as shown in FIG. 4, the display unit 16 and the recording unit 17 are included in the moving object detection device 100, but not limited thereto, the display unit 16 and the recording unit 17 are moved. It may be provided outside the object detection device 100, and the moving object detection device 100, the display unit 16, and the recording unit 17 may be connected via a network.

図5A,図5Bは、この発明の実施の形態1に係る移動物体検出装置100のハードウェア構成の一例を示す図である。
この発明の実施の形態1において、測距センサ処理部101と、映像取得センサ処理部102と、融合処理部103の各機能は、処理回路501により実現される。すなわち、移動物体検出装置100は、取得した測距情報と映像情報とに基づき、移動物体の位置、速度等に関する情報を表示あるいは記憶させる制御を行うための処理回路501を備える。
処理回路501は、図5Aに示すように専用のハードウェアであっても、図5Bに示すようにメモリ506に格納されるプログラムを実行するCPU(Central Processing Unit)507であってもよい。
5A and 5B are diagrams showing an example of a hardware configuration of the moving object detection device 100 according to Embodiment 1 of the present invention.
In the first embodiment of the present invention, each function of the distance measuring sensor processing unit 101, the image acquisition sensor processing unit 102, and the fusion processing unit 103 is realized by the processing circuit 501. That is, the moving object detection device 100 includes a processing circuit 501 for performing control for displaying or storing information on the position, speed, and the like of the moving object based on the acquired distance measurement information and video information.
The processing circuit 501 may be dedicated hardware as illustrated in FIG. 5A or a CPU (Central Processing Unit) 507 that executes a program stored in the memory 506 as illustrated in FIG. 5B.

処理回路501が専用のハードウェアである場合、処理回路501は、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)、またはこれらを組み合わせたものが該当する。   When the processing circuit 501 is dedicated hardware, the processing circuit 501 includes, for example, a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, an ASIC (Application Specific Integrated Circuit), and an FPGA (Field-Programmable). Gate Array) or a combination thereof.

処理回路501がCPU507の場合、測距センサ処理部101と、映像取得センサ処理部102と、融合処理部103の各機能は、ソフトウェア、ファームウェア、または、ソフトウェアとファームウェアとの組み合わせにより実現される。すなわち、測距センサ処理部101と、映像取得センサ処理部102と、融合処理部103は、HDD(Hard Disk Drive)502、メモリ506等に記憶されたプログラムを実行するCPU507、システムLSI(Large−Scale Integration)等の処理回路により実現される。また、HDD502、メモリ506等に記憶されたプログラムは、測距センサ処理部101と、映像取得センサ処理部102と、融合処理部103の手順や方法をコンピュータに実行させるものであるとも言える。ここで、メモリ506とは、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read−Only Memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVD(Digital Versatile Disc)等が該当する。   When the processing circuit 501 is the CPU 507, the functions of the distance measurement sensor processing unit 101, the video acquisition sensor processing unit 102, and the fusion processing unit 103 are realized by software, firmware, or a combination of software and firmware. That is, the distance measurement sensor processing unit 101, the image acquisition sensor processing unit 102, and the fusion processing unit 103 are a CPU 507 that executes programs stored in an HDD (Hard Disk Drive) 502, a memory 506, and the like, a system LSI (Large- This is realized by a processing circuit such as Scale Integration. It can also be said that the programs stored in the HDD 502, the memory 506, and the like cause the computer to execute the procedures and methods of the distance measurement sensor processing unit 101, the video acquisition sensor processing unit 102, and the fusion processing unit 103. Here, the memory 506 is, for example, a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Memory), or the like. Or a volatile semiconductor memory, a magnetic disk, a flexible disk, an optical disk, a compact disk, a mini disk, a DVD (Digital Versatile Disc), or the like.

なお、測距センサ処理部101と、映像取得センサ処理部102と、融合処理部103の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。例えば、測距センサ処理部101については専用のハードウェアとしての処理回路501でその機能を実現し、映像取得センサ処理部102と、融合処理部103については処理回路がメモリ506に格納されたプログラムを読み出して実行することによってその機能を実現することが可能である。
表示部16は、例えば、ディスプレイ503である。
記録部17は、例えば、HDD502を使用する。なお、これは一例にすぎず、記録部17は、DVD、メモリ506等によって構成されるものであってもよい。
また、移動物体検出装置100は、測距センサ200、映像取得センサ300等の外部機器との通信を行う入力インタフェース装置504、出力インタフェース装置505を有する。例えば、測距センサ処理部101は、測距センサ200が取得した測距情報を、USB(Universal Serial Bus)、イーサネット(登録商標。以下記載を省略する)等の入力インタフェース装置504を利用して取得する。また、例えば、映像取得センサ処理部102は、映像取得センサ300が撮影した映像を、DVI(Digital Visual Interface、登録商標)、HDMI(High−Definition Multimedia Interface、登録商標)、USB、イーサネット等の入力インタフェース装置504を利用して取得する。また、例えば、融合処理部103は移動物体の個数、位置、速度等の情報をUSB、イーサネット等の出力インタフェース装置505を利用してディスプレイ503に接続し出力する。
It should be noted that part of the functions of the ranging sensor processing unit 101, the image acquisition sensor processing unit 102, and the fusion processing unit 103 are realized by dedicated hardware, and part of them are realized by software or firmware. Also good. For example, the distance sensor processing unit 101 is realized by a processing circuit 501 as dedicated hardware, and the processing circuit 501 is stored in the memory 506 for the image acquisition sensor processing unit 102 and the fusion processing unit 103. The function can be realized by reading out and executing.
The display unit 16 is a display 503, for example.
For example, the recording unit 17 uses the HDD 502. This is only an example, and the recording unit 17 may be configured by a DVD, a memory 506, or the like.
In addition, the moving object detection device 100 includes an input interface device 504 and an output interface device 505 that communicate with external devices such as the distance measurement sensor 200 and the image acquisition sensor 300. For example, the distance sensor processing unit 101 uses the input interface device 504 such as USB (Universal Serial Bus) or Ethernet (registered trademark; description is omitted below) as the distance measurement information acquired by the distance sensor 200. get. In addition, for example, the video acquisition sensor processing unit 102 inputs video captured by the video acquisition sensor 300 using DVI (Digital Visual Interface (registered trademark)), HDMI (High-Definition Multimedia Interface (registered trademark)), USB, Ethernet, or the like. Obtained using the interface device 504. Further, for example, the fusion processing unit 103 connects and outputs information such as the number, position, and speed of moving objects to the display 503 using an output interface device 505 such as USB or Ethernet.

この実施の形態1に係る移動物体検出装置100の動作について説明する。
図6は、この発明の実施の形態1に係る移動物体検出装置100の動作を説明するフローチャートである。
図6を用いて、観測開始からk(kは自然数)番目の時刻フレームにおいて、重心が測距センサ200の観測範囲54を通過した移動物体に対して、移動速度を推定する場合を例に、移動物体検出装置100の動作を説明する。
以下では、観測開始からk番目の時刻フレームを、時刻kと表記する。また、測距センサ200および映像取得センサ300の設置位置および観測範囲は予め設定されていて既知であるとし、測距センサ200および映像取得センサ300の観測時刻を計測するための時計は、測距センサ200および映像取得センサ300間で同期されているものとする。
The operation of the moving object detection device 100 according to the first embodiment will be described.
FIG. 6 is a flowchart for explaining the operation of the moving object detection device 100 according to the first embodiment of the present invention.
Using FIG. 6 as an example, in the case where the moving speed is estimated for a moving object whose center of gravity has passed the observation range 54 of the distance measuring sensor 200 in the kth (k is a natural number) time frame from the start of observation. The operation of the moving object detection device 100 will be described.
Hereinafter, the kth time frame from the start of observation is denoted as time k. Further, it is assumed that the installation positions and observation ranges of the distance measurement sensor 200 and the video acquisition sensor 300 are preset and known, and a clock for measuring the observation times of the distance measurement sensor 200 and the video acquisition sensor 300 is a distance measurement. Assume that the sensor 200 and the image acquisition sensor 300 are synchronized.

測距センサ処理部101は、測距センサ200が取得した複数の時刻フレームの測距情報から、時刻kに重心位置が測距センサ200の観測範囲54を通過した移動物体を抽出し、時刻kの物体位置データを作成する(ステップST601)。具体的には、物体位置データ作成部12は、測距データ取得部11が出力した複数の時刻フレームの測距情報に基づき、測距センサ200の観測範囲54内を通過した移動物体を抽出し、移動物体の重心位置が測距センサ200の観測範囲内を通過した時刻フレームを特定するとともに、物体位置データを作成する。複数の移動物体が抽出された場合、時刻フレームの特定、および、物体位置データの作成は、移動物体ごとに行われる。なお、物体位置データ作成部12は、測距データ取得部11が出力した時刻フレームの測距情報を測距情報蓄積部(図示省略)に蓄積させるようにし、当該測距情報蓄積部に蓄積された複数の測距情報をもとに、物体位置データを作成すればよい。物体位置データ作成部12は、作成した物体位置データを、位置移動方向相関部15に出力する。
各時刻フレームの測距情報から移動物体の重心位置を抽出する方法としては、例えば、特開2011−108223号公報に開示されている方法を用いる。当該文献に開示されている方法は、特定の高さにおける移動物体の個数および位置を抽出する方法であり、例えば、歩行者の位置を抽出する場合には、歩行者の頭部の高さに存在する物体の個数および位置を求めることができる。
なお、上記方法に限らず、物体位置データ作成部12は、予め作成された時刻kの物体位置データを取得してもよい。具体的には、例えば、物体位置データ作成部12は、ステップST601においてその都度時刻kの物体位置データを作成するのではなく、すでに作成済みの物体位置データを記憶しておき、当該記憶している物体位置データを取得するようにしてもよい。
The ranging sensor processing unit 101 extracts a moving object whose center of gravity has passed through the observation range 54 of the ranging sensor 200 at time k from ranging information of a plurality of time frames acquired by the ranging sensor 200. Object position data is created (step ST601). Specifically, the object position data creation unit 12 extracts a moving object that has passed through the observation range 54 of the distance measurement sensor 200 based on the distance measurement information of a plurality of time frames output from the distance measurement data acquisition unit 11. The time frame when the gravity center position of the moving object passes through the observation range of the distance measuring sensor 200 is specified, and the object position data is created. When a plurality of moving objects are extracted, the time frame is specified and the object position data is created for each moving object. The object position data creation unit 12 accumulates the distance measurement information of the time frame output by the distance measurement data acquisition unit 11 in a distance measurement information storage unit (not shown), and is stored in the distance measurement information storage unit. Object position data may be created based on a plurality of distance measurement information. The object position data creation unit 12 outputs the created object position data to the position movement direction correlation unit 15.
As a method for extracting the center of gravity position of the moving object from the distance measurement information of each time frame, for example, a method disclosed in Japanese Patent Application Laid-Open No. 2011-108223 is used. The method disclosed in this document is a method for extracting the number and position of moving objects at a specific height. For example, when extracting the position of a pedestrian, the height of the pedestrian's head is extracted. The number and position of existing objects can be determined.
In addition, not only the said method but the object position data preparation part 12 may acquire the object position data of the time k produced beforehand. Specifically, for example, the object position data creation unit 12 does not create the object position data at time k in each case in step ST601, but stores the already created object position data. The object position data may be acquired.

映像取得センサ処理部102は、映像取得センサ300が取得した各時刻フレームの映像から、時刻kにおける画素速度データを作成する(ステップST602)。具体的には、画素移動方向データ作成部14は、映像取得部13が出力した複数の時刻フレームにおける映像に基づき、画素速度データを作成する。なお、画素移動方向データ作成部14は、映像取得部13が出力した時刻フレームの映像を映像情報蓄積部(図示省略)に蓄積させるようにし、当該映像情報蓄積部に蓄積された映像をもとに、画素速度データを作成すればよい。画素移動方向データ作成部14は、作成した画素速度データを、位置移動方向相関部15に出力する。
各時刻フレームの映像から画素速度データを作成する方法としては、例えば、B.Lucas,T.Kanade,“An Iterative Image Registration Technique with an Application to Stereo Vision,” Proceedindgs DARPA Image Understanding Workshop,pp.121−130,April 1981.に開示されている方法を用いる。当該文献に開示されている方法は、各画素の輝度強度は空間的に連続であることと、物体の運動が線形であることを前提に、最小二乗法によって時刻フレーム間の輝度強度の残差が最小となる速度ベクトルを推定する。この方法によって、静止物をあらわす画素の速度ベクトルは零に近い値となり、移動物体を表す画素の速度ベクトルは物体の移動速度に近い値となる画素速度データが得られる。
なお、上記方法に限らず、画素移動方向データ作成部14は、予め作成された時刻kの画素速度データを取得してもよい。具体的には、例えば、画素移動方向データ作成部14は、ステップST602においてその都度時刻kの画素速度データを作成するのではなく、すでに作成済みの画素速度データを記憶しておき、当該記憶している画素速度データを取得するようにしてもよい。
なお、画素移動方向データ作成部14は、観測環境に応じて映像上の一部領域に対してのみ画素速度データを作成するようにしてもよい。例えば、歩行者が通行し得ない区域など、移動物体が存在し得ない領域が、データ取得前または過去の時刻フレームのデータから既知であれば、当該移動物体が存在し得ない領域の画素速度データの作成を省略してもよい。
The video acquisition sensor processing unit 102 creates pixel velocity data at time k from the video of each time frame acquired by the video acquisition sensor 300 (step ST602). Specifically, the pixel movement direction data creation unit 14 creates pixel velocity data based on the videos in a plurality of time frames output from the video acquisition unit 13. Note that the pixel movement direction data creation unit 14 causes the video information storage unit (not shown) to store the video of the time frame output from the video acquisition unit 13, and based on the video stored in the video information storage unit. In addition, pixel speed data may be created. The pixel movement direction data creation unit 14 outputs the created pixel velocity data to the position movement direction correlation unit 15.
As a method for creating pixel velocity data from the video of each time frame, for example, B.I. Lucas, T .; Kanade, “An Iterative Image Registration Technology with an Application to Stereo Vision,” Proceedings DARPA Image Understanding Working Shop. 121-130, April 1981. Is used. The method disclosed in this document is based on the assumption that the luminance intensity of each pixel is spatially continuous and that the motion of the object is linear. The velocity vector that minimizes is estimated. With this method, pixel velocity data is obtained in which the velocity vector of a pixel representing a stationary object has a value close to zero, and the velocity vector of a pixel representing a moving object has a value close to the moving velocity of the object.
In addition, not only the said method but the pixel moving direction data preparation part 14 may acquire the pixel velocity data of the time k produced beforehand. Specifically, for example, the pixel movement direction data creation unit 14 does not create pixel speed data at time k in each step ST602, but stores already created pixel speed data and stores the data. The acquired pixel speed data may be acquired.
Note that the pixel movement direction data creation unit 14 may create pixel velocity data only for a partial region on the video according to the observation environment. For example, if an area where a moving object cannot exist, such as an area where pedestrians cannot pass, is known from the data of the previous time frame or before data acquisition, the pixel speed of the area where the moving object cannot exist Creation of data may be omitted.

位置移動方向相関部15は、ステップST601において物体位置データ作成部12が出力した時刻kの物体位置データと、ステップST602において画素移動方向データ作成部14が出力した時刻kの画素速度データとを用いて、時刻kの物体位置データによって特定されている移動物体に対して、移動速度を推定し、当該移動物体に関する時刻kの融合データを作成する(ステップST603)。   The position movement direction correlation unit 15 uses the object position data at time k output from the object position data generation unit 12 in step ST601 and the pixel velocity data at time k output from the pixel movement direction data generation unit 14 in step ST602. Thus, the moving speed is estimated for the moving object specified by the object position data at time k, and fusion data at time k relating to the moving object is created (step ST603).

ここで、図7は、図6のステップST603における移動物体の速度推定動作を説明する概念図である。なお、図7では、時刻kにおいて重心が測距センサ200の観測範囲54を通過した移動物体が、2つ抽出されたものとしている。
位置移動方向相関部15は、時刻kにおける各移動物体の重心位置61に対して、当該重心位置61を中心に物体サイズ63以内の画素速度62を抽出する。そして、位置移動方向相関部15は、物体サイズ63内の画素速度から、各移動物体の推定速度vおよびvを算出する。
Here, FIG. 7 is a conceptual diagram illustrating the speed estimation operation of the moving object in step ST603 of FIG. In FIG. 7, it is assumed that two moving objects whose center of gravity has passed through the observation range 54 of the distance measuring sensor 200 at time k are extracted.
The position movement direction correlation unit 15 extracts a pixel velocity 62 within the object size 63 around the center of gravity 61 for the center of gravity 61 of each moving object at time k. Then, the position movement direction correlation unit 15 calculates the estimated speeds v 1 and v 2 of each moving object from the pixel speed within the object size 63.

ここでは、実空間におけるx座標、y座標は、映像取得センサ300から得られる画像のフレーム上のx座標、y座標と一致するものとする。
以下では、物体位置データにおいて時刻kの重心位置が(x,y)とされた、ある移動物体を例に、推定速度v=(v1,x,v1,y)の算出方法を説明する。ここで、xは移動物体の重心位置のx軸位置、yは移動物体の重心位置のy軸位置とする。また、v1,x、v1,yは推定速度のx軸方向成分、y軸方向成分とする。なお、測距センサ200の観測範囲54はx軸方向に狭いため、xは測距センサ200の観測範囲の中心のx軸位置としてもよい。
Here, it is assumed that the x and y coordinates in the real space coincide with the x and y coordinates on the frame of the image obtained from the video acquisition sensor 300.
In the following, a method of calculating the estimated speed v 1 = (v 1, x , v 1, y ) is taken as an example of a moving object in which the center of gravity position at time k is (x d , y d ) in the object position data. Will be explained. Here, x d is the x-axis position of the center of gravity of the moving object, y d is the y-axis position of the center of gravity of the moving object. Further, v 1, x and v 1, y are the x-axis direction component and the y-axis direction component of the estimated speed. Since the observation range 54 of the distance measuring sensor 200 is narrow in the x-axis direction, xd may be the x-axis position at the center of the observation range of the distance measuring sensor 200.

また、以下では、時刻kの画素速度データをV(x,y)およびV(x,y)と表す。ここで、xおよびyはi番目の画素のx軸中心位置およびy軸中心位置をそれぞれ表し、V(x,y)は画素速度のx軸方向成分、V(x,y)は画素速度のy軸方向成分を表すとする。なお、画素の総数はNとする。Hereinafter, the pixel velocity data at the time k is expressed as V x (x i , y i ) and V y (x i , y i ). Here, x i and y i represent the x-axis center position and the y-axis center position of the i-th pixel, respectively, and V x (x i , y i ) represents the x-axis direction component of the pixel velocity, V y (x i , Y i ) represents the y-axis direction component of the pixel velocity. Incidentally, the total number of pixels is set to N p.

重心位置(x,y)の移動物体の推定速度vは、以下の式(1)および式(2)より算出する。

Figure 0006351917

Figure 0006351917
ここで、W(xi,;xd,)は、物体サイズ63を表す関数であり、任意の(x、y)に対して以下の式(3)を満たす関数である。
Figure 0006351917
例えば、(x、y)を中心に円形の物体サイズ63を定義する場合、以下の式(4)のように定義する。
Figure 0006351917
ここで、物体サイズ63の半径を表すパラメタをRとし、以下の式(5)を満たす画素(xi’、yi’)の個数をn(R)とする。
Figure 0006351917
なお、想定する移動物体の種類や、映像取得センサ300における画素速度データの誤差および測距センサ200の物体位置データの誤差に応じて、物体サイズ63の大きさを変えたり、形状を楕円や長方形等にしてもよい。本実施の形態のように、歩行者を検出対象としている場合、物体サイズ63は、上方から見下ろした歩行者の平均的な大きさを表すものとすればよい。
また、上記のように物体サイズ63内部の画像速度データを一様に加算平均する他に、物体サイズ63内で重み付け平均するように関数W(x、y;x、y)の値に傾斜を持たせてもよい。
また、物体位置データには静止物体や実在する物体以外の不要なデータも誤って含まれていることを前提に、推定速度を基に不要なデータを棄却してもよい。例えば、推定速度が閾値未満であれば静止物体として移動物体の個数から除いてもよい。すなわち、物体位置データ作成部12で算出した移動物体の個数を、仮の移動物体個数とし、位置移動方向相関部15において最終的な移動物体個数の推定をおこなうとしてもよい。The estimated velocity v 1 of the moving object at the center of gravity position (x d , y d ) is calculated from the following equations (1) and (2).
Figure 0006351917

Figure 0006351917
Here, W (x i, y i ; x d, y d ) is a function representing the object size 63, and is a function that satisfies the following expression (3) for any (x d , y d ). is there.
Figure 0006351917
For example, when the circular object size 63 is defined around (x d , y d ), it is defined as the following equation (4).
Figure 0006351917
Here, R represents a parameter representing the radius of the object size 63, and n (R) represents the number of pixels (x i ′ , y i ′ ) satisfying the following expression (5).
Figure 0006351917
Note that the size of the object size 63 is changed or the shape is changed to an ellipse or a rectangle according to the type of the moving object to be assumed, the error in the pixel velocity data in the image acquisition sensor 300, and the error in the object position data in the distance measuring sensor 200. You may make it. As in the present embodiment, when a pedestrian is the detection target, the object size 63 may represent the average size of the pedestrian looking down from above.
In addition to uniformly adding and averaging the image speed data inside the object size 63 as described above, the function W (x i , y i ; x d , y d ) is weighted averaged within the object size 63. The value may be inclined.
Further, it is possible to reject unnecessary data based on the estimated speed on the assumption that unnecessary data other than a stationary object or an actual object is erroneously included in the object position data. For example, if the estimated speed is less than the threshold value, it may be excluded from the number of moving objects as stationary objects. That is, the number of moving objects calculated by the object position data creation unit 12 may be used as a temporary moving object number, and the position moving direction correlation unit 15 may estimate the final number of moving objects.

図6のフローに戻る。
位置移動方向相関部15は、時刻kの物体位置データによって特定されているすべての移動物体に対して推定速度を推定したか否かを判定する(ステップST604)。
ステップST604において、時刻kの物体位置データによって特定されているすべての移動物体に対して推定速度を推定していないと判定した場合(ステップST604の“NO”の場合)、ステップST603に戻り、以降の処理を繰り返す。
Returning to the flow of FIG.
The position movement direction correlation unit 15 determines whether or not the estimated speed has been estimated for all the moving objects specified by the object position data at time k (step ST604).
If it is determined in step ST604 that the estimated speed has not been estimated for all moving objects specified by the object position data at time k (in the case of “NO” in step ST604), the process returns to step ST603, and thereafter Repeat the process.

ステップST604において、時刻kの物体位置データによって特定されているすべての移動物体に対して推定速度を推定したと判定した場合(ステップST604の“YES”の場合)、位置移動方向相関部15は、時刻kの物体位置データによって特定されているすべての移動物体について、移動物体ごとに、通過時刻と、重心位置と、ステップST603において推定した推定速度を合わせて、融合データとして表示部16、および、記録部17へ出力する(ステップST605)。   When it is determined in step ST604 that the estimated speed is estimated for all moving objects specified by the object position data at time k (in the case of “YES” in step ST604), the position movement direction correlation unit 15 For all the moving objects specified by the object position data at time k, for each moving object, the passing time, the center of gravity position, and the estimated speed estimated in step ST603 are combined, and the display unit 16 as fusion data, and It outputs to the recording part 17 (step ST605).

表示部16は、位置移動方向相関部15から出力された融合データに基づく情報を表示する。表示部16が表示する情報は、例えば、移動物体の個数、各移動物体の重心位置、および、推定速度である。また、推定速度には移動方向の情報も含まれているので、表示部16は、例えば、単位時間当たりに測距センサ200の観測範囲54を通路のx正方向、または、x負方向へ通過した移動物体の個数を表示することもできる。
表示部16に表示させる情報は、予め設定された条件に基づき決められるようにすればよい。これに限らず、使用者が、入力装置(図示省略)から表示部16に表示させる情報を、予め設定しておくようにしてもよいし、あるいは、使用者が、表示中に表示させる情報を切り替え可能とすることもできる。
The display unit 16 displays information based on the fusion data output from the position movement direction correlation unit 15. The information displayed on the display unit 16 is, for example, the number of moving objects, the position of the center of gravity of each moving object, and the estimated speed. In addition, since the estimated speed includes information on the moving direction, the display unit 16 passes the observation range 54 of the distance measuring sensor 200 per unit time in the x positive direction or the x negative direction of the passage, for example. It is also possible to display the number of moved objects.
The information displayed on the display unit 16 may be determined based on preset conditions. Not limited to this, information to be displayed on the display unit 16 by the user from an input device (not shown) may be set in advance, or information to be displayed by the user during display. It can also be made switchable.

記録部17は、位置移動方向相関部15から出力された融合データを記録する。記録部17が記録する情報は、例えば、移動物体の個数、各移動物体の重心位置、および、推定速度である。また、記録部17には、例えば、単位時間当たりに測距センサ200の観測範囲54を通路のx正方向、または、x負方向へ通過した移動物体の個数が記録されるものとしてもよい。
記録部17に記録させる情報は、予め設定された条件に基づき決められるようにすればよい。これに限らず、使用者が、入力装置(図示省略)から記録部17に記録させる情報を予め設定しておくようにしてもよいし、あるいは、使用者が、記録させる情報を変更可能とすることもできる。
The recording unit 17 records the fusion data output from the position movement direction correlation unit 15. The information recorded by the recording unit 17 is, for example, the number of moving objects, the position of the center of gravity of each moving object, and the estimated speed. Further, for example, the number of moving objects that have passed through the observation range 54 of the distance measuring sensor 200 in the x positive direction or the x negative direction of the passage per unit time may be recorded in the recording unit 17.
The information to be recorded in the recording unit 17 may be determined based on preset conditions. However, the present invention is not limited to this, and information to be recorded in the recording unit 17 by an input device (not shown) may be set in advance, or the information to be recorded can be changed by the user. You can also

以上のように、この実施の形態1によれば、1つの検出箇所に配置された1台の映像取得センサ300と1台の測距センサ200とによって、移動物体の個数、位置、および、移動方向を含む移動速度を推定することができる。
一般に、受光素子のみを要する映像取得センサに比べ、投光素子と受光素子をともに備える測距センサの方が、構成する部品数が多く、また、経年劣化を補正する頻度が高いため、製造時、運用時の費用が高額になる。この実施の形態1に係る移動物体検出装置100では、1つの検出箇所に対して、レーザセンサ等の測距センサ200を1台しか必要としないため、測距センサを複数用いる方法に比べ、少ない費用で同じ機能を実現できる。
As described above, according to the first embodiment, the number, position, and movement of moving objects are achieved by one image acquisition sensor 300 and one distance measuring sensor 200 arranged at one detection location. The moving speed including the direction can be estimated.
In general, a distance measurement sensor equipped with both a light projecting element and a light receiving element has more components and more frequently corrects aging deterioration than an image acquisition sensor that requires only a light receiving element. , Operating costs are high. In the moving object detection device 100 according to the first embodiment, only one distance measuring sensor 200 such as a laser sensor is required for one detection point, so that the number is smaller than a method using a plurality of distance measuring sensors. The same function can be realized at a cost.

また、この実施の形態1によれば、1箇所に設置された1台の測距センサ200の投光素子によって移動物体の移動方向を含む移動速度を推定できるため、複数箇所にスリット光を投光する方式に比べ、設置条件の制約が少なく、また、設置工事の費用が少なくて済む。   Further, according to the first embodiment, since the moving speed including the moving direction of the moving object can be estimated by the light projecting element of one distance measuring sensor 200 installed at one place, slit light is projected at a plurality of places. There are fewer restrictions on the installation conditions and the cost of installation work can be reduced compared to the method of lighting.

また、この実施の形態1によれば、映像取得センサ300と1次元方向のみを走査する測距センサ200によって移動物体の個数、位置、移動方向を推定することができる。一般に、1次元方向を走査する測距センサ200は、2次元方向を走査する測距センサに比べ、走査に要する機器および処理の分だけ製造時、設置工事時、運用時の費用が少なくて済む。そのため、2次元方向を走査するレーザセンサ等の測距センサを用いる方法に比べ、少ない費用で同じ機能を実現できる。   Further, according to the first embodiment, the number, position, and moving direction of a moving object can be estimated by the image acquisition sensor 300 and the distance measuring sensor 200 that scans only in a one-dimensional direction. In general, the distance measuring sensor 200 that scans in a one-dimensional direction requires less costs for manufacturing, installation work, and operation than the distance measuring sensor that scans in a two-dimensional direction. . Therefore, the same function can be realized at a lower cost compared to a method using a distance measuring sensor such as a laser sensor that scans in a two-dimensional direction.

また、測距センサ200は、測距センサ200が照射するレーザ等の照射方向における移動物体の形状も観測することができるため、映像取得センサ300に比べ移動物体の位置推定誤差が小さく、かつ、近接する複数の移動物体に対する各移動物体の区別が容易である。よって、実施の形態1によれば、可視光カメラ等の映像取得センサ300のみを用いる方法に比べ、移動物体の個数および位置の推定精度が高い。   Further, since the distance measuring sensor 200 can also observe the shape of the moving object in the irradiation direction of the laser or the like irradiated by the distance measuring sensor 200, the position estimation error of the moving object is smaller than the image acquisition sensor 300, and It is easy to distinguish each moving object from a plurality of adjacent moving objects. Therefore, according to the first embodiment, the estimation accuracy of the number and positions of moving objects is higher than the method using only the video acquisition sensor 300 such as a visible light camera.

また、この実施の形態1によれば、映像取得センサ300の映像について、画素の輝度および強度を基に画素ごとの推定速度を算出し、移動物体の移動方向を推定するようにした。よって、映像取得センサ300の解像度が低く移動物体観測時の形状が不明瞭な場合、例えば、移動物体の大きさに対し映像の画素が粗い場合や移動物体の輪郭の一部が欠ける場合において、可視光カメラ等の映像取得センサ300のみを用いる方法に比べ、移動方向推定精度の劣化が少ない。   Further, according to the first embodiment, the estimated speed for each pixel is calculated based on the luminance and intensity of the pixel for the image of the image acquisition sensor 300, and the moving direction of the moving object is estimated. Therefore, when the resolution of the image acquisition sensor 300 is low and the shape at the time of moving object observation is unclear, for example, when the pixel of the image is rough with respect to the size of the moving object or when a part of the outline of the moving object is missing, Compared to the method using only the video acquisition sensor 300 such as a visible light camera, the movement direction estimation accuracy is less deteriorated.

また、この実施の形態1によれば、移動物体の個数は測距センサ200の観測結果を元に推定するようにしたので、映像に移動物体の影が映っている場合や、背景のスクリーンで動画が再生されている場合等に、背景における実体のない輝度強度の変化を移動物体と誤って判定することなく、移動物体の個数を推定することができる。   Further, according to the first embodiment, since the number of moving objects is estimated based on the observation result of the distance measuring sensor 200, when the shadow of the moving object is reflected in the image or on the background screen When a moving image is being reproduced, the number of moving objects can be estimated without erroneously determining a change in luminance intensity with no substance in the background as a moving object.

実施の形態2.
実施の形態1では、映像取得センサ300によって取得された映像上において移動物体の輝度および強度が連続であることを前提に、測距センサ200からの測距情報に基づく移動物体の重心位置と、映像取得センサ300からの映像に基づく画素速度とを、同じ時刻フレーム内で対応付けるようにしていた。
しかし、実際は、例えば光源照度の偏りや、背景色の変化、移動物体の回転および変形、夜間撮影時の増感ノイズ等によって、移動物体の輝度強度が不連続に変化する。このような場合、移動物体の画素速度が一時的に真の移動物体の速度と大きく異なる値となり、ある時刻フレームの画素速度上において移動物体が消失する事態が起こり得る。
そこで、この実施の形態2では、複数の時刻フレームの画素速度から、各移動物体の推定速度の候補を複数通り設定し、各候補の中から尤もらしい推定速度を判定する実施の形態について説明する。
Embodiment 2. FIG.
In the first embodiment, on the assumption that the luminance and intensity of the moving object are continuous on the video acquired by the video acquisition sensor 300, the center of gravity position of the moving object based on the distance measurement information from the distance measurement sensor 200, The pixel speed based on the video from the video acquisition sensor 300 is associated in the same time frame.
However, in reality, the luminance intensity of the moving object changes discontinuously due to, for example, a deviation in illuminance of the light source, a change in background color, rotation and deformation of the moving object, sensitization noise during night photographing, and the like. In such a case, the pixel speed of the moving object temporarily becomes a value greatly different from the speed of the true moving object, and the moving object may disappear on the pixel speed of a certain time frame.
Therefore, in this second embodiment, an embodiment will be described in which a plurality of candidates for the estimated speed of each moving object are set from the pixel velocities of a plurality of time frames, and a likely estimated speed is determined from each candidate. .

この実施の形態2の移動物体検出システムの構成は、実施の形態1において図1を用いて説明したものと同様であるため、重複した説明を省略する。
また、測距センサ200と映像取得センサ300の設置状況、および、測距センサ200と映像取得センサ300の観測条件についても、例えば、実施の形態1において、図2,図3を用いて説明したとおりであるので、重複した説明を省略する。
Since the configuration of the moving object detection system according to the second embodiment is the same as that described with reference to FIG. 1 in the first embodiment, a duplicate description is omitted.
In addition, the installation status of the distance measurement sensor 200 and the image acquisition sensor 300 and the observation conditions of the distance measurement sensor 200 and the image acquisition sensor 300 have also been described with reference to FIGS. Therefore, a duplicate description is omitted.

図8は、この発明の実施の形態2に係る移動物体検出装置100aの構成図である。
図8において、図4を用いて説明した実施の形態1に係る移動物体検出装置100と同様の構成については、同じ符号を付して重複した説明を省略する。
この発明の実施の形態2に係る移動物体検出装置100aは、実施の形態1に係る移動物体検出装置100とは、融合処理部103が、位置移動方向相関部15に代えて、移動方向仮説設定部18と移動方向決定部19とから構成される点が異なるのみである。
この実施の形態2において、物体位置データ作成部12は、物体位置データを移動方向仮説設定部18に出力する。また、画素移動方向データ作成部14は、画素速度データを、移動方向仮説設定部18および移動方向決定部19に出力する。
FIG. 8 is a block diagram of a moving object detection device 100a according to Embodiment 2 of the present invention.
In FIG. 8, the same components as those in the moving object detection device 100 according to Embodiment 1 described with reference to FIG.
The moving object detection device 100a according to the second embodiment of the present invention is different from the moving object detection device 100 according to the first embodiment in that the fusion processing unit 103 sets a moving direction hypothesis instead of the position movement direction correlation unit 15. The only difference is that the unit 18 and the movement direction determining unit 19 are configured.
In the second embodiment, the object position data creation unit 12 outputs the object position data to the movement direction hypothesis setting unit 18. Further, the pixel movement direction data creation unit 14 outputs the pixel velocity data to the movement direction hypothesis setting unit 18 and the movement direction determination unit 19.

移動方向仮説設定部18は、物体位置データ作成部12から出力された物体位置データと、画素移動方向データ作成部14から出力された時刻フレームの画素速度データを取得し、測距センサ200で観測された移動物体の移動速度の候補値を複数通り設定する。ここでは、移動方向仮説設定部18が設定する、移動物体の移動速度の候補値を、速度仮説という。
移動方向仮説設定部18は、速度仮説を移動方向決定部19に出力する。
The movement direction hypothesis setting unit 18 acquires the object position data output from the object position data generation unit 12 and the pixel velocity data of the time frame output from the pixel movement direction data generation unit 14, and is observed by the distance measuring sensor 200. A plurality of candidate values of the moving speed of the moving object thus set are set. Here, the candidate value of the moving speed of the moving object set by the moving direction hypothesis setting unit 18 is referred to as a speed hypothesis.
The movement direction hypothesis setting unit 18 outputs the speed hypothesis to the movement direction determination unit 19.

移動方向決定部19は、画素移動方向データ作成部14から出力された時刻フレームの画素速度データと、移動方向仮説設定部18から出力された移動物体の速度仮説を取得し、速度仮説の中から、移動物体の移動速度を決定する。移動方向決定部19は、移動物体の重心位置が測距センサの観測範囲54を通過した時刻、x軸およびy軸上の重心位置、x軸およびy軸方向の推定速度を表す融合データを、表示部16および記録部17に出力する。   The movement direction determination unit 19 acquires the pixel velocity data of the time frame output from the pixel movement direction data creation unit 14 and the velocity hypothesis of the moving object output from the movement direction hypothesis setting unit 18, and from among the velocity hypotheses. The moving speed of the moving object is determined. The moving direction determination unit 19 obtains fusion data representing the time at which the center of gravity of the moving object passes through the observation range 54 of the distance measuring sensor, the center of gravity on the x-axis and the y-axis, and the estimated speed in the x-axis and y-axis directions The data is output to the display unit 16 and the recording unit 17.

移動物体検出装置100aのハードウェア構成は、実施の形態1において図5A,図5Bを用いて説明したものと同様であるため、重複した説明を省略する。   Since the hardware configuration of the moving object detection device 100a is the same as that described with reference to FIGS. 5A and 5B in the first embodiment, a duplicate description is omitted.

この実施の形態2に係る移動物体検出装置100aの動作について説明する。
図9は、この発明の実施の形態2に係る移動物体検出装置100aの動作を説明するフローチャートである。
なお、以下の説明において、kはN+1以上の自然数とする。パラメタNについては後述する。
The operation of the moving object detection device 100a according to the second embodiment will be described.
FIG. 9 is a flowchart for explaining the operation of the moving object detection device 100a according to the second embodiment of the present invention.
In the following description, k is a natural number equal to or greater than N + 1. The parameter N will be described later.

測距センサ処理部101は、測距センサ200が取得した複数の時刻フレームの測距情報から、時刻kに重心位置が測距センサ200の観測範囲54を通過した移動物体を抽出し、時刻kの物体位置データを作成する(ステップST901)。具体的な動作は、実施の形態1で説明した図6のステップST601と同様である。測距センサ処理部101の物体位置データ作成部12は、作成した物体位置データを移動方向仮説設定部18に出力する。   The ranging sensor processing unit 101 extracts a moving object whose center of gravity has passed through the observation range 54 of the ranging sensor 200 at time k from ranging information of a plurality of time frames acquired by the ranging sensor 200. Object position data is created (step ST901). The specific operation is the same as step ST601 in FIG. 6 described in the first embodiment. The object position data creation unit 12 of the distance measurement sensor processing unit 101 outputs the created object position data to the movement direction hypothesis setting unit 18.

移動物体検出装置100aの制御部(図示省略)は、変数iを初期化する(ステップST902)。ここでは、変数iの初期値は0とする。
映像取得センサ処理部102は、映像取得センサ300が取得した複数の時刻フレームの映像から、時刻k−iにおける画素速度データを作成する(ステップST903)。具体的な画素速度データの作成方法は、実施の形態1で説明した図6のステップST602と同様である。映像取得センサ処理部102の画素移動方向データ作成部14は、時刻k−iにおける画素速度データを移動方向仮説設定部18および移動方向決定部19に出力する。
The control unit (not shown) of moving object detection apparatus 100a initializes variable i (step ST902). Here, the initial value of the variable i is 0.
Video acquisition sensor processing section 102 creates pixel velocity data at time ki from the video of a plurality of time frames acquired by video acquisition sensor 300 (step ST903). A specific method for creating pixel velocity data is the same as that in step ST602 of FIG. 6 described in the first embodiment. The pixel movement direction data creation unit 14 of the image acquisition sensor processing unit 102 outputs the pixel velocity data at time k−i to the movement direction hypothesis setting unit 18 and the movement direction determination unit 19.

移動方向仮説設定部18は、ステップST901において物体位置データ作成部12が出力した時刻kの物体位置データと、ステップST903において画素移動方向データ作成部14が出力した時刻k−iの画素速度データとを用いて、時刻kの物体位置データに含まれる、移動物体に対して、速度仮説を設定する(ステップST904)。   The movement direction hypothesis setting unit 18 includes the object position data at time k output from the object position data generation unit 12 in step ST901, and the pixel velocity data at time k-i output from the pixel movement direction data generation unit 14 in step ST903. Is used to set a speed hypothesis for the moving object included in the object position data at time k (step ST904).

ここで、図10は、i=1の場合を例として、図9のステップST904における、移動方向仮説設定部18による速度仮説の設定の動作を表した概念図である。
移動方向仮説設定部18は、時刻kの移動物体の重心位置61に対して、時刻k−1における移動物体の重心位置の推定値、すなわち、時刻k−1の物体位置推定値64と、時刻k−1の物体位置推定値64を中心とする物体サイズ63以内の時刻k−1の画素速度65を抽出する。そして、移動方向仮説設定部18は、抽出した時刻k−1の画素速度65から、移動物体の速度仮説vを算出する。
Here, FIG. 10 is a conceptual diagram showing an operation of setting a speed hypothesis by the movement direction hypothesis setting unit 18 in step ST904 of FIG. 9 taking the case of i = 1 as an example.
The movement direction hypothesis setting unit 18 has an estimated value of the center of gravity position of the moving object at time k−1, that is, an object position estimated value 64 at time k−1, A pixel velocity 65 at time k−1 within the object size 63 centered on the object position estimated value 64 of k−1 is extracted. Then, the moving direction hypothesis setting unit 18 calculates a moving object speed hypothesis v 1 from the extracted pixel speed 65 at time k−1.

図11は、図9のステップST904の動作を詳細に説明するフローチャートである。
ここでは、対象とする、ある移動物体の重心位置を(x,y)とし、速度仮説をv=(vu,x,vu,y)とする。xは移動物体の重心位置のx軸位置、yは移動物体の重心位置のy軸位置とし、vu,x,vu,yは、それぞれ、推定速度のx軸方向成分、y軸方向成分とする。なお、測距センサ200の観測範囲54は、x軸方向に狭いため、xdは測距センサ200の観測範囲54の中心のx軸位置としてもよい。
FIG. 11 is a flowchart for explaining in detail the operation of step ST904 of FIG.
Here, the center of gravity position of a certain moving object as a target is (x d , y d ), and the velocity hypothesis is v u = (v u, x , v u, y ). x d is the x-axis position of the center of gravity of the moving object, y d is the y-axis position of the center of gravity of the moving object, and v u, x , v u, y are the x-axis direction component of the estimated speed and the y-axis, respectively. The direction component. Since the observation range 54 of the distance measuring sensor 200 is narrow in the x-axis direction, xd may be the x-axis position at the center of the observation range 54 of the distance measuring sensor 200.

また、時刻k−iの画素速度データをVk−i,x(x,y)およびVk−i,y(x,y)と表す。ここで、xおよびyは、それぞれ、q番目の画素のx軸中心位置、y軸中心位置を表し、Vk−i,x(x,y)は画素速度のx軸方向成分、Vk−i,y(x,y)は、画素速度のy軸方向成分を表すものとする。なお、画素の総数はNとする。Also, the pixel velocity data at time k-i is represented as Vk-i , x ( xq , yq ) and Vk-i , y ( xq , yq ). Here, x q and y q represent the x-axis center position and the y-axis center position of the q-th pixel, respectively, and V k−i , x (x q , y q ) are x-axis direction components of the pixel velocity. , V k−i , y (x q , y q ) represent the y-axis direction component of the pixel velocity. Incidentally, the total number of pixels is set to N p.

まず、移動方向仮説設定部18は、画素移動方向データ作成部14から取得した映像、すなわち、映像取得センサ300によって取得された映像のうち、未選択の画素を1つ選択する(ステップST1101)。以下、当該ステップST1101において移動方向仮説設定部18が選択した画素を「選択画素」といい、当該選択画素のx軸中心位置、y軸中心位置を(x,y)とする。First, the movement direction hypothesis setting unit 18 selects one unselected pixel from the video acquired from the pixel movement direction data creation unit 14, that is, the video acquired by the video acquisition sensor 300 (step ST1101). Hereinafter, the pixel selected by the movement direction hypothesis setting unit 18 in step ST1101 is referred to as a “selected pixel”, and the x-axis center position and the y-axis center position of the selected pixel are (x s , y s ).

移動方向仮説設定部18は、選択画素の近傍の時刻k−iの画素速度データから、選択画素の平均速度v=(vm,x,vm,y)を算出する(ステップST1102)。ここで、vm,x、vm,yは、平均速度のx軸方向成分、y軸方向成分とする。
平均速度v=(vm,x,vm,y)は、以下の式(6)および式(7)より算出する。

Figure 0006351917

Figure 0006351917
ここで、W(x,y;x,y)は、物体サイズ63を表す関数であり、任意の(x,y)に対して以下の式(8)を満たす関数である。
Figure 0006351917
例えば、(x,y)を中心に円形の物体サイズ63を定義する場合、以下の式(9)のように定義する。
Figure 0006351917
ここで、物体サイズ63の半径を表すパラメタをRとし、以下の式(10)を満たす画素(xq’,yq’)の個数をn(R)とする。
Figure 0006351917
また、想定する移動物体の種類や、映像取得センサ300における画素速度データの誤差および測距センサ200の物体位置データの誤差に応じて、物体サイズ63の大きさを変えたり、形状を楕円や長方形等にしてもよい。本実施の形態のように、歩行者を検出対象としている場合、物体サイズ63は、上方から見下ろした歩行者の平均的な大きさを表すものとすればよい。
また、上記のように物体サイズ63内部の画像速度データを一様に加算平均する他に、物体サイズ63内で重み付け平均するように関数W(x,y;x,y)の値に傾斜を持たせてもよい。Movement direction hypothesis setting unit 18, the pixel rate data at time k-i in the vicinity of the selected pixel, and calculates the average velocity v m = the selected pixel (v m, x, v m , y) to (step ST1102). Here, v m, x and v m, y are the x-axis direction component and the y-axis direction component of the average speed.
The average velocity v m = (v m, x , v m, y) is calculated from the following equation (6) and (7).
Figure 0006351917

Figure 0006351917
Here, W (x q , y q ; x s , y s ) is a function representing the object size 63, and is a function that satisfies the following expression (8) for any (x s , y s ). is there.
Figure 0006351917
For example, when the circular object size 63 is defined around (x s , y s ), it is defined as the following formula (9).
Figure 0006351917
Here, a parameter representing the radius of the object size 63 is R, and the number of pixels (x q ′ , y q ′ ) satisfying the following expression (10) is n (R).
Figure 0006351917
Further, the size of the object size 63 is changed or the shape is changed to an ellipse or a rectangle according to the type of the moving object to be assumed, the error in the pixel velocity data in the image acquisition sensor 300, and the error in the object position data in the distance measuring sensor 200. You may make it. As in the present embodiment, when a pedestrian is the detection target, the object size 63 may represent the average size of the pedestrian looking down from above.
In addition to uniformly adding and averaging the image speed data inside the object size 63 as described above, the function W (x q , y q ; x s , y s ) is weighted and averaged within the object size 63. The value may be inclined.

移動方向仮説設定部18は、ステップST1102で算出した平均速度に基づき、選択画素を平均速度で時刻kへ外挿した位置を算出する(ステップST1103)。ここでは、選択画素を平均速度で時刻kへ外挿した位置を、外挿位置という。   Based on the average speed calculated in step ST1102, the movement direction hypothesis setting unit 18 calculates a position where the selected pixel is extrapolated to the time k at the average speed (step ST1103). Here, the position where the selected pixel is extrapolated at time k to the average speed is referred to as an extrapolation position.

移動方向仮説設定部18は、外挿位置(x,y)を、移動物体は時刻k−iから時刻kの間に等速直進すると仮定し、以下の式(11)および式(12)から算出する。

Figure 0006351917

Figure 0006351917
ここで、Tk−i,kは時刻k−iから時刻kのフレーム間経過時間を表す。特に、i=0の場合はTk,k=0とする。
また、式(11)および式(12)では、移動物体の運動モデルとして等速直進運動を仮定したが、移動物体の種類に応じて、例えば等加速度直進運動など別の運動モデルを仮定し外挿位置を算出してもよい。The moving direction hypothesis setting unit 18 assumes the extrapolated position (x e , y e ) and the moving object travels straight at a constant speed between time k-i and time k, and the following equations (11) and (12 ).
Figure 0006351917

Figure 0006351917
Here, T k-i, k represents the elapsed time between frames from time k-i to time k. In particular, when i = 0, T k, k = 0.
Also, in equations (11) and (12), constant-velocity linear motion is assumed as the motion model of the moving object. However, depending on the type of the moving object, another motion model such as constant-acceleration linear motion is assumed. The insertion position may be calculated.

移動方向仮説設定部18は、ステップST1103で算出した外挿位置と、移動物体の重心位置の残差を算出する(ステップST1104)。
移動方向仮説設定部18は、時刻k−iの画素速度データから算出した外挿位置(x,y)と、時刻kの物体位置データにおける移動物体の重心位置(x,y)との残差Δrを、以下の式(13)により算出する。

Figure 0006351917
ここで、行列右上のtは行列の転置を表し、行列右上の「−1」は逆行列を表す。
また、σ 、σ 、σxy は、外挿位置と移動物体の重心位置との残差に関する揺らぎの大きさを表すパラメタとし、σ はx軸成分の分散、σ はy軸成分の分散、σxy はx成分とy成分の共分散を表す。例えば、画素速度データのy軸方向成分が、x軸方向成分に比べ誤差が大きい場合、σ をσ よりも大きな値に設定することで、成分ごとの揺らぎの違いを考慮した残差を算出できる。
または、外挿位置と移動物体の重心位置との残差に関して揺らぎの数値化が困難な場合等では、各成分の揺らぎは独立かつ一様と仮定して、より簡単な、以下の式(14)によって残差Δrを求めてもよい。
Figure 0006351917
The moving direction hypothesis setting unit 18 calculates the residual between the extrapolated position calculated in step ST1103 and the gravity center position of the moving object (step ST1104).
The moving direction hypothesis setting unit 18 extrapolates the position (x e , y e ) calculated from the pixel velocity data at time k−i and the center of gravity position (x d , y d ) of the moving object in the object position data at time k. Is calculated by the following equation (13).
Figure 0006351917
Here, t in the upper right of the matrix represents transposition of the matrix, and “−1” in the upper right of the matrix represents an inverse matrix.
Also, σ x 2 , σ y 2 , and σ xy 2 are parameters representing the magnitude of fluctuation related to the residual between the extrapolated position and the center of gravity of the moving object, and σ x 2 is the variance of the x-axis component, σ y 2 represents the variance of the y-axis component, and σ xy 2 represents the covariance of the x component and the y component. For example, when the y-axis direction component of the pixel velocity data has a larger error than the x-axis direction component, by setting σ y 2 to a value larger than σ x 2, it is possible to consider the difference in fluctuation for each component. The difference can be calculated.
Or, in the case where it is difficult to quantify the fluctuation of the residual between the extrapolated position and the center of gravity position of the moving object, the fluctuation of each component is assumed to be independent and uniform, and a simpler equation (14 ) To obtain the residual Δr.
Figure 0006351917

移動方向仮説設定部18は、ステップST1104で算出した残差Δrが、ステップST1101〜ステップST1107のループ処理の中で既に算出された他の残差に比べ、最小であるか否かを判定する(ステップST1105)。   The moving direction hypothesis setting unit 18 determines whether or not the residual Δr calculated in step ST1104 is minimum compared to other residuals already calculated in the loop processing of steps ST1101 to ST1107 ( Step ST1105).

ステップST1105において、他の残差に比べ、最小ではないと判断した場合、すなわち、直前のステップST1104で算出した残差が暫定的に最小値ではない場合(ステップST1105の“NO”の場合)、ステップST1106の処理をスキップして、ステップST1107へ進む。   When it is determined in step ST1105 that it is not minimum compared to other residuals, that is, when the residual calculated in the immediately preceding step ST1104 is not temporarily minimum (in the case of “NO” in step ST1105), The process of step ST1106 is skipped and the process proceeds to step ST1107.

ステップST1105において、他の残差に比べ、最小であると判定した場合、すなわち、直前のステップST1104で算出した残差が暫定的に最小値である場合(ステップST1105の“YES”の場合)、移動方向仮説設定部18は、ステップST1102で算出した平均速度vを、時刻kの重心位置が(x,y)である移動物体の速度仮説vとして設定する(ステップST1106)。なお、ステップST1101〜ステップST1107のループ処理中で既に別の値が速度仮説として設定されていた場合、移動方向仮説設定部18は、ステップST1102で算出した平均速度vを新しい平均速度として置き換える。When it is determined in step ST1105 that it is minimum compared to other residuals, that is, when the residual calculated in the immediately preceding step ST1104 is provisionally minimum (in the case of “YES” in step ST1105), The moving direction hypothesis setting unit 18 sets the average velocity v m calculated in step ST1102 as the velocity hypothesis v u of the moving object whose center of gravity position at time k is (x d , y d ) (step ST1106). Note that if another value already been set as a speed hypothesis in the loop process of steps ST1101~ step ST 1107, the moving direction hypothesis setting unit 18 replaces the average velocity v m calculated in step ST1102 as the new average speed.

移動方向仮説設定部18は、時刻k−iの画素速度データ内のすべての画素が選択されたか否かを判定する(ステップST1107)。   The moving direction hypothesis setting unit 18 determines whether or not all the pixels in the pixel velocity data at the time k-i have been selected (step ST1107).

ステップST1107において、すべての画素が選択されていないと判定した場合(ステップST1107の“NO”の場合)、ステップST1101へ戻り、以降の処理を繰り返す。   If it is determined in step ST1107 that all the pixels are not selected (in the case of “NO” in step ST1107), the process returns to step ST1101, and the subsequent processing is repeated.

ステップST1107において、すべての画素が選択されたと判定した場合(ステップST1107の“YES”の場合)、図11の処理を終了する。   If it is determined in step ST1107 that all the pixels have been selected (in the case of “YES” in step ST1107), the processing in FIG. 11 ends.

以上のように、図11の処理を実行することで、時刻k−iの画素速度データをもとに、移動物体の速度仮説を設定する。
なお、以上の図11の処理では、時刻k−iの画素速度データ内のすべての画素に対して平均速度、外挿位置、移動物体の重心位置との残差を算出し、速度仮説を設定したが、例えば、移動物体の想定最大速度から選択する画素を制限することで処理負荷を軽減させてもよい。
As described above, the speed hypothesis of the moving object is set based on the pixel velocity data at time k-i by executing the processing of FIG.
In the process of FIG. 11 described above, the average hypothesis, the extrapolation position, and the residual position of the center of gravity of the moving object are calculated for all the pixels in the pixel velocity data at time k-i, and the velocity hypothesis is set. However, for example, the processing load may be reduced by limiting the pixels to be selected from the assumed maximum speed of the moving object.

また、以上の図11の処理では、時刻k−iの画素速度データをもとに速度仮説を1つのみ設定するが、残差の大きさに応じて時刻k−iの画素速度データから速度仮説を複数設定してもよい。   Further, in the process of FIG. 11 described above, only one speed hypothesis is set based on the pixel speed data at the time k-i, but the speed is calculated from the pixel speed data at the time k-i according to the size of the residual. A plurality of hypotheses may be set.

また、以上の図11の処理では、画素移動方向データ作成部14がx軸及びy軸方向の速度を算出する場合について説明したが、画素移動方向データ作成部14が移動方向のみを算出する場合は、例えばあらかじめ設定された歩行者の典型的な移動速度を表すパラメタに基づき、推定された移動方向をx軸及びy軸方向の速度に変換し、同様に処理するとしてもよい。
またここでは、画素移動方向データ作成部14は、物体の移動方向を表す物理量の一例としてx軸およびy軸方向の速度を算出することとしたが、各移動物体の移動方向のみを推定する目的においては、必ずしも速度を算出する必要はない。例えば、移動方向のみを表す大きさ一定のベクトルや、移動方向を表す方位角を算出することとしてもよい。この場合、移動方向仮説設定部18が設定する物体の速度仮説は移動方向仮説ともいうこととする。
Further, in the processing of FIG. 11 described above, the case where the pixel movement direction data creation unit 14 calculates the velocity in the x-axis and y-axis directions has been described. However, the pixel movement direction data creation unit 14 calculates only the movement direction. For example, based on a parameter representing a typical moving speed of a pedestrian set in advance, the estimated moving direction may be converted into speeds in the x-axis and y-axis directions and processed in the same manner.
Here, the pixel movement direction data creation unit 14 calculates the velocity in the x-axis and y-axis directions as an example of the physical quantity representing the movement direction of the object, but the purpose is to estimate only the movement direction of each moving object. In, it is not always necessary to calculate the speed. For example, a vector having a constant size representing only the moving direction or an azimuth angle representing the moving direction may be calculated. In this case, the object speed hypothesis set by the movement direction hypothesis setting unit 18 is also referred to as a movement direction hypothesis.

図9のフローチャートに戻る。
移動物体検出装置100aの制御部(図示省略)は、変数iがパラメタN以上か否かを判定する(ステップST905)。
パラメタNは、速度仮説を設定する際に参照する過去の時刻フレームの個数を表す。パラメタNは、例えば、時刻k−Nから時刻kの間で目標の運動を等速直進とする仮定が妥当となる時刻フレーム数の最大値を設定する。
Returning to the flowchart of FIG.
The control unit (not shown) of moving object detection device 100a determines whether variable i is greater than or equal to parameter N (step ST905).
The parameter N represents the number of past time frames to be referred to when setting the speed hypothesis. The parameter N sets, for example, the maximum value of the number of time frames for which the assumption that the target motion is going straight ahead at a constant speed from time k-N to time k is appropriate.

ステップST905において、変数iがパラメタN未満と判定した場合(ステップST905の“NO”の場合)、移動方向仮説設定部18は、変数iに1を加算し(ステップST906)、ステップST903に戻る。   If it is determined in step ST905 that the variable i is less than the parameter N (in the case of “NO” in step ST905), the movement direction hypothesis setting unit 18 adds 1 to the variable i (step ST906), and the process returns to step ST903.

ステップST905において、変数iがパラメタN以上と判定した場合(ステップST905の“YES”の場合)、移動物体検出装置100aの制御部は、変数jを初期化する(ステップST907)。変数jの初期値は1である。すなわち、制御部は、変数jに1を代入する。制御部は、変数jを初期化した旨の情報を、映像取得センサ処理部102に出力する。   If it is determined in step ST905 that the variable i is equal to or greater than the parameter N (“YES” in step ST905), the control unit of the moving object detection device 100a initializes the variable j (step ST907). The initial value of the variable j is 1. That is, the control unit substitutes 1 for the variable j. The control unit outputs information indicating that the variable j has been initialized to the video acquisition sensor processing unit 102.

映像取得センサ処理部102は、映像取得センサ300が取得した複数の時刻フレームの映像から、時刻k+jにおける画素速度データを作成する(ステップST908)。具体的な画素速度データの作成方法は、実施の形態1で説明した図6のステップST602と同様である。映像取得センサ処理部102の画素移動方向データ作成部14は、時刻k+jにおける画素速度データを移動方向仮説設定部18および移動方向決定部19に出力する。   Video acquisition sensor processing section 102 creates pixel velocity data at time k + j from videos of a plurality of time frames acquired by video acquisition sensor 300 (step ST908). A specific method for creating pixel velocity data is the same as that in step ST602 of FIG. 6 described in the first embodiment. The pixel movement direction data creation unit 14 of the video acquisition sensor processing unit 102 outputs the pixel velocity data at time k + j to the movement direction hypothesis setting unit 18 and the movement direction determination unit 19.

移動方向決定部19は、ステップST908で取得された時刻k+jの画素速度データを用いて、ステップST904で移動方向仮説設定部18が設定した移動物体の複数の速度仮説について、各速度仮説の尤もらしさを表す値を更新する(ステップST909)。ここでは、移動物体の速度仮説の尤もらしさを表す値を速度仮説の尤度という。
なお、各速度仮説の尤度は、ステップST908〜ステップST911の変数jに関するループ処理の中で逐次更新する。例えば、ある速度仮説vに関して、時刻k+jの画素速度データによって更新された尤度Li,k+jは、1つ前の変数jのループ処理で算出された尤度Li,k+j−1をもとに算出される。
The moving direction determination unit 19 uses the pixel velocity data at time k + j acquired in step ST908, and the likelihood of each velocity hypothesis for the plurality of moving velocity hypotheses set by the moving direction hypothesis setting unit 18 in step ST904. Is updated (step ST909). Here, the value representing the likelihood of the moving object's speed hypothesis is called the speed hypothesis likelihood.
Note that the likelihood of each speed hypothesis is sequentially updated in the loop processing relating to the variable j in steps ST908 to ST911. For example, for a certain speed hypothesis v i , the likelihood L i, k + j updated by the pixel speed data at time k + j is also the likelihood L i, k + j−1 calculated by the loop processing of the previous variable j. And calculated.

図12は、j=1およびj=2の場合を例として、図9のステップST909における、移動方向決定部19による速度仮説v、v、vの尤度の更新の動作を表した概念図である。
移動方向決定部19は、時刻kの移動物体の重心位置61に対して、各速度仮説をもとに時刻k+1の物体位置推定値66a〜66c、時刻k+2の物体位置推定値68a〜68cを算出する。また、移動方向決定部19は、各物体位置推定値を中心とする物体サイズ63内の時刻k+1および時刻k+2の画素速度67a〜67c、69a〜69cを時刻k+1および時刻k+2の画素速度データから抽出する。
そして、移動方向決定部19は、各時刻フレームにおいて、速度仮説と物体サイズ63内の画素速度との差異から、速度仮説の尤度を算出する。当該尤度は、時刻k以前の画素速度から設定した速度仮説と、時刻k+1以降の画素速度との整合の度合いを表し、時刻k+1以降の各時刻フレームを通して、速度仮説と物体サイズ63内の画素速度との差異が小さいほど高い値となる。
図12の例では、速度仮説vと、物体位置推定値66a周辺の画素速度67aと、物体位置推定値68a周辺の画素速度69aとの差異が、残りの速度仮説v、vに比べて小さいため、速度仮説vの尤度が速度仮説v、vの尤度に比べ大きな値となる。
FIG. 12 shows an operation of updating the likelihoods of the speed hypotheses v 0 , v 1 , v 2 by the moving direction determination unit 19 in step ST909 of FIG. 9, taking the case of j = 1 and j = 2 as an example. It is a conceptual diagram.
The moving direction determination unit 19 calculates object position estimated values 66a to 66c at time k + 1 and object position estimated values 68a to 68c at time k + 2 based on each speed hypothesis with respect to the center of gravity position 61 of the moving object at time k. To do. Further, the moving direction determination unit 19 extracts the pixel velocities 67a to 67c and 69a to 69c at time k + 1 and time k + 2 within the object size 63 centered on each estimated object position value from the pixel velocity data at time k + 1 and time k + 2. To do.
Then, the moving direction determination unit 19 calculates the likelihood of the speed hypothesis from the difference between the speed hypothesis and the pixel speed within the object size 63 in each time frame. The likelihood represents the degree of matching between the speed hypothesis set from the pixel speed before time k and the pixel speed after time k + 1, and the pixels in the speed hypothesis and the object size 63 are passed through each time frame after time k + 1. The smaller the difference from the speed, the higher the value.
In the example of FIG. 12, the velocity hypothesis v 1, and the pixel rate 67a near the object position estimate 66a, the difference between the pixel rate 69a of the peripheral object position estimates 68a, compared to the rest of the velocity hypothesis v 0, v 2 Therefore, the likelihood of the speed hypothesis v 1 is larger than the likelihoods of the speed hypotheses v 0 and v 2 .

以下、図9のステップST909の動作について詳細に説明する。
図13は、図9のステップST909の詳細な動作について説明するフローチャートである。
ここでは、対象とする、ある移動物体の重心位置を(x,y)とし、速度仮説をv=(vu,x,vu,y)とする。xは移動物体の重心位置のx軸位置、yは移動物体の重心位置のy軸位置とし、vu,x及びvu,yは推定速度のx軸方向成分、y軸方向成分とする。なお、測距センサ200の観測範囲54はx軸方向に狭いため、xは測距センサ200の観測範囲54の中心としてもよい。
また、時刻k+jの画素速度データをVk+j,x(x,y)およびVk+j,y(x,y)と表す。ここで、xおよびyはq番目の画素のx軸中心位置、y軸中心位置を表し、Vk+j,x(x,y)は画素速度のx軸方向成分、Vk+j,y(x,y)は画素速度のy軸方向成分を表すとする。なお画素の総数はNpとする。
Hereinafter, the operation of step ST909 in FIG. 9 will be described in detail.
FIG. 13 is a flowchart for describing detailed operation of step ST909 of FIG.
Here, the center of gravity position of a certain moving object as a target is (x d , y d ), and the velocity hypothesis is v u = (v u, x , v u, y ). x d is the x-axis position of the center of gravity of the moving object, y d is the y-axis position of the center of gravity of the moving object, and v u, x and v u, y are the x-axis direction component, y-axis direction component of the estimated speed, To do. Note that since the observation range 54 of the distance measurement sensor 200 is narrow in the x-axis direction, xd may be the center of the observation range 54 of the distance measurement sensor 200.
In addition, the pixel velocity data at time k + j is represented as V k + j, x (x q , y q ) and V k + j, y (x q , y q ). Here, x q and y q represent the x-axis center position and the y-axis center position of the q-th pixel, V k + j, x (x q , y q ) represents the x-axis direction component of the pixel velocity, V k + j, y Let (x q , y q ) represent the y-axis direction component of the pixel velocity. Note that the total number of pixels is N p .

移動方向決定部19は、時刻kの移動物体の重心位置(x,y)および速度仮説vより、速度仮説vに関する時刻k+jにおける物体位置推定値(xe,k+j,ye,k+j)を算出する(ステップST1301)。
移動方向決定部19は、物体位置推定値(xe,k+j,ye、k+j)を、移動物体が時刻kから時刻k+jの間に等速直進すると仮定し、以下の式(15)および式(16)から算出する。

Figure 0006351917

Figure 0006351917
ここで、Tk,k+jは時刻kから時刻k+jまでのフレーム間経過時刻を表す。
また、式(15)および(16)では、移動物体の運動モデルとして等速直進運動を仮定したが、移動方向決定部19は、移動物体の種類に応じて、例えば、等加速度直進運動など別の運動モデルを仮定し外挿位置を算出してもよい。Moving direction determination unit 19, the center of gravity of the moving object at time k (x d, y d) and the velocity hypothesis v u from, the object position estimate at time k + j on the velocity hypothesis v u (x e, k + j, y e, k + j ) is calculated (step ST1301).
The moving direction determination unit 19 assumes that the object position estimated value (x e, k + j , y e, k + j ) is traveling at a constant speed straight from time k to time k + j, and the following equations (15) and (15) Calculate from (16).
Figure 0006351917

Figure 0006351917
Here, T k, k + j represents the elapsed time between frames from time k to time k + j.
Further, in equations (15) and (16), a constant velocity linear motion is assumed as the motion model of the moving object. However, the moving direction determination unit 19 is different depending on the type of the moving object, such as a constant acceleration linear motion, for example. The extrapolation position may be calculated assuming the following motion model.

移動方向決定部19は、ステップST1301で算出した物体位置推定値と、時刻k+jの画素速度データとから、時刻k+jにおける移動物体近傍の平均速度vm,k+j=(vm,k+j,x,vm,k+j,y)を算出する(ステップST1302)。vm,k+j,x,vm,k+j,yは平均速度のx軸方向成分、y軸方向成分とする。
移動方向決定部19は、平均速度vm,k+j=(vm,k+j,x,vm,k+j,y)を、例えば図11のステップST1102と同様に、以下の式(17)および(18)より算出する。

Figure 0006351917

Figure 0006351917
ここで、W(x,y;xe、k+j,ye,k+j)は、物体サイズ63を表す関数であり、任意の(xe,k+j,ye,k+j)に対して、以下の式(19)を満たす関数である。
Figure 0006351917
例えば、(xe、k+j,ye、k+j)を中心に円形の物体サイズ63を定義する場合、以下の式(20)のように定義する。
Figure 0006351917
ここで、Rは物体サイズ63の半径を表すパラメタとし、n(R)は、以下の式(21)を満たす画素(xq’,yq’)の個数とする。
Figure 0006351917
また、想定する移動物体の種類や、映像取得センサ300における画素速度データの誤差及び測距センサ200の物体位置データの誤差に応じて、物体サイズ63の大きさを変えたり、形状を楕円や長方形等にしてもよい。本実施の形態のように、歩行者を検出対象としている場合、物体サイズ63は、上方から見下ろした歩行者の平均的な大きさを表すものとすればよい。
また、上記のように物体サイズ63内部の画像速度データを一様に加算平均する他に、物体サイズ63内で重み付け平均するように関数W(x,y;xe,k+j,ye,k+j)の値に傾斜を持たせてもよい。The moving direction determination unit 19 calculates the average velocity v m, k + j = (vm , k + j, x , v) near the moving object at time k + j from the estimated object position calculated at step ST1301 and the pixel velocity data at time k + j. m, k + j, y ) is calculated (step ST1302). v m, k + j, x , v m, k + j, y are the x-axis direction component and y-axis direction component of the average speed.
The moving direction determination unit 19 calculates the average speed v m, k + j = (vm , k + j, x , vm , k + j, y ), for example, as in step ST1102 of FIG. ).
Figure 0006351917

Figure 0006351917
Here, W (x q , y q ; x e, k + j , y e, k + j ) is a function representing the object size 63, and for an arbitrary (x e, k + j , y e, k + j ), This is a function that satisfies the equation (19).
Figure 0006351917
For example, when the circular object size 63 is defined around (x e, k + j , y e, k + j ), it is defined as the following equation (20).
Figure 0006351917
Here, R is a parameter representing the radius of the object size 63, and n (R) is the number of pixels (x q ′ , y q ′ ) that satisfy the following expression (21).
Figure 0006351917
Further, the size of the object size 63 is changed or the shape is changed to an ellipse or a rectangle according to the type of the moving object to be assumed, the error of the pixel velocity data in the image acquisition sensor 300, and the error of the object position data of the distance measuring sensor 200. You may make it. As in the present embodiment, when a pedestrian is the detection target, the object size 63 may represent the average size of the pedestrian looking down from above.
In addition to uniformly adding and averaging the image speed data inside the object size 63 as described above, the function W (x q , y q ; x e, k + j , y e is used so as to perform weighted averaging within the object size 63. , K + j ) may have a slope.

移動方向決定部19は、速度仮説v=(vu,x,vu,y)と、ステップST1302で算出した平均速度vm,k+j=(vm,k+j,x,vm,k+j,y)から、速度仮説の尤度Lu,k+jを算出する(ステップST1303)。
速度仮説vの時刻k+jにおける尤度Lu,k+jは、以下の式(22)より算出する。

Figure 0006351917
ここで、速度仮説v,vm、k+jは以下の式(23)(24)で表される縦ベクトルとする。
Figure 0006351917

Figure 0006351917
Sk+jはv−vm,k+jの残差共分散行列を表す2行2列のパラメタである。また、時刻k+j−1の尤度Lu,k+j−1に関しては、特にj=1の場合
Figure 0006351917
とする。
なお、以上の尤度Lu,k+jは、平均速度vm,k+jが移動物体の真の速度に白色ガウス雑音が加算されたとするモデルに基づく値であり、平均速度の誤差分布が有色非ガウス雑音とするモデルを用いてもよい。The moving direction determination unit 19 uses the speed hypothesis v u = (v u, x , v u, y ) and the average speed v m, k + j calculated in step ST1302 (v m, k + j, x , v m, k + j, From y ), the likelihood L u, k + j of the speed hypothesis is calculated (step ST1303).
The likelihood L u, k + j of the speed hypothesis v u at time k + j is calculated from the following equation (22).
Figure 0006351917
Here, the velocity hypotheses v u , v m and k + j are vertical vectors represented by the following equations (23) and (24).
Figure 0006351917

Figure 0006351917
S k + j is a 2-by-2 parameter representing the residual covariance matrix of v u −v m, k + j . In addition, regarding the likelihood L u, k + j−1 at time k + j−1, particularly when j = 1.
Figure 0006351917
And
The above likelihood L u, k + j is a value based on a model in which the average velocity v m, k + j is obtained by adding white Gaussian noise to the true velocity of the moving object, and the error distribution of the average velocity is colored non-Gaussian. A model for noise may be used.

移動方向決定部19は、すべての速度仮説について時刻k+jにおける仮説尤度が更新されたか否かを判定する(ステップST1304)。
ステップST1304において、すべての速度仮説について時刻k+1における仮説尤度が更新されていないと判定した場合(ステップST1304の“NO”の場合)、ステップST1301に戻り、以降の処理を繰り返す。
Movement direction determination unit 19 determines whether or not the hypothesis likelihood at time k + j has been updated for all speed hypotheses (step ST1304).
If it is determined in step ST1304 that the hypothesis likelihood at time k + 1 is not updated for all speed hypotheses (in the case of “NO” in step ST1304), the process returns to step ST1301, and the subsequent processing is repeated.

ステップST1304において、すべての速度仮説について時刻k+1における仮説尤度が更新されたと判定した場合(ステップST1304の“YES”の場合)、図13の処理を終了する。   If it is determined in step ST1304 that the hypothesis likelihood at time k + 1 has been updated for all speed hypotheses (in the case of “YES” in step ST1304), the processing in FIG. 13 ends.

以上の図13の処理を実行することで、移動方向決定部19は、時刻k+jの画素速度データを基に、移動物体の各々の速度仮説について尤もらしさを表す値を更新する。   By executing the processing of FIG. 13 described above, the moving direction determination unit 19 updates the value representing the likelihood for each speed hypothesis of the moving object based on the pixel velocity data at time k + j.

図9のフローチャートに戻る。
制御部は、変数jがパラメタM以上か否かを判定する(ステップST910)。パラメタMは、速度仮説の尤度算出に用いる時刻フレームの個数を表す。パラメタMには、例えば、時刻kから時刻k+Mの間で目標の運動を等速直進とする仮定が妥当となる時刻フレーム数の最大値が、予め設定される。
Returning to the flowchart of FIG.
The control unit determines whether variable j is greater than or equal to parameter M (step ST910). The parameter M represents the number of time frames used for calculating the likelihood of the speed hypothesis. In the parameter M, for example, a maximum value of the number of time frames in which it is appropriate to assume that the target motion goes straight at a constant speed between time k and time k + M is set in advance.

ステップST910において、変数jがパラメタM未満である場合(ステップST910の“NO”の場合)、移動方向決定部19は、変数jに1を加算し(ステップST911)、ステップST908へ戻る。   In step ST910, when the variable j is less than the parameter M (in the case of “NO” in step ST910), the moving direction determination unit 19 adds 1 to the variable j (step ST911), and returns to step ST908.

ステップST910において、変数jがパラメタM以上の場合(ステップST910の“YES”の場合)、移動方向決定部19は、ステップST909で算出し、更新した各速度仮説の尤度から、各速度仮説の事後確率を算出する(ステップST912)。
具体的には、移動方向決定部19は、時刻k+1〜時刻k+Mの画素速度データで更新された各々の速度仮説の尤度Lu、k+M(u=1,2,・・・,N、Nは速度仮説の個数)に対して、以下の式(26)より事後確率P(H|Vk:k+M)を算出する。

Figure 0006351917
ここで、P(H)は速度仮説vの事前確率を表し、速度仮説vごとに設定するパラメタである。
P(H)の設定方法としては、例えば速度仮説vを設定する際の式(14)に関する残差Δrや、vの値の大きさ、画素速度データを取得した映像における光源や背景色等によって設定する。または、すべての速度仮説は設定時点では等しく尤もらしいと見なし、P(H)を定数としてもよい。In step ST910, when the variable j is greater than or equal to the parameter M (in the case of “YES” in step ST910), the moving direction determination unit 19 calculates each speed hypothesis from the likelihood of each speed hypothesis calculated and updated in step ST909. A posteriori probability is calculated (step ST912).
Specifically, the moving direction determination unit 19 uses the likelihoods L u, k + M (u = 1, 2,..., N H ) of each speed hypothesis updated with the pixel speed data at time k + 1 to time k + M. The posterior probability P (H u | V k: k + M ) is calculated from the following equation (26) with respect to N H is the number of velocity hypotheses.
Figure 0006351917
Here, P (H u) denotes the prior probability of rate hypotheses v u, a parameter to be set for each speed hypothesis v u.
As a setting method of P (H u ), for example, the residual Δr related to the equation (14) when setting the speed hypothesis v u , the magnitude of the value of v 1 , and the light source and background in the video obtained from the pixel speed data Set by color. Alternatively, all speed hypotheses may be considered equally likely at the set time, and P (H u ) may be a constant.

移動方向決定部19は、ステップST912で算出した速度仮説の事後確率P(H|Vk:k+M)の中から、事後確率が最大の速度仮説vを移動物体の推定速度として決定する(ステップST913)。The moving direction determination unit 19 determines the speed hypothesis v u having the maximum posterior probability as the estimated speed of the moving object from the posterior probabilities P (H 1 | V k: k + M ) of the speed hypothesis calculated in Step ST912 ( Step ST913).

移動方向決定部19は、時刻kの物体位置データによって特定されている1または複数の移動物体のうち、すべての移動物体に対して推定速度が決定されたか否かを決定する(ステップST914)。
ステップST914において、すべての移動物体に対して推定速度が決定されていない場合(ステップST914の“NO”の場合)、ステップST902に戻る。
ステップST914において、すべての移動物体に対して推定速度が決定された場合(ステップST914の“YES”の場合)、移動方向決定部19は、ステップST913で決定した移動物体の移動速度と、重心位置を表した融合データを、表示部16および記録部17に出力する(ステップST915)。
The moving direction determination unit 19 determines whether or not the estimated speed has been determined for all moving objects among one or more moving objects specified by the object position data at time k (step ST914).
In step ST914, when the estimated speed has not been determined for all moving objects (in the case of “NO” in step ST914), the process returns to step ST902.
When the estimated speed is determined for all moving objects in step ST914 (in the case of “YES” in step ST914), the moving direction determining unit 19 determines the moving speed of the moving object determined in step ST913 and the gravity center position. Is output to the display unit 16 and the recording unit 17 (step ST915).

なお、上記では、物体位置データ作成部12が移動物体の個数を推定したが、物体位置データには静止物体や実在する物体以外の不要なデータも誤って含まれていることを前提に、移動方向決定部19において推定速度を基に不要なデータを棄却してもよい。例えば、推定速度が閾値未満であれば静止物体として移動物体の個数から除いてもよい。すなわち、物体位置データ作成部12で算出した移動物体の個数を、仮の移動物体個数とし、移動方向決定部19において最終的な移動物体個数の推定をおこなうとしてもよい。   In the above description, the object position data creation unit 12 estimates the number of moving objects. However, it is assumed that the object position data includes erroneous data including unnecessary data other than stationary objects and real objects. The direction determining unit 19 may reject unnecessary data based on the estimated speed. For example, if the estimated speed is less than the threshold value, it may be excluded from the number of moving objects as stationary objects. That is, the number of moving objects calculated by the object position data creation unit 12 may be used as a temporary moving object number, and the final moving object number may be estimated by the moving direction determination unit 19.

なお、上記では、融合処理部103は、時刻k以前の画素速度データから移動物体の速度仮説を設定し、時刻k+1以降の画素速度データによって移動物体の速度を判定したが、各処理で用いる時刻フレームの選び方はこの限りではない。例えば、融合処理部103は、時刻k+1以降の画素速度データによって速度仮説を設定し、時刻k以前の画素速度データによって速度仮説の中から移動物体の移動速度を決定してもよい。   In the above description, the fusion processing unit 103 sets the moving object speed hypothesis from the pixel speed data before time k and determines the speed of the moving object based on the pixel speed data after time k + 1. This is not the only way to choose a frame. For example, the fusion processing unit 103 may set a speed hypothesis based on pixel speed data after time k + 1 and may determine a moving speed of the moving object from the speed hypothesis based on pixel speed data before time k.

以上のように、実施の形態2によれば、複数の時刻フレームの画素速度から移動物体の移動速度を推定するようにしたため、映像取得センサ300から算出された画素速度データ上において、移動物体周辺の画素速度が一時的に真の物体移動速度と大きく異なる値になり得る場合においても、1つの検出箇所に設置された測距センサ1台と映像取得センサ1台によって移動物体の個数、位置、および、移動方向を含む移動速度を推定することができる。
当該効果は、例えば、夜間において移動物体の個数、位置、および、移動方向を含む移動速度を推定する場合に有効である。カメラ等の映像取得センサ300は夜間や暗所等の光源照度が低い環境ほど、センサ内部の雑音によって、各画素の輝度が揺らぎやすい特性を持つ。このような場合、移動物体の輝度が雑音によって揺らぐために、画素速度データは移動物体の真の速度から外れた値を持ちやすい。しかし、この実施の形態2の構成によれば、複数時刻フレームの画素速度データを基に物体の移動速度の候補値を設定し、各候補値を比較することで、尤もらしい移動速度を推定するため、誤った移動速度が推定される確率を減らすことができる。
As described above, according to the second embodiment, since the moving speed of the moving object is estimated from the pixel speeds of a plurality of time frames, in the pixel speed data calculated from the video acquisition sensor 300, the moving object periphery Even if the pixel speed of the image can temporarily differ greatly from the true object moving speed, the number, position, and number of moving objects by one distance measuring sensor and one image acquisition sensor installed at one detection location. And the moving speed including a moving direction can be estimated.
This effect is effective, for example, when estimating the moving speed including the number, position, and moving direction of moving objects at night. The image acquisition sensor 300 such as a camera has a characteristic that the luminance of each pixel is more likely to fluctuate due to noise in the sensor in an environment where the illuminance of the light source is low such as at night or in a dark place. In such a case, since the luminance of the moving object fluctuates due to noise, the pixel velocity data tends to have a value deviating from the true velocity of the moving object. However, according to the configuration of the second embodiment, a candidate moving speed candidate value is set based on pixel speed data of a plurality of time frames, and each candidate value is compared to estimate a likely moving speed. Therefore, the probability that an erroneous moving speed is estimated can be reduced.

また、低照度環境でも雑音による輝度強度の揺らぎが小さい映像取得センサ300ほど、一般に製造工程が複雑化するため、映像取得センサ300の費用が高額になる。そのため、この実施の形態2によれば、低照度環境において雑音の影響を受けにくい映像取得センサ300を用いる方法に比べ、少ない費用で同様の精度を実現できる点で画期的である。   In addition, the image acquisition sensor 300 that has less fluctuation in luminance intensity due to noise even in a low illumination environment generally has a more complicated manufacturing process, and thus the cost of the image acquisition sensor 300 is higher. Therefore, according to the second embodiment, it is epoch-making in that the same accuracy can be realized at a lower cost as compared with the method using the image acquisition sensor 300 which is not easily affected by noise in a low illumination environment.

また、上記効果は、例えば、移動物体の種類として歩行者を対象とする場合にも有効である。歩行者は、手足の動きや体の向きの変化により、車両等の無機物に比べ映像上の物体表面の輝度が不規則に変化しやすい。そのため、例えば歩行者が顔の向きを変化させた時点で、画素速度データが物体の移動速度から大きく異なる値になりやすい。しかし、この実施の形態2の構成によれば、一時的に画素速度データが不安定になった時刻の画素速度は、複数時刻フレームの画素速度データと整合が低いとして棄却されるため、歩行者の輝度分布が不規則に変化する場合でも誤った移動速度が推定される確率を減らすことができる。   The above effect is also effective when, for example, a pedestrian is targeted as a type of moving object. Pedestrians tend to irregularly change the brightness of the object surface on the image as compared to inorganic materials such as vehicles due to movements of limbs and body orientation. Therefore, for example, when the pedestrian changes the orientation of the face, the pixel speed data tends to be a value that greatly differs from the moving speed of the object. However, according to the configuration of the second embodiment, the pixel speed at the time when the pixel speed data temporarily becomes unstable is rejected as being inconsistent with the pixel speed data of a plurality of time frames. Even when the luminance distribution of the image changes irregularly, the probability that an erroneous moving speed is estimated can be reduced.

また歩行者は、身に着けている服飾品等があるため、車両等の無機物に比べ輝度分布が多様となる。そのため、背景と歩行者の混同が起こりにくい環境の選択が原理的に困難であり、結果として背景の輝度が歩行者の輝度と同様になった時刻フレームにおいて、画素速度データが歩行者の移動速度と大きく異なる値となり得る。しかし実施の形態2によれば、複数の速度仮説のうち、背景との混同が起こりやすい時刻フレームの画素速度データから設定された速度仮説は、他の時刻フレームとの整合性が低い仮説として棄却されるため、歩行者と背景が一時的に混同しやすい場合においても誤った移動速度が推定される確率を減らすことができる。   In addition, since there are garments worn by pedestrians, the luminance distribution is diversified compared to inorganic materials such as vehicles. Therefore, it is difficult in principle to select an environment in which the background and the pedestrian are not likely to be confused, and as a result, the pixel velocity data is the pedestrian movement speed in the time frame when the background luminance is the same as the pedestrian luminance. And can be very different values. However, according to the second embodiment, among the plurality of speed hypotheses, the speed hypothesis set from the pixel speed data of the time frame that is likely to be confused with the background is rejected as a hypothesis having low consistency with other time frames. Therefore, even when the pedestrian and the background are easily confused temporarily, the probability that an erroneous moving speed is estimated can be reduced.

また、上記効果は、例えば、快晴時の屋外環境や背景に光源を含む場合等、映像上での輝度分布に大きな偏りがある場合にも有効である。屋外における日なたと日陰等、映像上での輝度分布に大きな偏りがある場合、画素速度算出時の前提である輝度分布の連続性が成り立たないため、移動物体周辺の画素速度データが移動物体の速度と大きく異なる値をとり得る。しかし、この実施の形態2によれば、輝度分布が大きく偏る領域を移動物体が通過した時刻フレームの画素速度データから推定した速度仮説は、他の時刻フレームの画素速度との整合性が低い仮説として棄却されるため、輝度分布が大きく偏る場合においても誤った移動速度が推定される確率を減らすことができる。   The above effect is also effective when there is a large bias in the luminance distribution on the video, for example, when the outdoor environment during clear weather or when the background includes a light source. If there is a large deviation in the luminance distribution on the image, such as the sun and shade in the outdoors, the continuity of the luminance distribution, which is the premise for calculating the pixel velocity, does not hold, so the pixel velocity data around the moving object Can take values that differ greatly from speed. However, according to the second embodiment, the velocity hypothesis estimated from the pixel velocity data of the time frame when the moving object passes through the region where the luminance distribution is greatly biased is a hypothesis that the consistency with the pixel velocity of other time frames is low. Therefore, even when the luminance distribution is largely biased, it is possible to reduce the probability that an erroneous moving speed is estimated.

実施の形態3.
実施の形態1,2では、測距センサ200の測距情報に基づく移動物体の重心位置と、映像取得センサ300の映像に基づく画素速度から、移動物体の個数、位置、および、移動方向を含む移動速度を推定するようにしていた。
この実施の形態3では、測距センサ200の測距情報に基づき、さらに、移動物体の地表面からの高さ、および、移動物体の幅に関するデータを、移動物体の属性データとして作成する実施の形態について説明する。
Embodiment 3 FIG.
In the first and second embodiments, the number, position, and moving direction of the moving object are included from the barycentric position of the moving object based on the distance measurement information of the distance measuring sensor 200 and the pixel velocity based on the image of the image acquisition sensor 300. The movement speed was estimated.
In the third embodiment, based on the distance measurement information of the distance measuring sensor 200, data relating to the height of the moving object from the ground surface and the width of the moving object is created as attribute data of the moving object. A form is demonstrated.

この実施の形態3の移動物体検出システムの構成は、実施の形態1において図1を用いて説明したものと同様であるため、重複した説明を省略する。
また、測距センサ200と映像取得センサ300の設置状況、および、測距センサ200と映像取得センサ300の観測条件についても、例えば、実施の形態1において、図2,図3を用いて説明したとおりであるので、重複した説明を省略する。
Since the configuration of the moving object detection system according to the third embodiment is the same as that described with reference to FIG. 1 in the first embodiment, a duplicate description is omitted.
In addition, the installation status of the distance measurement sensor 200 and the image acquisition sensor 300 and the observation conditions of the distance measurement sensor 200 and the image acquisition sensor 300 have also been described with reference to FIGS. Therefore, a duplicate description is omitted.

図14は、この発明の実施の形態3に係る移動物体検出装置100bの構成図である。
図14において、図4を用いて説明した実施の形態1に係る移動物体検出装置100と同様の構成については、同じ符号を付して重複した説明を省略する。
この発明の実施の形態3に係る移動物体検出装置100bは、実施の形態1に係る移動物体検出装置100とは、測距センサ処理部101が、物体高さデータ作成部20と物体幅データ作成部21をさらに備える点と、融合処理部103が、物体属性判定部22をさらに備える点が異なるのみである。
FIG. 14 is a configuration diagram of a moving object detection device 100b according to Embodiment 3 of the present invention.
In FIG. 14, the same components as those of the moving object detection apparatus 100 according to Embodiment 1 described with reference to FIG.
The moving object detection device 100b according to the third embodiment of the present invention is different from the moving object detection device 100 according to the first embodiment in that the distance measuring sensor processing unit 101 includes the object height data generation unit 20 and the object width data generation. The only difference is that the unit 21 is further provided, and the fusion processing unit 103 is further provided with the object attribute determination unit 22.

物体高さデータ作成部20は、測距データ取得部11から複数の時刻フレームにおける測距情報を取得し、移動物体の地表面からの高さを推定したデータを作成する。ここでは、移動物体の地表面からの高さを推定したデータを、物体高さデータという。
物体高さデータ作成部20は、作成した物体高さデータを物体属性判定部22に出力する。
なお、物体高さデータにおける移動物体は、物体位置データ作成部12で作成される物体位置データの移動物体と対応付けられており、対応関係は物体高さデータから参照できるものとする。
The object height data creation unit 20 acquires distance measurement information in a plurality of time frames from the distance measurement data acquisition unit 11, and creates data in which the height of the moving object from the ground surface is estimated. Here, data obtained by estimating the height of the moving object from the ground surface is referred to as object height data.
The object height data creation unit 20 outputs the created object height data to the object attribute determination unit 22.
Note that the moving object in the object height data is associated with the moving object of the object position data created by the object position data creating unit 12, and the correspondence can be referred to from the object height data.

物体幅データ作成部21は、測距データ取得部11から複数の時刻フレームにおける測距情報を取得し、移動物体のx軸方向およびy軸方向の幅を推定したデータを作成する。ここでは、移動物体のx軸方向およびy軸方向の幅を推定したデータを、物体幅データという。
物体幅データ作成部21は、作成した物体幅データを物体属性判定部22に出力する。
なお、物体幅データにおける移動物体は、物体位置データ作成部12で作成される物体位置データの移動物体と対応付けられており、対応関係は物体幅データから参照できるものとする。
The object width data creation unit 21 obtains distance measurement information in a plurality of time frames from the distance measurement data obtaining unit 11, and creates data in which the widths of the moving object in the x-axis direction and the y-axis direction are estimated. Here, data in which the width of the moving object in the x-axis direction and the y-axis direction is estimated is referred to as object width data.
The object width data creation unit 21 outputs the created object width data to the object attribute determination unit 22.
Note that the moving object in the object width data is associated with the moving object in the object position data created by the object position data creating unit 12, and the correspondence can be referred to from the object width data.

物体属性判定部22は、位置移動方向相関部15から移動物体の位置および移動速度のデータ、物体高さデータ作成部20から物体高さデータ、物体幅データ作成部21から物体幅データを取得し、当該取得したデータに基づき、移動物体の属性を判定する。
物体属性判定部22は、移動物体の位置、移動速度、属性を表したデータを、表示部16および記録部17へ出力する。ここでは、物体属性判定部22が出力する、移動物体の位置、移動速度、属性を表したデータを、属性付き融合データという。
The object attribute determination unit 22 acquires the position and moving speed data of the moving object from the position movement direction correlation unit 15, the object height data from the object height data creation unit 20, and the object width data from the object width data creation unit 21. The attribute of the moving object is determined based on the acquired data.
The object attribute determination unit 22 outputs data representing the position, moving speed, and attribute of the moving object to the display unit 16 and the recording unit 17. Here, data representing the position, moving speed, and attribute of the moving object output from the object attribute determination unit 22 is referred to as attributed fusion data.

移動物体検出装置100bのハードウェア構成は、実施の形態1において図5A,図5Bを用いて説明したものと同様であるため、重複した説明を省略する。   Since the hardware configuration of the moving object detection device 100b is the same as that described with reference to FIGS. 5A and 5B in the first embodiment, a duplicate description is omitted.

この実施の形態3に係る移動物体検出装置100bの動作について説明する。
図15は、この発明の実施の形態3に係る移動物体検出装置100bの動作を説明するフローチャートである。
なお、以下の説明では、時刻kにおいて重心位置が測距センサ200の観測範囲54を通過した移動物体に対して、移動速度および属性を推定するものとする。
The operation of the moving object detection device 100b according to the third embodiment will be described.
FIG. 15 is a flowchart for explaining the operation of the moving object detection device 100b according to the third embodiment of the present invention.
In the following description, it is assumed that the moving speed and the attribute are estimated for a moving object whose center of gravity has passed the observation range 54 of the distance measuring sensor 200 at time k.

測距センサ処理部101の測距データ取得部11および物体位置データ作成部12は、測距センサ200が取得した複数の時刻フレームの測距情報から、時刻kに重心位置が測距センサ200の観測範囲54を通過した移動物体を抽出し、時刻kの物体位置データを作成する(ステップST1501)。具体的な動作は、実施の形態1で説明した図6のステップST601と同様である。物体位置データ作成部12は、作成した物体位置データを、位置移動方向相関部15に出力する。   The distance measurement data acquisition unit 11 and the object position data creation unit 12 of the distance measurement sensor processing unit 101 have the center of gravity position of the distance measurement sensor 200 at the time k based on the distance measurement information of the plurality of time frames acquired by the distance measurement sensor 200. A moving object that has passed through the observation range 54 is extracted, and object position data at time k is created (step ST1501). The specific operation is the same as step ST601 in FIG. 6 described in the first embodiment. The object position data creation unit 12 outputs the created object position data to the position movement direction correlation unit 15.

測距センサ処理部101の物体高さデータ作成部20は、測距センサ200が取得した複数の時刻フレームの測距情報を測距データ取得部11から取得し、時刻kに重心位置が測距センサ200の観測範囲54を通過した移動物体について、その移動物体の地表面からの高さを算出し、時刻kの物体高さデータを作成する(ステップST1502)。
物体高さデータ作成部20は、各時刻フレームの測距情報から移動物体の高さを算出する方法として、例えば、前述の、特開2011−108223号公報に開示されている方法を用いる。当該方法では、観測範囲54内の各移動物体の測距情報を高さ方向に分割し、各高さにおいて物体が検出された範囲を算出する方法であり、例えば、歩行者の高さを算出する場合には、歩行者が検出された高さの最大値を歩行者の高さとして算出することができる。
物体高さデータ作成部20は、作成した物体高さデータを物体属性判定部22に出力する。
The object height data creation unit 20 of the ranging sensor processing unit 101 acquires ranging information of a plurality of time frames acquired by the ranging sensor 200 from the ranging data acquisition unit 11, and the center of gravity position is measured at time k. For a moving object that has passed through the observation range 54 of the sensor 200, the height of the moving object from the ground surface is calculated, and object height data at time k is created (step ST1502).
The object height data creation unit 20 uses, for example, the method disclosed in Japanese Patent Application Laid-Open No. 2011-108223 described above as a method of calculating the height of the moving object from the distance measurement information of each time frame. In this method, ranging information of each moving object in the observation range 54 is divided in the height direction, and a range in which the object is detected at each height is calculated. For example, the height of a pedestrian is calculated. In this case, the maximum height at which the pedestrian is detected can be calculated as the pedestrian height.
The object height data creation unit 20 outputs the created object height data to the object attribute determination unit 22.

測距センサ処理部101の物体幅データ作成部21は、測距センサ200が取得した複数の時刻フレームの測距情報を測距データ取得部11から取得し、時刻kに重心位置が測距センサ200の観測範囲54を通過した移動物体について、その移動物体のx方向およびy方向の幅を算出し、時刻kの物体幅データを作成する(ステップST1503)。
物体幅データ作成部21は、各時刻フレームの測距情報から移動物体の幅を算出する方法として、例えば、前述の、特開2011−108223号公報に開示されている方法を用いる。当該方法は、観測範囲54内の各移動物体の測距情報を距離方向に分割し、各距離方向において移動物体が検出される距離方向の最大値と最小値から歩行者の体の幅を算出することができる。また、距離方向に対して垂直な方向の幅に関しては、移動物体が連続して検出された時間から算出することができる。
物体幅データ作成部21は、作成した物体幅データを物体属性判定部22に出力する。
The object width data creation unit 21 of the ranging sensor processing unit 101 acquires ranging information of a plurality of time frames acquired by the ranging sensor 200 from the ranging data acquisition unit 11, and the center of gravity position at the time k is the ranging sensor. For a moving object that has passed 200 observation ranges 54, the widths of the moving object in the x and y directions are calculated, and object width data at time k is created (step ST1503).
The object width data creation unit 21 uses, for example, the method disclosed in Japanese Patent Application Laid-Open No. 2011-108223 described above as a method of calculating the width of the moving object from the distance measurement information of each time frame. This method divides the ranging information of each moving object in the observation range 54 in the distance direction, and calculates the width of the pedestrian's body from the maximum value and the minimum value in the distance direction in which the moving object is detected in each distance direction. can do. Further, the width in the direction perpendicular to the distance direction can be calculated from the time when the moving object is continuously detected.
The object width data creation unit 21 outputs the created object width data to the object attribute determination unit 22.

映像取得センサ処理部102は、映像取得センサ300が取得した複数の時刻フレームの映像から、時刻kにおける画素速度データを作成する(ステップST1504)。具体的な画素速度データの作成方法は、実施の形態1で説明した図6のステップST602と同様である。映像取得センサ処理部102の画素移動方向データ作成部14は、時刻kにおける画素速度データを位置移動方向相関部15に出力する。   Video acquisition sensor processing section 102 creates pixel velocity data at time k from the videos of a plurality of time frames acquired by video acquisition sensor 300 (step ST1504). A specific method for creating pixel velocity data is the same as that in step ST602 of FIG. 6 described in the first embodiment. The pixel movement direction data creation unit 14 of the video acquisition sensor processing unit 102 outputs the pixel velocity data at time k to the position movement direction correlation unit 15.

位置移動方向相関部15は、ステップST1501において物体位置データ作成部12が出力した時刻kの物体位置データと、ステップST1504において画素移動方向データ作成部14が出力した時刻kの画素速度データとを用いて、時刻kの物体位置データによって特定されている移動物体に対して、推定速度を推定し、当該移動物体に関する時刻kの融合データを作成する(ステップST1505)。具体的な動作は、実施の形態1で説明した図6のステップST603と同様である。
位置移動方向相関部15は、作成した融合データを物体属性判定部22に出力する。
The position movement direction correlation unit 15 uses the object position data at time k output from the object position data generation unit 12 in step ST1501 and the pixel velocity data at time k output from the pixel movement direction data generation unit 14 in step ST1504. Then, the estimated speed is estimated for the moving object specified by the object position data at time k, and fusion data at time k related to the moving object is created (step ST1505). The specific operation is the same as step ST603 in FIG. 6 described in the first embodiment.
The position movement direction correlation unit 15 outputs the created fusion data to the object attribute determination unit 22.

物体属性判定部22は、ステップST1502で物体高さデータ作成部20が作成した時刻kの物体高さデータと、ステップST1503で物体幅データ作成部21が作成した時刻kの物体幅データと、ステップST1505で位置移動方向相関部15が作成した時刻kの融合データに含まれる移動物体の重心位置および推定速度とに基づき、移動物体の属性、すなわち、形状属性を判定する(ステップST1506)。   The object attribute determination unit 22 includes the object height data at time k created by the object height data creation unit 20 at step ST1502, the object width data at time k created by the object width data creation unit 21 at step ST1503, and the step Based on the center of gravity position and the estimated speed of the moving object included in the fusion data at time k created by the position movement direction correlation unit 15 in ST1505, the attribute of the moving object, that is, the shape attribute is determined (step ST1506).

例えば、移動物体として歩行者を対象とする場合、ある移動物体の高さが成人の平均的な身長以下であり、かつ、移動物体の幅が成人の典型的な体の幅以下であり、移動速度が一般的な歩行速度より速い場合、物体属性判定部22は、当該移動物体は、形状属性が「子ども」であると判定する。なお、成人の平均的な身長、成人の典型的な体の幅、一般的な歩行速度の情報等の、形状属性の判定に必要な情報は、予め設定され、物体属性判定部22が参照可能な場所に記憶されているものとする。   For example, when a pedestrian is targeted as a moving object, the height of a moving object is less than the average height of an adult and the width of the moving object is less than the width of a typical adult body. When the speed is higher than the general walking speed, the object attribute determination unit 22 determines that the moving object has the shape attribute “child”. Information necessary for determining shape attributes such as average adult height, typical adult body width, and general walking speed information is set in advance and can be referred to by the object attribute determination unit 22 It is assumed that it is stored in a different place.

また、例えば、移動物体として歩行者を対象とする場合、ある移動物体の高さが成人の平均的な身長以下であり、かつ、移動物体の地面付近の幅が車いすの車輪適度の大きさであり、かつ、移動速度が一般的な歩行速度より遅い場合、物体属性判定部22は、当該移動体は、形状属性が「車椅子利用者」であると判定する。
なお、上記では、歩行者を対象とした例を挙げたが、これに限らず、車両を対象とした車種の判定、航空機を対象とした機種の判定、船舶を対象とした船種の判定、動物を対象とした種の判定等に用いてもよい。
Also, for example, when a pedestrian is targeted as a moving object, the height of a moving object is less than the average height of an adult, and the width of the moving object near the ground is appropriate for a wheelchair wheel. If the movement speed is slower than the general walking speed, the object attribute determination unit 22 determines that the mobile object has the shape attribute “wheelchair user”.
In the above, an example for pedestrians has been given. However, the present invention is not limited to this, determination of vehicle types for vehicles, determination of models for aircraft, determination of ship types for ships, You may use for the determination etc. of the seed | species which made the animal object.

物体属性判定部22は、時刻kの物体位置データによって特定されている1または複数の移動物体のすべてに対して、推定速度および形状属性が推定されたか否かを判定する(ステップST1507)。
ステップST1507において、時刻kの物体位置データによって特定されている1または複数の移動物体のすべてに対して、推定速度および形状属性が推定されていない場合(ステップST1507の“NO”の場合)、ステップST1505に戻る。
The object attribute determination unit 22 determines whether or not the estimated speed and shape attribute have been estimated for all of the one or more moving objects specified by the object position data at time k (step ST1507).
In step ST1507, when the estimated speed and the shape attribute are not estimated for all of one or more moving objects specified by the object position data at time k (in the case of “NO” in step ST1507), step Return to ST1505.

ステップST1507において、時刻kの物体位置データによって特定されている1または複数の移動物体のすべてに対して、推定速度および形状属性が推定された場合(ステップST1507の“YES”の場合)、物体属性判定部22は、ステップST1505〜ステップST1506で推定された時刻kにおける各移動物体の位置、推定速度、形状属性と、時刻k以外の時刻フレームにおける融合データから、各移動物体の相対的な位置、速度に基づく移動物体の属性を判定する(ステップST1508)。このステップST1508で判定される属性をグループ属性という。   In step ST1507, when the estimated speed and shape attribute are estimated for all of the one or more moving objects specified by the object position data at time k (in the case of “YES” in step ST1507), the object attribute The determination unit 22 determines the relative position of each moving object from the position, estimated speed, and shape attribute of each moving object at the time k estimated in Steps ST1505 to ST1506, and the fusion data in a time frame other than the time k. The attribute of the moving object based on the speed is determined (step ST1508). The attribute determined in step ST1508 is referred to as a group attribute.

例えば、移動物体として歩行者を対象とする場合に、時刻kに重心位置が測距センサの観測範囲54を通過した移動物体に対して、時刻kから一定数以内の過去または未来の時刻フレームにおいて、同じ位置かつ同じ移動方向の移動物体が一定個数以上観測されていた場合、物体属性判定部22は、該当の時刻kの移動物体はグループ属性が「団体歩行者の一人」であると判定する。   For example, when a pedestrian is targeted as a moving object, a moving object whose center of gravity has passed the observation range 54 of the distance measuring sensor at time k is used in a past or future time frame within a certain number from time k. When a certain number or more of moving objects in the same position and in the same moving direction are observed, the object attribute determining unit 22 determines that the moving object at the corresponding time k has the group attribute “one of group pedestrians”. .

また、例えば、移動物体として歩行者を対象とする場合に、形状属性が「子ども」の移動物体に対して、その移動物体の近傍の位置、同じ移動速度、かつ形状属性が「子ども」以外の移動物体が観測されていた場合、該当する形状属性「子ども」の移動物体のグループ属性を「保護者連れの子ども」とし、該当する形状属性「子ども以外」の移動物体のグループ属性を「子ども連れの保護者」とする。
なお、上記では、歩行者を対象とした例を挙げたが、これに限らず、車両を対象とした渋滞の判定、航空機を対象とした編隊の判定、船舶を対象とした船団の判定、動物を対象とした群れの判定等に用いてもよい。
Also, for example, when a pedestrian is targeted as a moving object, for a moving object whose shape attribute is “child”, a position in the vicinity of the moving object, the same moving speed, and a shape attribute other than “child” If a moving object has been observed, the group attribute of the moving object with the corresponding shape attribute “children” is set to “children with parents”, and the group attribute of the moving object with the corresponding shape attribute “non-children” is set to “children with children”. "Guardian of".
In the above, an example for pedestrians has been given. However, the present invention is not limited to this, but it is not limited to determination of traffic jams for vehicles, determination of formations for aircraft, determination of fleets for ships, animals You may use for the judgment etc. of the flock for the object.

物体属性判定部22は、ステップST1505にて推定した移動物体の位置および移動速度と、ステップST1506にて判定した移動物体の形状属性と、ステップST1508にて判定した移動物体のグループ属性とを、属性付き融合データとして表示部16および記録部17に出力する。   The object attribute determination unit 22 determines the position and moving speed of the moving object estimated in step ST1505, the shape attribute of the moving object determined in step ST1506, and the group attribute of the moving object determined in step ST1508. The data is output to the display unit 16 and the recording unit 17 as attached fusion data.

なお、図14における位置移動方向相関部15の代わりに、実施の形態2で説明した移動方向仮説設定部18と移動方向決定部19によって移動物体の個数、位置、および、移動速度を推定してもよい。この場合、物体属性判定部22は、移動方向決定部19の出力をもとに、移動物体の形状属性およびグループ属性を判定する   In place of the position movement direction correlation unit 15 in FIG. 14, the movement direction hypothesis setting unit 18 and the movement direction determination unit 19 described in Embodiment 2 estimate the number, position, and movement speed of moving objects. Also good. In this case, the object attribute determination unit 22 determines the shape attribute and group attribute of the moving object based on the output of the movement direction determination unit 19.

このように、実施の形態3によれば、測距センサ200の測距情報と、映像取得センサ300の映像情報をもとにした移動物体の位置および移動速度と、測距センサ200の測距情報から算出した移動物体の高さおよび幅を用いて、移動物体の属性を判定するように構成したため、映像取得センサ300の解像度が低い場合や、低照度によって移動物体の輪郭が映像取得センサ上で不明瞭な場合においても、移動物体の分析に有用な属性を判定することができる。
このような構成は、例えば、歩行者における子どもの割合や、団体行動する歩行者の割合を推定する場合に有効である。歩行者の年齢構成あるいは混雑の原因となる団体歩行者の有無は、警備システムやイベント運営、市場分析等において、有用な情報であるが、可視光カメラ等の映像取得センサのみによって各歩行者の属性を判定するためには、歩行者の体の部位を映像上の輪郭から抽出する必要があり、低解像度の映像取得センサでは判定の精度が劣化する。例えば、子どもの歩行者を映像から抽出するためには、歩行者の頭部位置等を映像から抽出する必要があり、低解像度の映像からは困難である。
Thus, according to the third embodiment, the distance measurement information of the distance measurement sensor 200, the position and movement speed of the moving object based on the image information of the image acquisition sensor 300, and the distance measurement of the distance measurement sensor 200. Since the attribute of the moving object is determined using the height and width of the moving object calculated from the information, when the resolution of the image acquisition sensor 300 is low or the contour of the moving object is low on the image acquisition sensor due to low illuminance. Even in the case of unclearness, it is possible to determine an attribute useful for analyzing a moving object.
Such a configuration is effective, for example, when estimating the proportion of children in pedestrians and the proportion of pedestrians acting as a group. The age structure of pedestrians or the presence or absence of group pedestrians that cause congestion is useful information in security systems, event management, market analysis, etc. In order to determine the attribute, it is necessary to extract the body part of the pedestrian from the contour on the video, and the accuracy of the determination deteriorates in the low-resolution video acquisition sensor. For example, in order to extract a child pedestrian from a video, it is necessary to extract the head position of the pedestrian from the video, which is difficult from a low resolution video.

一方、この実施の形態3によれば、測距センサ200によって取得した移動物体の高さおよび幅、また、測距センサ200と映像取得センサ300の観測結果を融合して得られた各移動物体の位置および移動速度を用いて移動物体の属性を判定するため、映像取得センサ300の解像度が低く移動物体の輪郭が不明確な場合においても、誤った属性を判定する確率を減らすことができる。   On the other hand, according to the third embodiment, each moving object obtained by fusing the height and width of the moving object acquired by the distance measuring sensor 200 and the observation results of the distance measuring sensor 200 and the image acquisition sensor 300. Therefore, even when the resolution of the image acquisition sensor 300 is low and the outline of the moving object is unclear, the probability of determining an erroneous attribute can be reduced.

また、測距センサ200は、移動物体に対する奥行き方向の形状も観測できるため、映像取得センサ300に比べ、移動物体の位置および速度にもとづく属性判定において誤った判定をする確率を減らすことができる。   In addition, since the distance measuring sensor 200 can also observe the shape of the moving object in the depth direction, the probability of making an erroneous determination in attribute determination based on the position and speed of the moving object can be reduced compared to the image acquisition sensor 300.

なお、実施の形態1において、移動物体検出装置100は、図4で示すような構成としたが、移動物体検出装置100は、物体位置データ作成部12と、画素移動方向データ作成部14と、位置移動方向相関部15とを備えることにより、上述したような効果が得られるものである。   In the first embodiment, the moving object detection device 100 is configured as shown in FIG. 4, but the moving object detection device 100 includes the object position data creation unit 12, the pixel movement direction data creation unit 14, and the like. By providing the position movement direction correlation unit 15, the above-described effects can be obtained.

ところで上記説明は、移動物体として歩行者を検出する場合について述べたが、移動物体として自動車、自転車、車椅子、鉄道車両、航空機、船舶、ヒト以外の動物、ロボット等を検出する場合についてもこの発明を利用できることは明らかである。   In the above description, the case where a pedestrian is detected as a moving object has been described. However, the present invention also applies to a case where an automobile, a bicycle, a wheelchair, a railway vehicle, an aircraft, a ship, an animal other than a human, a robot, or the like is detected as a moving object. It is clear that can be used.

また、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   Further, within the scope of the present invention, the invention of the present application can be freely combined with each embodiment, modified with any component in each embodiment, or omitted with any component in each embodiment. .

この発明に係る移動物体検出装置は、1箇所に設置された1台のカメラと1台のレーザセンサとによって、移動物体の個数、位置、移動方向を精度よく推定することができるように構成したため、歩行者等の移動物体の個数、位置、および、移動方向を含む移動速度を推定する移動物体検出装置等に適用することができる。   The moving object detection device according to the present invention is configured so that the number, position, and moving direction of moving objects can be accurately estimated by one camera and one laser sensor installed at one place. The present invention can be applied to a moving object detection device that estimates the moving speed including the number, position, and moving direction of moving objects such as pedestrians.

11 測距データ取得部、12 物体位置データ作成部、13 映像取得部、14 画素移動方向データ作成部、15 位置移動方向相関部、16 表示部、17 記録部、18 移動方向仮説設定部、19 移動方向決定部、20 物体高さデータ作成部、21 物体属性判定部、53,54 観測範囲、61 物体重心位置、62,65,67a,67b,67c,69a,69b,69c 画素速度、63 物体サイズ、66a,66b,66c,68a,68b,68c 物体位置推定値、100,100a,100b 移動物体検出装置、101 測距センサ処理部、102 映像取得センサ処理部、103 融合処理部、200 測距センサ、300 映像取得センサ、501 処理回路、502 HDD、503 ディスプレイ、504 入力インタフェース装置、505 出力インタフェース装置、506 メモリ、507 CPU。   DESCRIPTION OF SYMBOLS 11 Distance data acquisition part, 12 Object position data preparation part, 13 Image | video acquisition part, 14 Pixel movement direction data preparation part, 15 Position movement direction correlation part, 16 Display part, 17 Recording part, 18 Movement direction hypothesis setting part, 19 Moving direction determination unit, 20 object height data creation unit, 21 object attribute determination unit, 53, 54 observation range, 61 object centroid position, 62, 65, 67a, 67b, 67c, 69a, 69b, 69c pixel velocity, 63 object Size, 66a, 66b, 66c, 68a, 68b, 68c Object position estimation value, 100, 100a, 100b Moving object detection device, 101 Distance sensor processing unit, 102 Video acquisition sensor processing unit, 103 Fusion processing unit, 200 Distance measurement Sensor, 300 video acquisition sensor, 501 processing circuit, 502 HDD, 503 display, 504 input interface Interface device, 505 output interface device, 506 memory, 507 CPU.

Claims (5)

測距センサで測定された測距情報に基づき、移動物体の位置座標を算出する物体位置データ作成部と、
映像取得センサで撮影された映像情報に基づき、映像上の領域それぞれの推定移動方向を算出する画素移動方向データ作成部と、
前記位置座標および前記推定移動方向に基づき、前記移動物体の個数および移動方向を推定する位置移動方向相関部
とを備えた移動物体検出装置。
An object position data creation unit that calculates position coordinates of a moving object based on distance measurement information measured by a distance sensor;
A pixel movement direction data creation unit that calculates an estimated movement direction of each region on the video based on video information captured by the video acquisition sensor;
A moving object detection device comprising: a position movement direction correlator for estimating the number of moving objects and the movement direction based on the position coordinates and the estimated movement direction.
測距センサで測定された測距情報に基づき、移動物体の位置座標を算出する物体位置データ作成部と、
映像取得センサで撮影された映像情報に基づき、映像上の領域それぞれの推定移動方向を算出する画素移動方向データ作成部と、
前記位置座標および前記推定移動方向に基づき、移動物体について、複数の移動方向仮説を設定する移動方向仮説設定部と、
前記複数の移動方向仮説に基づき、前記移動物体の個数および移動方向を決定する移動方向決定部
とを備えた移動物体検出装置。
An object position data creation unit that calculates position coordinates of a moving object based on distance measurement information measured by a distance sensor;
A pixel movement direction data creation unit that calculates an estimated movement direction of each region on the video based on video information captured by the video acquisition sensor;
A moving direction hypothesis setting unit that sets a plurality of moving direction hypotheses for a moving object based on the position coordinates and the estimated moving direction;
A moving object detection device comprising: a moving direction determining unit that determines the number and moving direction of the moving objects based on the plurality of moving direction hypotheses.
前記移動方向決定部は、
前記複数の移動方向仮説の尤度をそれぞれ算出し、前記尤度に基づき前記移動物体の移動方向を決定する
ことを特徴とする請求項2記載の移動物体検出装置。
The moving direction determining unit
The moving object detection device according to claim 2, wherein likelihoods of the plurality of moving direction hypotheses are respectively calculated, and a moving direction of the moving object is determined based on the likelihoods.
前記測距情報に基づき、前記移動物体の高さを算出する物体高さデータ作成部と、
前記測距情報に基づき、前記移動物体の幅を算出する物体幅データ作成部と、
前記移動物体の高さおよび幅と、前記移動物体が複数存在する場合は前記移動物体間の相対的な位置関係と、前記移動物体間の相対的な移動方向とに基づき、前記移動物体の属性を判定する物体属性判定部とをさらに備えた
ことを特徴とする請求項1記載の移動物体検出装置。
An object height data creation unit for calculating the height of the moving object based on the distance measurement information;
An object width data creation unit for calculating the width of the moving object based on the distance measurement information;
Attributes of the moving object based on the height and width of the moving object, the relative positional relationship between the moving objects when there are a plurality of moving objects, and the relative moving direction between the moving objects The moving object detection device according to claim 1, further comprising: an object attribute determination unit that determines
前記測距情報に基づき、前記移動物体の高さを算出する物体高さデータ作成部と、
前記測距情報に基づき、前記移動物体の幅を算出する物体幅データ作成部と、
前記移動物体の高さおよび幅と、前記移動物体が複数存在する場合は前記移動物体間の相対的な位置関係と、前記移動物体間の相対的な移動方向とに基づき、前記移動物体の属性を判定する物体属性判定部とをさらに備えた
ことを特徴とする請求項2記載の移動物体検出装置。
An object height data creation unit for calculating the height of the moving object based on the distance measurement information;
An object width data creation unit for calculating the width of the moving object based on the distance measurement information;
Attributes of the moving object based on the height and width of the moving object, the relative positional relationship between the moving objects when there are a plurality of moving objects, and the relative moving direction between the moving objects The moving object detection device according to claim 2, further comprising: an object attribute determination unit that determines
JP2018515317A 2016-07-15 2016-07-15 Moving object detection device Active JP6351917B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070943 WO2018011964A1 (en) 2016-07-15 2016-07-15 Moving object detection device

Publications (2)

Publication Number Publication Date
JP6351917B2 true JP6351917B2 (en) 2018-07-04
JPWO2018011964A1 JPWO2018011964A1 (en) 2018-08-16

Family

ID=60951985

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018515317A Active JP6351917B2 (en) 2016-07-15 2016-07-15 Moving object detection device

Country Status (3)

Country Link
JP (1) JP6351917B2 (en)
TW (1) TW201804445A (en)
WO (1) WO2018011964A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11911918B2 (en) * 2018-06-11 2024-02-27 Panasonic Intellectual Property Management Co., Ltd. Distance-measuring system and distance-measuring method
CN109188419B (en) 2018-09-07 2021-06-15 百度在线网络技术(北京)有限公司 Method and device for detecting speed of obstacle, computer equipment and storage medium
JP6952933B1 (en) * 2020-10-08 2021-10-27 三菱電機株式会社 Air conditioning control device and air conditioning control method
CN113163110B (en) * 2021-03-05 2022-04-08 北京宙心科技有限公司 People stream density analysis system and analysis method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1062546A (en) * 1996-08-26 1998-03-06 Matsushita Electric Works Ltd Composite infrared human body detector
JP3233584B2 (en) * 1996-09-04 2001-11-26 松下電器産業株式会社 Passenger detection device
JP2005025590A (en) * 2003-07-04 2005-01-27 Minolta Co Ltd Counting system
US9177195B2 (en) * 2011-09-23 2015-11-03 Shoppertrak Rct Corporation System and method for detecting, tracking and counting human objects of interest using a counting system and a data capture device
JP5812894B2 (en) * 2012-02-24 2015-11-17 東芝エレベータ株式会社 Elevator occupancy measuring device, and elevator system in which a plurality of elevators each have occupancy counting devices
JP5834254B2 (en) * 2014-04-11 2015-12-16 パナソニックIpマネジメント株式会社 People counting device, people counting system, and people counting method

Also Published As

Publication number Publication date
TW201804445A (en) 2018-02-01
WO2018011964A1 (en) 2018-01-18
JPWO2018011964A1 (en) 2018-08-16

Similar Documents

Publication Publication Date Title
Liu et al. A novel real-time moving target tracking and path planning system for a quadrotor UAV in unknown unstructured outdoor scenes
Zhu et al. The multivehicle stereo event camera dataset: An event camera dataset for 3D perception
US11461912B2 (en) Gaussian mixture models for temporal depth fusion
EP3159125A1 (en) Device for recognizing position of mobile robot by using direct tracking, and method therefor
EP3159121A1 (en) Device for updating map of mobile robot and method therefor
JP6351917B2 (en) Moving object detection device
EP3159126A1 (en) Device and method for recognizing location of mobile robot by means of edge-based readjustment
US20150356357A1 (en) A method of detecting structural parts of a scene
US20120155744A1 (en) Image generation method
Zhu et al. Reliable detection of overtaking vehicles using robust information fusion
EP3159122A1 (en) Device and method for recognizing location of mobile robot by means of search-based correlation matching
Berrio et al. Camera-LIDAR integration: Probabilistic sensor fusion for semantic mapping
KR102151815B1 (en) Method and Apparatus for Vehicle Detection Using Lidar Sensor and Camera Convergence
Levinson Automatic laser calibration, mapping, and localization for autonomous vehicles
JP2006252473A (en) Obstacle detector, calibration device, calibration method and calibration program
Yin et al. Dynam-SLAM: An accurate, robust stereo visual-inertial SLAM method in dynamic environments
Cvišić et al. Recalibrating the KITTI dataset camera setup for improved odometry accuracy
McManus et al. Distraction suppression for vision-based pose estimation at city scales
CN111274862A (en) Device and method for generating a label object of a surroundings of a vehicle
JP6410231B2 (en) Alignment apparatus, alignment method, and computer program for alignment
JP2005217883A (en) Method for detecting flat road area and obstacle by using stereo image
Phillips et al. Real-time prediction of automotive collision risk from monocular video
WO2022214821A2 (en) Monocular depth estimation
JP7226553B2 (en) Information processing device, data generation method, and program
WO2022133986A1 (en) Accuracy estimation method and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180322

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180322

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180427

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180508

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180605

R150 Certificate of patent or registration of utility model

Ref document number: 6351917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250