JP2010021633A - Mobile object detector and detection method - Google Patents

Mobile object detector and detection method Download PDF

Info

Publication number
JP2010021633A
JP2010021633A JP2008177994A JP2008177994A JP2010021633A JP 2010021633 A JP2010021633 A JP 2010021633A JP 2008177994 A JP2008177994 A JP 2008177994A JP 2008177994 A JP2008177994 A JP 2008177994A JP 2010021633 A JP2010021633 A JP 2010021633A
Authority
JP
Japan
Prior art keywords
moving
image
movement information
information
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008177994A
Other languages
Japanese (ja)
Other versions
JP5157692B2 (en
Inventor
Kazumi Fujimoto
和巳 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2008177994A priority Critical patent/JP5157692B2/en
Publication of JP2010021633A publication Critical patent/JP2010021633A/en
Application granted granted Critical
Publication of JP5157692B2 publication Critical patent/JP5157692B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile object detector having high mobile object detection accuracy. <P>SOLUTION: The mobile object detector includes: a reduced image generation unit 22 for generating the reduced images of different reduction rates from captured images photographed by a camera 10; a feature point extraction unit 23 for respectively extracting the feature point of the generated reduced image and the feature point of the captured image of the camera 10; a movement information calculation unit 24 for calculating movement information including the moving speed and/or moving direction of each feature point; a composition unit 25 for generating composite information from the movement information of the feature point of the reduced image and the movement information of the feature point of the captured image, that are calculated; and a mobile object detection unit 30 for detecting a mobile object on the basis of the generated composite information. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、撮像された画像に基づいて移動体を検出する移動体検出装置及び移動体検出方法に関する。   The present invention relates to a moving body detection apparatus and a moving body detection method for detecting a moving body based on a captured image.

撮像画像のオプティカルフローと、推定された移動体の動きと推定された空間モデルから求められた仮定の背景のオプティカルフローとを求め、撮像画像全体のオプティカルフローと背景のオプティカルフローとを比較することにより車両周囲の移動体を検出する装置が知られている(特許文献1参照)。 Obtain the optical flow of the captured image and the assumed background optical flow obtained from the estimated motion of the moving body and the estimated spatial model, and compare the optical flow of the entire captured image with the optical flow of the background An apparatus for detecting a moving body around a vehicle is known (see Patent Document 1).

また、オプティカルフローの算出手法として、予め設定されたテンプレートとの類似度が最大となる位置を撮像画像内から探索的に特定する手法が知られている。 As a method for calculating an optical flow, a method is known in which a position where the degree of similarity with a preset template is maximized is identified in a captured image.

特開2004−56763号公報Japanese Patent Laid-Open No. 2004-56763

しかしながら、従来の技術のように、推定された移動体の動きと推定された空間モデルから求められた背景のオプティカルフローを用いて移動体を検出するという手法では、オプティカルフローの精度がテンプレートに含まれる対象の特徴の影響を受けるため、装置を搭載する自車両の周辺のように形状変化及び濃淡強度変化などの画像変化が大きい部分において、微小時間に観察される移動体の検出精度が低下する可能性があるという問題があった。   However, in the technique of detecting a moving body using the optical flow of the background obtained from the estimated movement of the moving body and the estimated spatial model as in the conventional technique, the accuracy of the optical flow is included in the template. The detection accuracy of moving objects observed in a minute time is reduced in areas where there are large image changes such as changes in shape and shade intensity, such as around the host vehicle where the device is mounted. There was a problem that there was a possibility.

本願発明が解決しようとする課題は、画像変化の大きい部分における移動体の検出精度を向上させることである。   The problem to be solved by the present invention is to improve the detection accuracy of a moving body in a portion where an image change is large.

本発明は、撮像画像の特徴点の移動情報と、撮像画像から生成された縮小率の異なる縮小画像の特徴点の移動情報とから生成された合成情報に基づいて移動体を検出することにより、上記課題を解決する。   The present invention detects a moving object based on composite information generated from movement information of feature points of a captured image and movement information of feature points of reduced images having different reduction ratios generated from the captured image. Solve the above problems.

本発明によれば、撮像画像から異なる縮小率の縮小画像を生成することにより、特徴点の移動情報を算出する領域を拡張することができるため、画像変化の大きい撮像主体近傍の画像についても正確な移動情報を算出することができるので、高い精度で移動体を検出することができる。   According to the present invention, it is possible to expand a region for calculating feature point movement information by generating reduced images with different reduction ratios from captured images. Therefore, it is possible to detect a moving object with high accuracy.

<第1実施形態>
図1は、移動体検出装置100を含む車載装置1000のブロック構成の一例を示す図である。本実施形態の移動体検出装置100は、車両に搭載され、車両の前方(進行方向に沿った前方)の撮像画像に基づいて歩行者、他車両、自転車などの移動体を検出する装置である。
<First Embodiment>
FIG. 1 is a diagram illustrating an example of a block configuration of an in-vehicle device 1000 including the moving body detection device 100. The moving body detection device 100 according to the present embodiment is a device that is mounted on a vehicle and detects a moving body such as a pedestrian, another vehicle, or a bicycle based on a captured image in front of the vehicle (forward along the traveling direction). .

また、図1に示すように、本実施形態の車載装置1000は、移動体検出装置100と、この移動体検出装置100から移動体検出情報を取得し、取得した移動体検出情報に基づく情報をユーザ又は車両側に出力する車両コントローラ200等の外部装置とを有する。図1に示すように、外部装置として、車両の駆動を制御する車両コントローラ200の他、歩行者の存在を知らせる警報装置300、歩行者の存在に応じた走行支援を行う走行支援装置400、ディスプレイ及び/又はスピーカを有し、歩行者の存在に関する情報を提示する出力装置500を一又は二以上備える。これら本実施形態の移動体検出装置100、車両コントローラ200、警報装置300、走行支援装置400、出力装置500の演算処理機能は、CPU、MPU、DSP、FPGAなどの動作回路を組み合わせて構成された処理手段が実行する。例えば、本実施形態の移動体検出装置100の画像処理部20、移動体検出部30は、マイクロコンピュータとメモリとから構成されて動作するプログラムや、それぞれの処理を回路として組み込んだASIC、FPGAを用いて移動体検出に必要な演算処理を行う。   Moreover, as shown in FIG. 1, the vehicle-mounted apparatus 1000 of this embodiment acquires the mobile body detection information from the mobile body detection apparatus 100, this mobile body detection apparatus 100, and the information based on the acquired mobile body detection information. And an external device such as a vehicle controller 200 that outputs to the user or the vehicle side. As shown in FIG. 1, as an external device, in addition to a vehicle controller 200 that controls driving of a vehicle, an alarm device 300 that notifies the presence of a pedestrian, a travel support device 400 that provides travel support according to the presence of a pedestrian, and a display And / or one or more output devices 500 having speakers and presenting information on the presence of pedestrians. The arithmetic processing functions of the moving object detection device 100, the vehicle controller 200, the alarm device 300, the travel support device 400, and the output device 500 of the present embodiment are configured by combining operation circuits such as a CPU, MPU, DSP, and FPGA. The processing means executes. For example, the image processing unit 20 and the mobile unit detection unit 30 of the mobile unit detection apparatus 100 according to the present embodiment include programs that operate by being configured by a microcomputer and a memory, and ASICs and FPGAs that incorporate the respective processes as circuits. To perform computations necessary for moving object detection.

なお、これらの装置の演算処理を行う構成は、CAN(Controller Area Network)などの車載LANにより接続される。   In addition, the structure which performs the arithmetic processing of these apparatuses is connected by vehicle-mounted LAN, such as CAN (Controller Area Network).

以下、図面に基づいて本実施形態の移動体検出装置100について詳細に説明する。図1に示すように、移動体検出装置100は、カメラ10と、カメラ10の撮像データを記憶する画像メモリ11と、撮像された画像を処理する画像処理部20と、移動体検出部30とを備える。   Hereinafter, the moving body detection apparatus 100 of the present embodiment will be described in detail based on the drawings. As illustrated in FIG. 1, the moving body detection device 100 includes a camera 10, an image memory 11 that stores captured data of the camera 10, an image processing unit 20 that processes captured images, and a moving body detection unit 30. Is provided.

続いて、画像処理装置100が備える各構成について説明する。   Next, each configuration included in the image processing apparatus 100 will be described.

まず、カメラ10は、例えばCCD(Charge-Coupled Devices)やCMOS(Complementary Metal-Oxide Semiconductor)などの撮像素子を有するカメラであり、所定周期で連続的に車両周囲(車両前方、車両後方、車両側方など)を撮像し、フレーム毎に撮像された画像を画像メモリ11に出力する。そして、画像メモリ11は、画像データをアクセス可能な状態で記憶する。この画像メモリ11としては、HDD、CD、MD、DVD、光ディスクその他の記録媒体を用いる。   First, the camera 10 is a camera having an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor), for example, and continuously around the vehicle at a predetermined period (vehicle front, vehicle rear, vehicle side). And the like are output to the image memory 11. The image memory 11 stores the image data in an accessible state. As the image memory 11, an HDD, CD, MD, DVD, optical disk, or other recording medium is used.

図2にカメラ10の設置例を示す。図2に示すように、カメラ10は車両の室内上部前方に設置される。同図に示すように、本実施形態では、1つのカメラ10を車両に設置する。つまり、本実施形態では、単眼のカメラ10で車両周囲を撮像する。   FIG. 2 shows an installation example of the camera 10. As shown in FIG. 2, the camera 10 is installed in front of the upper part of the vehicle interior. As shown in the figure, in the present embodiment, one camera 10 is installed in the vehicle. That is, in this embodiment, the surroundings of the vehicle are imaged by the monocular camera 10.

さらに、カメラ10は、その光軸LSが車両前方正面方向(Z方向)に向き、撮像面の水平軸X(図示省略)は路面と平行となるように、また撮像面の垂直軸Y(図示省略)が路面と略垂直になるように設定される。   Further, the camera 10 has its optical axis LS oriented in the front front direction (Z direction) of the vehicle, the horizontal axis X (not shown) of the imaging surface is parallel to the road surface, and the vertical axis Y (not shown) of the imaging surface. (Omitted) is set to be approximately perpendicular to the road surface.

カメラ10により撮像された撮像画像(自車両前方の画像)の例を図3に示す。カメラ10により撮像された撮像画像は、画像左上頂点を原点として左から右へ延在するx軸、上から下へ延在するy軸により定義されるxy座標系により表される。図3に示す撮像画像の例は、左右の白線、外壁などの走路の境界線と、道路の左側から右側へ移動する歩行者を含む。   An example of a captured image (image in front of the host vehicle) captured by the camera 10 is shown in FIG. The captured image captured by the camera 10 is represented by an xy coordinate system defined by an x axis extending from left to right and an y axis extending from top to bottom with the upper left vertex of the image as the origin. The example of the captured image illustrated in FIG. 3 includes a left and right white line, a boundary line of a road such as an outer wall, and a pedestrian moving from the left side to the right side of the road.

次に、画像処理部20について説明する。画像処理部20は、撮像画像取得部21と、縮小画像生成部22と、特徴点抽出部23と、移動情報算出部24と、合成部25とを備え、カメラ10により撮像された撮像画像の処理を行う。   Next, the image processing unit 20 will be described. The image processing unit 20 includes a captured image acquisition unit 21, a reduced image generation unit 22, a feature point extraction unit 23, a movement information calculation unit 24, and a synthesis unit 25, and the captured image captured by the camera 10. Process.

まず、撮像画像取得部21について説明する。撮像画像取得部21は、画像メモリ11(又はカメラ10)からカメラ10により所定周期で撮像された撮像画像を取得する。そして、撮像画像取得部21は、撮像画像を縮小画像生成部22及特徴点抽出部23へ送出する。もちろん、縮小画像生成部22、特徴点抽出部23、移動情報算出部24、合成部25は、撮像画像取得部21を介することなく画像メモリ11に直接アクセスし、撮像画像又は縮小画像を取得することができる。   First, the captured image acquisition unit 21 will be described. The captured image acquisition unit 21 acquires captured images captured by the camera 10 from the image memory 11 (or the camera 10) at a predetermined cycle. Then, the captured image acquisition unit 21 sends the captured image to the reduced image generation unit 22 and the feature point extraction unit 23. Of course, the reduced image generation unit 22, the feature point extraction unit 23, the movement information calculation unit 24, and the synthesis unit 25 directly access the image memory 11 without using the captured image acquisition unit 21 and acquire a captured image or a reduced image. Can do.

次に、縮小画像生成部22について説明する。縮小画像生成部22は、カメラ10が撮像し、撮像画像取得部21により取得された撮像画像から縮小率の異なる縮小画像を生成する。縮小画像は、撮像画像を構成する単位画素を複数個結合した画像を生成する。すなわち、縮小画像における単位画素は、元の撮像画像における単位画素よりも拡張される。言い換えると、縮小画像生成部22は、単位画素の大きさを異なる率で拡大し、又は単位画素を異なる数だけ結合し、縮小率の異なる複数の縮小画像を得る。   Next, the reduced image generation unit 22 will be described. The reduced image generation unit 22 generates reduced images having different reduction ratios from the captured images captured by the camera 10 and acquired by the captured image acquisition unit 21. As the reduced image, an image in which a plurality of unit pixels constituting the captured image are combined is generated. That is, the unit pixel in the reduced image is expanded more than the unit pixel in the original captured image. In other words, the reduced image generation unit 22 enlarges the size of the unit pixel at a different rate, or combines the unit pixels by a different number to obtain a plurality of reduced images having different reduction rates.

図4に基づいて縮小画像の生成手法の例を説明する。図4に示すように、縮小画像の元となる撮像画像を最上段の図4(a)に示し、1/2縮小画像を中段の図4(b)に示し、1/4縮小画像を最下段の図4(c)に示す。図4(a)の撮像画像は図3に示す撮像画像に対応する。   An example of a reduced image generation method will be described with reference to FIG. As shown in FIG. 4, the captured image that is the source of the reduced image is shown in FIG. 4 (a), the 1/2 reduced image is shown in FIG. 4 (b), and the 1/4 reduced image is the highest. It is shown in FIG. The captured image in FIG. 4A corresponds to the captured image shown in FIG.

撮像画像、1/2縮小画像、1/4縮小画像は、後述する移動情報を算出できる範囲(速度検出範囲ともいう)がそれぞれ異なり、撮像画像よりも速度検出範囲を広げることができる。   The captured image, the 1/2 reduced image, and the 1/4 reduced image have different ranges (also referred to as speed detection ranges) in which movement information, which will be described later, can be calculated, and the speed detection range can be expanded more than the captured images.

図4(b)に示す1/2縮小画像は、撮像画像において横方向に並ぶ2画素を1画素に結合して生成した縮小画像である。つまり、1/2縮小画像は、撮像画像をX軸方向に1/2に縮小した画像である。また、図4(c)に示す1/4縮小画像は、撮像画像において横方向に並ぶ4画素を1画素に結合して生成した縮小画像である。つまり、1/4縮小画像は、撮像画像をX軸方向に1/4に縮小した画像である。なお、1/4縮小画像は1/2縮小画像の横方向に並ぶ2画素を1画素に結合して生成してもよい。縮小画像の縮小率は特に限定されず、任意の縮小率で生成することができる。縮小画像生成部22は、生成した縮小画像を、画像メモリ11に一時的に記憶させる。また、撮像画像における画素と縮小画像における画素の画像上の位置(座標値)の対応関係は撮像画像及び/又は各縮小画像の情報に関連づけて記憶する。 The 1/2 reduced image shown in FIG. 4B is a reduced image generated by combining two pixels arranged in the horizontal direction in the captured image into one pixel. That is, the 1/2 reduced image is an image obtained by reducing the captured image by 1/2 in the X-axis direction. Also, the 1/4 reduced image shown in FIG. 4C is a reduced image generated by combining four pixels arranged in the horizontal direction in the captured image into one pixel. That is, the 1/4 reduced image is an image obtained by reducing the captured image to 1/4 in the X-axis direction. The 1/4 reduced image may be generated by combining two pixels arranged in the horizontal direction of the 1/2 reduced image into one pixel. The reduction ratio of the reduced image is not particularly limited, and can be generated at an arbitrary reduction ratio. The reduced image generation unit 22 temporarily stores the generated reduced image in the image memory 11. Further, the correspondence relationship between the pixel in the captured image and the position (coordinate value) of the pixel in the reduced image on the image is stored in association with the information of the captured image and / or each reduced image.

このように、本実施形態では、撮像画像から異なる縮小率の縮小画像を生成することにより、特徴点の移動情報を算出することができる領域(速度算出範囲)を拡張することができるため、画像変化の大きい部分であっても正確な移動情報を算出することができる。 As described above, in the present embodiment, by generating reduced images with different reduction ratios from captured images, it is possible to expand a region (speed calculation range) where feature point movement information can be calculated. Accurate movement information can be calculated even when the change is large.

続いて、特徴点抽出部23について説明する。特徴点抽出部23は、撮像画像取得部21により取得された撮像画像における特徴点と、縮小画像生成部22により生成された縮小画像における特徴点とをそれぞれ抽出する。本処理例において、特徴点抽出部23が抽出する特徴点は、撮像画像に含まれる物体のエッジに対応する画素又は画素群である。   Next, the feature point extraction unit 23 will be described. The feature point extraction unit 23 extracts a feature point in the captured image acquired by the captured image acquisition unit 21 and a feature point in the reduced image generated by the reduced image generation unit 22, respectively. In the present processing example, the feature points extracted by the feature point extraction unit 23 are pixels or pixel groups corresponding to the edges of the object included in the captured image.

具体的に、撮像画像から特徴点を抽出するにあたり、特徴点抽出部23は、カメラ10により撮像された画像を画像メモリ11から取得し、取得した撮像画像を所定の閾値を用いて2値化することによって、画像内に存在する物体のエッジを抽出する。図5(a)に、抽出された垂直方向のエッジ例を示す。次に、抽出された各エッジに対して、細線化処理を行ってエッジ幅を絞り、エッジの中心を正確に設定する(図5(b)参照)。さらに、細線化されたエッジのエッジ幅が一定の幅となるように、例えば3画素分の幅となるように、エッジを水平方向に拡張する(図5(c)参照)。この操作により、抽出したエッジが正規化され、各エッジが均一の幅を持つエッジ画像を得る。   Specifically, when extracting feature points from a captured image, the feature point extraction unit 23 acquires an image captured by the camera 10 from the image memory 11 and binarizes the acquired captured image using a predetermined threshold. By doing so, the edge of the object existing in the image is extracted. FIG. 5A shows an example of the extracted vertical edge. Next, thinning processing is performed on each extracted edge to narrow the edge width, and the center of the edge is accurately set (see FIG. 5B). Further, the edge is extended in the horizontal direction so that the edge width of the thinned edge becomes a constant width, for example, a width corresponding to three pixels (see FIG. 5C). By this operation, the extracted edges are normalized, and an edge image having a uniform width for each edge is obtained.

さらに、特徴点抽出部23は、同様の手法により縮小画像の特徴点を抽出する。抽出された撮像画像の特徴点の情報及び縮小画像の特徴点の情報は、移動情報算出部24へ送出する。   Further, the feature point extraction unit 23 extracts feature points of the reduced image by the same method. The extracted feature point information of the captured image and the feature point information of the reduced image are sent to the movement information calculation unit 24.

移動情報算出部24は、特徴点抽出部23により抽出された特徴点及びこの特徴点周囲に対応する画素について、その移動方向及び/又は移動速度を含む移動情報をそれぞれ算出する。求めた特徴部の移動速度と移動方向は、撮像タイミング識別子又はフレーム識別子と対応づけて記憶する。この画素の移動情報は、画素の特定情報とともに、「画素の移動速度」と「画素の移動方向」を含む。なお、一の画像データ中に複数の特徴部が存在する場合は、すべての特徴部についてその移動情報を算出する。   The movement information calculation unit 24 calculates movement information including the movement direction and / or movement speed of the feature points extracted by the feature point extraction unit 23 and the pixels corresponding to the periphery of the feature points. The obtained moving speed and moving direction of the characteristic part are stored in association with the imaging timing identifier or the frame identifier. This pixel movement information includes “pixel movement speed” and “pixel movement direction” along with pixel identification information. When a plurality of feature parts exist in one image data, the movement information is calculated for all the feature parts.

以下、移動情報の算出手法の一例を説明する。移動情報算出部24は、カメラ10により撮像された物体の画像の情報に基づいて、物体の外延に対応するエッジが検出された位置の画素のカウント値をカウントアップし、このカウント値の傾きに基づいて、エッジの移動速度及び移動方向を算出する。   Hereinafter, an example of the movement information calculation method will be described. The movement information calculation unit 24 counts up the count value of the pixel at the position where the edge corresponding to the extension of the object is detected based on the information of the image of the object imaged by the camera 10, and sets the inclination of the count value. Based on this, the moving speed and moving direction of the edge are calculated.

また、移動情報算出部24は、撮像タイミングが異なる撮像画像データについて、各画像データに含まれるエッジに対応する画素の画素カウンタのカウンタ値を所定の手法で更新する。ここで、画素カウンタとは、各画素に設定されたカウンタであり、画素がエッジに対応する場合は画素カウンタのカウンタ値を+1加算し、画素がエッジに対応しない場合は画素カウンタのカウンタ値を0とする(初期化する)カウンタである。このカウンタ値の更新処理を、カメラ10により所定周期で繰り返し撮像されるフレーム毎に行う。この操作を行うと、エッジに対応する時間が長い画素は、対応する画素カウンタのカウンタ値が大きくなり、他方、エッジに対応する時間が短い画素は、対応する画素カウンタのカウンタ値が小さくなる。   In addition, the movement information calculation unit 24 updates the counter value of the pixel counter of the pixel corresponding to the edge included in each image data by using a predetermined method for the captured image data having different imaging timings. Here, the pixel counter is a counter set for each pixel. When the pixel corresponds to the edge, the counter value of the pixel counter is incremented by +1. When the pixel does not correspond to the edge, the counter value of the pixel counter is increased. This is a counter that is set to 0 (initialized). This counter value update process is performed for each frame that is repeatedly imaged by the camera 10 in a predetermined cycle. When this operation is performed, the counter value of the corresponding pixel counter increases for a pixel having a long time corresponding to an edge, while the counter value of the corresponding pixel counter decreases for a pixel having a short time corresponding to an edge.

この画素カウンタのカウンタ値の変化は、エッジの移動方向と移動量を表していることになる。このため、このカウンタ値に基づいて、撮像画像上又は縮小画像上におけるエッジの移動方向と移動速度とを算出する。画像の座標系は方位を表しているため、エッジ、及びこのエッジに対応する特徴部の移動方向と移動速度を求めることができる。   This change in the counter value of the pixel counter represents the moving direction and moving amount of the edge. Therefore, based on this counter value, the edge moving direction and moving speed on the captured image or reduced image are calculated. Since the coordinate system of the image represents the azimuth, the moving direction and moving speed of the edge and the feature corresponding to the edge can be obtained.

さらに、図5に基づいて、移動情報算出部24が行う移動情報の算出手法を説明する。図5は移動情報の算出処理を説明するための図、すなわち、抽出されたエッジが正規化されたエッジ画像を取得し、エッジのカウンタ値(滞留時間)から移動方向と移動速度を算出する処理を具体的に説明するための図である。   Furthermore, a movement information calculation method performed by the movement information calculation unit 24 will be described with reference to FIG. FIG. 5 is a diagram for explaining the movement information calculation process, that is, a process for obtaining an edge image in which the extracted edge is normalized and calculating a movement direction and a movement speed from the edge counter value (residence time). It is a figure for demonstrating concretely.

まず、特徴点抽出部23は、エッジ画像に対して2値化処理を行う。2値化処理とはエッジの検出された位置の画素を1とし、エッジの検出されなかった位置の画素を0とする処理である。図5(a)は抽出された垂直方向のエッジの2値化画像例を示す。   First, the feature point extraction unit 23 performs binarization processing on the edge image. The binarization process is a process in which a pixel at a position where an edge is detected is set to 1 and a pixel at a position where no edge is detected is set to 0. FIG. 5A shows an example of the binarized image of the extracted vertical edge.

次に、図5(b)に示すように、生成された2値化画像に対して、細線化処理を行う。細線化処理とは、検出されたエッジのエッジ幅を所定画素幅になるまで縮小する処理である。つまり、抽出された各エッジに対して細線化処理を行ってエッジ幅を絞る。本例では、図5(b)に示すように、所定画素幅として1画素になるまでエッジのエッジ幅を細線化する。このようにエッジを所定の画素幅になるまで細線化することによって、エッジの中心となる中心位置を設定する。なお、本例では、1画素に細線化する例を示すが、細線化する画素数は特に限定されない。   Next, as shown in FIG. 5B, thinning processing is performed on the generated binary image. The thinning process is a process of reducing the edge width of the detected edge until a predetermined pixel width is reached. That is, the edge width is narrowed by performing thinning processing on each extracted edge. In this example, as shown in FIG. 5B, the edge width of the edge is thinned until the predetermined pixel width becomes one pixel. In this way, the edge is thinned to a predetermined pixel width, thereby setting the center position as the center of the edge. Note that, in this example, an example in which one pixel is thinned is shown, but the number of pixels to be thinned is not particularly limited.

次に、細線化されたエッジのエッジ幅を膨張させる膨張処理を行う。膨張処理とは、細線化によって設定された中心位置からエッジの移動方向に向かってエッジ幅が一定の幅となるように膨張させるとともに、中心位置からエッジの移動方向と反対方向にもエッジ幅を膨張させる処理である。本例では、細線化されたエッジのエッジ幅が3画素分の幅となるように、エッジを水平方向に膨張させる。この処理により、抽出されたエッジを正規化し、各エッジの幅が均一なエッジ画像を得る。   Next, an expansion process is performed to expand the edge width of the thinned edge. The expansion process is performed so that the edge width is constant from the center position set by thinning toward the edge movement direction, and the edge width is also changed from the center position to the direction opposite to the edge movement direction. It is a process of expanding. In this example, the edge is expanded in the horizontal direction so that the edge width of the thinned edge becomes a width corresponding to three pixels. By this process, the extracted edges are normalized, and an edge image having a uniform width is obtained.

具体的に、図5(c)に示すように、エッジの中心位置x0からエッジの移動方向(x軸の正方向)に1画素膨張させるとともに、エッジの中心位置x0からエッジの移動方向と反対方向(x軸の負方向)に1画素膨張させて、エッジ幅を3画素に膨張させる。   Specifically, as shown in FIG. 5C, the pixel is expanded by one pixel from the edge center position x0 to the edge movement direction (the positive direction of the x axis), and opposite to the edge movement direction from the edge center position x0. The edge width is expanded to 3 pixels by expanding one pixel in the direction (negative direction of the x axis).

このように細線化処理と膨張処理とを行うことによって、抽出されたエッジ画像のエッジ幅を、エッジの移動方向に向かって所定の幅に統一し、規格化する。   By performing the thinning process and the expansion process in this way, the edge width of the extracted edge image is standardized by standardizing to a predetermined width in the edge moving direction.

次に、移動情報算出部24が移動情報を算出するために行うカウントアップ処理について説明する。ここに言うカウントアップ処理とは、エッジが検出された画素の位置に対応するメモリアドレスの値をカウントアップし、エッジが検出されなかった画素の位置に対応するメモリアドレスの値を初期化する処理である。   Next, a count-up process performed by the movement information calculation unit 24 to calculate movement information will be described. The count-up process mentioned here is a process for counting up the value of the memory address corresponding to the position of the pixel where the edge is detected and initializing the value of the memory address corresponding to the position of the pixel where the edge is not detected. It is.

以下、図5(c)〜(f)に基づいて移動情報算出部24によるエッジのカウントアップ処理について説明する。説明の便宜のため、ここでは、エッジがx軸の正方向に移動する場合を例にして説明する。エッジがx軸の負方向やy軸方向、あるいは2次元的に移動する場合においても、基本的な処理手法は共通する。   Hereinafter, the edge count-up process by the movement information calculation unit 24 will be described with reference to FIGS. For convenience of explanation, here, a case where the edge moves in the positive direction of the x-axis will be described as an example. Even when the edge moves in the negative x-axis direction, the y-axis direction, or two-dimensionally, the basic processing method is common.

図5(c)に示すように、エッジはあるフレームにおいて位置x0にエッジの中心位置がある。そして、その中心位置からエッジの移動方向に1画素の位置x0+1に膨張され、同様に、中心位置からエッジの移動方向と反対方向に1画素の位置x0−1に膨張される。   As shown in FIG. 5C, the edge has the center position of the edge at a position x0 in a certain frame. Then, the pixel is expanded from the center position to the position x0 + 1 of one pixel in the edge moving direction, and similarly expanded from the center position to the position x0-1 of one pixel in the direction opposite to the edge moving direction.

このようなエッジが検出された位置、「x0−1」、「x0」、「x0+1」に対応するメモリアドレスのカウント値は+1カウントアップされる。他方、エッジが検出されなかった位置に対応するメモリアドレスのカウント値は、リセットされる。   The count value of the memory address corresponding to the position where such an edge is detected, “x0-1”, “x0”, “x0 + 1” is incremented by +1. On the other hand, the count value of the memory address corresponding to the position where the edge is not detected is reset.

例えば、図5(d)では、時刻tにおいて、位置「x0−1」、「x0」、「x0+1」にエッジが検出されている。このため、それぞれの位置に対応するメモリアドレスのカウント値が各1カウントアップされる。その結果、位置「x0+1」のカウント値は「1」、位置「x0」のカウント値は「3」、位置「x0−1」のカウント値は「5」である。   For example, in FIG. 5D, edges are detected at positions “x0-1”, “x0”, and “x0 + 1” at time t. Therefore, the count value of the memory address corresponding to each position is incremented by one. As a result, the count value at the position “x0 + 1” is “1”, the count value at the position “x0” is “3”, and the count value at the position “x0-1” is “5”.

次に、図5(e)に示すように、時刻t+1になってもエッジが移動していないので、位置「x0−1」、「x0」、「x0+1」の各位置でエッジが検出される。このため、位置「x0−1」、「x0」、「x0+1」のカウント値をさらに1ずつカウントアップする。その結果、位置「x0+1」のカウント値は2、位置「x0」のカウント値は4、位置「x0−1」のカウント値は6となる。   Next, as shown in FIG. 5E, since the edge does not move even at time t + 1, the edge is detected at each of the positions “x0-1”, “x0”, and “x0 + 1”. . Therefore, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are further incremented by one. As a result, the count value at position “x0 + 1” is 2, the count value at position “x0” is 4, and the count value at position “x0-1” is 6.

さらに、図5(f)に示すように、時刻t+2では、エッジがx軸の正方向に1画素シフトして位置「x0」、「x0+1」、「x0+2」の位置でエッジが検出される。このため、エッジが検出された位置「x0」、「x0+1」、「x0+2」に対応するメモリアドレスのカウント値はカウントアップされる。他方、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「ゼロ」となる。その結果、図5(f)に示すように位置「x0+2」のカウント値は1、位置「x0+1」のカウント値は3、位置「x0」のカウント値は5となる。さらに、エッジが検出されなかった位置「x0−1」のカウント値はリセットされ、「0」になっている。   Further, as shown in FIG. 5 (f), at time t + 2, the edge is shifted by one pixel in the positive direction of the x-axis, and the edge is detected at positions “x0”, “x0 + 1”, and “x0 + 2”. Therefore, the count value of the memory address corresponding to the positions “x0”, “x0 + 1”, and “x0 + 2” where the edge is detected is counted up. On the other hand, the count value at the position “x0-1” where no edge is detected is reset to “zero”. As a result, the count value at the position “x0 + 2” is 1, the count value at the position “x0 + 1” is 3, and the count value at the position “x0” is 5, as shown in FIG. Further, the count value at the position “x0-1” where no edge is detected is reset to “0”.

このように、移動情報算出部24は、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、エッジの検出されなかった位置に対応するメモリアドレスのカウント値をリセットする。   As described above, the movement information calculation unit 24 counts up the count value of the memory address corresponding to the position where the edge is detected, and resets the count value of the memory address corresponding to the position where the edge is not detected.

なお、図5に基づく説明においては、カウント値を検出する位置として、エッジの中心位置「x0」と、この中心位置からエッジの移動方向へ1画素の位置「x0+1」と、中心位置からエッジの移動方向と反対方向に1画素の位置「x0−1」の3箇所でカウント値を検出するが、後述するカウント値の傾きが求められれば、カウント値を検出するポイントの配置、数は限定されない。つまり、エッジの移動方向に対して2箇所以上においてカウント値を検出できれば、カウント値の検出箇所はいくつであってもよい。   In the description based on FIG. 5, as the position for detecting the count value, the center position “x0” of the edge, the position “x0 + 1” of one pixel in the moving direction of the edge from the center position, and the edge position from the center position The count value is detected at three positions of the position “x0-1” of one pixel in the direction opposite to the moving direction. However, if the slope of the count value described later is obtained, the arrangement and number of points for detecting the count value are not limited. . That is, as long as the count value can be detected at two or more locations in the edge moving direction, the count value may be detected in any number.

また、エッジが移動する速度に比べて、フレームレートが十分に高く設定されていれば、連続するフレーム間において、エッジは同じ位置で複数回検出される。例えば、図5の例では、連続する時刻tのフレームと時刻t+1のフレームにおいて、エッジは位置x0において2回検出される。したがって、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップしていくと、そのカウント値はその位置においてエッジが検出されている時間(フレーム数、滞留時間)と相関する。特に、エッジのカウント値の中で最小のカウント値hは、エッジが移動してから何フレームの間、同じ位置にあるかということを表す。   If the frame rate is set sufficiently higher than the speed at which the edge moves, the edge is detected a plurality of times at the same position between consecutive frames. For example, in the example of FIG. 5, the edge is detected twice at the position x0 in the continuous frame at time t and frame at time t + 1. Therefore, when the count value of the memory address corresponding to the position where the edge is detected is counted up, the count value correlates with the time (number of frames, dwell time) at which the edge is detected at that position. In particular, the smallest count value h of the edge count values represents how many frames the edge has been in the same position after moving.

次に、本実施形態における、エッジの移動速度、移動方向及び位置の算出手法について説明する。本実施形態では、カウント値の傾きを算出し、この傾きに基づいて、エッジの移動速度、移動方向及び位置を算出する。   Next, an edge moving speed, moving direction, and position calculation method in this embodiment will be described. In this embodiment, the inclination of the count value is calculated, and the moving speed, moving direction, and position of the edge are calculated based on this inclination.

例えば、図5(e)の場合では、位置「x0−1」、「x0」、「x0+1」のカウント値がそれぞれ「6」、「4」、「2」である。位置「x0−1」のカウント値「6」から「x0+1」のカウント値「2」を引くと、カウント値の傾きHは、H=(6−2)/2=2と算出できる。   For example, in the case of FIG. 5E, the count values at the positions “x0-1”, “x0”, and “x0 + 1” are “6”, “4”, and “2”, respectively. When the count value “2” of “x0 + 1” is subtracted from the count value “6” of the position “x0-1”, the slope H of the count value can be calculated as H = (6-2) / 2 = 2.

これは、H={(エッジが位置x0−1に移動してから現在までの時間)−(エッジが位置x0+1に移動した後の時間)}/(2画素)を意味する。つまり、傾きHを算出することにより、エッジが、位置x0にある1画素を通過するのに要する時間(フレーム数)を算出することになる。   This means H = {(time from the edge moving to the position x0-1 to the present) − (time after the edge moves to the position x0 + 1)} / (2 pixels). That is, by calculating the inclination H, the time (number of frames) required for the edge to pass through one pixel at the position x0 is calculated.

したがって、カウント値の傾きHは、エッジが1画素移動するために何フレームを要するかに相当し、このカウント値の傾きHに基づいてエッジの移動速度1/Hを算出する。図5(e)では1画素移動するのに2フレームを要することになるので、エッジの移動速度は1/2(画素/フレーム)と算出する。同様に、図5(f)でもH=(5−1)/2=2となるので、エッジの移動速度は1/2(画素/フレーム)になる。   Therefore, the slope H of the count value corresponds to how many frames it takes for the edge to move by one pixel, and the edge moving speed 1 / H is calculated based on the slope H of the count value. In FIG. 5E, since 2 frames are required to move 1 pixel, the edge moving speed is calculated as 1/2 (pixel / frame). Similarly, in FIG. 5F, H = (5-1) / 2 = 2, so that the edge moving speed is ½ (pixel / frame).

続いて、カウント値の大小に基づいて、エッジの移動方向を判断する手法について説明する。エッジの無い位置にエッジが移動し、新たにエッジが検出された位置のカウント値は1となるから、各位置のカウント値の中では最も小さな値となる。したがって、エッジが移動する方向のカウント値は小さく、エッジが移動する方向と反対方向のカウント値は大きくなる。この傾向を利用して、エッジの移動方向を判断することができる。   Next, a method for determining the edge moving direction based on the magnitude of the count value will be described. Since the edge moves to a position where there is no edge and the count value at the position where the edge is newly detected is 1, the count value at each position is the smallest value. Therefore, the count value in the direction in which the edge moves is small, and the count value in the direction opposite to the direction in which the edge moves is large. By using this tendency, the moving direction of the edge can be determined.

さらに、エッジが移動する速度に比べてフレームレートが十分に高く設定されていれば、検出対象物は等速移動をしていると仮定することができる。また、現在の位置におけるカウント値の中で最小のカウント値hは、エッジがその位置で検出されている時間、すなわちエッジが移動してから何フレームの間、同じ位置にあるかということを表している。これらのことにより、エッジの位置は、エッジの中心位置をx0とすると、「エッジの位置=x0+h/H」により求めることができる。例えば、図5(f)では、エッジの速度は1/2(画素/フレーム)で、時刻t+2の時点では1フレーム連続して同じ位置でエッジが検出されているので、時刻t+2のエッジの位置は「1(フレーム)×{1/2(画素/フレーム)}=0.5画素」だけ位置x0から移動していると算出することができる。   Furthermore, if the frame rate is set sufficiently higher than the speed at which the edge moves, it can be assumed that the detection target object moves at a constant speed. In addition, the smallest count value h among the count values at the current position represents the time when the edge is detected at the position, that is, how many frames the edge has moved to stay at the same position. ing. Thus, the edge position can be obtained by “edge position = x0 + h / H” where x0 is the center position of the edge. For example, in FIG. 5F, the edge speed is ½ (pixel / frame), and the edge is detected at the same position for one frame continuously at time t + 2, so the position of the edge at time t + 2 Can be calculated as moving from the position x0 by “1 (frame) × {1/2 (pixel / frame)} = 0.5 pixel”.

以上のことから、エッジが検出された位置に対応するメモリアドレスのカウント値をカウントアップし、カウントアップされたカウント値の傾きに基づいてエッジの移動速度及び移動方向を算出することができる。   From the above, it is possible to count up the count value of the memory address corresponding to the position where the edge is detected, and to calculate the moving speed and moving direction of the edge based on the slope of the counted up count value.

同様に、縮小画像に対しても同じ処理を行い、特徴点(エッジ)の移動速度及び移動方向を含む移動情報を算出する。本例では、撮像画像の移動情報に加え、これを横方向に1/2縮小した縮小画像の移動情報と、同じく撮像画像を横方向に1/4縮小した縮小画像の移動情報を算出する。   Similarly, the same processing is performed on the reduced image, and movement information including the movement speed and movement direction of the feature point (edge) is calculated. In this example, in addition to the movement information of the captured image, the movement information of the reduced image obtained by reducing this by 1/2 in the horizontal direction and the movement information of the reduced image obtained by reducing the captured image by 1/4 in the horizontal direction are calculated.

ただし、縮小画像の特徴点について算出された移動速度は各縮小画像における移動速度であるから、移動情報に基づいて移動体を検出する処理を行う際には、縮小画像における移動速度を撮像画像に対する移動情報に変換する必要がある。 However, since the moving speed calculated for the feature point of the reduced image is the moving speed in each reduced image, when performing the process of detecting the moving body based on the movement information, the moving speed in the reduced image is determined with respect to the captured image. It needs to be converted into movement information.

このように、撮像画像に比べて1画素の大きさを拡大した所定の縮小率の縮小画像について移動情報を算出することにより、撮像画像では1フレーム当たり1画素以上移動するエッジの動きを1フレーム当たり1画素未満の動きに変換して移動速度を算出することができるため、速度を検出する範囲を拡大することができる。 In this way, by calculating movement information for a reduced image having a predetermined reduction ratio that is one pixel larger than that of the captured image, the movement of an edge that moves one pixel or more per frame in the captured image is determined by one frame. Since the movement speed can be calculated by converting the movement to less than one pixel per hit, the speed detection range can be expanded.

具体的に、撮像画像における1画素の大きさを拡大した縮小画像について、エッジの検出に応じてカウントアップし、エッジが1画素を通過するのに要する時間を算出する手法によりエッジの移動情報を算出するため、1フレーム当たり1画素以上移動するエッジの動きを1フレーム当たり1画素以下の動きに変換して、移動速度を算出することができる。 Specifically, for a reduced image obtained by enlarging the size of one pixel in a captured image, the edge movement information is obtained by counting up according to edge detection and calculating the time required for the edge to pass one pixel. In order to calculate, the movement speed can be calculated by converting the movement of the edge that moves by one pixel or more per frame into the movement of one pixel or less per frame.

このため、フレームレートを高く設定しなくても、相対的に広い範囲において移動速度を算出することができる。つまり、広い範囲で正確な移動情報を算出することができるため、比較の対象となる背景の移動速度を正確に算出することができ、ひいては背景と対象物との移動情報の対比を高い精度で行うことができる。 For this reason, the moving speed can be calculated in a relatively wide range without setting the frame rate high. In other words, since accurate movement information can be calculated over a wide range, the movement speed of the background to be compared can be calculated accurately, and as a result, the comparison of the movement information between the background and the object can be performed with high accuracy. It can be carried out.

移動速度算出部24は、算出した移動情報を合成部25へ送出する。   The movement speed calculation unit 24 sends the calculated movement information to the synthesis unit 25.

続いて、合成部25について説明する。合成部25は、移動情報算出部24により算出された縮小画像の特徴点の移動情報と撮像画像の特徴点の移動情報とから合成情報を生成する。   Next, the synthesis unit 25 will be described. The synthesis unit 25 generates synthesis information from the movement information of the feature points of the reduced image calculated by the movement information calculation unit 24 and the movement information of the feature points of the captured image.

合成情報の態様は特に限定されないが、移動体検出の対象となる各特徴点の画素に、撮像画像の特徴点の移動情報又は何れかの縮小画像の特徴点の移動情報が対応づけられた情報とすることができる。本実施形態の合成情報は、所定の視野画像における特徴点(エッジ)に関する情報(例えば座標情報)に、撮像画像の特徴点の移動情報又は何れかの縮小画像の特徴点の移動情報が対応づけられた情報である。本例では、所定の視野画像としては、縮小処理をしていない撮像画像を用い、撮像画像に特徴点(エッジ)の位置情報と撮像画像の特徴点の移動情報又は何れかの縮小画像の特徴点の移動情報が重畳された画像情報を合成情報とする。   Although the mode of the composite information is not particularly limited, the information on the feature point movement information of the captured image or the feature point movement information of any reduced image is associated with the pixel of each feature point that is the target of the moving object detection. It can be. In the synthesis information of the present embodiment, information on feature points (edges) in a predetermined visual field image (for example, coordinate information) is associated with movement information of feature points of a captured image or feature point movement information of any reduced image. Information. In this example, a captured image that has not undergone reduction processing is used as the predetermined field-of-view image, and the position information of the feature point (edge) and the movement information of the feature point of the captured image or the characteristics of any reduced image are included in the captured image. The image information on which the point movement information is superimposed is used as composite information.

つまり、合成部25は、撮像画像において検出された特徴点に対応する画素ごとに、撮像画像の移動情報又は各縮小画像の移動情報の何れか選択し、選択された移動情報を特徴点の画素(画素のID)に対応づけて合成情報を生成する。   That is, for each pixel corresponding to the feature point detected in the captured image, the synthesis unit 25 selects either the captured image movement information or the reduced image movement information, and uses the selected movement information as the feature point pixel. Compositing information is generated in association with (pixel ID).

このように、合成部25は、特徴点の移動情報を算出する際の単位領域の大きさ(画素に対応する撮像領域の大きさ)が異なる撮像画像と各縮小画像(1/2縮小画像、1/4縮小画像)から得られた移動情報を組み合わせ、移動体の検出に適した一の合成情報を生成する。   As described above, the synthesis unit 25 and each reduced image (1/2 reduced image, half-reduced image, different size of the unit region (size of the imaging region corresponding to the pixel) at the time of calculating the feature point movement information). The movement information obtained from the (1/4 reduced image) is combined to generate one piece of combined information suitable for detection of the moving object.

さらに、合成部25は、撮像画像及び各縮小画像において算出された移動情報は、その移動情報が検出された単位領域(画素)の大きさが異なるため、その単位領域の画像の大きさを揃える。本例では、カメラ10により撮像された撮像画像を基準とした合成情報を生成するため、撮像画像の画素の大きさに揃える。つまり、横方向に1/2縮小した1/2縮小画像は、横方向に沿って2倍拡大し、横方向に1/4縮小した1/4縮小画像は横方向に沿って4倍に拡大する。   Furthermore, since the movement information calculated in the captured image and each reduced image has different unit areas (pixels) in which the movement information is detected, the synthesis unit 25 aligns the image sizes of the unit areas. . In this example, in order to generate the composite information based on the captured image captured by the camera 10, it is aligned with the pixel size of the captured image. In other words, a 1/2 reduced image reduced by 1/2 in the horizontal direction is enlarged 2 times along the horizontal direction, and a 1/4 reduced image reduced by 1/4 in the horizontal direction is enlarged 4 times along the horizontal direction. To do.

さらにまた、合成部25は、移動速度の単位を揃える。本実施形態において算出された移動速度の単位が画素/フレームであるため、算出された移動速度(画素/フレーム)にカメラ10のフレームレートを乗ずることにより、これらの移動速度を画素/秒の単位系に換算する。   Furthermore, the composition unit 25 aligns the units of the moving speed. Since the unit of moving speed calculated in the present embodiment is pixels / frame, by multiplying the calculated moving speed (pixel / frame) by the frame rate of the camera 10, these moving speeds are expressed in units of pixels / second. Convert to system.

撮像画像を横方向に1/2縮小した縮小画像の移動速度の単位も画素/秒の単位系に換算する。ここで、1/2縮小画像は、検出された単位領域(画素)が撮像画像の単位領域(画素)の2倍(2画素分)になるため、撮像画像における1フレーム当たりの移動量は2倍となる。したがって、1/2縮小画像については算出された移動速度を2倍し、フレームレートを乗じることにより、撮像画像に対応する移動速度(画素/秒)を求めることができる。1/4縮小画像についても同様に、算出された移動速度を4倍し、フレームレートを乗じることにより、撮像に対応する移動速度(画素/秒)を求めることができる。   The unit of moving speed of the reduced image obtained by reducing the captured image by 1/2 in the horizontal direction is also converted into a unit system of pixels / second. Here, in the 1/2 reduced image, the detected unit area (pixel) is twice (2 pixels) the unit area (pixel) of the captured image, so the amount of movement per frame in the captured image is 2 Doubled. Therefore, for the 1/2 reduced image, the moving speed (pixel / second) corresponding to the captured image can be obtained by doubling the calculated moving speed and multiplying by the frame rate. Similarly, for a ¼ reduced image, the moving speed (pixel / second) corresponding to imaging can be obtained by multiplying the calculated moving speed by four and multiplying by the frame rate.

ちなみに、縮小画像は撮像画像から生成されるものであるため、縮小画像における画素及び/又は画素群と撮像画像における画素及び/又は画素群との位置(座標値)は対応づけることが可能である。対応関係に関する情報は縮小画像に付してもよいし、参照可能なように画像メモリ11に記憶させてもよい。 Incidentally, since the reduced image is generated from the captured image, the position (coordinate value) of the pixel and / or pixel group in the reduced image and the pixel and / or pixel group in the captured image can be associated with each other. . Information about the correspondence relationship may be attached to the reduced image, or may be stored in the image memory 11 so that it can be referred to.

このように、移動速度の大きさと単位を揃えた後、縮小画像の特徴点の移動情報と撮像画像の特徴点の移動情報とから合成情報を生成する。 As described above, after aligning the magnitude and unit of the moving speed, composite information is generated from the moving information of the feature points of the reduced image and the moving information of the feature points of the captured image.

合成部25は、縮小画像の移動情報と撮像画像の移動情報の中から適切な情報を選択し、選択した移動情報に基づいて合成情報を構成する。以下、どの縮小画像から、どのような移動情報を選択し、どのように合成情報を生成するかという合成情報の生成手法の一例を説明する。 The synthesizing unit 25 selects appropriate information from the movement information of the reduced image and the movement information of the captured image, and configures the synthesis information based on the selected movement information. Hereinafter, an example of a synthesis information generation method for selecting what movement information from which reduced image and how to generate synthesis information will be described.

本実施形態の合成部25は、撮像画像において検出された各特徴点の移動情報と、撮像画像の特徴点にそれぞれ対応する縮小画像の特徴点の移動情報とから合成情報を生成する。具体的に、合成部25は、撮像画像において特徴点が抽出されたか否かを判断し、特徴点が抽出された場合において、その特徴点に対応する縮小画像における特徴点の移動情報を用いて合成情報を生成する。つまり、合成情報を生成する際に移動情報の合成処理を行うのは、撮像画像において特徴点(エッジ)が検出された画素に限定される。 The synthesizing unit 25 of the present embodiment generates synthesis information from the movement information of each feature point detected in the captured image and the movement information of the feature point of the reduced image corresponding to the feature point of the captured image. Specifically, the synthesis unit 25 determines whether or not a feature point has been extracted from the captured image, and when the feature point is extracted, using the feature point movement information in the reduced image corresponding to the feature point. Generate synthesis information. In other words, the movement information combining process when generating the combined information is limited to pixels in which feature points (edges) are detected in the captured image.

このようにするのは、画像処理によって生じたノイズの影響を排除し、移動物の存在に由来する特徴点についてのみ合成処理を行うためである。すなわち、画像の縮小や画像の拡大などの画像処理の影響により、撮像画像に特徴点(エッジ)が存在しない部分(実際には物体が存在しない部分)に移動情報が算出される場合があり、このような移動情報は誤検出の原因になるおそれがあるため、その影響を排除するためである。 This is because the influence of noise generated by the image processing is eliminated, and the synthesis processing is performed only for the feature points derived from the presence of the moving object. That is, movement information may be calculated in a portion where a feature point (edge) does not exist in the captured image (a portion where no object actually exists) due to the influence of image processing such as image reduction or image enlargement, This is because such movement information may cause a false detection, and the influence is eliminated.

このように、本実施形態では、移動体の存在に起因する移動情報ではなく、画像処理において発生した移動情報による影響を排除するため、合成部25による合成処理の対象となる画素を、撮像画像に含まれる画素であって特徴点(エッジ)が検出された画素に限定する。このように、撮像画像において特徴点が検出された画素に限って、他の縮小画像と移動情報の合成処理を行うことにより、縮小画像の生成や縮小画像の拡大等の画像処理において発生するノイズの影響を排除することにより、検出精度の低下を防止することができる。 As described above, in this embodiment, in order to eliminate the influence of the movement information generated in the image processing instead of the movement information due to the presence of the moving object, the pixel to be subjected to the synthesis processing by the synthesis unit 25 is captured image. The pixel is included in the pixel and the feature point (edge) is detected. In this way, noise generated in image processing such as generation of a reduced image and enlargement of a reduced image is performed only by combining pixels with other reduced images and movement information only for pixels in which feature points are detected in the captured image. By eliminating the influence of the above, it is possible to prevent a decrease in detection accuracy.

合成部25は、撮像画像において、合成の対象となる画素又は画素群(撮像画像において抽出された特徴点に対応する画素又は画素群)を特定した後、そのエッジが存在する画素の移動情報について移動情報(移動速度)の合成を行う。 The synthesizing unit 25 specifies the pixel or the pixel group (the pixel or the pixel group corresponding to the feature point extracted in the captured image) to be synthesized in the captured image, and then the movement information of the pixel where the edge exists The movement information (movement speed) is synthesized.

合成部25は、撮像画像において抽出された特徴点にそれぞれ対応する各縮小画像の特徴点の移動速度のうち、縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成する。つまり、撮像画像から特徴点が抽出された場合(すなわち物体の存在が検出された場合)は、その特徴点の移動速度として、縮小率の最も高い縮小画像において対応する移動情報を選択する。こうすることにより、比較的S/Nの高い移動情報に基づいて合成情報を生成することができる。つまり、縮小率の高い縮小画像は見かけ上遅い速度を検出するが、移動速度をエッジの蓄積量に基づいて算出した場合は、遅い速度の方がエッジの蓄積量が多く、S/Nが高い。このため、縮小率の高い移動情報を選択することにより、物体が存在する特徴点についてS/Nの高い移動情報に基づく合成情報を生成することができる。 The synthesis unit 25 generates synthesis information based on the movement information of the feature points of the reduced image having the highest reduction ratio among the movement speeds of the feature points of the reduced images respectively corresponding to the feature points extracted in the captured image. . That is, when a feature point is extracted from the captured image (that is, when the presence of an object is detected), the corresponding movement information is selected in the reduced image with the highest reduction ratio as the moving speed of the feature point. By doing so, it is possible to generate composite information based on movement information having a relatively high S / N. In other words, an apparently slow speed is detected for a reduced image with a high reduction ratio, but when the moving speed is calculated based on the accumulated amount of edges, the slower speed has a larger amount of accumulated edges and the S / N is higher. . For this reason, by selecting movement information with a high reduction ratio, it is possible to generate composite information based on movement information with a high S / N for feature points where an object exists.

また、合成部25は、撮像画像から抽出された特徴点の移動速度が算出されない場合は、特徴点に対応する各縮小画像の特徴点の移動速度のうち、縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成する。つまり、撮像画像から特徴点が抽出され、物体の存在は検出できたが、その物体の移動速度が検出されなかった場合は、縮小画像の移動情報を用いて合成情報を生成する。 When the moving speed of the feature point extracted from the captured image is not calculated, the synthesizing unit 25 uses the feature of the reduced image having the highest reduction ratio among the moving speeds of the feature points of the reduced images corresponding to the feature points. Synthesis information is generated based on the point movement information. That is, when feature points are extracted from the captured image and the presence of the object can be detected, but the moving speed of the object is not detected, the combined information is generated using the movement information of the reduced image.

合成情報の生成処理において、合成部25は、まず、撮像画像において特徴点が抽出された画素を合成の対象として特定する。合成の対象となる特徴点(エッジ)に対応する各縮小画像の移動情報のうち、縮小率が最も高い縮小画像の移動情報を選択する。例えば、1/2の縮小画像と1/4の縮小画像が生成されている場合は、縮小の度合い(縮小率)が最も高い1/4の縮小画像における移動情報から、合成の対象となる特徴点に対応する移動情報を選択する。縮小画像は撮像画像に基づいて生成されているため、撮像画像の画素と縮小画像の画素との対応関係は判断可能である。 In the synthesis information generation process, the synthesis unit 25 first specifies a pixel from which a feature point has been extracted in the captured image as a synthesis target. Of the movement information of each reduced image corresponding to the feature point (edge) to be synthesized, the movement information of the reduced image having the highest reduction ratio is selected. For example, when a 1/2 reduced image and a 1/4 reduced image are generated, a feature to be synthesized from movement information in a 1/4 reduced image with the highest degree of reduction (reduction rate). Select movement information corresponding to a point. Since the reduced image is generated based on the captured image, the correspondence between the pixel of the captured image and the pixel of the reduced image can be determined.

合成部25は、選択された縮小画像の移動情報を移動情報算出部24又は画像メモリ11から取得する。そして、選択された移動情報を用いて合成情報を生成する。言い換えると、撮像画像に基づいて算出された移動情報を、選択された縮小画像の移動情報に置換する。撮像画像において抽出された特徴点(エッジ)についてこの処理を行い、合成情報を生成する。 The synthesizing unit 25 acquires the movement information of the selected reduced image from the movement information calculating unit 24 or the image memory 11. Then, composite information is generated using the selected movement information. In other words, the movement information calculated based on the captured image is replaced with the movement information of the selected reduced image. This process is performed on feature points (edges) extracted from the captured image to generate composite information.

このように、縮小率が高い縮小画像の移動情報を撮像画像の移動情報に置換することにより、精度の高い合成情報を得ることができる。 Thus, by replacing the movement information of the reduced image with a high reduction ratio with the movement information of the captured image, it is possible to obtain highly accurate composite information.

本実施形態において、特徴点(エッジ)の移動速度は特徴点の蓄積量に基づいて算出されるため、特徴点に対応する各画素に関して複数の移動情報が算出されている場合は、縮小率の高い縮小画像の方が、見かけ上、速度の遅い特徴点の移動情報が検出される。言い換えると、移動情報は、特徴量(エッジ)の蓄積量に基づいて算出されるから、動きが遅い特徴量の方が移動情報の蓄積量が多くなるためS/Nが高くなる。このため、縮小率の異なる縮小画像について移動情報がそれぞれ算出されている場合に、S/Nが高い縮小率の高い速度情報を選択して合成情報を生成することにより、精度の高い合成情報を得ることができる。 In the present embodiment, the moving speed of the feature point (edge) is calculated based on the accumulated amount of the feature point. Therefore, when a plurality of pieces of movement information are calculated for each pixel corresponding to the feature point, the reduction rate In the case of a high-reduced image, the movement information of feature points that are apparently slower in speed is detected. In other words, since the movement information is calculated based on the accumulation amount of the feature amount (edge), the S / N is higher because the accumulation amount of the movement information is larger in the feature amount having the slower movement. For this reason, when movement information is calculated for reduced images with different reduction ratios, it is possible to generate high-precision composite information by selecting high speed information with a high S / N and high reduction ratio to generate composite information. Obtainable.

さらに、撮像画像から抽出された特徴点の移動速度が算出されなった場合において、縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成することにより、物体の存在は検出できたが移動速度が判らなかった場合においても、精度の高い合成情報を得ることができる。 Further, when the moving speed of the feature point extracted from the captured image is not calculated, the presence of the object is detected by generating composite information based on the moving information of the feature point of the reduced image having the highest reduction ratio. Even when the moving speed is not known, it is possible to obtain highly accurate composite information.

また、合成部25は、撮像画像において検出された特徴点にそれぞれ対応する各縮小画像の特徴点の移動速度のうち、撮像画像の特徴点の移動方向と方向差が所定値未満である特徴点であって、かつ縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成する。   Further, the combining unit 25 has a feature point in which a moving direction and a direction difference of the feature point of the captured image are less than a predetermined value out of the moving speed of the feature point of each reduced image corresponding to the feature point detected in the captured image. In addition, the composite information is generated based on the movement information of the feature points of the reduced image having the highest reduction ratio.

移動方向に関していえば、特徴点の移動速度が低速域乃至極低速域にある場合は、その移動方向がばらつくため、縮小率が低い縮小画像(最も縮小率が低いのは撮像画像である)の方が精度は高くなる。このため、本実施形態では、撮像画像の特徴点の移動方向とこれに対応する縮小画像の特徴点の移動方向との方向差が所定値未満である場合に、縮小率の最も高い縮小画像の特徴点の移動情報を選択し、合成情報を生成する。これにより、一の特徴点に対応する画素又は画素群の移動方向がある程度揃っている、つまり、移動方向が収束する程度に移動速度が速い場合に限り、縮小率の最も高い縮小画像の特徴点の移動情報を選択し、これを用いて精度の高い合成情報を生成することができる。 With regard to the moving direction, when the moving speed of the feature point is in a low speed range or a very low speed range, the moving direction varies, so that a reduced image with a low reduction rate (the image with the lowest reduction rate is a captured image). The accuracy is higher. For this reason, in this embodiment, when the direction difference between the moving direction of the feature point of the captured image and the moving direction of the feature point of the corresponding reduced image is less than a predetermined value, the reduced image with the highest reduction ratio is displayed. Select movement information of feature points, and generate synthesis information. As a result, the feature point of the reduced image with the highest reduction ratio is obtained only when the moving direction of the pixel or pixel group corresponding to one feature point is aligned to some extent, that is, when the moving speed is fast enough to converge the moving direction. This movement information can be selected and used to generate highly accurate composite information.

図6に基づいて、合成情報を生成手法の一例を説明する。図6は、フレームレートを30fpsとした場合に、撮像画像、1/2縮小画像及び1/4縮小画像から移動情報が算出された画素を示す。図6において、薄墨を施した画素は、撮像画像において特徴点(エッジ)が抽出された画素であって、かつ、撮像画像において移動速度が算出されない(検出されない)画素、及び/又は撮像画像の移動方向と縮小画像の移動方向との差が所定値未満であるという条件を満たす画素である。本例では、薄墨を施した画素の移動情報を優先して用いた合成情報を生成する。なお、同じ条件である場合は、縮小率の高い縮小画像の移動情報を優先して用いた合成情報を生成する。 An example of a method for generating synthesis information will be described with reference to FIG. FIG. 6 shows pixels whose movement information is calculated from the captured image, 1/2 reduced image, and 1/4 reduced image when the frame rate is 30 fps. In FIG. 6, pixels with light ink are pixels from which feature points (edges) have been extracted in the captured image, and pixels whose movement speed is not calculated (not detected) in the captured image, and / or These pixels satisfy the condition that the difference between the moving direction and the moving direction of the reduced image is less than a predetermined value. In this example, composite information is generated that preferentially uses the movement information of the pixels to which light ink is applied. Note that when the same condition is satisfied, composite information using the movement information of a reduced image with a high reduction ratio in preference is generated.

以上のように、合成部25は、撮像画像において抽出された特徴点について、縮小画像で移動情報が算出された場合には、撮像画像で移動速度が算出されず及び/又は移動方向が略同一(移動方向差が所定値以内)のとき、縮小率の最も高い(又は相対的に高い)画像の移動情報を、撮像画像に対応する画素の移動情報として選択し、選択された移動情報を用いて合成情報を生成する。 As described above, when the movement information is calculated in the reduced image for the feature points extracted in the captured image, the synthesis unit 25 does not calculate the movement speed in the captured image and / or the movement direction is substantially the same. When the movement direction difference is within a predetermined value, the movement information of the image having the highest (or relatively high) reduction ratio is selected as the movement information of the pixel corresponding to the captured image, and the selected movement information is used. To generate synthesis information.

このように生成された合成情報の一態様を、図7に基づいて説明する。 One aspect of the synthesis information generated in this way will be described with reference to FIG.

本実施形態の合成部25は、撮像画像上にエッジが存在する画素ごとに選択された移動情報を合成し、合成された移動情報を所定の階級値に分類して表した合成移動画像を生成する。この合成移動情報の一例を図7に示す。図7に示す合成移動画像は、観察者の所定の視野画像上(撮像画像上)に存在する特徴点(エッジ)に対応づけられた移動情報を所定の階級値に分類し、移動情報の特徴が表わされた形態により表現する画像情報である。 The synthesizing unit 25 according to the present embodiment synthesizes the movement information selected for each pixel in which an edge exists on the captured image, and generates a synthesized movement image that is expressed by classifying the synthesized movement information into predetermined class values. To do. An example of this combined movement information is shown in FIG. The synthesized moving image shown in FIG. 7 classifies movement information associated with feature points (edges) existing on a predetermined visual field image (captured image) of the observer into predetermined class values, and features of the movement information This is image information expressed in the form in which is represented.

この合成移動画像では、移動速度成分の階級値とし、移動情報が検出されたエッジの画素を丸印で表し、移動速度が速い画素ほど点を大きい丸印で表すことにより、画素の移動情報を表現する。 In this composite moving image, the pixel value of the moving speed component is represented by a circle, the pixel of the edge where the moving information is detected is indicated by a circle, and the pixel having the higher moving speed is indicated by a larger circle, thereby indicating the movement information of the pixel. Express.

また、移動方向が右、すなわち右方向へ移動する画素を塗りつぶした黒印で表し、移動方向が左、すなわち左方向へ移動する画素を色抜きの白印で表すことにより、画素の移動方向を表現する。 In addition, the moving direction of the pixel is represented by a solid black mark that represents a pixel that moves to the right, that is, the right direction, and the moving direction is represented by a white mark that represents a pixel that moves to the left, that is, the left direction. Express.

すなわち、図7の合成移動画像が示す状況においては、自車両の走行路右側の外壁よび白線から画像の右側へ向かう移動情報(移動速度)が示され、走行路左側の外壁から画像の左側へ向かう移動情報(移動速度)が示される。また、走行路左側から右へ移動する歩行者から画像の右側へ向かう移動情報(移動速度)が示される。このように、合成移動画像は、移動速度と移動方向を含む移動情報を画像上に表現することができる。合成部25は、生成した合成情報又は合成移動画像を移動体検出部30に提供する。 That is, in the situation indicated by the composite moving image in FIG. 7, the moving information (moving speed) from the outer wall on the right side of the traveling path of the host vehicle and the white line toward the right side of the image is shown, and from the outer wall on the left side of the traveling path to the left side of the image. The moving information (moving speed) is shown. Further, movement information (moving speed) from the pedestrian moving from the left side to the right side of the traveling path toward the right side of the image is shown. As described above, the synthesized moving image can express movement information including the moving speed and the moving direction on the image. The synthesis unit 25 provides the generated synthesis information or the synthesized moving image to the moving object detection unit 30.

次に、移動体検出部30について説明する。   Next, the moving body detection unit 30 will be described.

移動体検出部30は、グループ化部31と座標変換部32と、判定部33とを有し、合成部25により生成された合成情報(例えば合成移動画像)に基づいて移動体を検出する。移動体は、移動する立体物であるため、本実施形態の移動体検出部30は、合成移動画像における特徴点又は特徴点に対応する画素群が、移動体の候補となり得る立体物であるか否かを判断し、さらにその立体物が移動体であるか否かを判断する。 The moving body detection unit 30 includes a grouping unit 31, a coordinate conversion unit 32, and a determination unit 33, and detects a moving body based on the combination information (for example, a combined moving image) generated by the combining unit 25. Since the moving object is a moving three-dimensional object, the moving object detection unit 30 according to the present embodiment is a three-dimensional object in which a feature point in the synthesized moving image or a pixel group corresponding to the feature point can be a candidate for the moving object. It is determined whether or not the three-dimensional object is a moving object.

以下、移動体検出部30が備える各構成について説明する。   Hereinafter, each structure with which the mobile body detection part 30 is provided is demonstrated.

まず、グループ化部31について説明する。グループ化部31は、移動情報算出部24により算出された移動速度が所定範囲内であり、合成移動画像おいて略垂直方向に隣接する画素群をグループ化する。このため、グループ化部31は、合成移動画像に領域を設定する。たとえば図8に示すように、合成移動画像上に短冊状の複数の領域を設定し、各短冊状の複数領域により合成移動画像を分割する。そして、グループ化部31は、移動体検出のため、分割領域ごとに、移動情報算出部24により算出された移動速度が所定範囲内であるとともに、画像おいて略垂直方向に隣接する(縦方向に隣接する)画素群をグループ化する。グループ化部31は、画像の下部から上部に向かって各短冊領域を順に走査し、ある注目領域に速度を持った画素が存在し、注目領域の上部に存在する速度を持った画素との速度差を比較し、その速度差がしきい値T1以下である場合には同じ物体と判断し、それらの画素をグループ化する。   First, the grouping unit 31 will be described. The grouping unit 31 groups the pixel groups adjacent to each other in the substantially vertical direction in the synthesized moving image, in which the movement speed calculated by the movement information calculation unit 24 is within a predetermined range. For this reason, the grouping unit 31 sets an area in the composite moving image. For example, as shown in FIG. 8, a plurality of strip-shaped areas are set on the combined moving image, and the combined moving image is divided by each of the plurality of strip-shaped areas. Then, the grouping unit 31 detects the moving object, and the moving speed calculated by the movement information calculating unit 24 is within a predetermined range for each divided region, and is adjacent in the vertical direction in the image (vertical direction). Group of pixels). The grouping unit 31 sequentially scans each strip region from the lower part to the upper part of the image, and there is a pixel having a speed in a certain attention area, and the speed with a pixel having a speed existing in the upper part of the attention area. The difference is compared, and when the speed difference is equal to or less than the threshold value T1, it is determined that they are the same object, and those pixels are grouped.

具体的には、合成移動画像(図7参照)を縦方向(y軸方向)に探索する。移動情報を持った画素Aが見つかった場合、画素Aに隣接する画素Bを探索する。画素Bが移動情報を有し、かつ画素Aと画素Bの速度方向の差が閾値Re以内であり、かつ、画素Aと画素Bの速度の大きさの差が閾値Tv以内であれば、同じ移動速度で縦に連続していると判断する。 Specifically, the synthesized moving image (see FIG. 7) is searched in the vertical direction (y-axis direction). When a pixel A having movement information is found, a pixel B adjacent to the pixel A is searched. Same if the pixel B has movement information, the difference in the speed direction between the pixel A and the pixel B is within the threshold value Re, and the difference in the speed magnitude between the pixel A and the pixel B is within the threshold value Tv Judged to be continuous vertically at the moving speed.

次に、画素Bに隣接する画素Cについても同様に移動情報の有無を判断し、画素Aと画素Cの速度の方向の差が閾値Re以内か、速度の大きさの差が閾値Tv以内かを判断する。以後、いずれかの条件を満たさなくなるまで繰り返す。ここで「縦方向に移動情報が共通する画素が連続する」という特徴は、立体の画像上の特徴である。すなわち、画像の下部から上部に向かって各領域を走査し、領域内に速度を持った画素が存在する場合は、その画素の上方に隣接する速度を持った画素との速度差を比較する。その速度差が閾値T1以下である場合には、車両に対して同じ速度で移動する物体であると推定できることから、同じ物体であると判定してグループ化を行う。 Next, the presence / absence of movement information is similarly determined for the pixel C adjacent to the pixel B, and whether the difference in speed direction between the pixel A and the pixel C is within the threshold value Re or whether the difference in speed magnitude is within the threshold value Tv. Judging. Thereafter, the process is repeated until one of the conditions is not satisfied. Here, the feature that “pixels having common movement information in the vertical direction are continuous” is a feature on a stereoscopic image. That is, each area is scanned from the lower part to the upper part of the image, and when there is a pixel having speed in the area, the speed difference with the pixel having speed adjacent to the pixel is compared. When the speed difference is equal to or less than the threshold value T1, it can be estimated that the objects move at the same speed with respect to the vehicle.

そして、グループ化された領域の上端位置と下端位置を検出する。図8に示す合成移動画像においては、短冊幅に下端点が存在する画像上の垂直位置BL1〜BL 15及び短冊幅に上端点が存在する画像上の垂直位置TL1〜TL15を検出する。   Then, the upper end position and the lower end position of the grouped area are detected. In the synthesized moving image shown in FIG. 8, vertical positions BL1 to BL15 on the image having the lower end point in the strip width and vertical positions TL1 to TL15 on the image having the upper end point in the strip width are detected.

次に、座標変換部32について説明する。座標変換部32は、合成移動画像に含まれる画素を所定の視点から見た俯瞰図における変換座標に変換する。この変換座標は、所定の領域(面積)が与えられるとともに分割領域に分割された変換座標である。   Next, the coordinate conversion unit 32 will be described. The coordinate conversion unit 32 converts the pixels included in the composite moving image into converted coordinates in an overhead view viewed from a predetermined viewpoint. The conversion coordinates are conversion coordinates that are given a predetermined area (area) and are divided into divided areas.

まず、座標変換部32は、グループ化部31によりグループ化された画素の上端位置(最も高い位置に存在する画素)と下端位置(最も低い位置に存在する画素)を検出する。この処理により、図8に示す下端位置BL1〜BL15及び上端位置TL1〜TL15が検出される。   First, the coordinate conversion unit 32 detects the upper end position (the pixel existing at the highest position) and the lower end position (the pixel existing at the lowest position) of the pixels grouped by the grouping unit 31. By this process, lower end positions BL1 to BL15 and upper end positions TL1 to TL15 shown in FIG. 8 are detected.

座標変換部32は、図9に示すように、物体が存在する領域である各短冊領域の上端位置と下端位置の存在する領域において、上端点及び下端点のx座標を短冊幅の中央値とした座標値TP1〜TP15及びBP1〜BP15とカメラ101のカメラパラメータに基づいて、上端点と下端点の実空間上へ投影する。   As shown in FIG. 9, the coordinate conversion unit 32 uses the x coordinate of the upper end point and the lower end point as the median of the strip width in the area where the upper end position and the lower end position of each strip area where the object exists is present. Based on the coordinate values TP <b> 1 to TP <b> 15 and BP <b> 1 to BP <b> 15 and the camera parameters of the camera 101, the upper end point and the lower end point are projected onto the real space.

つまり、座標変換部32は、xy平面上において抽出された下端BL1〜BL15および上端TL1〜TL15の中心位置を座標とする下端点BP1〜BP15(図示省略)および上端点TP1〜TP15(図示省略)の位置座標を、規定の面積を備えたZX平面(以下、規定のZX平面と呼ぶ)上の点として3次元の位置座標(実空間上の3次元における位置座標)に変換する。   That is, the coordinate conversion unit 32 has the lower end points BP1 to BP15 (not shown) and the upper end points TP1 to TP15 (not shown) whose coordinates are the center positions of the lower ends BL1 to BL15 and the upper ends TL1 to TL15 extracted on the xy plane. Are converted into three-dimensional position coordinates (three-dimensional position coordinates in real space) as points on a ZX plane (hereinafter referred to as a prescribed ZX plane) having a prescribed area.

ここで、各点の座標を(x、y)とし、カメラの路面からの高さをCh(m)、カメラの俯角をTr(rad)、画像の縦サイズをIh、画像の横サイズをIw、高さ方向の1画素あたりの角度分解能をPYr(rad)、横方向の1画素あたりの角度分解能をPXr(rad)とすると、xy平面上の点TP1〜TP15及びBP1〜BP15は、次式に従ってZX平面の座標(Z、X)に変換される。   Here, the coordinates of each point are (x, y), the height from the road surface of the camera is Ch (m), the depression angle of the camera is Tr (rad), the vertical size of the image is Ih, and the horizontal size of the image is Iw. If the angular resolution per pixel in the height direction is PYr (rad) and the angular resolution per pixel in the horizontal direction is PXr (rad), the points TP1 to TP15 and BP1 to BP15 on the xy plane are Is converted into coordinates (Z, X) on the ZX plane.

(式1)Z=(Ch)/(TAN(Tr+(y−Ih/2)×PYr))
(式2)X=x×TAN((Z-Iw/2)×PXr)
上端点TP1〜TP15の変換後の点を、上端座標変換点RT1〜RT15とし、下端点BP1〜BP15の変換後の点を下端座標変換点RB1〜RB15とする。一部の対応関係を図9に示す。
(Formula 1) Z = (Ch) / (TAN (Tr + (y−Ih / 2) × PYr))
(Formula 2) X = x × TAN ((Z-Iw / 2) × PXr)
The converted points of the upper end points TP1 to TP15 are referred to as upper end coordinate conversion points RT1 to RT15, and the converted points of the lower end points BP1 to BP15 are referred to as lower end coordinate conversion points RB1 to RB15. A part of the correspondence is shown in FIG.

そして、投影された位置RT1〜RT15,RB1〜RB15が、図9に示すようなX軸範囲とZ軸範囲を規定した2次元領域のどの領域に該当するか判定する。なお、本実施例では、X軸方向は−5.25m未満、−5.25以上−3.5m未満、−3.5m以上−1.75m未満、−1.75m以上0m未満、0m以上1.75m未満、1.75m以上3.5m未満、3.5m以上5.25m未満、及び5.25m以上の8つの領域を設定し、Z軸方向に20m〜25m、25m〜30m、30m〜35m、35m〜45m及び45m〜55mの5つの領域を設定し、計8×5の2次元領域を設定する。そして、座標変換部32により得られた情報は判定部33に送出される。   Then, it is determined which of the two-dimensional regions in which the projected positions RT1 to RT15, RB1 to RB15 define the X-axis range and the Z-axis range as shown in FIG. In this embodiment, the X-axis direction is less than −5.25 m, −5.25 to less than −3.5 m, −3.5 m to less than −1.75 m, −1.75 m to less than 0 m, 0 m to 1 8 regions of less than .75m, 1.75m or more and less than 3.5m, 3.5m or more and less than 5.25m, and 5.25m or more are set in the Z-axis direction, 20m to 25m, 25m to 30m, 30m to 35m , 35 m to 45 m and 45 m to 55 m are set, and a total of 8 × 5 two-dimensional areas are set. Then, the information obtained by the coordinate conversion unit 32 is sent to the determination unit 33.

続いて、判定部33について説明する。判定部33は、合成移動画像などの合成情報から得られた情報に基づいて、撮像画像から検出された対象物が移動体であるか否かを判定する。   Next, the determination unit 33 will be described. The determination unit 33 determines whether or not the object detected from the captured image is a moving body based on information obtained from composite information such as a composite moving image.

ところで、移動体は、それ自体が動く物体であるから、二次元の平面物ではなく立体物である。本実施形態の判定部33は、まず、検出された対象物(画素群)が移動体の候補となり得る立体物であるか否かを判定し、さらに、その立体物(候補)が移動体であるか否かを判定する。 By the way, since the moving body is a moving object itself, it is not a two-dimensional plane object but a three-dimensional object. The determination unit 33 of the present embodiment first determines whether or not the detected object (pixel group) is a three-dimensional object that can be a candidate for a moving object, and further, the three-dimensional object (candidate) is a moving object. It is determined whether or not there is.

判定部33は、変換座標において最も高い位置(上端)に存在する画素の座標と最も低い位置(下端)に存在する画素の座標とに基づき、撮像画像に含まれる対象物が平面物体であるか立体物であるかを判定する。   Based on the coordinates of the pixel present at the highest position (upper end) and the coordinates of the pixel present at the lowest position (lower end), the determination unit 33 determines whether the target object included in the captured image is a planar object. It is determined whether it is a three-dimensional object.

本実施形態の判定部33は、グループ化部31によりグループ化された画素群のうち、変換座標において上端に位置する画素の座標と下端に位置する画素の座標とが共通の分割領域に属する場合は、グループ化された画素群に対応する領域を、平面物と判定する。他方、判定部33は、グループ化部31によりグループ化された画素群のうち、変換座標において上端に位置する画素の座標が変換座標の領域外に属するとともに、下端に位置する画素の座標がいずれかの分割領域に属する場合は、グループ化された画素群に対応する領域を、対象立体物と判定する。例えば、図9に示すOB1のように、上端に位置する画素TP1の変換座標はZX変換座標の領域外に位置し、下端に位置する画素BP1の変換座標はZX変換座標内に位置するため、判定部33は、OB1が属する領域を、立体物を含む領域と判定する。   The determination unit 33 according to the present embodiment includes a case where the coordinates of the pixel located at the upper end and the coordinate of the pixel located at the lower end of the pixel group grouped by the grouping unit 31 belong to a common divided region. Determines that the area corresponding to the grouped pixel group is a planar object. On the other hand, in the pixel group grouped by the grouping unit 31, the determination unit 33 has the coordinates of the pixel located at the upper end in the transformation coordinates outside the region of the transformation coordinate, and the coordinates of the pixels located at the lower end are any. If it belongs to such a divided region, the region corresponding to the grouped pixel group is determined as the target three-dimensional object. For example, as in OB1 shown in FIG. 9, the conversion coordinate of the pixel TP1 located at the upper end is located outside the area of the ZX conversion coordinate, and the conversion coordinate of the pixel BP1 located at the lower end is located within the ZX conversion coordinate. The determination unit 33 determines that the region to which OB1 belongs is a region including a three-dimensional object.

また、判定部33は、所定間隔に分割されたZX平面の座標(Z、X)において、上端座標変換点RT1〜RT15と下端座標変換点RB1〜RB15とが、ZX平面のいずれの分割領域に属するかに基づいて、立体物の抽出を行う(図9参照)。ここで、車両の上下動に伴いカメラ10の撮像画像が上下に動くことにより、座標変換点の属する領域が変動してしまう可能性がある。この影響を避けるため、ZX平面の分割領域の所定間隔はメーターオーダーで設定する。本実施例では、x軸方向は、−5.25m>x、−5.25≦x<−3.5m、−3.5m≦x<−1.75m、−1.75m≦x<0m、0m≦x<1.75m、1.75m≦x<3.5m、3.5m≦x<5.25m、5.25m≦x、として8分割し、z軸方向は、0≦z<10m、10m≦z<20m、20m≦z<30m、30m≦z<40m、40m≦z<50mとして5分割して、領域11〜領域15、領域21〜領域25、領域31〜領域35、領域41〜領域45、領域51〜領域55、領域61〜領域65、領域71〜領域75、領域81〜領域85を設定する。また、領域11〜領域15を領域10とし、領域21〜領域25を領域20とし、領域31〜領域35を領域30とし、領域41〜領域45を領域40とし、領域51〜領域55を領域50とし、領域61〜領域65を領域60とし、領域71〜領域75を領域70とし、領域81〜領域85を領域80とする。   Further, the determination unit 33 determines that the upper end coordinate conversion points RT1 to RT15 and the lower end coordinate conversion points RB1 to RB15 are in any divided region of the ZX plane in the coordinates (Z, X) of the ZX plane divided at a predetermined interval. Based on whether it belongs, a three-dimensional object is extracted (see FIG. 9). Here, when the captured image of the camera 10 moves up and down as the vehicle moves up and down, the area to which the coordinate conversion point belongs may change. In order to avoid this influence, the predetermined interval of the divided areas on the ZX plane is set in meter order. In this embodiment, the x-axis direction is −5.25 m> x, −5.25 ≦ x <−3.5 m, −3.5 m ≦ x <−1.75 m, −1.75 m ≦ x <0 m, 0 m ≦ x <1.75 m, 1.75 m ≦ x <3.5 m, 3.5 m ≦ x <5.25 m, 5.25 m ≦ x, and the z-axis direction is 0 ≦ z <10 m, 10 m ≦ z <20 m, 20 m ≦ z <30 m, 30 m ≦ z <40 m, 40 m ≦ z <50 m, and divided into 5 regions 11 to 15, regions 21 to 25, regions 31 to 35, regions 41 to 41 Region 45, region 51 to region 55, region 61 to region 65, region 71 to region 75, and region 81 to region 85 are set. Further, the region 11 to the region 15 are the region 10, the region 21 to the region 25 are the region 20, the region 31 to the region 35 are the region 30, the region 41 to the region 45 are the region 40, and the region 51 to the region 55 are the region 50. The region 61 to the region 65 are the region 60, the region 71 to the region 75 are the region 70, and the region 81 to the region 85 are the region 80.

判定部33は、xy座標において同位置のグループとされた上端座標変換点と下端座標変換点とが、ZX平面における同一の分割領域に属する場合は、同一グループの上端点と下端点は同一の路面上にある、すなわち路面上の平面物体であると判定する(立体物ではないと判定する)。また、上端点に対応する上端座標変換点が規定のZX座標外に位置し、その上端点と同一のグループの下端点の下端座標変換点が規定のZX座標内に位置する場合は、下端点のみが路面上にあるため立体物であると判定する。   The determination unit 33 determines that the upper end point and the lower end point of the same group are the same when the upper end coordinate conversion point and the lower end coordinate conversion point that are grouped at the same position in the xy coordinates belong to the same divided area on the ZX plane. It is determined that the object is on the road surface, that is, a planar object on the road surface (determined not to be a three-dimensional object). Also, if the upper end coordinate conversion point corresponding to the upper end point is located outside the specified ZX coordinate and the lower end coordinate conversion point of the lower end point of the same group as the upper end point is located within the specified ZX coordinate, the lower end point Since only is on the road surface, it is determined to be a three-dimensional object.

例えば、図9に示すように、上端点TP1,TP3,TP5,TP6,TP8,TP9及びTP12〜TP15の座標変換点RT1,RT3,RT5,RT6,RT8,RT9及びRT12〜RT15は図9に示す規定のZX変換座標の領域外に投影されるため、上端点TP1,TP3,TP5,TP6,TP8,TP9及びTP12〜TP15を含むグループは立体物であると判定される。そして、上端点TP1,TP3,TP5,TP6,TP8,TP9及びTP12〜TP15を含むエッジはxy平面上で立体物OB1〜OB10として判定される。   For example, as shown in FIG. 9, coordinate transformation points RT1, RT3, RT5, RT6, RT8, RT9 and RT12 to RT15 of the upper end points TP1, TP3, TP5, TP6, TP8, TP9 and TP12 to TP15 are shown in FIG. Since the projection is performed outside the region of the prescribed ZX conversion coordinates, the group including the upper end points TP1, TP3, TP5, TP6, TP8, TP9 and TP12 to TP15 is determined to be a three-dimensional object. The edges including the upper end points TP1, TP3, TP5, TP6, TP8, TP9 and TP12 to TP15 are determined as the three-dimensional objects OB1 to OB10 on the xy plane.

また、上端点TP2,TP4,TP7,TP10,TP11の座標変換点RT2,RT4,RT7,RT10,RT11は、下端点BP2,BP4,BP7,BP10,BP11の座標変換点RB2,RB4,RB7,RB10,RB11と同じ領域に位置するため、上端点TP2,TP4,TP7,TP10,TP11を含むグループは路面上に位置する平面物であると判定する。   The coordinate transformation points RT2, RT4, RT7, RT10, RT11 of the upper end points TP2, TP4, TP7, TP10, TP11 are coordinate transformation points RB2, RB4, RB7, RB10 of the lower end points BP2, BP4, BP7, BP10, BP11. , RB11, the group including the upper end points TP2, TP4, TP7, TP10, TP11 is determined to be a plane object located on the road surface.

ここで、移動情報算出部24は、後述する走路境界の検出のために、各領域に設定されたカウンタのうち下端点の座標変換点が位置する領域のカウンタのカウンタ値を+1加算し、下端点の位置情報分布を算出する。   Here, the movement information calculation unit 24 adds +1 to the counter value of the counter in the area where the coordinate conversion point of the lower end point is located among the counters set in each area in order to detect the road boundary described later. The position information distribution of points is calculated.

なお、判定部33は、抽出された対象領域に含まれる平面物に対応する画素群が、抽出された対象立体物を含む対象領域に対応する特徴点に、画像の略垂直方向に沿って連なる場合は、平面物を含む領域と立体物を含む領域とを一の立体物を含む領域と判定する。   Note that in the determination unit 33, a pixel group corresponding to a planar object included in the extracted target area is connected to a feature point corresponding to the target area including the extracted target three-dimensional object along a substantially vertical direction of the image. In this case, the region including the planar object and the region including the three-dimensional object are determined as the region including one solid object.

さらに、判定部33は、立体物が移動する物体であるか、すなわち移動体であるか否かを判定する。   Furthermore, the determination unit 33 determines whether the three-dimensional object is a moving object, that is, whether it is a moving body.

本実施形態の判定部33は、撮像画像に含まれる路面などの静止物を、背景として抽出し、その背景の移動情報と判定対象となる画素群の移動情報とを比較し、その比較の結果に基づいて、その画素群に対応する領域が移動体を含むか否かを判定する。   The determination unit 33 of the present embodiment extracts a stationary object such as a road surface included in the captured image as a background, compares the movement information of the background with the movement information of the pixel group to be determined, and the result of the comparison Based on the above, it is determined whether or not the region corresponding to the pixel group includes a moving body.

具体的に、判定部33は、グループの画素群のうち画像の略垂直方向の最下に位置する画素の座標値に基づいて、画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出し、グループ化部31によりグループ化された画素群の移動方向と、この画素群と撮像画像における縦方向のy座標値が共通する基準境界の移動方向とが予め定義された略反対方向の関係である場合は、グループ化された画素群は移動体であると判定する。   Specifically, the determination unit 33 is a reference having a predetermined relationship with the installation surface of the three-dimensional object included in the image, based on the coordinate value of the pixel located in the lowest position in the substantially vertical direction of the image among the group of pixels. The movement direction of the pixel group that is extracted by the boundary and grouped by the grouping unit 31 is substantially opposite to the movement direction of the reference boundary in which the pixel group and the y coordinate value in the vertical direction in the captured image are common. In the case of a directional relationship, the grouped pixel group is determined to be a moving object.

この移動体の判定手法を説明する。まず、判定部33は、背景の一態様として、立体物の設置面に対応する基準境界を抽出する。本実施形態では、移動体検出装置100を搭載する車両が走行する道路の走路境界を基準境界として抽出する。   The moving body determination method will be described. First, the determination part 33 extracts the reference | standard boundary corresponding to the installation surface of a solid object as one aspect | mode of a background. In the present embodiment, a road boundary of a road on which a vehicle on which the mobile body detection device 100 is mounted is extracted as a reference boundary.

このため、図10に示すように、得られた下端点の座標変換点の位置分布に基づいて、基準境界が存在する可能性が高い領域を抽出する。すなわち、得られた下端点の座標変換点の位置分布において、同じx軸領域で複数のz軸領域にカウンタ値が存在すれば、自車両前方に走路境界(自車両が走行する走路の境界)が車両に沿って直線状に存在すると推定できるため、カウンタ値がある領域を、基準境界の一態様としての走路境界を含む領域として抽出する。例えば、図10では、x軸が同じ範囲の領域30において、複数のz軸領域(下端点RB2、RB4、RB7が位置する領域)にカウンタ値が存在するため、これらの領域を走路境界領域として抽出する。なお、領域20、領域50、領域80についても同様である。   For this reason, as shown in FIG. 10, based on the obtained position distribution of the coordinate conversion points of the lower end point, an area where there is a high possibility that the reference boundary exists is extracted. That is, in the obtained position distribution of the coordinate conversion points of the lower end point, if there are counter values in a plurality of z-axis regions in the same x-axis region, the road boundary (boundary of the road on which the vehicle travels) ahead of the host vehicle Can be estimated to exist along the vehicle in a straight line, the region having the counter value is extracted as a region including the road boundary as one aspect of the reference boundary. For example, in FIG. 10, in the region 30 where the x-axis is the same, there are counter values in a plurality of z-axis regions (regions where the lower end points RB2, RB4, and RB7 are located). Extract. The same applies to the region 20, the region 50, and the region 80.

そして、図10に示すように、得られた下端点の座標変換点の位置分布から,走路境界が存在する可能性が高い領域を抽出する。すなわち、得られた下端点の座標変換点の位置分布において、同じx軸領域で複数のz軸領域にカウンタ値が存在すれば自車両前方に走路境界が車両に沿って直線状に存在すると推定できるため、カウンタ値がある領域を走路境界領域として抽出する。例えば、図10では、x軸が同じ範囲の領域30において、複数のz軸領域(下端点RB2,RB4,RB7が位置する領域)にカウンタ値が存在するため,これらの領域を走路境界領域として抽出する。領域20,領域50,領域80についても同様である。   Then, as shown in FIG. 10, an area where there is a high possibility that a road boundary exists is extracted from the obtained position distribution of the coordinate conversion points of the lower end point. In other words, in the obtained position distribution of the coordinate transformation point of the lower end point, if there are counter values in a plurality of z-axis areas in the same x-axis area, it is estimated that the road boundary exists linearly along the vehicle in front of the host vehicle. Therefore, an area with a counter value is extracted as a road boundary area. For example, in FIG. 10, since there are counter values in a plurality of z-axis regions (regions where the lower end points RB2, RB4, and RB7 are located) in the region 30 where the x-axis is the same, these regions are used as runway boundary regions. Extract. The same applies to the region 20, the region 50, and the region 80.

そして、抽出した領域に走路境界を示す直線が存在するかどうかの判定を行う(図10参照)。すなわち、抽出した領域に存在する下端点の座標変換点に基づいて、xy座標系での回帰分析を行い、下端点を通る直線の傾きを算出する。例えば、図10の領域30では、領域20に存在する下端点の座標変換点RB2、RB4、RB7に対応するxy座標における下端点BP2、BP4、BP7の座標位置からxy座標系での回帰分析を行い、下端点BP2、BP4、BP7を通る直線の傾きa3を算出する。同様に、領域20、領域50、領域80に位置する下端点の投影点に対応した直線の傾きa2、a5、a8を算出する。そして、算出した直線の傾きが、走路境界として判定できる範囲として予め定義された所定の範囲内に入っていれば、抽出された走路境界を示す直線が存在すると判定する。すなわち、下端点の座標変換点が位置するx軸領域の左端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図10のPL1〜PL5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a1と、下端点の座標変換点が位置するx軸領域の右端座標と各Z軸領域の代表座標(例えば中心座標)を座標とする点(例えば図10のPR1〜PR5)をxy座標系に変換して回帰分析して算出した直線の傾きTn0a2とで規定される傾きの範囲内に、下端点に基づき算出された直線の傾きanが入っている場合には、抽出した領域内に走路境界を示す直線Lnが存在するとの判定を行う。   Then, it is determined whether or not a straight line indicating a road boundary exists in the extracted area (see FIG. 10). That is, based on the coordinate conversion point of the lower end point existing in the extracted region, regression analysis is performed in the xy coordinate system, and the slope of the straight line passing through the lower end point is calculated. For example, in the area 30 of FIG. 10, the regression analysis in the xy coordinate system is performed from the coordinate positions of the lower end points BP2, BP4, and BP7 in the xy coordinates corresponding to the coordinate conversion points RB2, RB4, and RB7 of the lower end points existing in the area 20. Then, the slope a3 of the straight line passing through the lower end points BP2, BP4, BP7 is calculated. Similarly, straight line inclinations a2, a5, and a8 corresponding to the projected points of the lower end points located in the regions 20, 50, and 80 are calculated. Then, if the calculated slope of the straight line is within a predetermined range that is defined in advance as a range that can be determined as a road boundary, it is determined that there is a straight line indicating the extracted road boundary. That is, the points (for example, PL1 to PL5 in FIG. 10) whose coordinates are the left end coordinates of the x-axis area where the coordinate conversion point of the lower end point and the representative coordinates (for example, center coordinates) of each Z-axis area are converted into the xy coordinate system. Then, the straight line slope Tn0a1 calculated by regression analysis, the right end coordinate of the x-axis area where the coordinate conversion point of the lower end point is located, and a point having the coordinates (for example, the center coordinates) of each Z-axis area as coordinates (for example, FIG. The slope of the straight line “an” calculated based on the lower end point is within the range of the slope defined by the slope of the straight line Tn0a2 calculated by performing regression analysis by converting 10 PR1 to PR5) into the xy coordinate system. In this case, it is determined that a straight line Ln indicating a road boundary exists in the extracted area.

例えば、図10、11に示すように、領域80においては、座標(x,z)=(−3.5,5)の点PL1、座標(x,z)=(−3.5,15)の点PL2、座標(x,z)=(−3.5,25)の点PL3、座標(x,z)=(−3.5,35)の点PL4、座標(x,z)=(−3.5,45)の点PL5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a1と、座標(x,z)=(−1.75,5)の点PR1、座標(x,z)=(−1.75,15)の点PR2、座標(x,z)=(−1.75,25)の点PR3、座標(x,z)=(−1.75,35)の点PR4、座標(x,z)=(−1.75,45)の点PR5をxy座標に変換して回帰分析を行い算出した各点を結ぶ直線の傾きT30a2に対し、下端点の投影点RB1、RB4、RB5に対応するxy平面上の下端点BP1、BP4、BP5を結ぶ直線の傾きa3が、T30a1とT30a2で規定される範囲内に存在するため、下端点BP2、BP4、BP7を結ぶ直線は走路境界を示す直線L3であると判定される。   For example, as shown in FIGS. 10 and 11, in the region 80, the point PL <b> 1 with coordinates (x, z) = (− 3.5, 5), coordinates (x, z) = (− 3.5, 15). Point PL2, coordinate (x, z) = (-3.5,25) point PL3, coordinate (x, z) = (-3.5,35) point PL4, coordinate (x, z) = ( -3.5, 45) point PL5 is converted into xy coordinates and regression analysis is performed to calculate the slope T30a1 of the straight line connecting the points and the point of coordinates (x, z) = (-1.75, 5) PR1, point PR2 with coordinates (x, z) = (− 1.75, 15), point PR3 with coordinates (x, z) = (− 1.75, 25), coordinates (x, z) = (− 1 .75, 35), the point PR4 and the coordinate PR (x, z) = (− 1.75, 45) are converted into xy coordinates, and regression analysis is performed to obtain the slope T30a2 of the straight line connecting the calculated points. The slope a3 of the straight line connecting the lower end points BP1, BP4, and BP5 on the xy plane corresponding to the projected points RB1, RB4, and RB5 of the lower end point is within the range defined by T30a1 and T30a2. It is determined that the straight line connecting BP2, BP4, and BP7 is a straight line L3 indicating the road boundary.

同様にして、領域20では、下端点の投影点RB1、RB6に対応する、BP1、BP6を結ぶ直線は走路境界を示す直線L2であると判定され、領域50では、下端点の投影点RB10、RB11に対応するxy平面上の下端点BP10、BP11を結ぶ直線は走路境界を示す直線L5であると判定され、領域80では、下端点の投影点RB12〜RB15に対応するxy平面上の下端点BP12〜BP15を結ぶ直線は走路境界を示す直線L8であると判定される。   Similarly, in the region 20, it is determined that the straight line connecting BP1 and BP6 corresponding to the projection points RB1 and RB6 of the lower end point is a straight line L2 indicating the road boundary, and in the region 50, the projection point RB10 of the lower end point The straight line connecting the lower end points BP10 and BP11 on the xy plane corresponding to RB11 is determined to be the straight line L5 indicating the road boundary, and in the region 80, the lower end point on the xy plane corresponding to the projected points RB12 to RB15 of the lower end points A straight line connecting BP12 to BP15 is determined to be a straight line L8 indicating a road boundary.

次に、図12に示すように、判定部33は、走路境界を示す直線のうち、自車両の近傍から遠方に連続して存在する立体物で構成される直線を背景として検出する。一般に、前方の撮像画像における背景は、静止した立体物が自車両近傍から遠方に直線的に並んでおり、近傍の速度が速く、遠方に行くに従い速度が遅くなる、という特徴を備える。したがって、このような特徴を示す走路境界を背景として抽出する。ここで、立体物で構成される走路境界が複数存在する場合には、自車両からより遠方に位置する走路境界を選択する。本実施例では、外壁と路面の交点である走路境界線L2とL8を背景として検出する。ただし、L2を構成する立体物のうち、背景の特徴と一致しないOB2,OB3は除外する。 Next, as illustrated in FIG. 12, the determination unit 33 detects, as a background, a straight line formed of a three-dimensional object that continuously exists far from the vicinity of the host vehicle, out of straight lines indicating a road boundary. In general, the background in the captured image of the front is characterized in that stationary three-dimensional objects are linearly lined away from the vicinity of the host vehicle, the speed of the vicinity is high, and the speed decreases as the distance increases. Therefore, the road boundary showing such characteristics is extracted as the background. Here, when there are a plurality of road boundaries composed of three-dimensional objects, a road boundary located farther from the host vehicle is selected. In this embodiment, the road boundary lines L2 and L8, which are the intersections of the outer wall and the road surface, are detected as the background. However, among the three-dimensional objects constituting L2, OB2 and OB3 that do not match the background characteristics are excluded.

そして、図13に示すように、背景として検出された立体物間の画像の垂直方向位置(y座標値)と移動速度の関係を示すグラフを求める。すなわち、画像に存在する立体物において、背景のような静止物であれば、画像の上部にいくにつれ、自車よりも遠ざかるため速度は遅くなる。つまり、縦軸に速度を設定し(左に移動する速度をプラス、右に移動する速度をマイナス)、横軸に画像のy座標に設定すると、速度とy座標の関係は上がりの直線となる。また、同じy座標(同じ距離)に存在する静止立体物は、画像の両端から中央に行くにしたがって速度は遅くなる。 And as shown in FIG. 13, the graph which shows the relationship between the vertical direction position (y coordinate value) of the image between the solid objects detected as a background and a moving speed is calculated | required. That is, in the three-dimensional object existing in the image, if the object is a stationary object such as a background, the speed decreases as the object moves away from the own vehicle as it goes to the upper part of the image. That is, if you set the speed on the vertical axis (plus the speed to move to the left, minus the speed to move to the right), and set the y-coordinate of the image on the horizontal axis, the relationship between the speed and y-coordinate will be a straight line . Moreover, the speed of a stationary solid object existing at the same y coordinate (same distance) decreases as it goes from both ends of the image to the center.

背景となる走路境界L2と画像中央で区切られた領域(斜線領域)に存在する物体であって、背景と同様に静止物又は背景から少しずつ遠ざかる方向に横移動する物体は、同じy座標(同じ距離)に存在する背景の速度と同じ方向で背景よりも遅い速度が検出される。 An object that exists in an area (shaded area) delimited by the runway boundary L2 that is the background and the center of the image, and that moves laterally in the direction of moving away from the background in the same manner as the background, has the same y coordinate ( A speed slower than the background is detected in the same direction as the speed of the background existing at the same distance.

さらに、図13に示すように、背景(例えば基準境界)の速度と逆向きの速度が検出されれば,背景から遠ざかる方向へ横移動する移動体が存在すると判断できる。   Further, as shown in FIG. 13, if a speed opposite to the speed of the background (for example, the reference boundary) is detected, it can be determined that there is a moving body that moves laterally away from the background.

本実施形態では、L2を背景(基準境界)として移動体を検出する。背景と画像中央で区切られた領域に存在する歩行者に該当する立体物OB2,OB3は、背景の移動方向と略逆方向の移動方向が検出される。よって、これらを移動体として判定する。この判定結果に基づいて、移動体検出装置100は移動体の検出を行う。   In the present embodiment, the moving object is detected using L2 as the background (reference boundary). For the three-dimensional objects OB2 and OB3 corresponding to pedestrians existing in a region separated by the background and the center of the image, a movement direction substantially opposite to the movement direction of the background is detected. Therefore, these are determined as a moving body. Based on the determination result, the moving body detection device 100 detects the moving body.

つまり、本実施形態の判定部33は、グループ化された画素群のうち合成移動画像の略垂直方向の下端に位置する画素の座標値に基づいて、この合成移動画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出するとともに、グループ化部31によりグループ化された画素群の移動方向と、この画素群と合成移動画像における縦方向のy座標値が共通する基準境界の移動方向とが予め定義された略反対方向の関係である場合は、グループ化された画素群は移動体であると判定する。 That is, the determination unit 33 according to the present embodiment installs the three-dimensional object included in the combined moving image based on the coordinate value of the pixel located at the lower end in the substantially vertical direction of the combined moving image in the grouped pixel group. A reference boundary having a predetermined relationship with the surface is extracted, and a moving direction of the pixel group grouped by the grouping unit 31 and a reference boundary having a common y-coordinate value in the vertical direction in the pixel group and the combined moving image are shared. If the moving direction is in a substantially opposite relationship defined in advance, it is determined that the grouped pixel group is a moving body.

また、背景の速度と同じ移動方向で、かつ背景よりも遅い速度が検出される立体物が存在する場合の処理について説明する。このような場合、初回の検出では静止物か移動体かの判定ができないが、経時的に移動情報(移動速度)を観測することにより、移動体か否かの判定を行うことができる。つまり、背景と同様に静止立体物であれば、時間とともに自車に近づくため、画像上では下側及び外側に移動するため、速度は初回に観測したときよりも速い速度となる。 In addition, a process in the case where there is a three-dimensional object in which the moving direction is the same as the background speed and a speed slower than the background exists will be described. In such a case, the first detection cannot determine whether the object is a stationary object or a moving object, but it is possible to determine whether the object is a moving object by observing movement information (movement speed) over time. That is, if it is a stationary three-dimensional object like the background, it will approach the vehicle with time and will move downward and outward on the image, so the speed will be faster than when observed for the first time.

一方、背景から少しずつ遠ざかる移動体であれば、自車に近づくが、画像上では下側及び内側(画像の中央)に移動するため移動速度は遅くなる。したがって、判定部33は、経時的に移動速度を比較し、初回の検出から時間の経過とともに速度が速くなっている物体は静止物と判定し、初回の検出から時間の経過とともに速度が遅くなっている物体は移動体と判定する。 On the other hand, if it is a moving body that moves away from the background little by little, it approaches the host vehicle, but moves downward and inward (center of the image) on the image, so the moving speed becomes slow. Therefore, the determination unit 33 compares the moving speed over time, determines that an object whose speed has increased with the passage of time from the first detection is a stationary object, and the speed has decreased with the passage of time since the first detection. Is determined as a moving object.

つまり、本実施形態の判定部33は、グループ化された画素群の移動方向と、この画素群と前記撮像画像における縦方向のy座標値が共通する基準境界の移動方向とが予め定義された略反対方向の関係である場合であっても、グループ化された画素群の移動速度が時間の経過とともに遅くなる場合には、グループ化された画素群に対応する領域は移動体を含むと判定する。 That is, the determination unit 33 according to the present embodiment defines in advance the movement direction of the grouped pixel group and the movement direction of the reference boundary where the y-coordinate value in the vertical direction of the pixel group and the captured image is common. Even when the relationship is approximately the opposite direction, if the moving speed of the grouped pixel group decreases with time, the region corresponding to the grouped pixel group is determined to include a moving object. To do.

続いて、本実施形態の移動体検出装置100の移動体検出の処理手順を図14に示すフローチャート図に基づいて説明する。図14は、本実施形態の移動体検出装置100の処理を示すフローチャートである。   Next, the moving object detection processing procedure of the moving object detection device 100 of this embodiment will be described with reference to the flowchart shown in FIG. FIG. 14 is a flowchart showing processing of the moving object detection device 100 of the present embodiment.

この処理は、イグニションスイッチ(図示省略)がオンされると起動されるプログラムにより実行される。   This process is executed by a program that is activated when an ignition switch (not shown) is turned on.

まず、カメラ10により撮像された自車両前方の画像は、画像メモリ11に記録される。   First, an image in front of the host vehicle captured by the camera 10 is recorded in the image memory 11.

ステップS101において、画像メモリ11は、自己に記録された自車両前方の撮像画像を所定の周期で画像処理部20に出力する。この後に、フローはステップS102へ移行する。   In step S101, the image memory 11 outputs the captured image in front of the host vehicle recorded on itself to the image processing unit 20 at a predetermined cycle. After this, the flow moves to step S102.

ステップS102において、撮像画像取得部21は、画像メモリ11(又はカメラ10)から撮像画像を取得し、これを縮小画像生成部22へ送出する。縮小画像生成部22は、複数の画素を任意の数だけ結合して異なる縮小率の縮小画像を生成する。画素の結合数は、任意の複数のパターンを設定することができる。縮小画像生成部22が生成した縮小画像は、画像メモリ11に記憶する。この後に、フローはステップS103へ移行する。   In step S <b> 102, the captured image acquisition unit 21 acquires a captured image from the image memory 11 (or the camera 10) and sends it to the reduced image generation unit 22. The reduced image generation unit 22 combines a plurality of pixels with an arbitrary number to generate reduced images with different reduction ratios. Arbitrary plural patterns can be set as the number of combined pixels. The reduced image generated by the reduced image generation unit 22 is stored in the image memory 11. After this, the flow moves to step S103.

ステップS103において、特徴点抽出部23は、画像メモリ11に記憶された撮像画像及び縮小率の異なる縮小画像について、特徴点をそれぞれ抽出する。具体的に、特徴点抽出部23は、撮像画像及び縮小画像に対してエッジ抽出処理を行い、撮像画像内に存在する物体の輪郭が抽出されたエッジ画像を生成する。この後に、フローはステップS104へ移行する。   In step S <b> 103, the feature point extraction unit 23 extracts feature points from the captured image stored in the image memory 11 and reduced images having different reduction ratios. Specifically, the feature point extraction unit 23 performs edge extraction processing on the captured image and the reduced image, and generates an edge image in which the contour of an object existing in the captured image is extracted. After this, the flow moves to step S104.

ステップS104において、移動情報算出部24は、撮像画像及び縮小画像に含まれるエッジ(特徴点)の移動速度及び移動方向を含む移動情報を算出する。この後に、フローはステップS105へ移行する。   In step S104, the movement information calculation unit 24 calculates movement information including the movement speed and movement direction of edges (feature points) included in the captured image and the reduced image. After this, the flow moves to step S105.

続いて、ステップS105において、合成部25は、縮小画像を撮像画像と同じ大きさに変換し、各縮小画像で得られた移動速度の速度単位を画素/秒に変換し、正規化を行う。この後に、フローはステップS106へ移行する。   Subsequently, in step S105, the composition unit 25 converts the reduced image into the same size as the captured image, converts the speed unit of the moving speed obtained in each reduced image into pixels / second, and performs normalization. After this, the flow moves to step S106.

ステップS106において、合成部25は、撮像画像の移動情報と各縮小率の縮小画像の移動情報とに基づいて、撮像画像中の各特徴点についての移動情報を合成し、合成移動情報を生成する。本実施形態の合成部25は、合成された各移動情報を所定の階調値に変換した合成移動情報としての移動画像を生成する。この後に、フローはステップS107へ移行する。   In step S106, the synthesis unit 25 synthesizes the movement information for each feature point in the captured image based on the movement information of the captured image and the movement information of the reduced image at each reduction ratio, and generates combined movement information. . The synthesizing unit 25 of the present embodiment generates a moving image as synthesized moving information obtained by converting each synthesized moving information into a predetermined gradation value. After this, the flow moves to step S107.

ステップS107において、グループ化部31は、算出された合成移動画像上に移動体検出用の短冊状領域を設定する。この後に、フローはステップS108へ移行する。   In step S107, the grouping unit 31 sets a strip-like area for detecting a moving object on the calculated composite moving image. After this, the flow moves to step S108.

ステップS108において、グループ化部23は、各短冊領域内に速度を持った画素があるかどうかを下から上に向かって調べる。速度を持った画素がある場合、グループ化部23はそれらの画素は同一の物体を表しているものとしてグループ化を行う。この後に、フローはステップS109へ移行する。   In step S108, the grouping unit 23 checks whether there is a pixel having speed in each strip area from the bottom to the top. When there are pixels having speed, the grouping unit 23 performs grouping assuming that these pixels represent the same object. After this, the flow moves to step S109.

ステップS109において、座標変換部32は、各短冊領域内におけるグループ毎において、最も上(上端)に位置する画素の中心座標を上端点に、最も下(下端)に位置する画素の中心座標を下端点に設定する。この後に、フローはステップS110へ移行する。   In step S109, for each group in each strip area, the coordinate conversion unit 32 sets the center coordinate of the pixel located at the uppermost (upper end) as the upper end point and the center coordinate of the pixel located at the lowermost (lower end) as the lower end. Set to point. After this, the flow moves to step S110.

ステップS110において、座標変換部32は、前述した(式1)及び(式2)を用いて、検出された上端点と下端点の座標をZX平面へ座標変換する。この後に、フローはステップS111へ移行する。   In step S110, the coordinate conversion unit 32 performs coordinate conversion of the detected coordinates of the upper end point and the lower end point into the ZX plane using (Expression 1) and (Expression 2) described above. After this, the flow moves to step S111.

ステップS111において判定対象抽出部31の判定対象抽出部31は、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の位置がx軸範囲とz軸範囲を規定した規定のZX平面のどの領域に該当するかを判断し、上端点の座標変換点と上端点と同じグループの下端点の座標変換点の双方が規定のZX平面の同一の分割領域に位置する場合は、上端点、下端点を含む物体を平面物であると判定し、上端点と同じグループの下端点の座標変換点のみが規定のZX平面に位置する場合は、上端点、下端点を含む物体を立体物であると判定する。また、下端点が位置する領域のカウンタのカウンタ値を+1加算する。この後に、フローはステップS112に進む。   In step S111, the determination target extraction unit 31 of the determination target extraction unit 31 defines that the position of the coordinate conversion point of the upper end point and the coordinate conversion point of the lower end point of the same group as the upper end point defines the x-axis range and the z-axis range. It is determined which region of the ZX plane corresponds, and when both the coordinate transformation point of the upper end point and the coordinate transformation point of the lower end point of the same group as the upper end point are located in the same divided region of the prescribed ZX plane, When the object including the upper end point and the lower end point is determined to be a plane object, and only the coordinate transformation point of the lower end point of the same group as the upper end point is located on the specified ZX plane, the object including the upper end point and the lower end point is determined. It is determined that the object is a three-dimensional object. Also, the counter value of the counter in the area where the lower end point is located is incremented by +1. After this, the flow proceeds to step S112.

ステップS112において、判定部33により、検出した全ての上端点、下端点について、上端点、下端点を含む物体が平面物であるか立体物であるかの判定(以下、物体の属性判定と呼ぶ)が行われたかどうかの判定を行う。検出した全ての上端点、下端点について物体の属性判定が行われた場合は、ステップS113に進む。一方、検出した全ての上端点、下端点について物体の属性判定が行われていない場合は、ステップS108に戻る。   In step S112, the determination unit 33 determines whether the object including the upper end point and the lower end point is a planar object or a three-dimensional object for all detected upper and lower end points (hereinafter referred to as object attribute determination). ) Is performed. When the object attribute determination is performed for all the detected upper and lower end points, the process proceeds to step S113. On the other hand, if the object attribute determination is not performed for all the detected upper and lower end points, the process returns to step S108.

続いて、ステップS113において、判定部33は、ZX平面における下端点の座標変換点の位置分布から、同じx軸領域において、複数のz軸領域にカウンタ値が存在する領域を、走路境界線が存在する可能性が高い領域として抽出する。この後に、フローはステップS114へ進む。   Subsequently, in step S113, the determination unit 33 determines, from the position distribution of the coordinate conversion point of the lower end point on the ZX plane, an area where counter values exist in a plurality of z-axis areas in the same x-axis area, Extract as a region that is likely to exist. After this, the flow proceeds to step S114.

ステップS114において、判定部33により抽出された領域内に存在する下端点の座標変換点に対応するxy平面の下端点についてxy座標系での回帰分析が行われ、下端点を結ぶ直線の傾きが算出される。この後に、フローはステップS115へ進む。   In step S114, regression analysis in the xy coordinate system is performed on the lower end point of the xy plane corresponding to the coordinate conversion point of the lower end point existing in the region extracted by the determination unit 33, and the slope of the straight line connecting the lower end points is obtained. Calculated. After this, the flow proceeds to step S115.

ステップS115において、判定部33は、ステップS114で算出された直線の傾きが、下端点の位置する領域において、x軸領域の左端座標と各z軸領域の代表座標を座標とする点(図10のPL1〜PL5)を結ぶ直線およびx軸領域の右端座標と各z軸領域の代表座標を座標とする点(図10のPR1〜PR5)を結ぶ直線のxy座標系における傾きの範囲にあれば、抽出した領域に走路境界を示す直線が存在すると判定し、ステップS114で傾きが算出された直線は走路境界を示す直線として検出する。この後に、フローはステップS116へ進む。   In step S115, the determination unit 33 determines that the slope of the straight line calculated in step S114 has coordinates with the left end coordinate of the x-axis region and the representative coordinate of each z-axis region in the region where the lower end point is located (FIG. 10). And the straight line connecting the right end coordinates of the x-axis region and the points (PR1 to PR5 in FIG. 10) having the coordinates of the representative coordinates of each z-axis region as the coordinates in the xy coordinate system. Then, it is determined that there is a straight line indicating the road boundary in the extracted area, and the straight line whose inclination is calculated in step S114 is detected as a straight line indicating the road boundary. After this, the flow proceeds to step S116.

ステップS116において、判定部33は、ステップ113で抽出された領域について、全ての走路境界を示す直線が検出されたか否かの判定を行う。全ての領域について走路境界を示す直線が検出された場合は、ステップS117へ進む。一方、全ての領域について走路境界を示す直線が検出されていない場合は、ステップS113に戻り、走路境界を示す直線の検出が継続される。   In step S116, the determination unit 33 determines whether or not straight lines indicating all the road boundaries have been detected for the region extracted in step 113. If a straight line indicating the road boundary is detected for all regions, the process proceeds to step S117. On the other hand, when the straight line indicating the road boundary is not detected for all the regions, the process returns to step S113, and the detection of the straight line indicating the road boundary is continued.

ステップS117において、判定部33は、ステップS115で検出された走路境界に相当する直線のうち、車両の近傍から遠方に連続して存在する立体物で構成される直線を背景となる走路境界として検出する。この後に、フローはステップS118へ移行する。   In step S117, the determination unit 33 detects a straight line constituted by a three-dimensional object continuously present in the distance from the vicinity of the vehicle among straight lines corresponding to the road boundary detected in step S115 as a road boundary serving as a background. To do. After this, the flow moves to step S118.

ステップS118において、判定部33は、背景の速度と背景と画像中央で区切られた領域に存在する立体物の速度を比較し、背景と逆方向の速度が検出された場合には、横方向に移動する物体が存在すると判断する。そして、ステップS120へ移行し、背景と同方向で、同じy座標の背景の速度よりも遅い速度が検出された場合には、移動体の可能性が高い移動体候補が存在すると判断する。この後に、フローはステップS119へ移行する。 In step S118, the determination unit 33 compares the speed of the background and the speed of the three-dimensional object existing in the area divided by the background and the center of the image. It is determined that there is a moving object. Then, the process proceeds to step S120, and when a speed slower than the background speed of the same y coordinate in the same direction as the background is detected, it is determined that there is a moving object candidate having a high possibility of a moving object. After this, the flow moves to step S119.

ステップS119において、判定部33は、移動体候補が存在すると判断された領域に、前回も移動体候補が存在すると判断され、前回と今回の移動速度を比較する。前回の速度よりも今回の速度の方が速くなっている場合には、移動体候補は静止物体と判断し、移動体候補から除外する。他方、前回と今回の移動速度を比較し、前回の速度よりも今回の速度の方が遅くなっている場合には、移動体候補は移動体と判断する。また、前回と今回の移動速度が変わらない場合(速度差が所定値未満である場合)は、再度、移動体候補として次回の判断処理において判断する。この後、フローはステップS120へ移行する。 In step S119, the determination unit 33 determines that there is a moving object candidate in the region where it is determined that a moving object candidate exists, and compares the previous and current moving speeds. If the current speed is faster than the previous speed, the moving object candidate is determined as a stationary object and excluded from the moving object candidates. On the other hand, the previous and current moving speeds are compared, and if the current speed is slower than the previous speed, the moving object candidate is determined to be a moving object. If the previous and current moving speeds do not change (if the speed difference is less than a predetermined value), the moving object candidates are determined again in the next determination process. After this, the flow moves to step S120.

ステップS120では、背景と画像中央で区切られたすべての領域において移動体が検出されたか否かの判断を行う。全ての領域において移動体が検出されたと判断された場合はステップS121へ移行し、全ての領域において移動体が検出されていないと判断された場合にはステップ118に戻り、移動体検出処理を継続する。 In step S120, it is determined whether or not a moving object has been detected in all regions divided by the background and the center of the image. If it is determined that moving bodies are detected in all areas, the process proceeds to step S121. If it is determined that moving bodies are not detected in all areas, the process returns to step 118 to continue the moving body detection process. To do.

ステップS121において、自車両のイグニションスイッチがオフされたか否かを判断し、オフされないと判断した場合にはステップS101へ戻って処理を繰り返す。他方、自車両のイグニションスイッチがオフされたと判断した場合には処理を終了する。 In step S121, it is determined whether or not the ignition switch of the host vehicle is turned off. If it is determined that the ignition switch is not turned off, the process returns to step S101 and the process is repeated. On the other hand, if it is determined that the ignition switch of the host vehicle has been turned off, the process is terminated.

本実施形態の移動体検出装置100は、以上のように構成され動作するので、以下の効果を奏する。 Since the moving body detection apparatus 100 of this embodiment is comprised and operate | moved as mentioned above, there exist the following effects.

本実施形態の移動体検出装置100は、撮像画像から縮小画像を生成し、これらの移動情報から生成された合成情報に基づいて移動体を検出することにより、より広い範囲で移動情報を算出(検出)することができるようになるため、撮像画像のうち画像変化が大きい部分においても正確な移動情報を算出することができ、移動体を高い精度で検出することができる。 The moving body detection apparatus 100 of the present embodiment generates a reduced image from the captured image, and calculates the moving information in a wider range by detecting the moving body based on the combined information generated from the moving information ( Detection), accurate movement information can be calculated even in a portion of the captured image where the image change is large, and the moving object can be detected with high accuracy.

すなわち、撮像画像に比べて1画素の大きさを拡大した所定の縮小率の縮小画像について移動情報を算出することにより、撮像画像では1フレーム当たり1画素以上移動するエッジの動きを1フレーム当たり1画素未満の動きに変換して移動速度を算出することができるため、速度を検出する範囲を拡大することができるため、フレームレートを高く設定しなくても、相対的に広い範囲において移動情報を算出することができる。 That is, by calculating movement information for a reduced image having a predetermined reduction ratio that is one pixel larger than the captured image, an edge movement that moves one pixel or more per frame in the captured image is 1 per frame. Since the movement speed can be calculated by converting the movement to less than a pixel, the speed detection range can be expanded, so the movement information can be displayed in a relatively wide range without setting the frame rate high. Can be calculated.

つまり、広い範囲で正確な移動情報を算出することができるため、比較の対象となる背景の移動速度を正確に算出することができ、ひいては背景と対象物との移動情報の対比を高い精度で行うことができる。 In other words, since accurate movement information can be calculated over a wide range, the movement speed of the background to be compared can be calculated accurately, and as a result, the comparison of the movement information between the background and the object can be performed with high accuracy. It can be carried out.

特に、移動体検出装置100が車両に搭載されるなど、移動体検出装置100自体が移動する場合は車両近傍の画像の変化、すなわち撮像画像の左右側の下領域の画像の変化が大きくなる傾向があるが、このように画像の変化が大きい領域についても正確な移動情報が得られるため、移動体を高い精度で検出することができる。 In particular, when the moving body detection apparatus 100 itself moves, such as when the moving body detection apparatus 100 is mounted on a vehicle, the change in the image in the vicinity of the vehicle, that is, the change in the image in the lower region on the left and right sides of the captured image tends to increase. However, since accurate movement information can be obtained even in a region where the change in the image is large as described above, the moving object can be detected with high accuracy.

このように、移動体検出装置100が車両に搭載され、車両前方の移動体を検出する場合には、景色が流れる速度が速い道路の両脇などの撮像画像の左右側の下領域についても移動体を高い精度で検出することができるため、撮像画像の左右側の下領域に現れる可能性のある歩行者等の移動体をも高い精度で検出することができる。 As described above, when the moving body detection apparatus 100 is mounted on a vehicle and detects a moving body in front of the vehicle, the lower area on the left and right sides of the captured image such as both sides of the road where the scenery flows fast is also moved. Since the body can be detected with high accuracy, a moving body such as a pedestrian that may appear in the lower region on the left and right sides of the captured image can be detected with high accuracy.

このように、撮像画像から縮小画像を生成し、この縮小画像と撮像画像の移動情報から合成情報を生成することにより、撮像画像のみから得られる移動情報よりも正確な移動情報に基づいて精度の高い合成情報を生成することができる。そして、この精度の高い合成情報に基づいて移動体を検出することができるため、移動体を高い精度で検出することができる。 In this way, by generating a reduced image from the captured image and generating composite information from the reduced image and the movement information of the captured image, accuracy can be improved based on movement information more accurate than movement information obtained only from the captured image. High synthesis information can be generated. And since a mobile body can be detected based on this highly accurate synthetic | combination information, a mobile body can be detected with high precision.

つまり、縮小率の異なる画像、すなわち移動情報の検出範囲の異なる画像から移動情報を算出し、算出された移動情報を合成することにより、広い検出範囲において移動情報を算出することができ、移動速度の小さい移動体と移動速度の大きい速度の小さい背景の比較を正確に行うことができるため移動体を高い精度で検出することができる。 That is, movement information can be calculated in a wide detection range by calculating movement information from images with different reduction ratios, that is, images with different movement information detection ranges, and by combining the calculated movement information. Therefore, it is possible to accurately compare a small moving body and a small moving background with a large moving speed, so that the moving body can be detected with high accuracy.

そして、移動情報の検出領域が拡大され、撮像画面全体の動きが検出可能となるので、撮像範囲に含まれる静止物体(背景)などの基準物の動きを高い精度で捉えることができ、この静止物体(基準物)の動きと検出の対象となる物体の動きの比較に基づいて移動体を検出することができるため、移動体を高い精度で検出することができる。 Since the movement information detection area is expanded and the movement of the entire imaging screen can be detected, the movement of a reference object such as a stationary object (background) included in the imaging range can be captured with high accuracy. Since the moving body can be detected based on the comparison between the movement of the object (reference object) and the movement of the object to be detected, the moving body can be detected with high accuracy.

また、本実施形態の移動体検出装置100は、撮像画像において抽出された特徴点の移動情報と、この特徴点に対応する縮小画像の特徴点の移動情報とに基づいて合成情報を作成するため、縮小画像の生成時に行う拡大縮小過程で発生する情報を合成処理の対象から排除し、誤検出要因を取り除くことができる。 すなわち、特徴点が存在しない画素であるにもかかわらず、画像処理によって生じた情報により、誤った移動情報を算出することを防止することができる。 In addition, the moving object detection apparatus 100 according to the present embodiment creates composite information based on the movement information of the feature points extracted from the captured image and the movement information of the feature points of the reduced image corresponding to the feature points. Thus, it is possible to exclude information generated in the enlargement / reduction process performed when generating the reduced image from the target of the synthesis process, and to remove the erroneous detection factor. That is, it is possible to prevent erroneous movement information from being calculated based on information generated by image processing even though the pixel does not have a feature point.

ちなみに、撮像画像において移動情報がない画素には、そもそも特徴点が存在しない画素と、特徴点は存在するが、移動情報が検出できない画素とが含まれる。前者のようにそもそも特徴点が存在しない画素について合成処理を行い、移動情報を持たせてしまうと誤検出の原因になる。このため、本実施形態では、撮像画像において特徴点が検出された画素について合成処理を行うことにより、精度の高い移動情報に基づく合成情報を生成し、その合成情報に基づいて高い精度で移動体を検出することができる。 Incidentally, a pixel having no movement information in a captured image includes a pixel having no feature point in the first place and a pixel having a feature point but having no movement information. If a combination process is performed on pixels that do not have feature points in the first place as in the former case and movement information is provided, erroneous detection may occur. For this reason, in the present embodiment, synthesis processing is performed on the pixels in which the feature points are detected in the captured image to generate synthesis information based on highly accurate movement information, and the moving object is highly accurate based on the synthesis information. Can be detected.

また、合成情報の生成に際し、縮小率の最も高い縮小画像の特徴点の移動情報を用いることにより、より高い精度の移動情報に基づく合成情報を生成することができる。このようにしたのは、移動情報を特徴点(エッジ)の蓄積量を基に算出する場合は、縮小率が高い縮小画像のほうがより遅い速度の移動情報を検出でき、エッジの蓄積量が多くなって、移動情報のS/Nを向上させることができるからである。つまり、各縮小率で算出された移動情報のうち、S/Nの高い、縮小率が最も高い縮小画像から算出された移動情報を優先的に選択することにより、精度の高い合成情報を生成することができる。 Further, when generating the combination information, the combination information based on the movement information with higher accuracy can be generated by using the movement information of the feature points of the reduced image having the highest reduction ratio. This is because when moving information is calculated based on the accumulated amount of feature points (edges), moving information at a slower speed can be detected in a reduced image with a higher reduction ratio, and the accumulated amount of edges is larger. This is because the S / N of the movement information can be improved. In other words, among the movement information calculated at each reduction ratio, the movement information calculated from the reduced image having the highest S / N and the highest reduction ratio is preferentially selected to generate highly accurate composite information. be able to.

さらに、合成情報の生成に際し、特徴点の移動速度が算出されない場合は、縮小率の最も高い縮小画像の特徴点の移動情報を用いることにより、さらに高い精度の移動情報に基づく合成情報を生成することができる。 Further, when the moving speed of the feature point is not calculated when generating the synthesis information, the synthesis information based on the movement information with higher accuracy is generated by using the movement information of the feature point of the reduced image having the highest reduction ratio. be able to.

先に、縮小率が高い縮小画像の方が移動情報のS/N比が高くなる傾向があると説明したが、移動情報が低速域乃至極低速域にある場合は速度方向のばらつきが大きいため、高い縮小率の縮小画像よりも低い縮小率の縮小画像から算出された移動方向の方が、精度が高い。このため、単純に縮小率の高い縮小画像から算出された移動情報を選択すると、極低速域で誤検出が生じる場合がある。 このような誤検出を防止するため、移動方向に関しては縮小率の低い(縮小率が最も低いのは撮像画像となる)ほうが精度は高いとの観点から、縮小率の低い撮像画像における移動方向と略同一方向の(方向差が所定値未満の)移動方向を持つ特徴点であって、かつ縮小率の高い縮小画像の移動情報を選択すれば、低速域における誤検出を防止しつつ、精度の他界移動情報に基づく合成移動画像を生成することができる。   As described above, it has been explained that a reduced image with a high reduction ratio tends to have a higher S / N ratio of movement information. However, when movement information is in a low speed range or a very low speed range, variation in the speed direction is large. The moving direction calculated from the reduced image having the lower reduction ratio is higher in accuracy than the reduced image having the higher reduction ratio. For this reason, if movement information calculated from a reduced image with a high reduction ratio is simply selected, erroneous detection may occur in an extremely low speed region. In order to prevent such erroneous detection, the movement direction in the captured image with a low reduction ratio is considered from the viewpoint that the reduction ratio in the movement direction is low (the captured image has the lowest reduction ratio). By selecting the movement information of a reduced image having a movement direction in substantially the same direction (direction difference is less than a predetermined value) and having a high reduction ratio, it is possible to prevent erroneous detection in a low speed range and to improve accuracy. A composite moving image based on the other world movement information can be generated.

また、本実施形態において移動情報を算出する際に、抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、カウント値の傾きに基づいて特徴部に対応する画素の移動情報を算出することにより、対象物を特定することなく、撮像画像に含まれる物体の移動情報を算出することができる。 In addition, when calculating the movement information in the present embodiment, the count value of the pixel corresponding to the extracted feature position is counted up at a predetermined period, and the pixel corresponding to the feature section is counted based on the slope of the count value. By calculating the movement information, it is possible to calculate the movement information of the object included in the captured image without specifying the target object.

また、フレーム間の移動量を1画素以下に制限し、対象物の特定するために必要なフレーム間の対応付け処理を排除することにより、高速に移動情報算出に要する演算処理を行うことができる。また繰り返し演算(再帰処理)行うことなく、ピクセル単位の逐次処理を行うため、高速な演算処理が可能となる。 In addition, by limiting the amount of movement between frames to 1 pixel or less and eliminating the association processing between frames necessary for specifying an object, it is possible to perform calculation processing required for calculating movement information at high speed. . In addition, since sequential processing is performed in units of pixels without performing repeated computation (recursive processing), high-speed computation processing is possible.

なお、本実施形態では、撮像画像と対応させた観察者の所定の視野画像に存在するエッジの移動情報を所定の階級値に分類し、移動情報の特徴が表わされた合成移動画像を合成情報として生成し、この合成移動画像に基づいて高い精度で移動体を検出することができる。 In the present embodiment, edge movement information existing in a predetermined visual field image of the observer corresponding to the captured image is classified into a predetermined class value, and a combined movement image in which the characteristics of the movement information are expressed is synthesized. It is generated as information, and a moving object can be detected with high accuracy based on this synthesized moving image.

そして、合成移動画像上で同等の速度を有する隣接した画素をグループ化して、その上端と下端に位置する画素を求め、該画素の俯瞰変換後の座標により平面物、立体物、移動体の判定を行うことができるため、一つのカメラ10から得た撮像画像及び縮小画像に基づいて、グループ化された画素群を移動体の候補となる立体物と判定することができる。 Then, adjacent pixels having the same speed on the synthesized moving image are grouped to obtain pixels located at the upper end and the lower end thereof, and a plane object, a three-dimensional object, and a moving object are determined based on coordinates after the overhead conversion of the pixels. Therefore, based on the captured image and reduced image obtained from one camera 10, the grouped pixel group can be determined as a three-dimensional object that is a candidate for a moving object.

具体的に、撮像画像上で同等の速度を有する隣接した画素をグループ化してその上端と下端に位置する画素を求め、この画素の俯瞰座標への変換後の座標により立体物の判定を行うことができるため、一つのカメラ10から得た撮像画像に基づいて移動する立体物を含む対象領域を簡単に抽出することができる。 Specifically, adjacent pixels having the same speed on the captured image are grouped to obtain pixels located at the upper end and the lower end, and the three-dimensional object is determined based on the coordinates after conversion to the overhead coordinates of the pixels. Therefore, it is possible to easily extract a target area including a three-dimensional object that moves based on a captured image obtained from one camera 10.

さらに、本実施形態では、上端の画素の座標値と下端の画素の座標値とに基づいて移動情報を比較する際の基準境界を求め、グループ化された画素群の移動方向と基準境界の移動方向との関係により移動体を検出することができるため、観測者側の動きの推定や判定対象となる物体までの距離を算出することなく、移動体であるか否かを簡単に行うことができる。 Furthermore, in this embodiment, a reference boundary for comparing movement information is obtained based on the coordinate value of the upper end pixel and the coordinate value of the lower end pixel, and the movement direction of the grouped pixel group and the movement of the reference boundary are obtained. Since a moving object can be detected based on the relationship with the direction, it is possible to easily determine whether or not the object is a moving object without estimating the observer's movement and calculating the distance to the object to be determined. it can.

また、画素群の移動方向と基準境界の移動方向とが略反対方向の関係であったとしても、グループ化された画素群の移動速度が時間の経過とともに遅くなる場合は、グループ化された画素群は移動体であると判定するため、移動速度の経時的変化という異なる観点から移動体の判定を検証することができ、高い精度で移動体を検出することができる。 In addition, even when the moving direction of the pixel group and the moving direction of the reference boundary are in a substantially opposite relationship, if the moving speed of the grouped pixel group becomes slower with the passage of time, the grouped pixels Since the group is determined to be a moving body, the determination of the moving body can be verified from a different point of view, that is, a change in moving speed with time, and the moving body can be detected with high accuracy.

加えて、特徴点を撮像画像に含まれる物体のエッジに対応する画素又は画素群とするため、撮像画像上において物体のエッジを検出することにより移動体を簡易に検出することができる。 In addition, since the feature point is a pixel or a pixel group corresponding to the edge of the object included in the captured image, the moving object can be easily detected by detecting the edge of the object on the captured image.

<第2実施形態>
続いて、第2実施形態について説明する。第2実施形態は、縮小画像生成部22による縮小画像の生成処理の内容に特徴がある。この点を除き、第2実施形態の基本的構成及び処理は、第1実施形態のそれに共通するため、ここでは異なる点を中心に説明する。
<Second Embodiment>
Next, the second embodiment will be described. The second embodiment is characterized by the content of reduced image generation processing by the reduced image generation unit 22. Except for this point, the basic configuration and processing of the second embodiment are common to those of the first embodiment, and therefore, different points will be mainly described here.

図15に本実施形態のブロック構成を示す。図15に示すように、縮小画像生成部22は、本移動体検出装置100´が搭載される自車両の速度(移動体検出装置100´の速度と同視できる)を取得する速度取得部221と、縮小率を速度に応じて変更する縮小率変更部222とを備える。その他の構成は、図1に基づいて説明した第1実施形態のものと共通する。   FIG. 15 shows a block configuration of this embodiment. As illustrated in FIG. 15, the reduced image generation unit 22 includes a speed acquisition unit 221 that acquires the speed of the host vehicle on which the mobile body detection device 100 ′ is mounted (which can be equated with the speed of the mobile body detection device 100 ′). A reduction rate changing unit 222 that changes the reduction rate according to the speed. Other configurations are the same as those of the first embodiment described with reference to FIG.

以下、縮小画像生成部22の各構成について説明する。   Hereinafter, each configuration of the reduced image generation unit 22 will be described.

本実施形態の縮小画像生成部22は、移動体検出装置100´の移動速度に応じた縮小率で縮小画像を生成する。   The reduced image generation unit 22 of the present embodiment generates a reduced image at a reduction rate corresponding to the moving speed of the moving object detection device 100 ′.

縮小画像生成部22が備える速度取得部221は、車載装置1000の車両コントローラ200から車両の速度を取得する。同じく縮小画像生成部22が備える縮小率変更部222は、自車両の速度に応じて縮小率の変更を行う。   The speed acquisition unit 221 included in the reduced image generation unit 22 acquires the vehicle speed from the vehicle controller 200 of the in-vehicle device 1000. Similarly, the reduction rate changing unit 222 included in the reduced image generation unit 22 changes the reduction rate according to the speed of the host vehicle.

次に、自車両の速度に基づき縮小率を決定する手法を説明する。自車両の速度V(km/h)と、自車両から物体までの距離Z(m)と、横位置X(m)があれば,その位置における静止物の速度は下式(式3)により算出できる。ここで、Fはフレームレート(fps)、PXrは横方向の1画素あたりの角度分解能(Rad)を示す。 Next, a method for determining the reduction rate based on the speed of the host vehicle will be described. If there is a speed V (km / h) of the host vehicle, a distance Z (m) from the host vehicle to an object, and a lateral position X (m), the speed of the stationary object at that position is expressed by the following formula (Formula 3). It can be calculated. Here, F represents the frame rate (fps), and PXr represents the angular resolution (Rad) per pixel in the horizontal direction.

S=F*((ATAN(X/(Z+V/(3.6*F))―(ATAN(X/Z))/PXr) (式3)
第1実施形態の説明において説明した式1及び式2を用いれば撮像範囲における静止物の最大速度や移動情報の検出対象範囲の静止物の最大検出速度を算出することができる。この最大検出速度から1フレーム当りの移動量(画素数)を計算し、その移動量が1画素以内になるような縮小率を求める。縮小率を求める際、縮小率変更部222は、縮小率の高い縮小画像から得られる速度検出範囲(移動情報が算出される範囲)における低速域と、縮小率の低い画像から得られる速度検出範囲における高速域とが重なりあうように生成する縮小画像の縮小率を求めることが好ましい。
S = F * ((ATAN (X / (Z + V / (3.6 * F)) − (ATAN (X / Z)) / PXr) (Formula 3)
If Expression 1 and Expression 2 described in the description of the first embodiment are used, the maximum speed of the stationary object in the imaging range and the maximum detection speed of the stationary object in the movement information detection target range can be calculated. The amount of movement (number of pixels) per frame is calculated from this maximum detection speed, and the reduction rate is determined so that the amount of movement is within one pixel. When obtaining the reduction ratio, the reduction ratio changing unit 222 uses a low speed range in a speed detection range (a range in which movement information is calculated) obtained from a reduced image with a high reduction ratio and a speed detection range obtained from an image with a low reduction ratio. It is preferable to obtain the reduction ratio of the reduced image generated so that the high-speed region in FIG.

ここで、静止物体に着目して縮小率を設定すると、撮像画像の速度検出範囲は必ずしも必要ないように見えるが、移動体の速度は、低速域で観測されるため撮像画像の速度情報は必ず計測することが好ましい。このような観点から、本実施形態の合成部25は、必ず撮像画像の移動情報を用いて合成情報を生成する、すなわち、撮像画像の移動情報を含む合成情報を生成する
図16は、本実施形態における移動体検出装置100´の処理を示すフローチャート図である。
Here, if the reduction ratio is set focusing on a stationary object, it seems that the speed detection range of the captured image is not necessarily required. However, since the speed of the moving object is observed in the low speed range, the speed information of the captured image is always It is preferable to measure. From this point of view, the composition unit 25 of this embodiment always generates composite information by using the movement information of the captured image, that is, generates composite information including the movement information of the captured image. It is a flowchart figure which shows the process of moving body detection apparatus 100 'in a form.

図16に示すように、イグニションスイッチがオンされると、起動されるプログラムとして実行される。図16において、図14に示す本発明の第1実施形態のフローチャートと同一の処理内容については、同じステップ番号を付与する。ここでは、二点鎖線で囲む、第2実施形態の特徴となる処理を中心に説明する。 As shown in FIG. 16, when the ignition switch is turned on, the program is executed as a started program. In FIG. 16, the same processing steps as those in the flowchart of the first embodiment of the present invention shown in FIG. Here, the description will focus on the processing that is surrounded by a two-dot chain line and that is characteristic of the second embodiment.

ステップS1021において、自車両の速度から必要な静止物体の最大検出速度を算出する。この後に、フローはステップS1022へ移行する。   In step S1021, the required maximum detected speed of a stationary object is calculated from the speed of the host vehicle. After this, the flow moves to step S1022.

ステップS1022において、最大検出速度から1フレーム当りの移動量を計算し、その移動量が1画素以内に収まるような縮小率を算出する。この後に、フローはステップS1023へ移行する。   In step S1022, the amount of movement per frame is calculated from the maximum detection speed, and a reduction rate is calculated such that the amount of movement falls within one pixel. After this, the flow moves to step S1023.

ステップS1023において、縮小率が高い画像の速度検出範囲の低速域と縮小率の低い画像の速度検出範囲の高速域が重なるように、縮小率を設定する。この後に、フローはステップS1024へ移行する。   In step S1023, the reduction ratio is set so that the low speed area of the speed detection range of the image with the high reduction ratio overlaps with the high speed area of the speed detection range of the image with the low reduction ratio. After this, the flow moves to step S1024.

ステップS1024において、設定された縮小率に基づき、各縮小率の縮小画像を生成し、画像メモリ11に記録する。この後に、フローはステップS103へ移行し、図14に基づいて説明した第1実施形態と同様の処理を行う。   In step S1024, a reduced image of each reduction ratio is generated based on the set reduction ratio and recorded in the image memory 11. After this, the flow moves to step S103, and the same processing as in the first embodiment described with reference to FIG. 14 is performed.

以上のように、第2実施形態の移動体検出装置100´は、第1実施形態の作用・効果に加え、以下の作用・効果を奏する。   As described above, the moving object detection apparatus 100 ′ of the second embodiment has the following actions and effects in addition to the actions and effects of the first embodiment.

移動体検出装置100´の速度に応じて縮小率を変化させることにより、移動する速度に応じて異なる速度の検出領域を適切に設定することができる。撮像画像全体の速度情報は、搭載車両の車速等の移動の速度に応じて変化するが、縮小率を変化させることにより速度の検出領域を適切な範囲に移動させることができるため、撮像画像の画面全体の速度情報を常に検出することが可能となる。このため、背景から移動体を分離する識別精度を、車速の影響を受けることなく確保することができる。   By changing the reduction ratio in accordance with the speed of the moving body detection device 100 ′, it is possible to appropriately set detection areas having different speeds according to the moving speed. Although the speed information of the entire captured image changes according to the speed of movement such as the vehicle speed of the mounted vehicle, the speed detection area can be moved to an appropriate range by changing the reduction ratio. It becomes possible to always detect the speed information of the entire screen. For this reason, the identification accuracy which isolate | separates a moving body from a background can be ensured, without receiving to the influence of a vehicle speed.

また、合成情報に撮像画像の移動情報を必ず含めるようにしたため、背景となる静止物体に着目して縮小率を設定した場合であっても、撮像画像における速度検出範囲が除外されるのを防止することができる。これは、検出主体(移動体検出装置100、またはこれを搭載する自車両など)に影響を及ぼす移動体の移動情報は低速域で観測されるが、この速度域は撮像画像から得られるためである。これにより、撮像画像の画面全体の速度情報を常に検出しつつ、移動体検出に必要な移動情報の算出を行うことができるため、移動体を正確に検出することができる。   In addition, since the movement information of the captured image is always included in the composite information, the speed detection range in the captured image is prevented from being excluded even when the reduction rate is set by focusing on the stationary object as the background. can do. This is because the movement information of the moving body that affects the detection subject (the moving body detection device 100 or the host vehicle on which the moving body detection apparatus 100 is mounted) is observed in the low speed range, but this speed range is obtained from the captured image. is there. As a result, it is possible to calculate the movement information necessary for detecting the moving body while always detecting the speed information of the entire screen of the captured image, so that the moving body can be detected accurately.

なお、以上説明した実施形態は、本発明の理解を容易にするために記載されたものであって、本発明を限定するために記載されたものではない。したがって、上記の実施形態に開示された各要素は、本発明の技術的範囲に属する全ての設計変更や均等物をも含む趣旨である。   The embodiment described above is described for facilitating the understanding of the present invention, and is not described for limiting the present invention. Therefore, each element disclosed in the above embodiment is intended to include all design changes and equivalents belonging to the technical scope of the present invention.

すなわち、本明細書では、本発明に係る移動体検出装置100を含む車載装置1000をその一態様として説明するが、本発明はこれに限定されるものではない。   That is, in this specification, although the vehicle-mounted apparatus 1000 including the moving body detection apparatus 100 according to the present invention will be described as one aspect thereof, the present invention is not limited to this.

また、本明細書では、移動体検出装置100の一態様として、撮像手段の一例としてのカメラ10と、縮小画像生成手段の一例としての縮小画像生成部22と、特徴点抽出手段の一例としての特徴点抽出部23と、移動情報算出手段の一例としての移動情報算出部24と、合成手段の一例としての合成部25と、移動体検出手段の一例としての移動体検出部30とを備える移動体検出装置100を説明したが、これに限定されるものではない。   Further, in this specification, as an aspect of the moving body detection apparatus 100, the camera 10 as an example of an imaging unit, the reduced image generation unit 22 as an example of a reduced image generation unit, and an example of a feature point extraction unit The movement provided with the feature point extraction part 23, the movement information calculation part 24 as an example of a movement information calculation means, the synthetic | combination part 25 as an example of a synthetic | combination means, and the mobile body detection part 30 as an example of a mobile body detection means Although the body detection apparatus 100 has been described, the present invention is not limited to this.

さらに、移動体検出装置100は、本明細書で説明したように、グループ化機能の一例としてのグループ化部31と、座標変換機能の一例としての座標変換部32と、判定機能の一例としての判定部33とを備える。   Furthermore, as described in this specification, the moving body detection apparatus 100 includes a grouping unit 31 as an example of a grouping function, a coordinate conversion unit 32 as an example of a coordinate conversion function, and an example of a determination function. And a determination unit 33.

本発明の実施形態を図面により詳述したが、実施形態は本発明の例示にしか過ぎず、本発明は実施形態の構成にのみ限定されるものではない。したがって、以下のような本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれることはもちろんである。   Although the embodiment of the present invention has been described in detail with reference to the drawings, the embodiment is merely an example of the present invention, and the present invention is not limited only to the configuration of the embodiment. Therefore, it goes without saying that the present invention includes the following design changes and the like without departing from the scope of the present invention.

例えば、ブロック図は上記実施例に示すものに限定されるものではなく、同等の機能を備えた他の構成とすることができる。   For example, the block diagram is not limited to that shown in the above-described embodiment, and may have other configurations having equivalent functions.

また、カメラの取り付け位置は実施形態で述べた位置に限定されるものではなく、カメラの光軸が車両前方正面方向(Z方向)に向き、撮像面の水平軸および垂直軸がそれぞれ路面と略平行および略垂直となるように設定されていれば良い。   The camera mounting position is not limited to the position described in the embodiment. The optical axis of the camera faces the front front direction (Z direction) of the vehicle, and the horizontal axis and the vertical axis of the imaging surface are substantially the same as the road surface, respectively. What is necessary is just to set so that it may become parallel and substantially perpendicular | vertical.

また、検出したエッジの幅の正規化を行うにあたっては、エッジ幅は3画素に限定されるものではなく、任意の画素数を設定することができる。この場合、その後の処理でエッジの中央部の画素を利用するため、エッジ幅の画素数は奇数個であることが望ましい。 In addition, in normalizing the detected edge width, the edge width is not limited to three pixels, and an arbitrary number of pixels can be set. In this case, since the pixel at the center of the edge is used in the subsequent processing, the number of pixels with the edge width is desirably an odd number.

また、xy平面を分割して設定する短冊領域の数は上記実施形態に示すものに限定されるものではなく、任意の数に分割して設定することができる。 Further, the number of strip regions set by dividing the xy plane is not limited to that shown in the above embodiment, and can be set by dividing it into an arbitrary number.

また、ZX平面を分割して設定する領域の数は上記実施形態に示すものに限定されるものではなく、任意の数に分割して設定することができる。 Further, the number of regions set by dividing the ZX plane is not limited to that shown in the above embodiment, and can be set by dividing it into an arbitrary number.

また、ZX平面の縦方向および横方向の範囲は、任意の値に設定することができる。 Further, the vertical and horizontal ranges of the ZX plane can be set to arbitrary values.

また、上記実施形態では道路を走行する車両に移動体検出装置10を搭載する例について説明したが、他の移動体に搭載してもよい。 Moreover, although the said embodiment demonstrated the example which mounts the mobile body detection apparatus 10 in the vehicle which drive | works a road, you may mount in another mobile body.

さらに、上記実施形態では、検出する走路境界として、縁石、白線、外壁と路面との接点の例について説明したが、これに限定されず、例えば、ガードレール、駐車車両と路面との境界、路面と路面以外の領域(田、畑など)との境界を検出してもよい。 Furthermore, in the above-described embodiment, the example of the curbstone, the white line, and the contact point between the outer wall and the road surface has been described as the road boundary to be detected, but is not limited thereto, for example, the guard rail, the boundary between the parked vehicle and the road surface, You may detect the boundary with areas (fields, fields, etc.) other than a road surface.

第1実施形態の移動体検出装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the mobile body detection apparatus of 1st Embodiment. (A)及び(B)は、カメラ10の搭載例を示す図である。(A) And (B) is a figure which shows the example of mounting of the camera 10. FIG. 自車両の前方を撮像した撮像画像の一例を示す図である。It is a figure which shows an example of the captured image which imaged the front of the own vehicle. (a)〜(c)は、縮小画像を説明するための図である。(a)は撮像画像の例であり、(b)は撮像画像に対して1/2に縮小された縮小画像の例であり、(c)は撮像画像に対して1/4に縮小された縮小画像の例である。(A)-(c) is a figure for demonstrating a reduction image. (A) is an example of a captured image, (b) is an example of a reduced image reduced to ½ with respect to the captured image, and (c) is reduced to ¼ with respect to the captured image. It is an example of a reduced image. (a)〜(f)は移動速度の算出処理例を説明するための図である。(A)-(f) is a figure for demonstrating the calculation process example of a moving speed. 移動情報の合成処理を説明するための図である。It is a figure for demonstrating the synthetic | combination process of movement information. 合成情報としての合成移動画像の一例を示す図である。It is a figure which shows an example of the synthetic | combination moving image as synthetic | combination information. グループ化処理例を説明するための図である。It is a figure for demonstrating the example of a grouping process. 立体物を判定するための処理例を説明するための図である。It is a figure for demonstrating the example of a process for determining a solid object. 走路境界を抽出する手法例を説明するための図である。It is a figure for demonstrating the example of a method which extracts a track boundary. 背景となる走路境界を抽出する手法例を説明するための図である。It is a figure for demonstrating the example of the method of extracting the runway boundary used as a background. 抽出された走路境界に基づいて移動体を判定する手法例を説明するための図である。It is a figure for demonstrating the example of a method which determines a moving body based on the extracted track boundary. 移動体を判定する処理例を説明するための図である。It is a figure for demonstrating the process example which determines a moving body. 移動体検出処理の一例を示すフローチャート図である。It is a flowchart figure which shows an example of a mobile body detection process. 第2実施形態の移動体検出装置のブロック構成の一例を示す図である。It is a figure which shows an example of the block configuration of the mobile body detection apparatus of 2nd Embodiment. 第2実施形態に係る、他の縮小画像の作成例を示すフローチャート図である。It is a flowchart figure which shows the example of creation of the other reduced image based on 2nd Embodiment.

符号の説明Explanation of symbols

1000…車載装置
100,100´…移動体検出装置
10…カメラ
11…画像メモリ
20…画像処理部
21…撮像画像取得部
22…縮小画像生成部
23…特徴点抽出部
24…移動情報算出部
25…合成部
30…移動体検出部
31…グループ化部
32…座標変換部
33…判定部
200…車両コントローラ
300…警報装置
400…走行支援装置
500…出力装置(ディスプレイ・スピーカ)
DESCRIPTION OF SYMBOLS 1000 ... In-vehicle apparatus 100,100 '... Moving body detection apparatus 10 ... Camera 11 ... Image memory 20 ... Image processing part 21 ... Captured image acquisition part 22 ... Reduced image generation part 23 ... Feature point extraction part 24 ... Movement information calculation part 25 ... Composition unit 30 ... Moving object detection unit 31 ... Grouping unit 32 ... Coordinate conversion unit 33 ... Determination unit 200 ... Vehicle controller 300 ... Alarm device 400 ... Driving support device 500 ... Output device (display / speaker)

Claims (13)

撮像手段と、
前記撮像手段により得られた撮像画像から縮小率の異なる縮小画像を生成する縮小画像生成手段と、
前記縮小画像生成手段により生成された縮小画像の特徴点と前記撮像手段により得られた撮像画像の特徴点とをそれぞれ抽出する特徴点抽出手段と、
前記特徴点抽出手段により抽出された各特徴点の移動速度及び/又は移動方向を含む移動情報を算出する移動情報算出手段と、
前記移動情報算出手段により算出された前記縮小画像の特徴点の移動情報と前記撮像画像の特徴点の移動情報とから合成情報を生成する合成手段と、
前記合成手段により生成された合成情報に基づいて移動体を検出する移動体検出手段と、を有する移動体検出装置。
Imaging means;
Reduced image generating means for generating reduced images having different reduction ratios from the captured images obtained by the imaging means;
Feature point extraction means for extracting the feature points of the reduced image generated by the reduced image generation means and the feature points of the captured image obtained by the imaging means;
Movement information calculation means for calculating movement information including movement speed and / or movement direction of each feature point extracted by the feature point extraction means;
Synthesis means for generating synthesis information from movement information of feature points of the reduced image calculated by the movement information calculation means and movement information of feature points of the captured image;
And a moving body detection unit that detects the moving body based on the combined information generated by the combining unit.
請求項1に記載の移動体検出装置において、
前記合成手段は、前記撮像画像において前記特徴点抽出手段により抽出された各特徴点の移動情報と、当該撮像画像の特徴点にそれぞれ対応する縮小画像の特徴点の移動情報とから合成情報を生成する移動体検出装置。
The moving object detection apparatus according to claim 1,
The synthesizing unit generates synthesis information from the movement information of each feature point extracted by the feature point extraction unit in the captured image and the movement information of the feature point of the reduced image corresponding to the feature point of the captured image. A moving body detection device.
請求項2に記載の移動体検出装置において、
前記合成手段は、前記撮像画像において抽出された特徴点にそれぞれ対応する各縮小画像の特徴点の移動速度のうち、縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成する移動体検出装置。
In the moving body detection device according to claim 2,
The synthesizing unit generates synthesis information based on movement information of feature points of the reduced image having the highest reduction ratio among the movement speeds of the feature points of the reduced images respectively corresponding to the feature points extracted in the captured image. A moving body detection device.
請求項3に記載の移動体検出装置において、
前記合成手段は、前記撮像画像において抽出された特徴点の移動速度が算出されなかった場合は、前記特徴点に対応する各縮小画像の特徴点の移動速度のうち、縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成する移動体検出装置。
In the moving body detection apparatus of Claim 3,
When the moving speed of the feature point extracted in the captured image is not calculated, the synthesizing unit has a reduced image with the highest reduction ratio among the moving speeds of the feature points of the reduced images corresponding to the feature points. The moving body detection apparatus which produces | generates synthetic | combination information based on the movement information of a feature point.
請求項3又は4に記載の移動体検出装置において、
前記合成手段は、前記撮像画像において抽出された特徴点にそれぞれ対応する各縮小画像の特徴点の移動情報のうち、前記撮像画像の特徴点の移動方向との方向差が所定値未満である特徴点であって、かつ縮小率の最も高い縮小画像の特徴点の移動情報に基づいて合成情報を生成する移動体検出装置。
In the moving body detection apparatus of Claim 3 or 4,
The synthesizing unit is characterized in that, among the movement information of the feature points of each reduced image corresponding to the feature points extracted in the captured image, the direction difference from the movement direction of the feature points of the captured image is less than a predetermined value A moving body detection apparatus that generates composite information based on movement information of feature points of a reduced image that is a point and has the highest reduction ratio.
請求項1〜5の何れか一項に記載の移動体検出装置において、
前記移動体検出装置の速度を取得する速度取得手段をさらに備え、
前記縮小画像作成手段は、前記速度取得手段により取得された速度に応じた縮小率で縮小画像を生成する移動体検出装置。
In the moving body detection apparatus as described in any one of Claims 1-5,
It further comprises speed acquisition means for acquiring the speed of the mobile object detection device,
The reduced image creation means is a moving object detection device that generates a reduced image at a reduction rate corresponding to the speed acquired by the speed acquisition means.
請求項6に記載の移動体検出装置において、
前記合成手段は、撮像画像の移動情報を含む合成情報を生成する移動体検出装置。
The moving body detection device according to claim 6,
The said synthetic | combination means is a moving body detection apparatus which produces | generates the synthetic | combination information containing the movement information of a captured image.
前記請求項1〜7の何れかに記載の移動体検出装置において、
前記移動情報算出手段は、前記特徴点抽出手段により抽出された特徴部の位置に対応する画素のカウント値を所定周期でカウントアップし、前記カウント値の傾きに基づいて、前記特徴部に対応する画素の移動情報を算出する移動体検出装置。
In the moving body detection apparatus in any one of the said Claims 1-7,
The movement information calculation means counts up the count value of the pixel corresponding to the position of the feature portion extracted by the feature point extraction means at a predetermined period, and corresponds to the feature portion based on the slope of the count value. A moving body detection apparatus that calculates pixel movement information.
請求項1〜8の何れか一項に記載の移動体検出装置において、
前記合成情報は、前記縮小画像の特徴点の移動情報と前記撮像画像の特徴点の移動情報とから合成された合成移動画像であって、
前記移動体検出手段は、前記移動情報算出手段により算出された移動速度が所定範囲内であり、前記合成移動画像おいて略垂直方向に隣接する画素群をグループ化するグループ化機能と、
前記合成移動画像に含まれる画素を、所定の視点から見た俯瞰図であって、所定の分割領域に区分された変換座標に変換する座標変換機能と、
前記変換座標において上端に位置する画素の座標が前記変換座標の領域外に属するとともに、下端に位置する画素の座標が前記いずれかの分割領域に属する場合は、前記グループ化された画素群は前記移動体の候補となる立体物であると判定する判定機能とを有する移動体検出装置。
In the moving body detection apparatus as described in any one of Claims 1-8,
The synthesized information is a synthesized moving image synthesized from feature point movement information of the reduced image and feature point movement information of the captured image,
The moving body detecting means has a grouping function for grouping adjacent pixel groups in a substantially vertical direction in the synthesized moving image, wherein the moving speed calculated by the moving information calculating means is within a predetermined range;
A coordinate conversion function for converting the pixels included in the composite moving image into a conversion coordinate that is an overhead view seen from a predetermined viewpoint and divided into predetermined divided regions;
When the coordinates of the pixel located at the upper end in the transformed coordinate belong outside the area of the transformed coordinate and the coordinate of the pixel located at the lower end belongs to any one of the divided areas, the grouped pixel group is A moving body detection apparatus having a determination function for determining that a solid object is a candidate for a moving body.
請求項1〜9の何れか一項に記載の移動体検出装置において、
前記合成情報は、前記縮小画像の特徴点の移動情報と前記撮像画像の特徴点の移動情報とから合成された合成移動画像であって、
前記移動体検出手段は、前記合成移動画像おいて略垂直方向に隣接するとともに、前記移動情報算出手段により算出された移動速度が所定範囲内である画素群をグループ化するグループ化機能と、
前記グループ化された画素群のうち前記合成移動画像の略垂直方向の下端に位置する画素の座標値に基づいて、前記合成移動画像に含まれる立体物の設置面と所定の関係を有する基準境界を抽出するとともに、前記グループ化機能によりグループ化された画素群の移動方向と、この画素群と前記合成移動画像における縦方向のy座標値が共通する前記基準境界の移動方向とが、予め定義された略反対方向の関係である場合は、前記グループ化された画素群は移動体であると判定する判定機能とを有する移動体検出装置。
In the moving body detection apparatus as described in any one of Claims 1-9,
The synthesized information is a synthesized moving image synthesized from feature point movement information of the reduced image and feature point movement information of the captured image,
The moving body detecting means is a grouping function for grouping pixel groups adjacent to each other in a substantially vertical direction in the synthesized moving image and having a moving speed calculated by the moving information calculating means within a predetermined range;
A reference boundary having a predetermined relationship with the installation surface of the three-dimensional object included in the synthesized moving image based on the coordinate value of a pixel located at the lower end in the substantially vertical direction of the synthesized moving image among the grouped pixel group The movement direction of the pixel group grouped by the grouping function and the movement direction of the reference boundary where the y-coordinate value in the vertical direction of the pixel group and the synthesized moving image is common are defined in advance. And a determination function for determining that the grouped pixel group is a moving object in the case of a substantially opposite relationship.
請求項10に記載の移動体検出装置において、
前記判定機能は、前記グループ化機能によりグループ化された画素群の移動方向と、この画素群と前記撮像画像における縦方向のy座標値が共通する前記基準境界の移動方向とが予め定義された略反対方向の関係である場合であっても、前記グループ化された画素群の移動速度が時間の経過とともに遅くなる場合には、前記グループ化された画素群は移動体であると判定する移動体検出装置。
In the moving body detection apparatus of Claim 10,
In the determination function, a moving direction of the pixel group grouped by the grouping function and a moving direction of the reference boundary where the y-coordinate value in the vertical direction in the captured image and the pixel group are common are defined in advance. Even if the relationship is in a substantially opposite direction, if the moving speed of the grouped pixel group becomes slower as time passes, the grouped pixel group is determined to be a moving object. Body detection device.
請求項1〜11の何れか一項に記載の移動体検出装置において、
前記特徴点は前記撮像画像に含まれる物体のエッジに対応する画素又は画素群である移動体検出装置。
In the moving body detection apparatus as described in any one of Claims 1-11,
The moving object detection apparatus, wherein the feature point is a pixel or a pixel group corresponding to an edge of an object included in the captured image.
撮像画像から縮小率の異なる縮小画像を生成し、
前記縮小画像における特徴点と前記撮像画像における特徴点の移動速度及び/又は移動方向を含む移動情報をそれぞれ算出し、
前記縮小画像の特徴点の移動情報と前記撮像画像の特徴点の移動情報とから合成情報を生成し、
前記合成情報に基づいて移動体を検出する移動体検出方法。
Generate reduced images with different reduction ratios from captured images,
Calculating movement information including the moving speed and / or moving direction of the feature point in the reduced image and the feature point in the captured image;
Generating composite information from movement information of feature points of the reduced image and movement information of feature points of the captured image;
A moving body detection method for detecting a moving body based on the composite information.
JP2008177994A 2008-07-08 2008-07-08 Moving body detection apparatus and moving body detection method Active JP5157692B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008177994A JP5157692B2 (en) 2008-07-08 2008-07-08 Moving body detection apparatus and moving body detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008177994A JP5157692B2 (en) 2008-07-08 2008-07-08 Moving body detection apparatus and moving body detection method

Publications (2)

Publication Number Publication Date
JP2010021633A true JP2010021633A (en) 2010-01-28
JP5157692B2 JP5157692B2 (en) 2013-03-06

Family

ID=41706132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008177994A Active JP5157692B2 (en) 2008-07-08 2008-07-08 Moving body detection apparatus and moving body detection method

Country Status (1)

Country Link
JP (1) JP5157692B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013122739A (en) * 2011-12-12 2013-06-20 Fujitsu Ltd Analysis device, analysis program and analysis method
JP2013205924A (en) * 2012-03-27 2013-10-07 Fuji Heavy Ind Ltd Vehicle exterior environment recognition device, and vehicle exterior environment recognition method
JP2013210988A (en) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd Apparatus for detecting object that appears suddenly
WO2018220681A1 (en) * 2017-05-29 2018-12-06 オリンパス株式会社 Image processing device, image processing method, and image processing program
CN111433811A (en) * 2017-11-06 2020-07-17 卡尔蔡司显微镜有限责任公司 Reducing image artifacts in images
CN111524086A (en) * 2019-02-04 2020-08-11 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium
CN111754550A (en) * 2020-06-12 2020-10-09 中国农业大学 Method and device for detecting dynamic barrier in motion state of agricultural machine
WO2022085683A1 (en) * 2020-10-20 2022-04-28 株式会社小糸製作所 Vehicular lamp system, light distribution control device, and light distribution control method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092976A (en) * 1999-09-24 2001-04-06 Mitsubishi Heavy Ind Ltd Detecting method for moving object
JP2002216113A (en) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd Object recognizing device
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001092976A (en) * 1999-09-24 2001-04-06 Mitsubishi Heavy Ind Ltd Detecting method for moving object
JP2002216113A (en) * 2001-01-16 2002-08-02 Fujitsu Ten Ltd Object recognizing device
JP2003067752A (en) * 2001-08-28 2003-03-07 Yazaki Corp Vehicle periphery monitoring device
JP2007249257A (en) * 2006-03-13 2007-09-27 Nissan Motor Co Ltd Apparatus and method for detecting movable element

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013122739A (en) * 2011-12-12 2013-06-20 Fujitsu Ltd Analysis device, analysis program and analysis method
JP2013210988A (en) * 2012-03-01 2013-10-10 Nissan Motor Co Ltd Apparatus for detecting object that appears suddenly
JP2013205924A (en) * 2012-03-27 2013-10-07 Fuji Heavy Ind Ltd Vehicle exterior environment recognition device, and vehicle exterior environment recognition method
US11037310B2 (en) 2017-05-29 2021-06-15 Olympus Corporation Image processing device, image processing method, and image processing program
WO2018220681A1 (en) * 2017-05-29 2018-12-06 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2018221224A1 (en) * 2017-05-29 2018-12-06 オリンパス株式会社 Image processing device, image processing method, and image processing program
CN111433811A (en) * 2017-11-06 2020-07-17 卡尔蔡司显微镜有限责任公司 Reducing image artifacts in images
CN111433811B (en) * 2017-11-06 2024-03-22 卡尔蔡司显微镜有限责任公司 Reducing image artifacts in images
CN111524086A (en) * 2019-02-04 2020-08-11 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium
CN111524086B (en) * 2019-02-04 2023-10-20 广赛布托有限公司 Moving object detection device, moving object detection method, and storage medium
CN111754550B (en) * 2020-06-12 2023-08-11 中国农业大学 Method and device for detecting dynamic obstacle in movement state of agricultural machine
CN111754550A (en) * 2020-06-12 2020-10-09 中国农业大学 Method and device for detecting dynamic barrier in motion state of agricultural machine
WO2022085683A1 (en) * 2020-10-20 2022-04-28 株式会社小糸製作所 Vehicular lamp system, light distribution control device, and light distribution control method

Also Published As

Publication number Publication date
JP5157692B2 (en) 2013-03-06

Similar Documents

Publication Publication Date Title
JP5320828B2 (en) Pedestrian detection device and pedestrian detection method
JP5157692B2 (en) Moving body detection apparatus and moving body detection method
US9836657B2 (en) System and method for periodic lane marker identification and tracking
JP6519262B2 (en) Three-dimensional object detection device, three-dimensional object detection method, three-dimensional object detection program, and mobile device control system
US10580155B2 (en) Image processing apparatus, imaging device, device control system, frequency distribution image generation method, and recording medium
JP5145986B2 (en) Object detection apparatus and distance measuring method
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
WO2017130640A1 (en) Image processing device, imaging device, mobile entity apparatus control system, image processing method, and program
JP4609603B2 (en) 3D information display device and 3D information display method
JP6753134B2 (en) Image processing device, imaging device, mobile device control system, image processing method, and image processing program
ES2569386T3 (en) Method and system to process a video image
JP2015011619A (en) Information detection device, mobile equipment control system, mobile body and program for information detection
JP2008262333A (en) Road surface discrimination device and road surface discrimination method
JPWO2017145605A1 (en) Image processing apparatus, imaging apparatus, mobile device control system, image processing method, and program
JP6547841B2 (en) Image processing apparatus, object recognition apparatus, device control system, image processing method and program
JP2010079582A (en) Apparatus, method and program for detecting object
JP2016206801A (en) Object detection device, mobile equipment control system and object detection program
JP2019530924A (en) Object detection from camera images
JP2015148887A (en) Image processing device, object recognition device, moving body instrument control system and object recognition program
JP2007249257A (en) Apparatus and method for detecting movable element
Feng et al. Distance estimation by fusing radar and monocular camera with Kalman filter
JP4553071B1 (en) 3D information display device and 3D information display method
JP2023184572A (en) Electronic apparatus, movable body, imaging apparatus, and control method for electronic apparatus, program, and storage medium
JP2017211791A (en) Image processing device, imaging device, mobile body equipment control system, image processing method, and program
JP4830822B2 (en) Object detection apparatus and object detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110628

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121113

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121126

R150 Certificate of patent or registration of utility model

Ref document number: 5157692

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151221

Year of fee payment: 3