JP2015158874A - Perimeter monitoring apparatus and perimeter monitoring method - Google Patents

Perimeter monitoring apparatus and perimeter monitoring method Download PDF

Info

Publication number
JP2015158874A
JP2015158874A JP2014034496A JP2014034496A JP2015158874A JP 2015158874 A JP2015158874 A JP 2015158874A JP 2014034496 A JP2014034496 A JP 2014034496A JP 2014034496 A JP2014034496 A JP 2014034496A JP 2015158874 A JP2015158874 A JP 2015158874A
Authority
JP
Japan
Prior art keywords
feature points
vehicle
specific feature
grouped
determination process
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014034496A
Other languages
Japanese (ja)
Other versions
JP6201809B2 (en
Inventor
有華 祖父江
Yuka Sofue
有華 祖父江
真佐人 奥田
Masato Okuda
真佐人 奥田
勇二郎 小畠
Yujiro Obata
勇二郎 小畠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2014034496A priority Critical patent/JP6201809B2/en
Publication of JP2015158874A publication Critical patent/JP2015158874A/en
Application granted granted Critical
Publication of JP6201809B2 publication Critical patent/JP6201809B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a perimeter monitoring apparatus and a perimeter monitoring method capable of improving accuracy for discriminating a moving object.SOLUTION: A plurality of specific feature points are tracked from each of images temporally continuously obtained by a camera imaging peripheries of a vehicle, and the specific feature points are grouped in 110. If it is determined in a first determination process that the vehicle is in the process of turning, and it is determined in a second determination process that a predetermined number or more of specific feature points out of the grouped specific feature points have a vector directed toward the vehicle, an object relating to the specific feature points is not detected as a notification target moving object in 118. If a result of the second determination process indicates that the grouped specific feature points have vectors in a plurality of directions, the object relating to the grouped feature points is detected as a notification target moving object in 116.

Description

本発明は、周辺監視装置及び方法に関する。   The present invention relates to a periphery monitoring apparatus and method.

車両が右旋回している場合には、右側方領域の画面上のフローベクトルを参照せず、左旋回している場合には、左側方領域の画面上のフローベクトルを参照しないノーズビューモニタ装置が知られている(例えば、特許文献1参照)。   When the vehicle is turning right, the nose view monitor device that does not refer to the flow vector on the screen in the right side area and does not refer to the flow vector on the screen in the left side area when the vehicle is turning left. It is known (see, for example, Patent Document 1).

特開2005-276057号公報JP 2005-276057

しかしながら、上記の特許文献1に記載の構成では、旋回方向に係る側方領域の画面上のフローベクトルが一律に参照されないので、旋回方向に係る側方領域に移動物が存在する場合には、移動物を判定する精度が低下する可能性がある。   However, in the configuration described in Patent Document 1 above, the flow vector on the screen of the side area related to the turning direction is not uniformly referenced, so when there is a moving object in the side area related to the turning direction, There is a possibility that the accuracy of determining a moving object is lowered.

本発明は、移動物を判定する精度を向上させた周辺監視装置及び方法を提供する。   The present invention provides a periphery monitoring apparatus and method with improved accuracy in determining a moving object.

本発明の一態様に係る周辺監視装置は、車両周辺を撮像するカメラと、
前記カメラにより時間的に連続して撮像して得られる各画像から複数の特定特徴点を追跡し、前記追跡した複数の特定特徴点をグルーピングし、車両が旋回中か否かの第1の判定処理を実行し、前記第1の判定処理により車両が旋回中であると判定した場合、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有するか否かの第2の判定処理を実行し、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出せず、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点が、複数の方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出する処理装置とを含む。
A periphery monitoring device according to an aspect of the present invention includes a camera that captures an image of the periphery of a vehicle,
First specific determination as to whether or not the vehicle is turning by tracking a plurality of specific feature points from each image obtained by continuously capturing images with the camera in time, grouping the plurality of tracked specific feature points When the first determination process determines that the vehicle is turning, a vector in which a predetermined number or more of the plurality of specific feature points that are grouped is directed in the direction toward the vehicle. A second determination process is performed to determine whether or not a predetermined number or more of the plurality of grouped specific feature points is directed toward the vehicle as a result of the second determination process. In the case of having a vector, the objects related to the plurality of grouped specific feature points are not detected as the moving object to be notified, and as a result of the second determination process, the plurality of grouped specific feature points are If having a vector oriented in the direction, and a processing unit for detecting an object according to a plurality of specific feature points to the grouping as the movement of the notification object.

本発明によれば、移動物を判定する精度を向上させた周辺監視装置及び方法が得られる。   According to the present invention, it is possible to obtain a periphery monitoring apparatus and method with improved accuracy for determining a moving object.

本発明の一実施例である周辺監視装置の構成図を示す。The block diagram of the periphery monitoring apparatus which is one Example of this invention is shown. 本実施例の周辺監視装置においてカメラが撮影した映像の中で設定される移動物検知のための検知エリアの一例を表した図を示す。The figure showing an example of the detection area for the moving object detection set in the image | video which the camera image | photographed with the periphery monitoring apparatus of a present Example is shown. 本実施例の周辺監視装置において、路面上の側溝を塞ぐための周期的模様が繰り返される網目状の構造物(グレーチング)がカメラ映像内に含まれる場合を示す。In the periphery monitoring device of the present embodiment, a case where a network structure (grating) in which a periodic pattern for closing a side groove on a road surface is repeated is included in a camera image is shown. 本実施例の周辺監視装置においてECUの映像認識部が実行する制御ルーチンの一例のフローチャートを示す。The flowchart of an example of the control routine which the image | video recognition part of ECU performs in the periphery monitoring apparatus of a present Example is shown. 同一のグループにグルーピングされた特徴点のベクトルの例を示す。The example of the vector of the feature point grouped into the same group is shown. 同一のグループにグルーピングされた特徴点のベクトルの例を示す。The example of the vector of the feature point grouped into the same group is shown.

以下、添付図面を参照しながら各実施例について詳細に説明する。   Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

図1は、本発明の一実施例である周辺監視装置10の構成図を示す。本実施例の周辺監視装置10は、例えば車両に搭載された、その車両の周辺を監視する装置であって、その車両周辺に存在する障害物を検知する。車両の周辺とは、例えば、その車両の運転者にとって死角となる領域である。また、障害物とは、例えば、自車両に対して移動する他車両や人などの移動物である。   FIG. 1 shows a configuration diagram of a periphery monitoring apparatus 10 according to an embodiment of the present invention. The periphery monitoring device 10 according to the present embodiment is a device that monitors, for example, the periphery of the vehicle mounted on the vehicle, and detects an obstacle present around the vehicle. The periphery of the vehicle is, for example, an area that becomes a blind spot for the driver of the vehicle. The obstacle is, for example, a moving object such as another vehicle or a person that moves relative to the host vehicle.

図1に示す如く、周辺監視装置10は、車両周辺を撮影するカメラ12を備えている。カメラ12は、比較的広角のレンズ或いは魚眼レンズを有している。カメラ12は、車体前部のバンパやグリル又は車体後部のスポイラー下部やバックガラス下方などに配設されている。カメラ12は、車体前方又は車体後方かつ斜め下方に指向されており、特に車両運転者にとって死角となる位置を含めた予め定められた所定範囲内を撮影することが可能である。カメラ12は、その所定範囲を予め定められたピクセルで撮影するデジタルカメラである。   As shown in FIG. 1, the periphery monitoring device 10 includes a camera 12 that captures the periphery of the vehicle. The camera 12 has a relatively wide angle lens or fisheye lens. The camera 12 is disposed at the front of the vehicle, such as a bumper or grill at the front, a lower spoiler at the rear of the vehicle, or below the back glass. The camera 12 is directed to the front of the vehicle body or the rear of the vehicle body and obliquely downward, and can capture an image within a predetermined range including a position that becomes a blind spot especially for the vehicle driver. The camera 12 is a digital camera that captures the predetermined range with a predetermined pixel.

周辺監視装置10は、マイクロコンピュータを主体に構成された電子制御ユニット(以下、ECUと称す。)14を備えている。ECU14には、上記のカメラ12が接続されている。カメラ12の撮影した映像情報は、画像処理を行うECU14に供給される。ECU14は、カメラ12の映像情報が入力される映像認識部16を有している。映像認識部16は、後に詳述する如く、カメラ12から供給される車両周辺が撮影された映像をオプティカルフロー法に基づいて画像認識することにより少なくとも移動物を検知する。   The periphery monitoring device 10 includes an electronic control unit (hereinafter referred to as an ECU) 14 mainly composed of a microcomputer. The above camera 12 is connected to the ECU 14. Video information captured by the camera 12 is supplied to an ECU 14 that performs image processing. The ECU 14 has a video recognition unit 16 to which video information of the camera 12 is input. As will be described in detail later, the video recognition unit 16 detects at least a moving object by recognizing an image of the vehicle periphery supplied from the camera 12 based on the optical flow method.

ECU14は、映像認識部16での検知結果が入力される画像描画処理部18を有している。画像描画処理部18には、車室内に設けられたモニタ20が接続されている。モニタ20は、車両運転者が視認可能な例えばコンソールパネルやマルチインフォメーションディスプレイなどに配置されている。画像描画処理部18は、映像認識部16からの検知結果に基づいて、モニタ20に描く画像やモニタ20に表示する警告等の報知を行う。   The ECU 14 has an image drawing processing unit 18 to which a detection result in the video recognition unit 16 is input. A monitor 20 provided in the passenger compartment is connected to the image drawing processing unit 18. The monitor 20 is disposed on, for example, a console panel or a multi-information display that can be visually recognized by the vehicle driver. Based on the detection result from the video recognition unit 16, the image drawing processing unit 18 provides notification of an image drawn on the monitor 20 and a warning displayed on the monitor 20.

例えば、画像描画処理部18は、カメラ12の撮影した映像の画像処理を施す。例えば、その映像の特定箇所を切り出し或いはその映像の歪補正を実行する。画像描画処理部18は、映像認識部16による検知結果をカメラ12の撮影した映像に重畳表示させる。例えば、その検知結果に基づく移動物の自車両への接近方向を表示させ或いはその移動物を強調して表示させる。画像描画処理部18は、車両運転者によるユーザ設定に従った表示を行わせる。例えば、検知状況を知らせる表示方法や対象物の選択に従った表示を行わせる。モニタ20は、画像描画処理部18からの表示指令に従った表示を行う。   For example, the image drawing processing unit 18 performs image processing of video captured by the camera 12. For example, a specific portion of the video is cut out or distortion correction of the video is executed. The image drawing processing unit 18 superimposes and displays the detection result by the video recognition unit 16 on the video captured by the camera 12. For example, the approaching direction of the moving object to the own vehicle based on the detection result is displayed, or the moving object is highlighted. The image drawing processing unit 18 causes display according to user settings by the vehicle driver. For example, display is performed in accordance with a display method for notifying the detection status or selection of an object. The monitor 20 performs display in accordance with a display command from the image drawing processing unit 18.

ECU14には、車速センサ40、舵角センサ42、及び、ヨーレートセンサ44が接続される。   A vehicle speed sensor 40, a steering angle sensor 42, and a yaw rate sensor 44 are connected to the ECU 14.

図2は、本実施例の周辺監視装置10においてカメラ12が撮影した映像の中で設定される移動物検知のための検知エリアの一例を表した図を示す。図3は、本実施例の周辺監視装置10において、路面上の側溝を塞ぐための周期的模様が繰り返される網目状の構造物30(以下、「周期的構造物30」という)がカメラ映像32内に含まれる場合を示す。周期的構造物30は、例えばグレーチングである。また、図4は、本実施例の周辺監視装置10においてECU14の映像認識部16が実行する制御ルーチンの一例のフローチャートを示す。図5及び図6は、同一のグループにグルーピングされた特徴点のベクトルの例を示す図であり、図5は、移動物の特徴点の場合を示し、図6は、周期的構造物30の場合を示す。移動物は、例えば歩行者である。図5及び図6において、黒丸部分は、特徴点の集合を概念的に表す。   FIG. 2 is a diagram illustrating an example of a detection area for detecting a moving object set in an image captured by the camera 12 in the periphery monitoring device 10 according to the present embodiment. 3 shows a camera image 32 of a mesh-like structure 30 (hereinafter referred to as “periodic structure 30”) in which a periodic pattern for closing a side groove on the road surface is repeated in the periphery monitoring device 10 of the present embodiment. The case where it is included is shown. The periodic structure 30 is, for example, grating. FIG. 4 shows a flowchart of an example of a control routine executed by the video recognition unit 16 of the ECU 14 in the periphery monitoring device 10 of the present embodiment. 5 and 6 are diagrams showing examples of feature point vectors grouped in the same group, FIG. 5 shows a case of feature points of a moving object, and FIG. 6 shows a periodic structure 30. Show the case. The moving object is, for example, a pedestrian. 5 and 6, black circles conceptually represent a set of feature points.

以下、図4のフローチャートに従って説明する。   Hereinafter, description will be given with reference to the flowchart of FIG.

本実施例において、ECU14の映像認識部16には、カメラ12が撮影して供給した映像情報が入力される(ステップ100)。映像認識部16は、カメラ12からの映像情報が入力されると、以下の如く、そのカメラ12からの映像をオプティカルフロー法に基づいて画像認識する。尚、映像認識部16による上記の画像認識は、所定時間ごとに繰り返し行われる。また、映像認識部16による上記の画像認識は、時間的に連続する異なるタイミングで得られる複数の映像それぞれに対して行われる。   In this embodiment, the video information captured and supplied by the camera 12 is input to the video recognition unit 16 of the ECU 14 (step 100). When the video information from the camera 12 is input, the video recognition unit 16 recognizes the video from the camera 12 based on the optical flow method as follows. Note that the image recognition by the video recognition unit 16 is repeatedly performed every predetermined time. The image recognition by the video recognition unit 16 is performed for each of a plurality of videos obtained at different timings that are temporally continuous.

次に、映像認識部16は、映像の画像認識を行ううえで、まず、入力された映像の中で移動物検知のために処理が必要な検知エリアを設定する(ステップ102)。例えば図2に示す如く、入力された映像の中で、そのX−Y座標上、点(X_L1,Y_L1)と、点(X_L2,Y_L1)と、点(X_L1,Y_L2)と、点(X_L2,Y_L2)と、で囲まれる領域L、及び、点(X_R1,Y_R1)と、点(X_R2,Y_R1)と、点(X_R1,Y_R2)と、点(X_R2,Y_R2)と、で囲まれる領域Rの2つの領域を、検知エリアとして設定する。   Next, when performing video image recognition, the video recognition unit 16 first sets a detection area that needs to be processed for moving object detection in the input video (step 102). For example, as shown in FIG. 2, in the input video, on the XY coordinates, a point (X_L1, Y_L1), a point (X_L2, Y_L1), a point (X_L1, Y_L2), and a point (X_L2, Y_L2), the region L, and the region R surrounded by the point (X_R1, Y_R1), the point (X_R2, Y_R1), the point (X_R1, Y_R2), and the point (X_R2, Y_R2) Two areas are set as detection areas.

尚、この設定される検知エリアは、カメラ12が撮影した映像の全領域でもよい。またこの設定される検知エリアは、画像処理の迅速化や効率化等を考慮して、一の映像の全領域の中で自車両の車体が映り込んだ領域を除く一部の領域だけであってもよい。自車両の車体が映り込んだ領域とは、例えばバンパなどが映り込んだ領域である。また、この検知エリアは、カメラ12の指向性や運転者の死角などに基づいて予め定めてもよい。また、検知エリアが映像全領域のうちの一部に限られる場合は、その検知エリアは、例えば、その検知エリアに障害物が存在すれば自車両の走行に与える影響が比較的大きくなる、映像内で自車両に近接する位置が映し出された手前の領域や映像内で自車移動時に中央側に寄る位置が映し出される左右端部の領域を含むものであってもよい。自車移動時とは、例えば旋回時である。   The detection area to be set may be the entire area of the video captured by the camera 12. In addition, the detection area to be set is only a part of the entire area of one image except the area where the body of the vehicle is reflected in consideration of speeding up and efficiency of image processing. May be. The area in which the vehicle body of the host vehicle is reflected is an area in which, for example, a bumper is reflected. The detection area may be determined in advance based on the directivity of the camera 12 or the blind spot of the driver. In addition, when the detection area is limited to a part of the entire video area, the detection area has a relatively large influence on the traveling of the host vehicle if an obstacle exists in the detection area, for example. It may include a region in front of where a position close to the host vehicle is projected within and a region of left and right end portions in which a position closer to the center is projected when moving the host vehicle. The time when the host vehicle is moving is, for example, when turning.

映像認識部16は、入力された映像の全領域のうち上記の如く設定した検知エリアの画像をノイズ除去フィルタを用いて平準化することにより、その検知エリアの画像からノイズを除去する(ステップ104)。そして、その平準化された検知エリアの画像に対してエッジ抽出フィルタを用いてエッジ抽出を行うことにより、その検知エリアの画像から特徴点を抽出する(ステップ106)。   The video recognition unit 16 removes noise from the image of the detection area by leveling the image of the detection area set as described above in the entire area of the input video using a noise removal filter (step 104). ). Then, by performing edge extraction using the edge extraction filter on the leveled detection area image, feature points are extracted from the detection area image (step 106).

次に、映像認識部16は、上記ステップ106で特徴点を抽出した映像を含む時間的に連続する複数の映像を用いて、上記ステップ106で抽出した特徴点の近傍エリアを対象として、予め定めた所定速度範囲の速さで移動する特徴点を特定し、追跡する(ステップ108)。尚、追跡とは、時系列で順次得られる映像内の同一の特徴点を特定することを意味する。所定速度範囲の上限値は、車速に応じて可変されてよい。具体的には、上記ステップ106で抽出した特徴点に対して過去の映像から抽出した同一対象を構成する特徴点をマッチングさせたうえで、それらの各特徴点の座標上の位置の差に基づいて同一対象を構成する特徴点の移動ベクトル量を測定し、所定速度範囲の速さで移動する特徴点を抽出する。追跡できた回数が所定回数(以下、特徴点追跡回数閾値)を超えた特徴点が、次のステップ110におけるグルーピング対象の特徴点となる。追跡できた回数は、例えばカメラ12の映像のフレーム数でカウントされてもよい。   Next, the image recognizing unit 16 uses a plurality of temporally continuous images including the image from which the feature points have been extracted in the above step 106, and determines in advance the area near the feature points extracted in the above step 106 as a target. A feature point that moves at a predetermined speed range is identified and tracked (step 108). Note that tracking means specifying the same feature point in the video sequentially obtained in time series. The upper limit value of the predetermined speed range may be varied according to the vehicle speed. Specifically, after matching the feature points constituting the same object extracted from the past video with the feature points extracted in the above step 106, based on the difference in the coordinate positions of these feature points. Then, the movement vector amount of the feature points constituting the same object is measured, and the feature points moving at a speed in the predetermined speed range are extracted. A feature point whose number of times of tracking exceeds a predetermined number of times (hereinafter referred to as a feature point tracking number threshold) is a feature point to be grouped in the next step 110. The number of times of tracking may be counted by the number of frames of the video of the camera 12, for example.

なお、特徴点追跡回数閾値は、特徴点の移動ベクトルの向きに無関係に固定であってもよい。また、特徴点追跡回数閾値は、特徴点の移動ベクトルの向きに応じて可変されてもよい。この場合、特徴点追跡回数閾値は、特徴点の移動ベクトルの向きが所定方向であるとき、他の方向である場合に比べて大きく設定されてよい。これにより、周期的構造物30のような路面上の固定物に係る特徴点がグルーピング可能となるタイミングを遅らせることができる。所定方向は、周期的構造物30のような路面上の固定物に係る特徴点が画像内を流れる方向に対応し、車両の舵角に応じて設定されてよい。   Note that the feature point tracking number threshold may be fixed regardless of the direction of the movement vector of the feature point. Also, the feature point tracking number threshold may be varied according to the direction of the feature point movement vector. In this case, the feature point tracking frequency threshold may be set larger when the direction of the movement vector of the feature point is the predetermined direction than when the direction is the other direction. As a result, the timing at which the feature points related to the fixed object on the road surface such as the periodic structure 30 can be grouped can be delayed. The predetermined direction corresponds to a direction in which a feature point related to a fixed object on the road surface such as the periodic structure 30 flows in the image, and may be set according to the steering angle of the vehicle.

上記ステップ108の処理後、映像認識部16は、カメラ映像の検知エリアの全領域内で上記の如く追跡した所定速度範囲の速さで移動する特徴点のうち同一移動物を構成すると推定される特徴点を一つに纏めてグルーピングし、追跡する(ステップ110)。尚、追跡とは、時系列で順次得られる映像内の同一のグルーピングした各特徴点を特定することを意味する。グルーピングした各特徴点を追跡できた回数(カメラ12の映像のフレーム数)が所定回数(以下、グルーピング追跡回数閾値)を超えたグループに係る特徴点が、報知対象のグループ(特徴点)となる。   After the processing of step 108, the video recognition unit 16 is assumed to constitute the same moving object among the feature points moving at a speed in the predetermined speed range tracked as described above in the entire detection area of the camera video. The feature points are grouped together and tracked (step 110). Note that “tracking” means specifying the same grouped feature points in the video sequentially obtained in time series. A feature point related to a group in which the number of times the grouped feature points have been tracked (the number of frames of the video of the camera 12) exceeds a predetermined number (hereinafter referred to as a grouping tracking number threshold) is a notification target group (feature point) .

なお、グルーピング追跡回数閾値は、特徴点の移動ベクトルの向きに無関係に固定であってもよい。また、グルーピング追跡回数閾値は、特徴点の移動ベクトルの向きに応じて可変されてもよい。この場合、グルーピング追跡回数閾値は、特徴点の移動ベクトルの向きが所定方向であるとき、他の方向である場合に比べて大きく設定されてよい。これにより、周期的構造物30のような路面上の固定物に係る特徴点が、後述のステップ118にて仮に除外されない場合であっても、報知されるタイミングを遅らせることができる。所定方向は、周期的構造物30のような路面上の固定物に係る特徴点が画像内を流れる方向に対応し、車両の舵角に応じて設定されてよい。   The grouping tracking number threshold may be fixed regardless of the direction of the movement vector of the feature points. Further, the grouping tracking number threshold may be varied in accordance with the direction of the feature point movement vector. In this case, the grouping tracking number threshold may be set larger when the direction of the movement vector of the feature point is the predetermined direction than when the direction is the other direction. Thereby, even if the feature point which concerns on the fixed object on the road surface like the periodic structure 30 is not excluded temporarily in step 118 mentioned later, the alerting | reporting timing can be delayed. The predetermined direction corresponds to a direction in which a feature point related to a fixed object on the road surface such as the periodic structure 30 flows in the image, and may be set according to the steering angle of the vehicle.

グルーピングは、カメラ映像中の検知エリア内の全ピクセルのうち所定速度範囲の速さで移動する特徴点が密集する映像領域が形成されるように行われる。この映像領域とは、例えば、その特徴点が所定幅当たり所定数以上ある映像領域或いはその特徴点の密度が所定密度以上である映像領域などである。また、上記の如くグルーピングにより形成される映像領域は、例えば長方形状や正方形状などのカメラ映像上で予め定められた形状に限定されるものとしてもよい。また、カメラ映像の検知エリアの全領域内で行われるグルーピングは二以上の領域に分かれることとしてもよく、例えば移動物が複数離れて存在すれば、その移動物ごとにグルーピングが行われることとなる。即ち、グループが複数形成される。   The grouping is performed so that an image area where feature points moving at a speed in a predetermined speed range among all the pixels in the detection area in the camera image are densely formed is formed. The video region is, for example, a video region having a predetermined number or more of feature points per predetermined width or a video region having a density of feature points or more of a predetermined density. In addition, the image area formed by grouping as described above may be limited to a predetermined shape on a camera image such as a rectangular shape or a square shape. Further, the grouping performed in the entire area of the camera video detection area may be divided into two or more areas. For example, if a plurality of moving objects exist apart, grouping is performed for each moving object. . That is, a plurality of groups are formed.

そして、映像認識部16は、上記ステップ110の処理後、車速センサ40、舵角センサ42、及び、ヨーレートセンサ44からの出力信号に基づいて、車両が所定車速範囲内で旋回中であるか否かを判定する(ステップ112)。所定車速範囲は、0よりも大きい低速範囲であり、例えば0〜8km/hの範囲であってよい。尚、旋回中であるか否かは、舵角センサ42及びヨーレートセンサ44のいずれか一方からの出力信号に基づいて判定されてもよいし、ナビゲーション装置(図示せず)の地図データと自車位置との関係に基づいて判定されてもよい。車両が所定車速範囲内で旋回中である場合は、ステップ114に進む。他方、車両が所定車速範囲内で旋回中でない場合は、ステップ116に進む。   Then, the image recognition unit 16 determines whether the vehicle is turning within a predetermined vehicle speed range based on the output signals from the vehicle speed sensor 40, the steering angle sensor 42, and the yaw rate sensor 44 after the processing of step 110. Is determined (step 112). The predetermined vehicle speed range is a low speed range larger than 0, and may be, for example, a range of 0 to 8 km / h. Whether or not the vehicle is turning may be determined based on an output signal from one of the rudder angle sensor 42 and the yaw rate sensor 44, or map data of a navigation device (not shown) and the own vehicle. The determination may be made based on the relationship with the position. If the vehicle is turning within the predetermined vehicle speed range, the routine proceeds to step 114. On the other hand, if the vehicle is not turning within the predetermined vehicle speed range, the routine proceeds to step 116.

ステップ114では、映像認識部16は、同一のグループに属する各特徴点の移動ベクトルのすべてが、旋回方向に対応する所定方向に向いているか否かを判定する。所定方向は、車両に向かう方向であり、旋回方向及び車速等に応じて設定されてもよい。車両に向かう方向とは、例えばカメラ12の映像の中心に向かう方向であってよい。旋回方向は、舵角に基づいて判定されてよい。簡易的に、右旋回時は、所定方向は、左斜め45度の下方向であってよく、左旋回時は、所定方向は、右斜め45度の下方向であってよい。所定方向は、ある特定の角度である必要なく、角度範囲を持つ方向であってよい。同一のグループに属する各特徴点の移動ベクトルのすべてが、旋回方向に対応する所定方向に向いている場合は、ステップ118に進み、それ以外の場合は、ステップ116に進む。   In step 114, the video recognition unit 16 determines whether or not all the movement vectors of the feature points belonging to the same group are directed in a predetermined direction corresponding to the turning direction. The predetermined direction is a direction toward the vehicle, and may be set according to the turning direction, the vehicle speed, and the like. The direction toward the vehicle may be a direction toward the center of the image of the camera 12, for example. The turning direction may be determined based on the steering angle. For simplicity, when turning right, the predetermined direction may be 45 degrees downward diagonally to the left, and when turning left, the predetermined direction may be downward 45 degrees diagonally right. The predetermined direction does not need to be a specific angle, and may be a direction having an angle range. If all the movement vectors of the feature points belonging to the same group are directed in a predetermined direction corresponding to the turning direction, the process proceeds to step 118; otherwise, the process proceeds to step 116.

ステップ116では、映像認識部16は、各特徴点の移動ベクトルのすべてが旋回方向に対応する所定方向に向いていないグループについて、移動物に係るグループであると判定する。かかる移動物判定がなされると、映像認識部16がかかる検知結果を描画処理部18に供給して、描画処理部18がその映像認識部16からの検知結果に基づいて移動物の存在を運転者に視覚的に知らせるための処理を行うことで、モニタ20に自車両周囲に移動物が存在する旨を運転者に知らせる警告表示などの報知がなされる。尚、この映像的な報知の際には同時に、自車両周囲に移動物が存在する旨を運転者に聴覚的に知らせるための警告音やブザーなどの音響的な報知を発生させることとしてもよい。尚、ステップ116の場合、図5及び図6に示す例では、グループ72L,72R,70L,70Rのすべては、報知対象となる。   In step 116, the video recognition unit 16 determines that a group in which all of the movement vectors of each feature point are not directed in a predetermined direction corresponding to the turning direction is a group related to the moving object. When such moving object determination is made, the video recognition unit 16 supplies the detection result to the drawing processing unit 18, and the drawing processing unit 18 drives the presence of the moving object based on the detection result from the video recognition unit 16. By performing a process for visually informing the driver, a notification such as a warning display for notifying the driver that there is a moving object around the vehicle is given to the monitor 20. At the same time as this visual notification, an acoustic notification such as a warning sound or a buzzer may be generated to audibly notify the driver that there is a moving object around the host vehicle. . In the case of step 116, in the example shown in FIGS. 5 and 6, all of the groups 72L, 72R, 70L, and 70R are notification targets.

ステップ118では、映像認識部16は、各特徴点の移動ベクトルのすべてが旋回方向に対応する所定方向に向いているグループについては、移動物に係るグループでないと判定する。具体的には、映像認識部16は、各特徴点の移動ベクトルのすべてが旋回方向に対応する所定方向に向いているグループについては、周期的構造物30であると判定する。この場合、かかる周期的構造物30は、報知対象とならない。即ち、かかる非移動物判定又は周期的構造物判定がなされると、映像認識部16がかかる検知結果を描画処理部18に供給することで、描画処理部18が移動物の存在を運転者に視覚的に知らせるための処理を行わない。即ち、移動物を判定する精度が向上する。   In step 118, the video recognition unit 16 determines that the group in which all the movement vectors of each feature point are in the predetermined direction corresponding to the turning direction is not a group related to the moving object. Specifically, the video recognition unit 16 determines that the group in which all the movement vectors of the feature points are in a predetermined direction corresponding to the turning direction is the periodic structure 30. In this case, the periodic structure 30 is not a notification target. That is, when the non-moving object determination or the periodic structure determination is performed, the image recognition unit 16 supplies the detection result to the drawing processing unit 18 so that the drawing processing unit 18 informs the driver of the presence of the moving object. Do not perform processing for visual notification. That is, the accuracy of determining a moving object is improved.

ところで、移動物の一例である歩行者は、手足の動きがあるので、歩行者に係るグループ70L、70R内の各特徴点の移動ベクトルは、図5に示すように、多様な方向を向く。尚、図5では、グループ70L内の各特徴点は、右斜め下、右真横及び右斜め上の3方向の移動ベクトルを持ち、グループ70Rについても同様である。他方、周期的構造物30は、路面上の固定物であり、歩行者のような不規則な動きがないため、周期的構造物30に係る各特徴点の移動ベクトルは、図6に示すように、全てが所定方向に向く。具体的には、左旋回中は、車両の左前の側方に位置する周期的構造物30に係るグループ72Lは、各特徴点の移動ベクトルはすべて同一の右斜め下方向となる。また、右旋回中は、車両の右前の側方に位置する周期的構造物30に係るグループ72Rは、各特徴点の移動ベクトルはすべて同一の左斜め下方向となる。   By the way, since the pedestrian which is an example of a moving object has a movement of limbs, the movement vector of each feature point in the groups 70L and 70R related to the pedestrian is directed in various directions as shown in FIG. In FIG. 5, each feature point in the group 70 </ b> L has three-direction movement vectors in the lower right direction, right right side, and upper right direction, and the same applies to the group 70 </ b> R. On the other hand, since the periodic structure 30 is a fixed object on the road surface and does not have irregular movement like a pedestrian, the movement vector of each feature point related to the periodic structure 30 is as shown in FIG. In addition, everything is in a predetermined direction. Specifically, during a left turn, in the group 72L related to the periodic structure 30 located on the left front side of the vehicle, the movement vectors of the feature points are all in the same diagonally downward direction. Further, during a right turn, in the group 72R related to the periodic structure 30 located on the right front side of the vehicle, the movement vectors of the feature points are all in the same diagonally downward left direction.

従って、図4に示す処理によれば、周期的構造物30に係るグループ72R,72Lを報知対象から精度良く除外することができる。即ち、左旋回中は、車両の左前の側方に位置する周期的構造物30に係るグループ72Lは、ステップ114で肯定判定を受け、報知対象から除外される。尚、このとき、他のグループ72R,70L,70Rは、報知対象である。また、右旋回中は、車両の右前の側方に位置する周期的構造物30に係るグループ72Rは、ステップ114で肯定判定を受け、報知対象から除外される。尚、このとき、他のグループ72L,70L,70Rは、報知対象である。   Therefore, according to the process shown in FIG. 4, the groups 72R and 72L related to the periodic structure 30 can be accurately excluded from the notification target. That is, during the left turn, the group 72L related to the periodic structure 30 located on the left front side of the vehicle receives an affirmative determination in step 114 and is excluded from the notification target. At this time, the other groups 72R, 70L, and 70R are notification targets. Further, during a right turn, the group 72R related to the periodic structure 30 located on the right front side of the vehicle receives an affirmative determination in step 114 and is excluded from the notification target. At this time, the other groups 72L, 70L, and 70R are notification targets.

尚、図4に示す処理では、同一のグループに属する各特徴点の移動ベクトルのすべてが、旋回方向に対応する所定方向に向いているか否かを判定しているが、ノイズ等の影響を考慮するため、同一のグループに属する各特徴点のうちの所定数以上の特徴点の移動ベクトルが、例えば大部分の特徴点の移動ベクトルが、旋回方向に対応する所定方向に向いているか否かを判定してもよい。大部分とは、例えば、9割以上であってよい。また、各特徴点の移動ベクトルの方向の分散値を算出し、分散値が所定値以内であり、且つ、各特徴点の移動ベクトルの平均的な方向が所定方向に向いているか否かを判定してもよい。   In the process shown in FIG. 4, it is determined whether or not all the movement vectors of the feature points belonging to the same group are directed in a predetermined direction corresponding to the turning direction. Therefore, whether or not the movement vectors of a predetermined number or more of the feature points belonging to the same group are, for example, whether the movement vectors of most of the feature points are in a predetermined direction corresponding to the turning direction. You may judge. The majority may be 90% or more, for example. Also, the variance value in the direction of the movement vector of each feature point is calculated, and it is determined whether or not the variance value is within a predetermined value and the average direction of the movement vector of each feature point is in the predetermined direction. May be.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。   Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.

10 周辺監視装置
12 カメラ
14 電子制御ユニット(ECU)
16 映像認識部
20 モニタ
30 周期的構造物
10 Perimeter monitoring device 12 Camera 14 Electronic control unit (ECU)
16 Image recognition unit 20 Monitor 30 Periodic structure

Claims (3)

車両周辺を撮像するカメラと、
前記カメラにより時間的に連続して撮像して得られる各画像から複数の特定特徴点を追跡し、前記追跡した複数の特定特徴点をグルーピングし、車両が旋回中か否かの第1の判定処理を実行し、前記第1の判定処理により車両が旋回中であると判定した場合、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有するか否かの第2の判定処理を実行し、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出せず、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点が、複数の方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出する処理装置とを含む、周辺監視装置。
A camera that images the surroundings of the vehicle;
First specific determination as to whether or not the vehicle is turning by tracking a plurality of specific feature points from each image obtained by continuously capturing images with the camera in time, grouping the plurality of tracked specific feature points When the first determination process determines that the vehicle is turning, a vector in which a predetermined number or more of the plurality of specific feature points that are grouped is directed in the direction toward the vehicle. A second determination process is performed to determine whether or not a predetermined number or more of the plurality of grouped specific feature points is directed toward the vehicle as a result of the second determination process. In the case of having a vector, the objects related to the plurality of grouped specific feature points are not detected as the moving object to be notified, and as a result of the second determination process, the plurality of grouped specific feature points are If having a vector oriented in the direction, and a processing unit for detecting an object according to a plurality of specific feature points to the grouping as the movement of the notification target, the peripheral monitoring unit.
前記処理装置は、前記グルーピングした複数の特定特徴点の全てが、車両の旋回中に、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出しない、請求項1に記載の周辺監視装置。   When all of the plurality of grouped specific feature points have a vector directed in a direction toward the vehicle while the vehicle is turning, the processing device is configured to notify the grouped objects related to the plurality of specific feature points as the notification target. The periphery monitoring device according to claim 1, which is not detected as a moving object. 車両周辺を撮像するカメラにより時間的に連続して撮像して得られる各画像から複数の特定特徴点を追跡し、
前記追跡した複数の特定特徴点をグルーピングし、
車両が旋回中か否かの第1の判定処理を実行し、
前記第1の判定処理により車両が旋回中であると判定した場合、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有するか否かの第2の判定処理を実行し、
前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出せず、
前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点が、複数の方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出することを含む、周辺監視方法。
Tracking a plurality of specific feature points from each image obtained by continuously capturing images with a camera that captures the periphery of the vehicle,
Grouping the plurality of specific feature points tracked;
Performing a first determination process as to whether or not the vehicle is turning,
If it is determined by the first determination process that the vehicle is turning, whether or not a predetermined number or more of the plurality of grouped specific feature points has a vector directed in the direction toward the vehicle. The second determination process of
As a result of the second determination process, when a predetermined number or more of the plurality of grouped specific feature points has a vector directed in the direction toward the vehicle, the grouped specific feature points Without detecting the object as the moving object to be notified,
As a result of the second determination processing, when the plurality of grouped specific feature points have vectors directed in a plurality of directions, the objects related to the plurality of grouped specific feature points are detected as moving objects to be notified. Peripheral monitoring method including.
JP2014034496A 2014-02-25 2014-02-25 Perimeter monitoring apparatus and method Active JP6201809B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014034496A JP6201809B2 (en) 2014-02-25 2014-02-25 Perimeter monitoring apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014034496A JP6201809B2 (en) 2014-02-25 2014-02-25 Perimeter monitoring apparatus and method

Publications (2)

Publication Number Publication Date
JP2015158874A true JP2015158874A (en) 2015-09-03
JP6201809B2 JP6201809B2 (en) 2017-09-27

Family

ID=54182796

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014034496A Active JP6201809B2 (en) 2014-02-25 2014-02-25 Perimeter monitoring apparatus and method

Country Status (1)

Country Link
JP (1) JP6201809B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084067A (en) * 2015-10-27 2017-05-18 富士通テン株式会社 Image processing apparatus and image processing method
US20200363213A1 (en) * 2019-05-15 2020-11-19 Polaris3D Co., Ltd. Localization system, transportation device having the same, and computing device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282655A (en) * 1993-03-30 1994-10-07 Toyota Motor Corp Device for recognizing moving object
JP2005276057A (en) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp Nose view monitoring device
JP2013205925A (en) * 2012-03-27 2013-10-07 Fuji Heavy Ind Ltd Vehicle exterior environment recognition device, and vehicle exterior environment recognition method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282655A (en) * 1993-03-30 1994-10-07 Toyota Motor Corp Device for recognizing moving object
JP2005276057A (en) * 2004-03-26 2005-10-06 Mitsubishi Motors Corp Nose view monitoring device
JP2013205925A (en) * 2012-03-27 2013-10-07 Fuji Heavy Ind Ltd Vehicle exterior environment recognition device, and vehicle exterior environment recognition method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017084067A (en) * 2015-10-27 2017-05-18 富士通テン株式会社 Image processing apparatus and image processing method
CN107038693A (en) * 2015-10-27 2017-08-11 富士通天株式会社 Image processing equipment and image processing method
US20200363213A1 (en) * 2019-05-15 2020-11-19 Polaris3D Co., Ltd. Localization system, transportation device having the same, and computing device

Also Published As

Publication number Publication date
JP6201809B2 (en) 2017-09-27

Similar Documents

Publication Publication Date Title
US10796171B2 (en) Object recognition apparatus, object recognition method, and object recognition program
US9789820B2 (en) Object detection apparatus
EP3026885B1 (en) Dirty lens detection device and dirty lens detection method
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
CN108162858B (en) Vehicle-mounted monitoring device and method thereof
JP2010039634A (en) Image processor
JP5187292B2 (en) Vehicle periphery monitoring device
JP4528283B2 (en) Vehicle periphery monitoring device
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
JP5418661B2 (en) Vehicle periphery monitoring device
CN107004250B (en) Image generation device and image generation method
JP2011048520A (en) Device and method for monitoring vehicle periphery
JP2011070593A (en) Vehicle periphery monitoring device
JP2016192177A (en) Vehicle detection system, vehicle detection device, vehicle detection method and vehicle detection program
JP2013210942A (en) Detection device and detection method
WO2010007718A1 (en) Vehicle vicinity monitoring device
JP5491242B2 (en) Vehicle periphery monitoring device
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP6201809B2 (en) Perimeter monitoring apparatus and method
JP2008004989A (en) Vehicle perimeter display apparatus
JP2017215743A (en) Image processing device, and external world recognition device
KR101729030B1 (en) Apparatus and method for warning a dangerous element of surrounding of vehicle
JP5541099B2 (en) Road marking line recognition device
JP2012256159A (en) Approaching object detecting device and method for detecting approaching object
JP4321410B2 (en) Object detection apparatus and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170814

R151 Written notification of patent or utility model registration

Ref document number: 6201809

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151