JP2015158874A - Perimeter monitoring apparatus and perimeter monitoring method - Google Patents
Perimeter monitoring apparatus and perimeter monitoring method Download PDFInfo
- Publication number
- JP2015158874A JP2015158874A JP2014034496A JP2014034496A JP2015158874A JP 2015158874 A JP2015158874 A JP 2015158874A JP 2014034496 A JP2014034496 A JP 2014034496A JP 2014034496 A JP2014034496 A JP 2014034496A JP 2015158874 A JP2015158874 A JP 2015158874A
- Authority
- JP
- Japan
- Prior art keywords
- feature points
- vehicle
- specific feature
- grouped
- determination process
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、周辺監視装置及び方法に関する。 The present invention relates to a periphery monitoring apparatus and method.
車両が右旋回している場合には、右側方領域の画面上のフローベクトルを参照せず、左旋回している場合には、左側方領域の画面上のフローベクトルを参照しないノーズビューモニタ装置が知られている(例えば、特許文献1参照)。 When the vehicle is turning right, the nose view monitor device that does not refer to the flow vector on the screen in the right side area and does not refer to the flow vector on the screen in the left side area when the vehicle is turning left. It is known (see, for example, Patent Document 1).
しかしながら、上記の特許文献1に記載の構成では、旋回方向に係る側方領域の画面上のフローベクトルが一律に参照されないので、旋回方向に係る側方領域に移動物が存在する場合には、移動物を判定する精度が低下する可能性がある。 However, in the configuration described in Patent Document 1 above, the flow vector on the screen of the side area related to the turning direction is not uniformly referenced, so when there is a moving object in the side area related to the turning direction, There is a possibility that the accuracy of determining a moving object is lowered.
本発明は、移動物を判定する精度を向上させた周辺監視装置及び方法を提供する。 The present invention provides a periphery monitoring apparatus and method with improved accuracy in determining a moving object.
本発明の一態様に係る周辺監視装置は、車両周辺を撮像するカメラと、
前記カメラにより時間的に連続して撮像して得られる各画像から複数の特定特徴点を追跡し、前記追跡した複数の特定特徴点をグルーピングし、車両が旋回中か否かの第1の判定処理を実行し、前記第1の判定処理により車両が旋回中であると判定した場合、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有するか否かの第2の判定処理を実行し、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出せず、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点が、複数の方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出する処理装置とを含む。
A periphery monitoring device according to an aspect of the present invention includes a camera that captures an image of the periphery of a vehicle,
First specific determination as to whether or not the vehicle is turning by tracking a plurality of specific feature points from each image obtained by continuously capturing images with the camera in time, grouping the plurality of tracked specific feature points When the first determination process determines that the vehicle is turning, a vector in which a predetermined number or more of the plurality of specific feature points that are grouped is directed in the direction toward the vehicle. A second determination process is performed to determine whether or not a predetermined number or more of the plurality of grouped specific feature points is directed toward the vehicle as a result of the second determination process. In the case of having a vector, the objects related to the plurality of grouped specific feature points are not detected as the moving object to be notified, and as a result of the second determination process, the plurality of grouped specific feature points are If having a vector oriented in the direction, and a processing unit for detecting an object according to a plurality of specific feature points to the grouping as the movement of the notification object.
本発明によれば、移動物を判定する精度を向上させた周辺監視装置及び方法が得られる。 According to the present invention, it is possible to obtain a periphery monitoring apparatus and method with improved accuracy for determining a moving object.
以下、添付図面を参照しながら各実施例について詳細に説明する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
図1は、本発明の一実施例である周辺監視装置10の構成図を示す。本実施例の周辺監視装置10は、例えば車両に搭載された、その車両の周辺を監視する装置であって、その車両周辺に存在する障害物を検知する。車両の周辺とは、例えば、その車両の運転者にとって死角となる領域である。また、障害物とは、例えば、自車両に対して移動する他車両や人などの移動物である。
FIG. 1 shows a configuration diagram of a
図1に示す如く、周辺監視装置10は、車両周辺を撮影するカメラ12を備えている。カメラ12は、比較的広角のレンズ或いは魚眼レンズを有している。カメラ12は、車体前部のバンパやグリル又は車体後部のスポイラー下部やバックガラス下方などに配設されている。カメラ12は、車体前方又は車体後方かつ斜め下方に指向されており、特に車両運転者にとって死角となる位置を含めた予め定められた所定範囲内を撮影することが可能である。カメラ12は、その所定範囲を予め定められたピクセルで撮影するデジタルカメラである。
As shown in FIG. 1, the
周辺監視装置10は、マイクロコンピュータを主体に構成された電子制御ユニット(以下、ECUと称す。)14を備えている。ECU14には、上記のカメラ12が接続されている。カメラ12の撮影した映像情報は、画像処理を行うECU14に供給される。ECU14は、カメラ12の映像情報が入力される映像認識部16を有している。映像認識部16は、後に詳述する如く、カメラ12から供給される車両周辺が撮影された映像をオプティカルフロー法に基づいて画像認識することにより少なくとも移動物を検知する。
The
ECU14は、映像認識部16での検知結果が入力される画像描画処理部18を有している。画像描画処理部18には、車室内に設けられたモニタ20が接続されている。モニタ20は、車両運転者が視認可能な例えばコンソールパネルやマルチインフォメーションディスプレイなどに配置されている。画像描画処理部18は、映像認識部16からの検知結果に基づいて、モニタ20に描く画像やモニタ20に表示する警告等の報知を行う。
The
例えば、画像描画処理部18は、カメラ12の撮影した映像の画像処理を施す。例えば、その映像の特定箇所を切り出し或いはその映像の歪補正を実行する。画像描画処理部18は、映像認識部16による検知結果をカメラ12の撮影した映像に重畳表示させる。例えば、その検知結果に基づく移動物の自車両への接近方向を表示させ或いはその移動物を強調して表示させる。画像描画処理部18は、車両運転者によるユーザ設定に従った表示を行わせる。例えば、検知状況を知らせる表示方法や対象物の選択に従った表示を行わせる。モニタ20は、画像描画処理部18からの表示指令に従った表示を行う。
For example, the image
ECU14には、車速センサ40、舵角センサ42、及び、ヨーレートセンサ44が接続される。
A
図2は、本実施例の周辺監視装置10においてカメラ12が撮影した映像の中で設定される移動物検知のための検知エリアの一例を表した図を示す。図3は、本実施例の周辺監視装置10において、路面上の側溝を塞ぐための周期的模様が繰り返される網目状の構造物30(以下、「周期的構造物30」という)がカメラ映像32内に含まれる場合を示す。周期的構造物30は、例えばグレーチングである。また、図4は、本実施例の周辺監視装置10においてECU14の映像認識部16が実行する制御ルーチンの一例のフローチャートを示す。図5及び図6は、同一のグループにグルーピングされた特徴点のベクトルの例を示す図であり、図5は、移動物の特徴点の場合を示し、図6は、周期的構造物30の場合を示す。移動物は、例えば歩行者である。図5及び図6において、黒丸部分は、特徴点の集合を概念的に表す。
FIG. 2 is a diagram illustrating an example of a detection area for detecting a moving object set in an image captured by the
以下、図4のフローチャートに従って説明する。 Hereinafter, description will be given with reference to the flowchart of FIG.
本実施例において、ECU14の映像認識部16には、カメラ12が撮影して供給した映像情報が入力される(ステップ100)。映像認識部16は、カメラ12からの映像情報が入力されると、以下の如く、そのカメラ12からの映像をオプティカルフロー法に基づいて画像認識する。尚、映像認識部16による上記の画像認識は、所定時間ごとに繰り返し行われる。また、映像認識部16による上記の画像認識は、時間的に連続する異なるタイミングで得られる複数の映像それぞれに対して行われる。
In this embodiment, the video information captured and supplied by the
次に、映像認識部16は、映像の画像認識を行ううえで、まず、入力された映像の中で移動物検知のために処理が必要な検知エリアを設定する(ステップ102)。例えば図2に示す如く、入力された映像の中で、そのX−Y座標上、点(X_L1,Y_L1)と、点(X_L2,Y_L1)と、点(X_L1,Y_L2)と、点(X_L2,Y_L2)と、で囲まれる領域L、及び、点(X_R1,Y_R1)と、点(X_R2,Y_R1)と、点(X_R1,Y_R2)と、点(X_R2,Y_R2)と、で囲まれる領域Rの2つの領域を、検知エリアとして設定する。
Next, when performing video image recognition, the
尚、この設定される検知エリアは、カメラ12が撮影した映像の全領域でもよい。またこの設定される検知エリアは、画像処理の迅速化や効率化等を考慮して、一の映像の全領域の中で自車両の車体が映り込んだ領域を除く一部の領域だけであってもよい。自車両の車体が映り込んだ領域とは、例えばバンパなどが映り込んだ領域である。また、この検知エリアは、カメラ12の指向性や運転者の死角などに基づいて予め定めてもよい。また、検知エリアが映像全領域のうちの一部に限られる場合は、その検知エリアは、例えば、その検知エリアに障害物が存在すれば自車両の走行に与える影響が比較的大きくなる、映像内で自車両に近接する位置が映し出された手前の領域や映像内で自車移動時に中央側に寄る位置が映し出される左右端部の領域を含むものであってもよい。自車移動時とは、例えば旋回時である。
The detection area to be set may be the entire area of the video captured by the
映像認識部16は、入力された映像の全領域のうち上記の如く設定した検知エリアの画像をノイズ除去フィルタを用いて平準化することにより、その検知エリアの画像からノイズを除去する(ステップ104)。そして、その平準化された検知エリアの画像に対してエッジ抽出フィルタを用いてエッジ抽出を行うことにより、その検知エリアの画像から特徴点を抽出する(ステップ106)。
The
次に、映像認識部16は、上記ステップ106で特徴点を抽出した映像を含む時間的に連続する複数の映像を用いて、上記ステップ106で抽出した特徴点の近傍エリアを対象として、予め定めた所定速度範囲の速さで移動する特徴点を特定し、追跡する(ステップ108)。尚、追跡とは、時系列で順次得られる映像内の同一の特徴点を特定することを意味する。所定速度範囲の上限値は、車速に応じて可変されてよい。具体的には、上記ステップ106で抽出した特徴点に対して過去の映像から抽出した同一対象を構成する特徴点をマッチングさせたうえで、それらの各特徴点の座標上の位置の差に基づいて同一対象を構成する特徴点の移動ベクトル量を測定し、所定速度範囲の速さで移動する特徴点を抽出する。追跡できた回数が所定回数(以下、特徴点追跡回数閾値)を超えた特徴点が、次のステップ110におけるグルーピング対象の特徴点となる。追跡できた回数は、例えばカメラ12の映像のフレーム数でカウントされてもよい。
Next, the
なお、特徴点追跡回数閾値は、特徴点の移動ベクトルの向きに無関係に固定であってもよい。また、特徴点追跡回数閾値は、特徴点の移動ベクトルの向きに応じて可変されてもよい。この場合、特徴点追跡回数閾値は、特徴点の移動ベクトルの向きが所定方向であるとき、他の方向である場合に比べて大きく設定されてよい。これにより、周期的構造物30のような路面上の固定物に係る特徴点がグルーピング可能となるタイミングを遅らせることができる。所定方向は、周期的構造物30のような路面上の固定物に係る特徴点が画像内を流れる方向に対応し、車両の舵角に応じて設定されてよい。
Note that the feature point tracking number threshold may be fixed regardless of the direction of the movement vector of the feature point. Also, the feature point tracking number threshold may be varied according to the direction of the feature point movement vector. In this case, the feature point tracking frequency threshold may be set larger when the direction of the movement vector of the feature point is the predetermined direction than when the direction is the other direction. As a result, the timing at which the feature points related to the fixed object on the road surface such as the
上記ステップ108の処理後、映像認識部16は、カメラ映像の検知エリアの全領域内で上記の如く追跡した所定速度範囲の速さで移動する特徴点のうち同一移動物を構成すると推定される特徴点を一つに纏めてグルーピングし、追跡する(ステップ110)。尚、追跡とは、時系列で順次得られる映像内の同一のグルーピングした各特徴点を特定することを意味する。グルーピングした各特徴点を追跡できた回数(カメラ12の映像のフレーム数)が所定回数(以下、グルーピング追跡回数閾値)を超えたグループに係る特徴点が、報知対象のグループ(特徴点)となる。
After the processing of
なお、グルーピング追跡回数閾値は、特徴点の移動ベクトルの向きに無関係に固定であってもよい。また、グルーピング追跡回数閾値は、特徴点の移動ベクトルの向きに応じて可変されてもよい。この場合、グルーピング追跡回数閾値は、特徴点の移動ベクトルの向きが所定方向であるとき、他の方向である場合に比べて大きく設定されてよい。これにより、周期的構造物30のような路面上の固定物に係る特徴点が、後述のステップ118にて仮に除外されない場合であっても、報知されるタイミングを遅らせることができる。所定方向は、周期的構造物30のような路面上の固定物に係る特徴点が画像内を流れる方向に対応し、車両の舵角に応じて設定されてよい。
The grouping tracking number threshold may be fixed regardless of the direction of the movement vector of the feature points. Further, the grouping tracking number threshold may be varied in accordance with the direction of the feature point movement vector. In this case, the grouping tracking number threshold may be set larger when the direction of the movement vector of the feature point is the predetermined direction than when the direction is the other direction. Thereby, even if the feature point which concerns on the fixed object on the road surface like the
グルーピングは、カメラ映像中の検知エリア内の全ピクセルのうち所定速度範囲の速さで移動する特徴点が密集する映像領域が形成されるように行われる。この映像領域とは、例えば、その特徴点が所定幅当たり所定数以上ある映像領域或いはその特徴点の密度が所定密度以上である映像領域などである。また、上記の如くグルーピングにより形成される映像領域は、例えば長方形状や正方形状などのカメラ映像上で予め定められた形状に限定されるものとしてもよい。また、カメラ映像の検知エリアの全領域内で行われるグルーピングは二以上の領域に分かれることとしてもよく、例えば移動物が複数離れて存在すれば、その移動物ごとにグルーピングが行われることとなる。即ち、グループが複数形成される。 The grouping is performed so that an image area where feature points moving at a speed in a predetermined speed range among all the pixels in the detection area in the camera image are densely formed is formed. The video region is, for example, a video region having a predetermined number or more of feature points per predetermined width or a video region having a density of feature points or more of a predetermined density. In addition, the image area formed by grouping as described above may be limited to a predetermined shape on a camera image such as a rectangular shape or a square shape. Further, the grouping performed in the entire area of the camera video detection area may be divided into two or more areas. For example, if a plurality of moving objects exist apart, grouping is performed for each moving object. . That is, a plurality of groups are formed.
そして、映像認識部16は、上記ステップ110の処理後、車速センサ40、舵角センサ42、及び、ヨーレートセンサ44からの出力信号に基づいて、車両が所定車速範囲内で旋回中であるか否かを判定する(ステップ112)。所定車速範囲は、0よりも大きい低速範囲であり、例えば0〜8km/hの範囲であってよい。尚、旋回中であるか否かは、舵角センサ42及びヨーレートセンサ44のいずれか一方からの出力信号に基づいて判定されてもよいし、ナビゲーション装置(図示せず)の地図データと自車位置との関係に基づいて判定されてもよい。車両が所定車速範囲内で旋回中である場合は、ステップ114に進む。他方、車両が所定車速範囲内で旋回中でない場合は、ステップ116に進む。
Then, the
ステップ114では、映像認識部16は、同一のグループに属する各特徴点の移動ベクトルのすべてが、旋回方向に対応する所定方向に向いているか否かを判定する。所定方向は、車両に向かう方向であり、旋回方向及び車速等に応じて設定されてもよい。車両に向かう方向とは、例えばカメラ12の映像の中心に向かう方向であってよい。旋回方向は、舵角に基づいて判定されてよい。簡易的に、右旋回時は、所定方向は、左斜め45度の下方向であってよく、左旋回時は、所定方向は、右斜め45度の下方向であってよい。所定方向は、ある特定の角度である必要なく、角度範囲を持つ方向であってよい。同一のグループに属する各特徴点の移動ベクトルのすべてが、旋回方向に対応する所定方向に向いている場合は、ステップ118に進み、それ以外の場合は、ステップ116に進む。
In
ステップ116では、映像認識部16は、各特徴点の移動ベクトルのすべてが旋回方向に対応する所定方向に向いていないグループについて、移動物に係るグループであると判定する。かかる移動物判定がなされると、映像認識部16がかかる検知結果を描画処理部18に供給して、描画処理部18がその映像認識部16からの検知結果に基づいて移動物の存在を運転者に視覚的に知らせるための処理を行うことで、モニタ20に自車両周囲に移動物が存在する旨を運転者に知らせる警告表示などの報知がなされる。尚、この映像的な報知の際には同時に、自車両周囲に移動物が存在する旨を運転者に聴覚的に知らせるための警告音やブザーなどの音響的な報知を発生させることとしてもよい。尚、ステップ116の場合、図5及び図6に示す例では、グループ72L,72R,70L,70Rのすべては、報知対象となる。
In
ステップ118では、映像認識部16は、各特徴点の移動ベクトルのすべてが旋回方向に対応する所定方向に向いているグループについては、移動物に係るグループでないと判定する。具体的には、映像認識部16は、各特徴点の移動ベクトルのすべてが旋回方向に対応する所定方向に向いているグループについては、周期的構造物30であると判定する。この場合、かかる周期的構造物30は、報知対象とならない。即ち、かかる非移動物判定又は周期的構造物判定がなされると、映像認識部16がかかる検知結果を描画処理部18に供給することで、描画処理部18が移動物の存在を運転者に視覚的に知らせるための処理を行わない。即ち、移動物を判定する精度が向上する。
In
ところで、移動物の一例である歩行者は、手足の動きがあるので、歩行者に係るグループ70L、70R内の各特徴点の移動ベクトルは、図5に示すように、多様な方向を向く。尚、図5では、グループ70L内の各特徴点は、右斜め下、右真横及び右斜め上の3方向の移動ベクトルを持ち、グループ70Rについても同様である。他方、周期的構造物30は、路面上の固定物であり、歩行者のような不規則な動きがないため、周期的構造物30に係る各特徴点の移動ベクトルは、図6に示すように、全てが所定方向に向く。具体的には、左旋回中は、車両の左前の側方に位置する周期的構造物30に係るグループ72Lは、各特徴点の移動ベクトルはすべて同一の右斜め下方向となる。また、右旋回中は、車両の右前の側方に位置する周期的構造物30に係るグループ72Rは、各特徴点の移動ベクトルはすべて同一の左斜め下方向となる。
By the way, since the pedestrian which is an example of a moving object has a movement of limbs, the movement vector of each feature point in the
従って、図4に示す処理によれば、周期的構造物30に係るグループ72R,72Lを報知対象から精度良く除外することができる。即ち、左旋回中は、車両の左前の側方に位置する周期的構造物30に係るグループ72Lは、ステップ114で肯定判定を受け、報知対象から除外される。尚、このとき、他のグループ72R,70L,70Rは、報知対象である。また、右旋回中は、車両の右前の側方に位置する周期的構造物30に係るグループ72Rは、ステップ114で肯定判定を受け、報知対象から除外される。尚、このとき、他のグループ72L,70L,70Rは、報知対象である。
Therefore, according to the process shown in FIG. 4, the
尚、図4に示す処理では、同一のグループに属する各特徴点の移動ベクトルのすべてが、旋回方向に対応する所定方向に向いているか否かを判定しているが、ノイズ等の影響を考慮するため、同一のグループに属する各特徴点のうちの所定数以上の特徴点の移動ベクトルが、例えば大部分の特徴点の移動ベクトルが、旋回方向に対応する所定方向に向いているか否かを判定してもよい。大部分とは、例えば、9割以上であってよい。また、各特徴点の移動ベクトルの方向の分散値を算出し、分散値が所定値以内であり、且つ、各特徴点の移動ベクトルの平均的な方向が所定方向に向いているか否かを判定してもよい。 In the process shown in FIG. 4, it is determined whether or not all the movement vectors of the feature points belonging to the same group are directed in a predetermined direction corresponding to the turning direction. Therefore, whether or not the movement vectors of a predetermined number or more of the feature points belonging to the same group are, for example, whether the movement vectors of most of the feature points are in a predetermined direction corresponding to the turning direction. You may judge. The majority may be 90% or more, for example. Also, the variance value in the direction of the movement vector of each feature point is calculated, and it is determined whether or not the variance value is within a predetermined value and the average direction of the movement vector of each feature point is in the predetermined direction. May be.
以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素を全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes can be made within the scope described in the claims. It is also possible to combine all or a plurality of the components of the above-described embodiments.
10 周辺監視装置
12 カメラ
14 電子制御ユニット(ECU)
16 映像認識部
20 モニタ
30 周期的構造物
10
16
Claims (3)
前記カメラにより時間的に連続して撮像して得られる各画像から複数の特定特徴点を追跡し、前記追跡した複数の特定特徴点をグルーピングし、車両が旋回中か否かの第1の判定処理を実行し、前記第1の判定処理により車両が旋回中であると判定した場合、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有するか否かの第2の判定処理を実行し、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出せず、前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点が、複数の方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出する処理装置とを含む、周辺監視装置。 A camera that images the surroundings of the vehicle;
First specific determination as to whether or not the vehicle is turning by tracking a plurality of specific feature points from each image obtained by continuously capturing images with the camera in time, grouping the plurality of tracked specific feature points When the first determination process determines that the vehicle is turning, a vector in which a predetermined number or more of the plurality of specific feature points that are grouped is directed in the direction toward the vehicle. A second determination process is performed to determine whether or not a predetermined number or more of the plurality of grouped specific feature points is directed toward the vehicle as a result of the second determination process. In the case of having a vector, the objects related to the plurality of grouped specific feature points are not detected as the moving object to be notified, and as a result of the second determination process, the plurality of grouped specific feature points are If having a vector oriented in the direction, and a processing unit for detecting an object according to a plurality of specific feature points to the grouping as the movement of the notification target, the peripheral monitoring unit.
前記追跡した複数の特定特徴点をグルーピングし、
車両が旋回中か否かの第1の判定処理を実行し、
前記第1の判定処理により車両が旋回中であると判定した場合、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有するか否かの第2の判定処理を実行し、
前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点のうちの所定数以上の特定特徴点が、車両に向かう方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出せず、
前記第2の判定処理の結果、前記グルーピングした複数の特定特徴点が、複数の方向に向くベクトルを有する場合は、前記グルーピングした複数の特定特徴点に係る物体を前記報知対象の移動物として検出することを含む、周辺監視方法。 Tracking a plurality of specific feature points from each image obtained by continuously capturing images with a camera that captures the periphery of the vehicle,
Grouping the plurality of specific feature points tracked;
Performing a first determination process as to whether or not the vehicle is turning,
If it is determined by the first determination process that the vehicle is turning, whether or not a predetermined number or more of the plurality of grouped specific feature points has a vector directed in the direction toward the vehicle. The second determination process of
As a result of the second determination process, when a predetermined number or more of the plurality of grouped specific feature points has a vector directed in the direction toward the vehicle, the grouped specific feature points Without detecting the object as the moving object to be notified,
As a result of the second determination processing, when the plurality of grouped specific feature points have vectors directed in a plurality of directions, the objects related to the plurality of grouped specific feature points are detected as moving objects to be notified. Peripheral monitoring method including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014034496A JP6201809B2 (en) | 2014-02-25 | 2014-02-25 | Perimeter monitoring apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014034496A JP6201809B2 (en) | 2014-02-25 | 2014-02-25 | Perimeter monitoring apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015158874A true JP2015158874A (en) | 2015-09-03 |
JP6201809B2 JP6201809B2 (en) | 2017-09-27 |
Family
ID=54182796
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014034496A Active JP6201809B2 (en) | 2014-02-25 | 2014-02-25 | Perimeter monitoring apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6201809B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017084067A (en) * | 2015-10-27 | 2017-05-18 | 富士通テン株式会社 | Image processing apparatus and image processing method |
US20200363213A1 (en) * | 2019-05-15 | 2020-11-19 | Polaris3D Co., Ltd. | Localization system, transportation device having the same, and computing device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06282655A (en) * | 1993-03-30 | 1994-10-07 | Toyota Motor Corp | Device for recognizing moving object |
JP2005276057A (en) * | 2004-03-26 | 2005-10-06 | Mitsubishi Motors Corp | Nose view monitoring device |
JP2013205925A (en) * | 2012-03-27 | 2013-10-07 | Fuji Heavy Ind Ltd | Vehicle exterior environment recognition device, and vehicle exterior environment recognition method |
-
2014
- 2014-02-25 JP JP2014034496A patent/JP6201809B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06282655A (en) * | 1993-03-30 | 1994-10-07 | Toyota Motor Corp | Device for recognizing moving object |
JP2005276057A (en) * | 2004-03-26 | 2005-10-06 | Mitsubishi Motors Corp | Nose view monitoring device |
JP2013205925A (en) * | 2012-03-27 | 2013-10-07 | Fuji Heavy Ind Ltd | Vehicle exterior environment recognition device, and vehicle exterior environment recognition method |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017084067A (en) * | 2015-10-27 | 2017-05-18 | 富士通テン株式会社 | Image processing apparatus and image processing method |
CN107038693A (en) * | 2015-10-27 | 2017-08-11 | 富士通天株式会社 | Image processing equipment and image processing method |
US20200363213A1 (en) * | 2019-05-15 | 2020-11-19 | Polaris3D Co., Ltd. | Localization system, transportation device having the same, and computing device |
Also Published As
Publication number | Publication date |
---|---|
JP6201809B2 (en) | 2017-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10796171B2 (en) | Object recognition apparatus, object recognition method, and object recognition program | |
US9789820B2 (en) | Object detection apparatus | |
EP3026885B1 (en) | Dirty lens detection device and dirty lens detection method | |
US20130286205A1 (en) | Approaching object detection device and method for detecting approaching objects | |
CN108162858B (en) | Vehicle-mounted monitoring device and method thereof | |
JP2010039634A (en) | Image processor | |
JP5187292B2 (en) | Vehicle periphery monitoring device | |
JP4528283B2 (en) | Vehicle periphery monitoring device | |
US20180114078A1 (en) | Vehicle detection device, vehicle detection system, and vehicle detection method | |
JP5418661B2 (en) | Vehicle periphery monitoring device | |
CN107004250B (en) | Image generation device and image generation method | |
JP2011048520A (en) | Device and method for monitoring vehicle periphery | |
JP2011070593A (en) | Vehicle periphery monitoring device | |
JP2016192177A (en) | Vehicle detection system, vehicle detection device, vehicle detection method and vehicle detection program | |
JP2013210942A (en) | Detection device and detection method | |
WO2010007718A1 (en) | Vehicle vicinity monitoring device | |
JP5491242B2 (en) | Vehicle periphery monitoring device | |
JP2012252501A (en) | Traveling path recognition device and traveling path recognition program | |
JP6201809B2 (en) | Perimeter monitoring apparatus and method | |
JP2008004989A (en) | Vehicle perimeter display apparatus | |
JP2017215743A (en) | Image processing device, and external world recognition device | |
KR101729030B1 (en) | Apparatus and method for warning a dangerous element of surrounding of vehicle | |
JP5541099B2 (en) | Road marking line recognition device | |
JP2012256159A (en) | Approaching object detecting device and method for detecting approaching object | |
JP4321410B2 (en) | Object detection apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160309 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170801 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170814 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6201809 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |