JP2017142661A - Vehicle periphery monitoring system and computer program - Google Patents
Vehicle periphery monitoring system and computer program Download PDFInfo
- Publication number
- JP2017142661A JP2017142661A JP2016023619A JP2016023619A JP2017142661A JP 2017142661 A JP2017142661 A JP 2017142661A JP 2016023619 A JP2016023619 A JP 2016023619A JP 2016023619 A JP2016023619 A JP 2016023619A JP 2017142661 A JP2017142661 A JP 2017142661A
- Authority
- JP
- Japan
- Prior art keywords
- condition
- feature points
- edge image
- feature point
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims description 17
- 238000004590 computer program Methods 0.000 title claims description 7
- 230000003287 optical effect Effects 0.000 claims abstract description 33
- 230000007717 exclusion Effects 0.000 claims abstract description 27
- 238000004364 calculation method Methods 0.000 claims abstract description 22
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 38
- 238000003384 imaging method Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract description 5
- 239000011449 brick Substances 0.000 description 12
- 238000001514 detection method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は車両周辺監視システム及びコンピュータプログラムに関する。 The present invention relates to a vehicle periphery monitoring system and a computer program.
車両周辺の例えば歩行者や他車両等の物体を移動体として検知する手法としてオプティカルフロー(即ち物体の移動ベクトル)を算出する手法がある。オプティカルフローを算出する手法では、カメラにより撮影された画像の前後のフレームから特徴点の類似性を求めて位置を比較し、前後のフレームで同形であり且つ位置が変化している物体を移動体として検知する。ところが、撮影環境によっては静止体と移動体との区別が困難となる場合がある。例えば特許文献1には、カメラにより撮影された通常画像のオプティカルフローを算出し、通常画像を視点変換した俯瞰画像のオプティカルフローを算出することで、背景と静止体と移動体とを区別する手法が開示されている。
As a technique for detecting an object such as a pedestrian or another vehicle around the vehicle as a moving body, there is a technique for calculating an optical flow (that is, a movement vector of the object). In the method of calculating the optical flow, the similarity of the feature points is obtained from the frames before and after the image taken by the camera, the positions are compared, and an object having the same shape and the position changing in the frames before and after is moved. Detect as. However, depending on the shooting environment, it may be difficult to distinguish between a stationary object and a moving object. For example,
しかしながら、特許文献1に開示されている手法では、背景に例えばレンガ壁等の同形連続パターンが含まれていると、前後のフレームで類似の特徴点を多数抽出し、その類似の特徴点を含む領域を移動体として誤検知してしまう可能性がある。そして、背景の一部の領域を移動体として誤検知してしまうと、例えば歩行者や他車両等の移動体を検知する精度が低下する問題がある。
However, in the method disclosed in
本発明は、上記した事情に鑑みてなされたものであり、その目的は、背景の一部の領域を移動体として誤検知してしまう可能性を低減し、移動体を適切に検知することができる車両周辺監視システム及びコンピュータプログラムを提供することにある。 The present invention has been made in view of the above-described circumstances, and the object thereof is to reduce the possibility of misdetecting a partial region of the background as a moving object, and to appropriately detect the moving object. An object is to provide a vehicle periphery monitoring system and a computer program.
請求項1に記載した発明によれば、画像取得部(6a)は、車両周辺を撮影する撮影部(3)により撮影された画像を取得する。エッジ画像取得部(6b)は、画像からエッジ画像を取得する。特徴点抽出部(6c)は、エッジ画像の特徴点を抽出する。距離算出部(6d)は、第1の所定方向の特徴点間の距離を算出する。条件判定部(6e)は、第1の所定方向の特徴点間の距離が他と同一となる対が第1の所定方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が第2の所定方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する。特徴点除外部(6f)は、第1の条件と第2の条件との両方を満たす特徴点を除外対象としてエッジ画像から除外する。オプティカルフロー算出部(6g)は、除外対象の特徴点が除外されたエッジ画像を用いてオプティカルフローを算出する。 According to the first aspect of the present invention, the image acquisition unit (6a) acquires an image photographed by the photographing unit (3) for photographing the periphery of the vehicle. The edge image acquisition unit (6b) acquires an edge image from the image. The feature point extraction unit (6c) extracts feature points of the edge image. The distance calculation unit (6d) calculates the distance between the feature points in the first predetermined direction. The condition determining unit (6e) satisfies a first condition in which a pair in which the distance between feature points in the first predetermined direction is the same as the other satisfies the first condition in which the first predetermined number is greater than or equal to the first predetermined direction. It is determined whether or not there is a feature point satisfying the second condition in which the group satisfying the condition of 1 satisfies a second predetermined number or more in the second predetermined direction. The feature point exclusion unit (6f) excludes feature points that satisfy both the first condition and the second condition from the edge image as exclusion targets. The optical flow calculation unit (6g) calculates an optical flow using the edge image from which the feature points to be excluded are excluded.
第1の条件と第2の条件との両方を満たす特徴点を除外対象としてエッジ画像から除外し、その除外対象の特徴点を除外したエッジ画像を用いてオプティカルフローを算出するようにした。背景に例えばレンガ壁等の同形連続パターンが含まれており、前後のフレームで類似の特徴点を多数抽出する場合でも、除外対象の特徴点をエッジ画像から除外してオプティカルフローを算出することで、背景の一部の領域を移動体として誤検知してしまう可能性を低減することができる。これにより、例えば歩行者や他車両等の移動体を適切に検知することができる。 A feature point that satisfies both the first condition and the second condition is excluded from the edge image as an exclusion target, and the optical flow is calculated using the edge image from which the feature point to be excluded is excluded. The background contains an isomorphic continuous pattern such as a brick wall, and even if many similar feature points are extracted in the previous and subsequent frames, the optical flow is calculated by excluding the feature points to be excluded from the edge image. The possibility of erroneous detection of a partial area of the background as a moving object can be reduced. Thereby, moving bodies, such as a pedestrian and another vehicle, can be detected appropriately, for example.
以下、本発明の一実施形態について図面を参照して説明する。車両周辺監視システム1は、車両用装置2と、カメラ3(撮影部に相当する)と、表示デバイス4と、報知デバイス5(報知部に相当する)とを有する。カメラ3は、車体後部に配置され、車両周辺として車両後方を撮影視野(即ち画角)とするカメラであり、例えばシフト位置が後退位置に移動されたことを条件として撮影動作を開始する。即ち、カメラ3は車両が後退するときの運転支援を行う車載機器として機能する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The vehicle
カメラ3は、撮影動作を行うと、その撮影した画像を含む画像信号を車両用装置2に出力する。尚、カメラ3から車両用装置2への画像信号の出力は、有線接続によるデータ通信で行っても良いし無線接続によるデータ通信で行っても良い。有線接続によるデータ通信は、例えばUSB(Universal Serial Bus)を用いれば良い。無線接続によるデータ通信は、例えばBluetooth(登録商標)、BLE(Bluetooth Low Energy)、WiFi(Wireless Fidelity)(登録商標)等を用いれば良い。又、カメラ3は、画像信号を連続的に車両用装置2に出力しても良いし所定周期(例えば数ミリ秒間隔の周期)で間欠的に出力しても良い。
When the
表示デバイス4は、車室内に配置されているディスプレイであり、車両用装置2から表示指令信号を入力すると、カメラ3により撮影された車両後方の画像を表示する。報知デバイス5は、車室内に配置されているスピーカーであり、車両用装置2から報知指令信号を入力すると、警告音を出力する。車両用装置2から表示デバイス4への表示指令信号の出力や報知デバイス5への報知指令信号の出力も、有線接続によるデータ通信で行っても良いし無線接続によるデータ通信で行っても良い。
The
車両用装置2は、制御部6を有する。制御部6は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びI/O(Input/Output)を有するマイクロコンピュータにより構成されている。制御部6は、非遷移的実体的記録媒体に格納されているコンピュータプログラムを実行することで、コンピュータプログラムに対応する処理を実行し、車両用装置2の動作全般を制御する。
The
制御部6は、本発明に関連する機能として、画像取得部6aと、エッジ画像取得部6bと、特徴点抽出部6cと、距離算出部6dと、条件判定部6eと、特徴点除外部6fと、オプティカルフロー算出部6gと、報知指令部6hとを有する。これらの各部6a〜6hは制御部6が実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。
The
画像取得部6aは、カメラ3から入力された画像信号を信号処理して当該カメラ3により撮影された車両後方の画像を取得する。エッジ画像取得部6bは、画像取得部6aにより取得された画像内の不連続に変化している箇所を検知してエッジ画像を取得する。特徴点抽出部6cは、エッジ画像内の不連続に変化している箇所を特徴点として抽出する。特徴点を抽出する手法としては例えばハリスのコーナー法等の手法を用いる。距離算出部6dは、垂直方向(第1の所定方向に相当する)の特徴点間の距離を算出する。条件判定部6eは、垂直方向の特徴点間の距離が他と同一となる対が垂直方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が水平方向(第2の所定方向に相当する)に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する。
The
特徴点除外部6fは、第1の条件と第2の条件との両方を満たす特徴点が存在すると条件判定部6eにより判定されると、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する。そして、特徴点除外部6fは、その決定した残存対象を除く他の特徴点を除外対象として決定し、その決定した除外対象の特徴点をエッジ画像から除外する。
The feature
オプティカルフロー算出部6gは、除外対象の特徴点が除外されたエッジ画像を比較し、オプティカルフロー(即ち物体の移動ベクトル)を算出し、例えば歩行者や他車両等の移動体が存在しているか否かを判定する。オプティカルフローを算出する手法としては例えばブロックマッチング法や勾配法等を用いる。報知指令部6hは、オプティカルフロー算出部6gによる算出結果として移動体が存在していると特定されると、報知指令信号を報知デバイス5に出力させ、報知デバイス5に報知動作を行わせ、移動体の存在を運転者に報知する。
The optical flow calculation unit 6g compares the edge images from which the feature points to be excluded are excluded, calculates the optical flow (that is, the movement vector of the object), and whether there is a moving object such as a pedestrian or another vehicle, for example. Determine whether or not. As a method for calculating the optical flow, for example, a block matching method or a gradient method is used. When it is determined that a moving body is present as a result of calculation by the optical flow calculation unit 6g, the
次に、上記した構成の作用について図2から図14を参照して説明する。制御部6は本発明に関連して移動体検知処理を行う。制御部6は、移動体検知処理を開始すると、カメラ3から画像信号を入力し(S1)、その入力した画像信号を信号処理してNフレーム目の画像を取得する(S2、画像取得手順に相当する)。制御部6は、その取得したNフレーム目の画像からエッジ画像を取得し(S3、エッジ画像取得手順に相当する)、Nフレーム目のエッジ画像の特徴点を抽出する(S4、特徴点抽出手順に相当する)。
Next, the operation of the above configuration will be described with reference to FIGS. The
次いで、制御部6は、垂直方向の特徴点間の距離を算出し(S5、距離算出手順に相当する)、垂直方向の特徴点間の距離が他と同一となる対が垂直方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が水平方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する(S6、条件判定手順に相当する)。この場合、制御部6は、垂直方向の特徴点間の距離が所定範囲内(即ち下限値から上限値までの範囲内)である対を、垂直方向の特徴点間の距離が他と同一となる対であるとして特定する。尚、制御部6は、第1の所定数や第2の所定数を固定値としても良いし可変値としても良い。制御部6は、第1の所定数や第2の所定数を可変値とする場合、例えば抽出した特徴点の全数に対する所定比を第1の所定数や第2の所定数としても良い。
Next, the
制御部6は、第1の条件と第2の条件との両方を満たす特徴点が存在すると判定すると(S6:YES)、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する(S7)。制御部6は、その決定した残存対象を除く他の特徴点を除外対象として決定し(S8)、その決定した除外対象の特徴点をNフレーム目のエッジ画像から除外する(S9、特徴点除外手順に相当する)。
When the
具体的に図3を参照して説明する。車体後部がレンガ壁に向いている場合を想定すると、図3(a)に示すように、カメラ3はレンガ壁を撮影する。この場合、レンガ壁を構成する個々のレンガの形状や色彩が同一であれば、カメラ3は同形連続パターンを撮影する。制御部6は、カメラ3から入力した画像信号により画像を取得し、その取得した画像からエッジ画像を取得すると、図3(b)に示すように、その取得したエッジ画像の特徴点を抽出する。この場合、画像が同形連続パターンであるので、特徴点は格子状に規則的に配置される。よって、特徴点は、垂直方向の特徴点間の距離(d1,d2,d3,…,dn)が同一となる対が垂直方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が水平方向に第2の所定数以上となる第2の条件を満たす。図3(b)において、a1,a2,…で示す部分が対であり、b1,b2,…で示す部分が群である。制御部6は、略全ての特徴点が第1の条件と第2の条件との両方を満たすと判定すると、図3(c)に示すように、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点(図3ではm1〜m4により示す特徴点)を除く特徴点をエッジ画像から除外する。
This will be specifically described with reference to FIG. Assuming the case where the rear part of the vehicle body faces the brick wall, the
次いで、制御部6は、Nフレーム目のエッジ画像の特徴点の位置と、これよりも先の移動体検知処理で取得したN−1フレーム目のエッジ画像の特徴点の位置とを比較してオプティカルフローを算出し(S10、オプティカルフロー算出手順に相当)、移動体が存在しているか否かを判定する(S11)。即ち、制御部6は、第1の条件と第2の条件との両方を満たす特徴点が存在すると判定していれば、除外対象の特徴点を除外したNフレーム目のエッジ画像と、N−1フレーム目のエッジ画像とを用いる。制御部6は、N−1フレーム目のエッジ画像からも除外対象の特徴点を除外していれば、それぞれ除外対象の特徴点を除外したエッジ画像を比較する。制御部6は、N−1フレーム目のエッジ画像からは除外対象の特徴点を除外していなければ、除外対象の特徴点を除外したエッジ画像と、除外対象の特徴点を除外していないエッジ画像とを比較する。
Next, the
一方、制御部6は、第1の条件と第2の条件との両方を満たす特徴点が存在していないと判定すると(S6:NO)、除外対象の特徴点を除外していないNフレーム目のエッジ画像と、N−1フレーム目のエッジ画像とを用いる。制御部6は、N−1フレーム目のエッジ画像からも除外対象の特徴点を除外していなければ、それぞれ除外対象の特徴点を除外していないエッジ画像を比較する。制御部6は、N−1フレーム目のエッジ画像からは除外対象の特徴点を除外していれば、除外対象の特徴点を除外していないエッジ画像と、除外対象の特徴点を除外したエッジ画像とを比較する。
On the other hand, when the
そして、制御部6は、オプティカルフローの算出結果として移動体が存在していると判定すると(S11:YES)、報知指令信号を報知デバイス5に出力させ、報知デバイス5に報知動作を行わせ(S12)、移動体検知処理を終了する。即ち、制御部6は、図4に示すように、オプティカルフローの算出結果として例えば歩行者Pが移動体として存在していると判定すると、報知デバイス5に報知動作を行わせる。制御部6は、上記した一連の処理を行うことで、背景に同形連続パターンが含まれている場合でも、除外対象の特徴点をエッジ画像から除外してオプティカルフローを算出することで、背景の一部の領域を移動体として誤検知してしまう可能性を低減する。一方、制御部6は、オプティカルフローの算出結果として移動体が存在していないと判定すると(S11:NO)、報知指令信号を報知デバイス5に出力させることなく、移動体検知処理を終了する。
If the
制御部6は、車両が停止している場合及び移動している場合の何れでも上記した一連の処理を行うことで、背景の一部の領域を移動体として誤検知してしまう可能性を低減することが可能である。図5及び図6に示すように、車両Mが車体後部をレンガ壁Wに向けて停止しており、車両Mとレンガ壁Wとの距離が「D1」のまま変化しない場合であれば、カメラ3により撮影されたN−1フレーム目の画像とNフレーム目の画像とは同一となり、N−1フレーム目のエッジ画像の特徴点とNフレーム目のエッジ画像の特徴点とは同一の配置となる。そのため、除外対象の特徴点を除外しない従来の手法では、図5に示すように、前後のフレームで類似の特徴点を含む領域が存在する状態でオプティカルフローを算出するので、その類似の特徴点を含む領域を移動体として誤検知してしまう可能性が高い。一方、除外対象の特徴点を除外する本発明の手法では、図6に示すように、前後のフレームで類似の特徴点を含む領域が存在しない状態でオプティカルフローを算出するので、従来の手法のような誤検知してしまう可能性はない。
The
又、図7及び図8に示すように、車両Mが車体後部をレンガ壁Wに向けて移動しており、車両Mとレンガ壁Wとの距離が「D1」から「D2」に短く変化する場合であれば、カメラ3により撮影されたN−1フレーム目の画像とNフレーム目の画像とは異なり、N−1フレーム目のエッジ画像の特徴点とNフレーム目のエッジ画像の特徴点とは異なる配置となるが、特徴点の連続性は維持される。そのため、除外対象の特徴点を除外しない従来の手法では、図7に示すように、前後のフレームで類似の特徴点を含む領域が存在する状態でオプティカルフローを算出するので、その類似の特徴点を含む領域を移動体として誤検知してしまう可能性が高い。一方、除外対象の特徴点を除外する本発明の手法では、図8に示すように、前後のフレームで類似の特徴点を含む領域が存在しない状態でオプティカルフローを算出するので、従来の手法のような誤検知してしまう可能性はない。
Further, as shown in FIGS. 7 and 8, the vehicle M is moving the rear part of the vehicle body toward the brick wall W, and the distance between the vehicle M and the brick wall W changes shortly from “D1” to “D2”. If this is the case, the N-1th frame image and the Nth frame image captured by the
又、制御部6は、残存対象の特徴点を残存することで、移動体に同形連続パターンが含まれている場合でも、その移動体を背景として誤検知せずに検知することが可能である。図9及び図10に示すように、例えばコンテナの側壁面に同形連続パターンの模様が施されているトラックNが車両Mの後方を通過する場合を想定する。カメラ3の撮影視野を破線A1,A2で示す。残存対象の特徴点を残存しない手法では、図9に示すように、第1の条件と第2の条件との両方を満たす特徴点の全てを除外対象として除外するので、トラックNを移動体として検知することができない。一方、残存対象の特徴点を残存する手法では、図10に示すように、第1の条件と第2の条件との両方を満たす特徴点の全てを除外対象として除外せずに一部を残存対象として残存するので、その残存対象の特徴点(図10ではm1〜m4により示す特徴点)の位置の変化を検知することで、そのトラックNを移動体として検知することができる。
In addition, the
又、以上は、同形連続パターンを構成する背景としてレンガ壁を例示したが、図11に示すようなフェンス、図12に示すような柵、図13に示すような同一形状の商品が陳列されている商品棚、図14に示すような同一形状の窓が取り付けられている建物等が背景の場合にも適用することができる。この場合も、制御部6は、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を除く特徴点をエッジ画像から除外し、オプティカルフローを算出する。
Moreover, although the above demonstrated the brick wall as the background which comprises an isomorphous continuous pattern, the fence as shown in FIG. 11, the fence as shown in FIG. 12, the goods of the same shape as shown in FIG. 13 are displayed. The present invention can also be applied to a case where a product shelf or a building or the like to which a window having the same shape as shown in FIG. Also in this case, the
以上説明したように本実施形態によれば、次に示す効果を得ることができる。
車両周辺監視システム1において、垂直方向の特徴点間の距離が同一となる対が垂直方向に第1の所定数以上となる条件を第1の条件として設定し、第1の条件を満たす群が水平方向に第2の所定数以上となる条件を第2の条件として設定した。そして、第1の条件と第2の条件との両方を満たす特徴点を除外対象としてエッジ画像から除外し、その除外対象の特徴点を除外したエッジ画像を用いてオプティカルフローを算出するようにした。背景に例えばレンガ壁等の同形連続パターンが含まれており、前後のフレームで類似の特徴点を多数抽出する場合でも、背景の一部の領域を移動体として誤検知してしまう可能性を低減することができる。これにより、例えば歩行者や他車両等の移動体を適切に検知することができる。
As described above, according to the present embodiment, the following effects can be obtained.
In the vehicle
又、第1の条件と第2の条件との両方を満たす特徴点のうち一部の特徴点を除外対象としてエッジ画像から除外せずに残存対象としてエッジ画像に残存するようにした。これにより、移動体に同形連続パターンが含まれている場合でも、その移動体を背景として誤検知せずに適切に検知することができる。 Further, some of the feature points that satisfy both the first condition and the second condition are left as excluded objects in the edge image without being excluded from the edge image. Thereby, even when the moving body includes the same shape continuous pattern, the moving body can be appropriately detected without being erroneously detected as the background.
本発明は、上記した実施形態で例示したものに限定されることなく、その範囲を逸脱しない範囲で任意に変形又は拡張することができる。
垂直方向を第1の所定方向とし、水平方向を第2の所定方向とする構成を例示したが、水平方向を第1の所定方向とし、垂直方向を第2の所定方向とする構成でも良い。即ち、水平方向の特徴点間の距離を算出し、水平方向の特徴点間の距離が他と同一となる対が水平方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が垂直方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する構成でも良い。
第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する構成を例示したが、上下左右の最端部とは別の領域に存在する特徴点を残存対象として決定する構成でも良い。又、残存対象として決定する構成を省いても良い。
車両後方を撮影する構成を例示したが、車両前方や車両側方を撮影することで、車両前方や車両側方の移動体を検知する構成でも良い。
The present invention is not limited to those exemplified in the above-described embodiment, and can be arbitrarily modified or expanded without departing from the scope thereof.
The configuration in which the vertical direction is the first predetermined direction and the horizontal direction is the second predetermined direction is illustrated, but the horizontal direction may be the first predetermined direction and the vertical direction may be the second predetermined direction. That is, the distance between the feature points in the horizontal direction is calculated, a pair in which the distance between the feature points in the horizontal direction is the same as the other satisfies the first condition that the first predetermined number or more in the horizontal direction is satisfied, and It may be configured to determine whether or not there is a feature point that satisfies the second condition in which a group satisfying the condition of 1 satisfies a second predetermined number or more in the vertical direction.
Although the structure which determines as a residual object the feature point which exists in the extreme end of the top, bottom, left and right among the feature points satisfying both the first condition and the second condition is illustrated, it is different from the top, bottom, left and right end parts. The configuration may be such that the feature points existing in the region are determined as the remaining objects. In addition, the configuration that is determined as the remaining object may be omitted.
Although the structure which image | photographs the vehicle back was illustrated, the structure which detects the moving body of the vehicle front and vehicle side by image | photographing the vehicle front and the vehicle side may be sufficient.
図面中、1は車両周辺監視システム、3はカメラ(撮影部)、5は報知デバイス(報知部)、6は制御部、6aは画像取得部、6bはエッジ画像取得部、6cは特徴点抽出部、6dは距離算出部、6eは条件判定部と、6fは特徴点除外部と、6gはオプティカルフロー算出部、6hは報知指令部である。 In the drawings, 1 is a vehicle periphery monitoring system, 3 is a camera (imaging unit), 5 is a notification device (notification unit), 6 is a control unit, 6a is an image acquisition unit, 6b is an edge image acquisition unit, and 6c is feature point extraction. 6d is a distance calculation unit, 6e is a condition determination unit, 6f is a feature point exclusion unit, 6g is an optical flow calculation unit, and 6h is a notification command unit.
Claims (7)
前記撮影部により撮影された画像を取得する画像取得部(6a)と、
前記画像からエッジ画像を取得するエッジ画像取得部(6b)と、
前記エッジ画像の特徴点を抽出する特徴点抽出部(6c)と、
第1の所定方向の特徴点間の距離を算出する距離算出部(6d)と、
第1の所定方向の特徴点間の距離が他と同一となる対が第1の所定方向に第1の所定数以上となる第1の条件を満たし、且つ前記第1の条件を満たす群が第2の所定方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する条件判定部(6e)と、
前記第1の条件と前記第2の条件との両方を満たす特徴点を除外対象として前記エッジ画像から除外する特徴点除外部(6f)と、
前記除外対象の特徴点が除外された前記エッジ画像を用いてオプティカルフローを算出するオプティカルフロー算出部(6g)と、を備えた車両周辺監視システム。 A photographing unit (3) for photographing the periphery of the vehicle;
An image acquisition unit (6a) for acquiring an image captured by the imaging unit;
An edge image acquisition unit (6b) for acquiring an edge image from the image;
A feature point extraction unit (6c) for extracting feature points of the edge image;
A distance calculation unit (6d) for calculating a distance between feature points in the first predetermined direction;
A group satisfying a first condition in which a pair having the same distance between feature points in the first predetermined direction is equal to or more than the first predetermined number in the first predetermined direction, and satisfying the first condition. A condition determination unit (6e) that determines whether or not there is a feature point that satisfies the second predetermined number that is equal to or greater than the second predetermined number in the second predetermined direction;
A feature point exclusion unit (6f) that excludes feature points that satisfy both the first condition and the second condition from the edge image as exclusion targets;
A vehicle periphery monitoring system comprising: an optical flow calculation unit (6g) that calculates an optical flow using the edge image from which the feature points to be excluded are excluded.
前記距離算出部は、前記第1の所定方向として前記エッジ画像の垂直方向の特徴点間の距離を算出し、
前記条件判定部は、前記第1の条件を満たす群が前記第2の所定方向として前記エッジ画像の水平方向に前記第2の所定数以上となる前記第2の条件を満たす特徴点が存在するか否かを判定する車両周辺監視システム。 In the vehicle periphery monitoring system according to claim 1,
The distance calculation unit calculates a distance between feature points in the vertical direction of the edge image as the first predetermined direction;
The condition determination unit includes a feature point that satisfies the second condition that the group satisfying the first condition is equal to or greater than the second predetermined number in the horizontal direction of the edge image as the second predetermined direction. A vehicle periphery monitoring system that determines whether or not.
前記特徴点除外部は、前記第1の条件と前記第2の条件との両方を満たす特徴点のうち少なくとも一の特徴点を残存対象として決定し、その決定した残存対象を除く他の特徴点を除外対象として決定し、その決定した除外対象の特徴点を前記エッジ画像から除外する車両周辺監視システム。 In the vehicle periphery monitoring system according to claim 1 or 2,
The feature point exclusion unit determines at least one feature point among remaining feature points satisfying both the first condition and the second condition as a remaining object, and other feature points excluding the determined remaining object Is determined as an exclusion target, and the feature point of the determined exclusion target is excluded from the edge image.
前記特徴点除外部は、前記第1の条件と前記第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する車両周辺監視システム。 In the vehicle periphery monitoring system according to claim 3,
The said feature point exclusion part is a vehicle periphery monitoring system which determines the feature point which exists in the extreme end of the top, bottom, left and right among the feature points satisfying both the first condition and the second condition as a remaining object.
前記オプティカルフロー算出部による算出結果を報知部(5)により報知する報知指令部(6h)を備えた車両周辺監視システム。 In the vehicle periphery monitoring system according to any one of claims 1 to 4,
The vehicle periphery monitoring system provided with the alerting | reporting instruction | indication part (6h) which alert | reports the calculation result by the said optical flow calculation part by an alerting | reporting part (5).
前記撮影部は、車両後方を撮影する車両周辺監視システム。 In the vehicle periphery monitoring system according to any one of claims 1 to 5,
The said imaging | photography part is a vehicle periphery monitoring system which image | photographs the vehicle back.
前記撮影部により撮影された画像を取得する画像取得手順と、
前記画像からエッジ画像を取得するエッジ画像取得手順と、
前記エッジ画像の特徴点を抽出する特徴点抽出手順と、
第1の所定方向の特徴点間の距離を算出する距離算出手順と、
第1の所定方向の特徴点間の距離が他と同一となる対が第1の所定方向に第1の所定数以上となる第1の条件を満たし、且つ前記第1の条件を満たす群が第2の所定方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する条件判定手順と、
前記第1の条件と前記第2の条件との両方を満たす特徴点を除外対象として前記エッジ画像から除外する特徴点除外手順と、
前記除外対象の特徴点が除外された前記エッジ画像を用いてオプティカルフローを算出するオプティカルフロー算出手順と、を実行させるコンピュータプログラム。 In the control unit (6) of the vehicle periphery monitoring system (1) having an image capturing unit (3) for capturing the periphery of the vehicle,
An image acquisition procedure for acquiring an image captured by the imaging unit;
An edge image acquisition procedure for acquiring an edge image from the image;
A feature point extraction procedure for extracting feature points of the edge image;
A distance calculation procedure for calculating a distance between feature points in a first predetermined direction;
A group satisfying a first condition in which a pair having the same distance between feature points in the first predetermined direction is equal to or more than the first predetermined number in the first predetermined direction, and satisfying the first condition. A condition determination procedure for determining whether or not there is a feature point that satisfies the second predetermined number that is equal to or greater than the second predetermined number in the second predetermined direction;
A feature point exclusion procedure for excluding feature points that satisfy both the first condition and the second condition from the edge image as exclusion targets;
A computer program for executing an optical flow calculation procedure for calculating an optical flow using the edge image from which the feature points to be excluded are excluded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016023619A JP6531660B2 (en) | 2016-02-10 | 2016-02-10 | Vehicle periphery monitoring system and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016023619A JP6531660B2 (en) | 2016-02-10 | 2016-02-10 | Vehicle periphery monitoring system and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017142661A true JP2017142661A (en) | 2017-08-17 |
JP6531660B2 JP6531660B2 (en) | 2019-06-19 |
Family
ID=59627943
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016023619A Expired - Fee Related JP6531660B2 (en) | 2016-02-10 | 2016-02-10 | Vehicle periphery monitoring system and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6531660B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020003850A (en) * | 2018-06-25 | 2020-01-09 | クラリオン株式会社 | Fence detector |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285245A (en) * | 1999-03-31 | 2000-10-13 | Toshiba Corp | Method and device for preventing collision of moving body and recording medium |
JP2004145592A (en) * | 2002-10-24 | 2004-05-20 | Nippon Telegr & Teleph Corp <Ntt> | Motion vector extraction device, method and program, and its recording medium |
-
2016
- 2016-02-10 JP JP2016023619A patent/JP6531660B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000285245A (en) * | 1999-03-31 | 2000-10-13 | Toshiba Corp | Method and device for preventing collision of moving body and recording medium |
JP2004145592A (en) * | 2002-10-24 | 2004-05-20 | Nippon Telegr & Teleph Corp <Ntt> | Motion vector extraction device, method and program, and its recording medium |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020003850A (en) * | 2018-06-25 | 2020-01-09 | クラリオン株式会社 | Fence detector |
JP7262184B2 (en) | 2018-06-25 | 2023-04-21 | フォルシアクラリオン・エレクトロニクス株式会社 | fence detector |
Also Published As
Publication number | Publication date |
---|---|
JP6531660B2 (en) | 2019-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4173901B2 (en) | Vehicle periphery monitoring device | |
JP6282498B2 (en) | Image processing apparatus, method thereof, and program thereof | |
US9736460B2 (en) | Distance measuring apparatus and distance measuring method | |
JP6508337B2 (en) | Object detection method and object detection apparatus | |
WO2017104835A1 (en) | Intrusion detection device, setting assistance device, intrusion detection method, setting assistance method, and program recording medium | |
JP6407626B2 (en) | Object recognition device and vehicle control system | |
KR101916467B1 (en) | Apparatus and method for detecting obstacle for Around View Monitoring system | |
JP6325927B2 (en) | Object detection apparatus and vehicle control system using the same | |
TW201629846A (en) | Modification of at least one parameter used by a video processing algorithm for monitoring of a scene | |
EP3113148A1 (en) | Local location computation device and local location computation method | |
JP2007310706A (en) | Vehicle periphery monitoring device | |
US9367742B2 (en) | Apparatus and method for monitoring object from captured image | |
JP2014137288A (en) | Device and method for monitoring surroundings of vehicle | |
JP2009175802A (en) | Object detection system | |
WO2018211930A1 (en) | Object detection device, object detection method, and computer-readable recording medium | |
EP3113150A1 (en) | Local location computation device and local location computation method | |
JP6515704B2 (en) | Lane detection device and lane detection method | |
US20170318279A1 (en) | Stereo camera apparatus and vehicle comprising the same | |
WO2019044625A1 (en) | Collision prediction device, collision prediction method, and program | |
JP2015185135A (en) | Parking recognition device, parking recognition method and program | |
JP6531660B2 (en) | Vehicle periphery monitoring system and computer program | |
JP6527183B2 (en) | Leftover object detection device | |
Ye et al. | An improved algorithm for Harris corner detection | |
JP2008165595A (en) | Obstacle detection method, obstacle detection device, and obstacle detection system | |
JP4762774B2 (en) | Ranging device and vehicle periphery monitoring device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190415 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190506 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6531660 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |