JP2017142661A - Vehicle periphery monitoring system and computer program - Google Patents

Vehicle periphery monitoring system and computer program Download PDF

Info

Publication number
JP2017142661A
JP2017142661A JP2016023619A JP2016023619A JP2017142661A JP 2017142661 A JP2017142661 A JP 2017142661A JP 2016023619 A JP2016023619 A JP 2016023619A JP 2016023619 A JP2016023619 A JP 2016023619A JP 2017142661 A JP2017142661 A JP 2017142661A
Authority
JP
Japan
Prior art keywords
condition
feature points
edge image
feature point
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016023619A
Other languages
Japanese (ja)
Other versions
JP6531660B2 (en
Inventor
優樹 越野
Yuki Koshino
優樹 越野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2016023619A priority Critical patent/JP6531660B2/en
Publication of JP2017142661A publication Critical patent/JP2017142661A/en
Application granted granted Critical
Publication of JP6531660B2 publication Critical patent/JP6531660B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To appropriately detect moving bodies by reducing a possibility of erroneously detecting a partial area of a background as a moving body.SOLUTION: A feature point extraction section 6c extracts feature points of an edge image. A distance calculation section 6d calculates a distance between feature points in vertical direction. A condition determination section 6e determines whether or not there are feature points satisfying a first condition that a first prescribed number of more pairs whose distances of the pair between the feature points in the vertical direction are identical with each other, are present in the vertical direction, and satisfying a second condition that a second prescribed number or more groups satisfying the first condition are present in a horizontal direction. A feature point exclusion section 6f excludes feature points satisfying both of the first condition and second condition, from the edge image as exclusion objects. An optical flow calculation section 6g calculates an optical flow using the edge image from which the feature points as the exclusion objects are excluded.SELECTED DRAWING: Figure 1

Description

本発明は車両周辺監視システム及びコンピュータプログラムに関する。   The present invention relates to a vehicle periphery monitoring system and a computer program.

車両周辺の例えば歩行者や他車両等の物体を移動体として検知する手法としてオプティカルフロー(即ち物体の移動ベクトル)を算出する手法がある。オプティカルフローを算出する手法では、カメラにより撮影された画像の前後のフレームから特徴点の類似性を求めて位置を比較し、前後のフレームで同形であり且つ位置が変化している物体を移動体として検知する。ところが、撮影環境によっては静止体と移動体との区別が困難となる場合がある。例えば特許文献1には、カメラにより撮影された通常画像のオプティカルフローを算出し、通常画像を視点変換した俯瞰画像のオプティカルフローを算出することで、背景と静止体と移動体とを区別する手法が開示されている。   As a technique for detecting an object such as a pedestrian or another vehicle around the vehicle as a moving body, there is a technique for calculating an optical flow (that is, a movement vector of the object). In the method of calculating the optical flow, the similarity of the feature points is obtained from the frames before and after the image taken by the camera, the positions are compared, and an object having the same shape and the position changing in the frames before and after is moved. Detect as. However, depending on the shooting environment, it may be difficult to distinguish between a stationary object and a moving object. For example, Patent Document 1 discloses a method for distinguishing a background, a stationary object, and a moving object by calculating an optical flow of a normal image captured by a camera and calculating an optical flow of an overhead image obtained by converting the viewpoint of the normal image. Is disclosed.

特開2011−48520号公報JP 2011-48520 A

しかしながら、特許文献1に開示されている手法では、背景に例えばレンガ壁等の同形連続パターンが含まれていると、前後のフレームで類似の特徴点を多数抽出し、その類似の特徴点を含む領域を移動体として誤検知してしまう可能性がある。そして、背景の一部の領域を移動体として誤検知してしまうと、例えば歩行者や他車両等の移動体を検知する精度が低下する問題がある。   However, in the method disclosed in Patent Document 1, if the background includes an isomorphous continuous pattern such as a brick wall, a number of similar feature points are extracted in the preceding and following frames, and the similar feature points are included. There is a possibility that the area is erroneously detected as a moving body. If a partial area of the background is erroneously detected as a moving object, there is a problem that accuracy of detecting a moving object such as a pedestrian or another vehicle decreases.

本発明は、上記した事情に鑑みてなされたものであり、その目的は、背景の一部の領域を移動体として誤検知してしまう可能性を低減し、移動体を適切に検知することができる車両周辺監視システム及びコンピュータプログラムを提供することにある。   The present invention has been made in view of the above-described circumstances, and the object thereof is to reduce the possibility of misdetecting a partial region of the background as a moving object, and to appropriately detect the moving object. An object is to provide a vehicle periphery monitoring system and a computer program.

請求項1に記載した発明によれば、画像取得部(6a)は、車両周辺を撮影する撮影部(3)により撮影された画像を取得する。エッジ画像取得部(6b)は、画像からエッジ画像を取得する。特徴点抽出部(6c)は、エッジ画像の特徴点を抽出する。距離算出部(6d)は、第1の所定方向の特徴点間の距離を算出する。条件判定部(6e)は、第1の所定方向の特徴点間の距離が他と同一となる対が第1の所定方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が第2の所定方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する。特徴点除外部(6f)は、第1の条件と第2の条件との両方を満たす特徴点を除外対象としてエッジ画像から除外する。オプティカルフロー算出部(6g)は、除外対象の特徴点が除外されたエッジ画像を用いてオプティカルフローを算出する。   According to the first aspect of the present invention, the image acquisition unit (6a) acquires an image photographed by the photographing unit (3) for photographing the periphery of the vehicle. The edge image acquisition unit (6b) acquires an edge image from the image. The feature point extraction unit (6c) extracts feature points of the edge image. The distance calculation unit (6d) calculates the distance between the feature points in the first predetermined direction. The condition determining unit (6e) satisfies a first condition in which a pair in which the distance between feature points in the first predetermined direction is the same as the other satisfies the first condition in which the first predetermined number is greater than or equal to the first predetermined direction. It is determined whether or not there is a feature point satisfying the second condition in which the group satisfying the condition of 1 satisfies a second predetermined number or more in the second predetermined direction. The feature point exclusion unit (6f) excludes feature points that satisfy both the first condition and the second condition from the edge image as exclusion targets. The optical flow calculation unit (6g) calculates an optical flow using the edge image from which the feature points to be excluded are excluded.

第1の条件と第2の条件との両方を満たす特徴点を除外対象としてエッジ画像から除外し、その除外対象の特徴点を除外したエッジ画像を用いてオプティカルフローを算出するようにした。背景に例えばレンガ壁等の同形連続パターンが含まれており、前後のフレームで類似の特徴点を多数抽出する場合でも、除外対象の特徴点をエッジ画像から除外してオプティカルフローを算出することで、背景の一部の領域を移動体として誤検知してしまう可能性を低減することができる。これにより、例えば歩行者や他車両等の移動体を適切に検知することができる。   A feature point that satisfies both the first condition and the second condition is excluded from the edge image as an exclusion target, and the optical flow is calculated using the edge image from which the feature point to be excluded is excluded. The background contains an isomorphic continuous pattern such as a brick wall, and even if many similar feature points are extracted in the previous and subsequent frames, the optical flow is calculated by excluding the feature points to be excluded from the edge image. The possibility of erroneous detection of a partial area of the background as a moving object can be reduced. Thereby, moving bodies, such as a pedestrian and another vehicle, can be detected appropriately, for example.

本発明の一実施形態を示す機能ブロック図Functional block diagram showing an embodiment of the present invention フローチャートflowchart 除外対象の特徴点を除外するまでの推移を示す図(その1)Figure showing the transition until the feature points to be excluded are excluded (Part 1) オプティカルフローを算出する態様を示す図The figure which shows the aspect which calculates the optical flow 車両が停止している場合の従来の手法を示す図The figure which shows the conventional technique when the vehicle has stopped 車両が停止している場合の本発明の手法を示す図The figure which shows the method of this invention when the vehicle has stopped 車両が移動している場合の従来の手法を示す図The figure which shows the conventional technique when the vehicle is moving 車両が移動している場合の本発明の手法を示す図The figure which shows the method of this invention when the vehicle is moving 残存対象の特徴点を残存しない手法を示す図Diagram showing a technique that does not leave the feature points of the remaining object 残存対象の特徴点を残存する手法を示す図Diagram showing the technique for remaining feature points of the target 除外対象の特徴点を除外するまでの推移を示す図(その2)Figure showing the transition until exclusion of feature points to be excluded (Part 2) 除外対象の特徴点を除外するまでの推移を示す図(その3)Figure showing the transition until excluding feature points to be excluded (Part 3) 除外対象の特徴点を除外するまでの推移を示す図(その4)Figure showing the transition until excluding feature points to be excluded (Part 4) 除外対象の特徴点を除外するまでの推移を示す図(その5)Fig. 5 shows the transition until the feature points to be excluded are excluded.

以下、本発明の一実施形態について図面を参照して説明する。車両周辺監視システム1は、車両用装置2と、カメラ3(撮影部に相当する)と、表示デバイス4と、報知デバイス5(報知部に相当する)とを有する。カメラ3は、車体後部に配置され、車両周辺として車両後方を撮影視野(即ち画角)とするカメラであり、例えばシフト位置が後退位置に移動されたことを条件として撮影動作を開始する。即ち、カメラ3は車両が後退するときの運転支援を行う車載機器として機能する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The vehicle periphery monitoring system 1 includes a vehicle device 2, a camera 3 (corresponding to a photographing unit), a display device 4, and a notification device 5 (corresponding to a notification unit). The camera 3 is a camera that is disposed at the rear part of the vehicle body and has a field of view (that is, an angle of view) in the rear of the vehicle as the periphery of the vehicle. For example, the camera 3 starts the photographing operation on the condition that the shift position is moved to the retracted position. That is, the camera 3 functions as an in-vehicle device that provides driving assistance when the vehicle moves backward.

カメラ3は、撮影動作を行うと、その撮影した画像を含む画像信号を車両用装置2に出力する。尚、カメラ3から車両用装置2への画像信号の出力は、有線接続によるデータ通信で行っても良いし無線接続によるデータ通信で行っても良い。有線接続によるデータ通信は、例えばUSB(Universal Serial Bus)を用いれば良い。無線接続によるデータ通信は、例えばBluetooth(登録商標)、BLE(Bluetooth Low Energy)、WiFi(Wireless Fidelity)(登録商標)等を用いれば良い。又、カメラ3は、画像信号を連続的に車両用装置2に出力しても良いし所定周期(例えば数ミリ秒間隔の周期)で間欠的に出力しても良い。   When the camera 3 performs a photographing operation, the camera 3 outputs an image signal including the photographed image to the vehicle device 2. In addition, the output of the image signal from the camera 3 to the vehicle device 2 may be performed by data communication by wired connection or data communication by wireless connection. For example, USB (Universal Serial Bus) may be used for data communication by wired connection. For data communication by wireless connection, for example, Bluetooth (registered trademark), BLE (Bluetooth Low Energy), WiFi (Wireless Fidelity) (registered trademark), or the like may be used. Further, the camera 3 may continuously output the image signal to the vehicular device 2 or may intermittently output the image signal at a predetermined cycle (for example, a cycle of several milliseconds).

表示デバイス4は、車室内に配置されているディスプレイであり、車両用装置2から表示指令信号を入力すると、カメラ3により撮影された車両後方の画像を表示する。報知デバイス5は、車室内に配置されているスピーカーであり、車両用装置2から報知指令信号を入力すると、警告音を出力する。車両用装置2から表示デバイス4への表示指令信号の出力や報知デバイス5への報知指令信号の出力も、有線接続によるデータ通信で行っても良いし無線接続によるデータ通信で行っても良い。   The display device 4 is a display arranged in the vehicle interior. When a display command signal is input from the vehicle device 2, the display device 4 displays an image of the rear of the vehicle taken by the camera 3. The notification device 5 is a speaker arranged in the vehicle interior, and outputs a warning sound when a notification command signal is input from the vehicle device 2. The output of the display command signal from the vehicle apparatus 2 to the display device 4 and the output of the notification command signal to the notification device 5 may be performed by data communication by wired connection or data communication by wireless connection.

車両用装置2は、制御部6を有する。制御部6は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)及びI/O(Input/Output)を有するマイクロコンピュータにより構成されている。制御部6は、非遷移的実体的記録媒体に格納されているコンピュータプログラムを実行することで、コンピュータプログラムに対応する処理を実行し、車両用装置2の動作全般を制御する。   The vehicle device 2 includes a control unit 6. The control unit 6 is configured by a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and an I / O (Input / Output). The control unit 6 executes processing corresponding to the computer program by executing the computer program stored in the non-transitional tangible recording medium, and controls the overall operation of the vehicle device 2.

制御部6は、本発明に関連する機能として、画像取得部6aと、エッジ画像取得部6bと、特徴点抽出部6cと、距離算出部6dと、条件判定部6eと、特徴点除外部6fと、オプティカルフロー算出部6gと、報知指令部6hとを有する。これらの各部6a〜6hは制御部6が実行するコンピュータプログラムにより構成されており、ソフトウェアにより実現されている。   The control unit 6 includes, as functions related to the present invention, an image acquisition unit 6a, an edge image acquisition unit 6b, a feature point extraction unit 6c, a distance calculation unit 6d, a condition determination unit 6e, and a feature point exclusion unit 6f. And an optical flow calculation unit 6g and a notification command unit 6h. Each of these parts 6a-6h is comprised by the computer program which the control part 6 performs, and is implement | achieved by the software.

画像取得部6aは、カメラ3から入力された画像信号を信号処理して当該カメラ3により撮影された車両後方の画像を取得する。エッジ画像取得部6bは、画像取得部6aにより取得された画像内の不連続に変化している箇所を検知してエッジ画像を取得する。特徴点抽出部6cは、エッジ画像内の不連続に変化している箇所を特徴点として抽出する。特徴点を抽出する手法としては例えばハリスのコーナー法等の手法を用いる。距離算出部6dは、垂直方向(第1の所定方向に相当する)の特徴点間の距離を算出する。条件判定部6eは、垂直方向の特徴点間の距離が他と同一となる対が垂直方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が水平方向(第2の所定方向に相当する)に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する。   The image acquisition unit 6 a performs signal processing on the image signal input from the camera 3 and acquires an image behind the vehicle captured by the camera 3. The edge image acquisition unit 6b detects a discontinuously changing portion in the image acquired by the image acquisition unit 6a and acquires an edge image. The feature point extraction unit 6c extracts a discontinuously changing portion in the edge image as a feature point. For example, a Harris corner method is used as a method for extracting feature points. The distance calculation unit 6d calculates the distance between feature points in the vertical direction (corresponding to the first predetermined direction). The condition determining unit 6e satisfies a first condition in which a pair having the same distance between feature points in the vertical direction is equal to or more than the first predetermined number in the vertical direction, and a group satisfying the first condition is horizontal. It is determined whether or not there is a feature point satisfying the second condition that is equal to or greater than the second predetermined number in the direction (corresponding to the second predetermined direction).

特徴点除外部6fは、第1の条件と第2の条件との両方を満たす特徴点が存在すると条件判定部6eにより判定されると、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する。そして、特徴点除外部6fは、その決定した残存対象を除く他の特徴点を除外対象として決定し、その決定した除外対象の特徴点をエッジ画像から除外する。   The feature point excluding unit 6f satisfies both the first condition and the second condition when the condition determining unit 6e determines that there is a feature point that satisfies both the first condition and the second condition. Of the feature points, the feature points existing at the extreme ends of the top, bottom, left and right are determined as the remaining objects. Then, the feature point exclusion unit 6f determines other feature points excluding the determined remaining object as an exclusion object, and excludes the determined exclusion target feature point from the edge image.

オプティカルフロー算出部6gは、除外対象の特徴点が除外されたエッジ画像を比較し、オプティカルフロー(即ち物体の移動ベクトル)を算出し、例えば歩行者や他車両等の移動体が存在しているか否かを判定する。オプティカルフローを算出する手法としては例えばブロックマッチング法や勾配法等を用いる。報知指令部6hは、オプティカルフロー算出部6gによる算出結果として移動体が存在していると特定されると、報知指令信号を報知デバイス5に出力させ、報知デバイス5に報知動作を行わせ、移動体の存在を運転者に報知する。   The optical flow calculation unit 6g compares the edge images from which the feature points to be excluded are excluded, calculates the optical flow (that is, the movement vector of the object), and whether there is a moving object such as a pedestrian or another vehicle, for example. Determine whether or not. As a method for calculating the optical flow, for example, a block matching method or a gradient method is used. When it is determined that a moving body is present as a result of calculation by the optical flow calculation unit 6g, the notification command unit 6h causes the notification device 5 to output a notification command signal and cause the notification device 5 to perform a notification operation. Inform the driver of the presence of the body.

次に、上記した構成の作用について図2から図14を参照して説明する。制御部6は本発明に関連して移動体検知処理を行う。制御部6は、移動体検知処理を開始すると、カメラ3から画像信号を入力し(S1)、その入力した画像信号を信号処理してNフレーム目の画像を取得する(S2、画像取得手順に相当する)。制御部6は、その取得したNフレーム目の画像からエッジ画像を取得し(S3、エッジ画像取得手順に相当する)、Nフレーム目のエッジ画像の特徴点を抽出する(S4、特徴点抽出手順に相当する)。   Next, the operation of the above configuration will be described with reference to FIGS. The control unit 6 performs a moving body detection process in connection with the present invention. When the moving body detection process is started, the control unit 6 inputs an image signal from the camera 3 (S1), acquires the image of the Nth frame by performing signal processing on the input image signal (S2, the image acquisition procedure). Equivalent to). The control unit 6 acquires an edge image from the acquired Nth frame image (S3, corresponding to the edge image acquisition procedure), and extracts feature points of the Nth frame edge image (S4, feature point extraction procedure). Equivalent to

次いで、制御部6は、垂直方向の特徴点間の距離を算出し(S5、距離算出手順に相当する)、垂直方向の特徴点間の距離が他と同一となる対が垂直方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が水平方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する(S6、条件判定手順に相当する)。この場合、制御部6は、垂直方向の特徴点間の距離が所定範囲内(即ち下限値から上限値までの範囲内)である対を、垂直方向の特徴点間の距離が他と同一となる対であるとして特定する。尚、制御部6は、第1の所定数や第2の所定数を固定値としても良いし可変値としても良い。制御部6は、第1の所定数や第2の所定数を可変値とする場合、例えば抽出した特徴点の全数に対する所定比を第1の所定数や第2の所定数としても良い。   Next, the control unit 6 calculates the distance between the feature points in the vertical direction (S5, corresponding to the distance calculation procedure), and the pair in which the distance between the feature points in the vertical direction is the same as the others is the first in the vertical direction. It is determined whether or not there is a feature point satisfying the second condition that satisfies the first condition that is equal to or greater than the predetermined number and satisfies the first condition that satisfies the first condition in the horizontal direction. (S6 corresponds to a condition determination procedure). In this case, the controller 6 determines that the distance between the feature points in the vertical direction is within a predetermined range (that is, within the range from the lower limit value to the upper limit value), and the distance between the feature points in the vertical direction is the same as the other distance. Is identified as a pair. The control unit 6 may set the first predetermined number or the second predetermined number as a fixed value or a variable value. When the first predetermined number or the second predetermined number is a variable value, the control unit 6 may use, for example, a predetermined ratio with respect to the total number of extracted feature points as the first predetermined number or the second predetermined number.

制御部6は、第1の条件と第2の条件との両方を満たす特徴点が存在すると判定すると(S6:YES)、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する(S7)。制御部6は、その決定した残存対象を除く他の特徴点を除外対象として決定し(S8)、その決定した除外対象の特徴点をNフレーム目のエッジ画像から除外する(S9、特徴点除外手順に相当する)。   When the control unit 6 determines that there is a feature point that satisfies both the first condition and the second condition (S6: YES), among the feature points that satisfy both the first condition and the second condition, Feature points existing at the top, bottom, left, and right end portions are determined as remaining objects (S7). The control unit 6 determines other feature points excluding the determined remaining target as exclusion targets (S8), and excludes the determined exclusion target feature points from the Nth frame edge image (S9, feature point exclusion). Corresponding to the procedure).

具体的に図3を参照して説明する。車体後部がレンガ壁に向いている場合を想定すると、図3(a)に示すように、カメラ3はレンガ壁を撮影する。この場合、レンガ壁を構成する個々のレンガの形状や色彩が同一であれば、カメラ3は同形連続パターンを撮影する。制御部6は、カメラ3から入力した画像信号により画像を取得し、その取得した画像からエッジ画像を取得すると、図3(b)に示すように、その取得したエッジ画像の特徴点を抽出する。この場合、画像が同形連続パターンであるので、特徴点は格子状に規則的に配置される。よって、特徴点は、垂直方向の特徴点間の距離(d1,d2,d3,…,dn)が同一となる対が垂直方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が水平方向に第2の所定数以上となる第2の条件を満たす。図3(b)において、a1,a2,…で示す部分が対であり、b1,b2,…で示す部分が群である。制御部6は、略全ての特徴点が第1の条件と第2の条件との両方を満たすと判定すると、図3(c)に示すように、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点(図3ではm1〜m4により示す特徴点)を除く特徴点をエッジ画像から除外する。   This will be specifically described with reference to FIG. Assuming the case where the rear part of the vehicle body faces the brick wall, the camera 3 captures the brick wall as shown in FIG. In this case, if the shape and color of the individual bricks constituting the brick wall are the same, the camera 3 captures the same continuous pattern. When the control unit 6 acquires an image from the image signal input from the camera 3 and acquires an edge image from the acquired image, the control unit 6 extracts the feature points of the acquired edge image as shown in FIG. . In this case, since the image has an isomorphic continuous pattern, the feature points are regularly arranged in a grid pattern. Therefore, the feature points satisfy a first condition in which pairs having the same distance (d1, d2, d3,..., Dn) between feature points in the vertical direction satisfy a first predetermined number or more in the vertical direction, and A group that satisfies the first condition satisfies a second condition that is equal to or greater than a second predetermined number in the horizontal direction. In FIG. 3B, the portions indicated by a1, a2,... Are a pair, and the portions indicated by b1, b2,. When the control unit 6 determines that substantially all feature points satisfy both the first condition and the second condition, the control unit 6 determines whether the first condition and the second condition are as shown in FIG. Of the feature points satisfying both, the feature points excluding the feature points existing at the top, bottom, left and right end portions (feature points indicated by m1 to m4 in FIG. 3) are excluded from the edge image.

次いで、制御部6は、Nフレーム目のエッジ画像の特徴点の位置と、これよりも先の移動体検知処理で取得したN−1フレーム目のエッジ画像の特徴点の位置とを比較してオプティカルフローを算出し(S10、オプティカルフロー算出手順に相当)、移動体が存在しているか否かを判定する(S11)。即ち、制御部6は、第1の条件と第2の条件との両方を満たす特徴点が存在すると判定していれば、除外対象の特徴点を除外したNフレーム目のエッジ画像と、N−1フレーム目のエッジ画像とを用いる。制御部6は、N−1フレーム目のエッジ画像からも除外対象の特徴点を除外していれば、それぞれ除外対象の特徴点を除外したエッジ画像を比較する。制御部6は、N−1フレーム目のエッジ画像からは除外対象の特徴点を除外していなければ、除外対象の特徴点を除外したエッジ画像と、除外対象の特徴点を除外していないエッジ画像とを比較する。   Next, the control unit 6 compares the position of the feature point of the edge image of the Nth frame with the position of the feature point of the edge image of the (N−1) th frame acquired by the moving body detection process before this. An optical flow is calculated (S10, corresponding to the optical flow calculation procedure), and it is determined whether or not a moving object is present (S11). That is, if the control unit 6 determines that there is a feature point that satisfies both the first condition and the second condition, the Nth frame edge image excluding the feature point to be excluded, and N− The edge image of the first frame is used. If the feature point to be excluded is also excluded from the edge image of the (N−1) th frame, the control unit 6 compares the edge images from which the feature points to be excluded are excluded. If the feature point to be excluded is not excluded from the edge image of the (N-1) th frame, the control unit 6 excludes the feature point to be excluded and the edge from which the feature point to be excluded is not excluded. Compare the image.

一方、制御部6は、第1の条件と第2の条件との両方を満たす特徴点が存在していないと判定すると(S6:NO)、除外対象の特徴点を除外していないNフレーム目のエッジ画像と、N−1フレーム目のエッジ画像とを用いる。制御部6は、N−1フレーム目のエッジ画像からも除外対象の特徴点を除外していなければ、それぞれ除外対象の特徴点を除外していないエッジ画像を比較する。制御部6は、N−1フレーム目のエッジ画像からは除外対象の特徴点を除外していれば、除外対象の特徴点を除外していないエッジ画像と、除外対象の特徴点を除外したエッジ画像とを比較する。   On the other hand, when the control unit 6 determines that there is no feature point that satisfies both the first condition and the second condition (S6: NO), the Nth frame does not exclude the feature point to be excluded. And the edge image of the (N-1) th frame are used. If the feature point to be excluded is not excluded from the edge image of the (N-1) th frame, the control unit 6 compares the edge images that do not exclude the feature point to be excluded. If the feature point to be excluded is excluded from the edge image of the (N-1) th frame, the control unit 6 does not exclude the feature point to be excluded and the edge from which the feature point to be excluded is excluded Compare the image.

そして、制御部6は、オプティカルフローの算出結果として移動体が存在していると判定すると(S11:YES)、報知指令信号を報知デバイス5に出力させ、報知デバイス5に報知動作を行わせ(S12)、移動体検知処理を終了する。即ち、制御部6は、図4に示すように、オプティカルフローの算出結果として例えば歩行者Pが移動体として存在していると判定すると、報知デバイス5に報知動作を行わせる。制御部6は、上記した一連の処理を行うことで、背景に同形連続パターンが含まれている場合でも、除外対象の特徴点をエッジ画像から除外してオプティカルフローを算出することで、背景の一部の領域を移動体として誤検知してしまう可能性を低減する。一方、制御部6は、オプティカルフローの算出結果として移動体が存在していないと判定すると(S11:NO)、報知指令信号を報知デバイス5に出力させることなく、移動体検知処理を終了する。   If the control unit 6 determines that a moving body is present as a result of calculating the optical flow (S11: YES), the control unit 6 causes the notification device 5 to output a notification command signal and cause the notification device 5 to perform a notification operation ( S12), the moving body detection process is terminated. That is, as illustrated in FIG. 4, when the control unit 6 determines that, for example, the pedestrian P exists as a moving object as the optical flow calculation result, the control unit 6 causes the notification device 5 to perform a notification operation. By performing the above-described series of processing, the control unit 6 calculates the optical flow by excluding the feature points to be excluded from the edge image even when the background includes an isomorphic continuous pattern, thereby obtaining the background flow. The possibility of erroneous detection of some areas as moving objects is reduced. On the other hand, if the control unit 6 determines that there is no moving body as a result of calculating the optical flow (S11: NO), the control unit 6 ends the moving body detection process without causing the notification device 5 to output a notification command signal.

制御部6は、車両が停止している場合及び移動している場合の何れでも上記した一連の処理を行うことで、背景の一部の領域を移動体として誤検知してしまう可能性を低減することが可能である。図5及び図6に示すように、車両Mが車体後部をレンガ壁Wに向けて停止しており、車両Mとレンガ壁Wとの距離が「D1」のまま変化しない場合であれば、カメラ3により撮影されたN−1フレーム目の画像とNフレーム目の画像とは同一となり、N−1フレーム目のエッジ画像の特徴点とNフレーム目のエッジ画像の特徴点とは同一の配置となる。そのため、除外対象の特徴点を除外しない従来の手法では、図5に示すように、前後のフレームで類似の特徴点を含む領域が存在する状態でオプティカルフローを算出するので、その類似の特徴点を含む領域を移動体として誤検知してしまう可能性が高い。一方、除外対象の特徴点を除外する本発明の手法では、図6に示すように、前後のフレームで類似の特徴点を含む領域が存在しない状態でオプティカルフローを算出するので、従来の手法のような誤検知してしまう可能性はない。   The control unit 6 performs the above-described series of processes both when the vehicle is stopped and when it is moving, thereby reducing the possibility of erroneously detecting a partial region of the background as a moving object. Is possible. As shown in FIGS. 5 and 6, if the vehicle M is stopped with the rear part of the vehicle body facing the brick wall W and the distance between the vehicle M and the brick wall W remains “D1”, the camera is not changed. The image of the (N-1) th frame and the image of the Nth frame taken in step 3 are the same, and the feature points of the edge image of the (N-1) th frame and the feature points of the edge image of the Nth frame have the same arrangement. Become. Therefore, in the conventional method that does not exclude the feature points to be excluded, as shown in FIG. 5, the optical flow is calculated in a state in which there are regions including similar feature points in the previous and subsequent frames. There is a high possibility of erroneous detection of a region including a moving object. On the other hand, in the method of the present invention that excludes feature points to be excluded, as shown in FIG. 6, the optical flow is calculated in a state where there are no regions including similar feature points in the previous and subsequent frames. There is no possibility of false detection.

又、図7及び図8に示すように、車両Mが車体後部をレンガ壁Wに向けて移動しており、車両Mとレンガ壁Wとの距離が「D1」から「D2」に短く変化する場合であれば、カメラ3により撮影されたN−1フレーム目の画像とNフレーム目の画像とは異なり、N−1フレーム目のエッジ画像の特徴点とNフレーム目のエッジ画像の特徴点とは異なる配置となるが、特徴点の連続性は維持される。そのため、除外対象の特徴点を除外しない従来の手法では、図7に示すように、前後のフレームで類似の特徴点を含む領域が存在する状態でオプティカルフローを算出するので、その類似の特徴点を含む領域を移動体として誤検知してしまう可能性が高い。一方、除外対象の特徴点を除外する本発明の手法では、図8に示すように、前後のフレームで類似の特徴点を含む領域が存在しない状態でオプティカルフローを算出するので、従来の手法のような誤検知してしまう可能性はない。   Further, as shown in FIGS. 7 and 8, the vehicle M is moving the rear part of the vehicle body toward the brick wall W, and the distance between the vehicle M and the brick wall W changes shortly from “D1” to “D2”. If this is the case, the N-1th frame image and the Nth frame image captured by the camera 3 are different from the N-1th frame edge image feature point and the Nth frame edge image feature point. Are arranged differently, but the continuity of the feature points is maintained. Therefore, in the conventional method that does not exclude the feature points to be excluded, as shown in FIG. 7, the optical flow is calculated in a state in which there are regions including similar feature points in the previous and subsequent frames. There is a high possibility of erroneous detection of a region including a moving object. On the other hand, in the method of the present invention that excludes feature points to be excluded, as shown in FIG. 8, the optical flow is calculated in a state where there are no regions including similar feature points in the previous and subsequent frames. There is no possibility of false detection.

又、制御部6は、残存対象の特徴点を残存することで、移動体に同形連続パターンが含まれている場合でも、その移動体を背景として誤検知せずに検知することが可能である。図9及び図10に示すように、例えばコンテナの側壁面に同形連続パターンの模様が施されているトラックNが車両Mの後方を通過する場合を想定する。カメラ3の撮影視野を破線A1,A2で示す。残存対象の特徴点を残存しない手法では、図9に示すように、第1の条件と第2の条件との両方を満たす特徴点の全てを除外対象として除外するので、トラックNを移動体として検知することができない。一方、残存対象の特徴点を残存する手法では、図10に示すように、第1の条件と第2の条件との両方を満たす特徴点の全てを除外対象として除外せずに一部を残存対象として残存するので、その残存対象の特徴点(図10ではm1〜m4により示す特徴点)の位置の変化を検知することで、そのトラックNを移動体として検知することができる。   In addition, the control unit 6 can detect the moving object as a background without erroneous detection even if the moving object includes the same shape continuous pattern by remaining the feature points to be remained. . As shown in FIGS. 9 and 10, for example, a case is assumed where a truck N in which a pattern of an isomorphous continuous pattern is provided on the side wall surface of the container passes behind the vehicle M. The photographing field of view of the camera 3 is indicated by broken lines A1 and A2. As shown in FIG. 9, in the method that does not leave the remaining feature points, all feature points that satisfy both the first condition and the second condition are excluded as exclusion targets. It cannot be detected. On the other hand, as shown in FIG. 10, in the method of remaining the feature points of the remaining target, a part remains without excluding all the feature points that satisfy both the first condition and the second condition as exclusion targets. Since it remains as an object, the track N can be detected as a moving object by detecting a change in the position of the feature points of the remaining object (feature points indicated by m1 to m4 in FIG. 10).

又、以上は、同形連続パターンを構成する背景としてレンガ壁を例示したが、図11に示すようなフェンス、図12に示すような柵、図13に示すような同一形状の商品が陳列されている商品棚、図14に示すような同一形状の窓が取り付けられている建物等が背景の場合にも適用することができる。この場合も、制御部6は、第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を除く特徴点をエッジ画像から除外し、オプティカルフローを算出する。   Moreover, although the above demonstrated the brick wall as the background which comprises an isomorphous continuous pattern, the fence as shown in FIG. 11, the fence as shown in FIG. 12, the goods of the same shape as shown in FIG. 13 are displayed. The present invention can also be applied to a case where a product shelf or a building or the like to which a window having the same shape as shown in FIG. Also in this case, the control unit 6 excludes from the edge image feature points excluding the feature points existing at the top, bottom, left and right end portions from among the feature points satisfying both the first condition and the second condition, Calculate the flow.

以上説明したように本実施形態によれば、次に示す効果を得ることができる。
車両周辺監視システム1において、垂直方向の特徴点間の距離が同一となる対が垂直方向に第1の所定数以上となる条件を第1の条件として設定し、第1の条件を満たす群が水平方向に第2の所定数以上となる条件を第2の条件として設定した。そして、第1の条件と第2の条件との両方を満たす特徴点を除外対象としてエッジ画像から除外し、その除外対象の特徴点を除外したエッジ画像を用いてオプティカルフローを算出するようにした。背景に例えばレンガ壁等の同形連続パターンが含まれており、前後のフレームで類似の特徴点を多数抽出する場合でも、背景の一部の領域を移動体として誤検知してしまう可能性を低減することができる。これにより、例えば歩行者や他車両等の移動体を適切に検知することができる。
As described above, according to the present embodiment, the following effects can be obtained.
In the vehicle periphery monitoring system 1, a group in which pairs having the same distance between feature points in the vertical direction are equal to or more than a first predetermined number in the vertical direction is set as the first condition, and a group that satisfies the first condition A condition that is equal to or greater than the second predetermined number in the horizontal direction was set as the second condition. Then, feature points that satisfy both the first condition and the second condition are excluded from the edge image as an exclusion target, and the optical flow is calculated using the edge image that excludes the feature point of the exclusion target. . Even if the background contains an isomorphic continuous pattern such as a brick wall and many similar feature points are extracted in the previous and next frames, the possibility of misdetecting a part of the background as a moving object is reduced. can do. Thereby, moving bodies, such as a pedestrian and another vehicle, can be detected appropriately, for example.

又、第1の条件と第2の条件との両方を満たす特徴点のうち一部の特徴点を除外対象としてエッジ画像から除外せずに残存対象としてエッジ画像に残存するようにした。これにより、移動体に同形連続パターンが含まれている場合でも、その移動体を背景として誤検知せずに適切に検知することができる。   Further, some of the feature points that satisfy both the first condition and the second condition are left as excluded objects in the edge image without being excluded from the edge image. Thereby, even when the moving body includes the same shape continuous pattern, the moving body can be appropriately detected without being erroneously detected as the background.

本発明は、上記した実施形態で例示したものに限定されることなく、その範囲を逸脱しない範囲で任意に変形又は拡張することができる。
垂直方向を第1の所定方向とし、水平方向を第2の所定方向とする構成を例示したが、水平方向を第1の所定方向とし、垂直方向を第2の所定方向とする構成でも良い。即ち、水平方向の特徴点間の距離を算出し、水平方向の特徴点間の距離が他と同一となる対が水平方向に第1の所定数以上となる第1の条件を満たし、且つ第1の条件を満たす群が垂直方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する構成でも良い。
第1の条件と第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する構成を例示したが、上下左右の最端部とは別の領域に存在する特徴点を残存対象として決定する構成でも良い。又、残存対象として決定する構成を省いても良い。
車両後方を撮影する構成を例示したが、車両前方や車両側方を撮影することで、車両前方や車両側方の移動体を検知する構成でも良い。
The present invention is not limited to those exemplified in the above-described embodiment, and can be arbitrarily modified or expanded without departing from the scope thereof.
The configuration in which the vertical direction is the first predetermined direction and the horizontal direction is the second predetermined direction is illustrated, but the horizontal direction may be the first predetermined direction and the vertical direction may be the second predetermined direction. That is, the distance between the feature points in the horizontal direction is calculated, a pair in which the distance between the feature points in the horizontal direction is the same as the other satisfies the first condition that the first predetermined number or more in the horizontal direction is satisfied, and It may be configured to determine whether or not there is a feature point that satisfies the second condition in which a group satisfying the condition of 1 satisfies a second predetermined number or more in the vertical direction.
Although the structure which determines as a residual object the feature point which exists in the extreme end of the top, bottom, left and right among the feature points satisfying both the first condition and the second condition is illustrated, it is different from the top, bottom, left and right end parts. The configuration may be such that the feature points existing in the region are determined as the remaining objects. In addition, the configuration that is determined as the remaining object may be omitted.
Although the structure which image | photographs the vehicle back was illustrated, the structure which detects the moving body of the vehicle front and vehicle side by image | photographing the vehicle front and the vehicle side may be sufficient.

図面中、1は車両周辺監視システム、3はカメラ(撮影部)、5は報知デバイス(報知部)、6は制御部、6aは画像取得部、6bはエッジ画像取得部、6cは特徴点抽出部、6dは距離算出部、6eは条件判定部と、6fは特徴点除外部と、6gはオプティカルフロー算出部、6hは報知指令部である。   In the drawings, 1 is a vehicle periphery monitoring system, 3 is a camera (imaging unit), 5 is a notification device (notification unit), 6 is a control unit, 6a is an image acquisition unit, 6b is an edge image acquisition unit, and 6c is feature point extraction. 6d is a distance calculation unit, 6e is a condition determination unit, 6f is a feature point exclusion unit, 6g is an optical flow calculation unit, and 6h is a notification command unit.

Claims (7)

車両周辺を撮影する撮影部(3)と、
前記撮影部により撮影された画像を取得する画像取得部(6a)と、
前記画像からエッジ画像を取得するエッジ画像取得部(6b)と、
前記エッジ画像の特徴点を抽出する特徴点抽出部(6c)と、
第1の所定方向の特徴点間の距離を算出する距離算出部(6d)と、
第1の所定方向の特徴点間の距離が他と同一となる対が第1の所定方向に第1の所定数以上となる第1の条件を満たし、且つ前記第1の条件を満たす群が第2の所定方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する条件判定部(6e)と、
前記第1の条件と前記第2の条件との両方を満たす特徴点を除外対象として前記エッジ画像から除外する特徴点除外部(6f)と、
前記除外対象の特徴点が除外された前記エッジ画像を用いてオプティカルフローを算出するオプティカルフロー算出部(6g)と、を備えた車両周辺監視システム。
A photographing unit (3) for photographing the periphery of the vehicle;
An image acquisition unit (6a) for acquiring an image captured by the imaging unit;
An edge image acquisition unit (6b) for acquiring an edge image from the image;
A feature point extraction unit (6c) for extracting feature points of the edge image;
A distance calculation unit (6d) for calculating a distance between feature points in the first predetermined direction;
A group satisfying a first condition in which a pair having the same distance between feature points in the first predetermined direction is equal to or more than the first predetermined number in the first predetermined direction, and satisfying the first condition. A condition determination unit (6e) that determines whether or not there is a feature point that satisfies the second predetermined number that is equal to or greater than the second predetermined number in the second predetermined direction;
A feature point exclusion unit (6f) that excludes feature points that satisfy both the first condition and the second condition from the edge image as exclusion targets;
A vehicle periphery monitoring system comprising: an optical flow calculation unit (6g) that calculates an optical flow using the edge image from which the feature points to be excluded are excluded.
請求項1に記載した車両周辺監視システムにおいて、
前記距離算出部は、前記第1の所定方向として前記エッジ画像の垂直方向の特徴点間の距離を算出し、
前記条件判定部は、前記第1の条件を満たす群が前記第2の所定方向として前記エッジ画像の水平方向に前記第2の所定数以上となる前記第2の条件を満たす特徴点が存在するか否かを判定する車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 1,
The distance calculation unit calculates a distance between feature points in the vertical direction of the edge image as the first predetermined direction;
The condition determination unit includes a feature point that satisfies the second condition that the group satisfying the first condition is equal to or greater than the second predetermined number in the horizontal direction of the edge image as the second predetermined direction. A vehicle periphery monitoring system that determines whether or not.
請求項1又は2に記載した車両周辺監視システムにおいて、
前記特徴点除外部は、前記第1の条件と前記第2の条件との両方を満たす特徴点のうち少なくとも一の特徴点を残存対象として決定し、その決定した残存対象を除く他の特徴点を除外対象として決定し、その決定した除外対象の特徴点を前記エッジ画像から除外する車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 1 or 2,
The feature point exclusion unit determines at least one feature point among remaining feature points satisfying both the first condition and the second condition as a remaining object, and other feature points excluding the determined remaining object Is determined as an exclusion target, and the feature point of the determined exclusion target is excluded from the edge image.
請求項3に記載した車両周辺監視システムにおいて、
前記特徴点除外部は、前記第1の条件と前記第2の条件との両方を満たす特徴点のうち上下左右の最端部に存在する特徴点を残存対象として決定する車両周辺監視システム。
In the vehicle periphery monitoring system according to claim 3,
The said feature point exclusion part is a vehicle periphery monitoring system which determines the feature point which exists in the extreme end of the top, bottom, left and right among the feature points satisfying both the first condition and the second condition as a remaining object.
請求項1から4の何れか一項に記載した車両周辺監視システムにおいて、
前記オプティカルフロー算出部による算出結果を報知部(5)により報知する報知指令部(6h)を備えた車両周辺監視システム。
In the vehicle periphery monitoring system according to any one of claims 1 to 4,
The vehicle periphery monitoring system provided with the alerting | reporting instruction | indication part (6h) which alert | reports the calculation result by the said optical flow calculation part by an alerting | reporting part (5).
請求項1から5の何れか一項に記載した車両周辺監視システムにおいて、
前記撮影部は、車両後方を撮影する車両周辺監視システム。
In the vehicle periphery monitoring system according to any one of claims 1 to 5,
The said imaging | photography part is a vehicle periphery monitoring system which image | photographs the vehicle back.
車両周辺を撮影する撮影する撮影部(3)を有する車両周辺監視システム(1)の制御部(6)に、
前記撮影部により撮影された画像を取得する画像取得手順と、
前記画像からエッジ画像を取得するエッジ画像取得手順と、
前記エッジ画像の特徴点を抽出する特徴点抽出手順と、
第1の所定方向の特徴点間の距離を算出する距離算出手順と、
第1の所定方向の特徴点間の距離が他と同一となる対が第1の所定方向に第1の所定数以上となる第1の条件を満たし、且つ前記第1の条件を満たす群が第2の所定方向に第2の所定数以上となる第2の条件を満たす特徴点が存在するか否かを判定する条件判定手順と、
前記第1の条件と前記第2の条件との両方を満たす特徴点を除外対象として前記エッジ画像から除外する特徴点除外手順と、
前記除外対象の特徴点が除外された前記エッジ画像を用いてオプティカルフローを算出するオプティカルフロー算出手順と、を実行させるコンピュータプログラム。
In the control unit (6) of the vehicle periphery monitoring system (1) having an image capturing unit (3) for capturing the periphery of the vehicle,
An image acquisition procedure for acquiring an image captured by the imaging unit;
An edge image acquisition procedure for acquiring an edge image from the image;
A feature point extraction procedure for extracting feature points of the edge image;
A distance calculation procedure for calculating a distance between feature points in a first predetermined direction;
A group satisfying a first condition in which a pair having the same distance between feature points in the first predetermined direction is equal to or more than the first predetermined number in the first predetermined direction, and satisfying the first condition. A condition determination procedure for determining whether or not there is a feature point that satisfies the second predetermined number that is equal to or greater than the second predetermined number in the second predetermined direction;
A feature point exclusion procedure for excluding feature points that satisfy both the first condition and the second condition from the edge image as exclusion targets;
A computer program for executing an optical flow calculation procedure for calculating an optical flow using the edge image from which the feature points to be excluded are excluded.
JP2016023619A 2016-02-10 2016-02-10 Vehicle periphery monitoring system and computer program Expired - Fee Related JP6531660B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016023619A JP6531660B2 (en) 2016-02-10 2016-02-10 Vehicle periphery monitoring system and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016023619A JP6531660B2 (en) 2016-02-10 2016-02-10 Vehicle periphery monitoring system and computer program

Publications (2)

Publication Number Publication Date
JP2017142661A true JP2017142661A (en) 2017-08-17
JP6531660B2 JP6531660B2 (en) 2019-06-19

Family

ID=59627943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016023619A Expired - Fee Related JP6531660B2 (en) 2016-02-10 2016-02-10 Vehicle periphery monitoring system and computer program

Country Status (1)

Country Link
JP (1) JP6531660B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003850A (en) * 2018-06-25 2020-01-09 クラリオン株式会社 Fence detector

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for preventing collision of moving body and recording medium
JP2004145592A (en) * 2002-10-24 2004-05-20 Nippon Telegr & Teleph Corp <Ntt> Motion vector extraction device, method and program, and its recording medium

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285245A (en) * 1999-03-31 2000-10-13 Toshiba Corp Method and device for preventing collision of moving body and recording medium
JP2004145592A (en) * 2002-10-24 2004-05-20 Nippon Telegr & Teleph Corp <Ntt> Motion vector extraction device, method and program, and its recording medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020003850A (en) * 2018-06-25 2020-01-09 クラリオン株式会社 Fence detector
JP7262184B2 (en) 2018-06-25 2023-04-21 フォルシアクラリオン・エレクトロニクス株式会社 fence detector

Also Published As

Publication number Publication date
JP6531660B2 (en) 2019-06-19

Similar Documents

Publication Publication Date Title
JP4173901B2 (en) Vehicle periphery monitoring device
JP6282498B2 (en) Image processing apparatus, method thereof, and program thereof
US9736460B2 (en) Distance measuring apparatus and distance measuring method
JP6508337B2 (en) Object detection method and object detection apparatus
WO2017104835A1 (en) Intrusion detection device, setting assistance device, intrusion detection method, setting assistance method, and program recording medium
JP6407626B2 (en) Object recognition device and vehicle control system
KR101916467B1 (en) Apparatus and method for detecting obstacle for Around View Monitoring system
JP6325927B2 (en) Object detection apparatus and vehicle control system using the same
TW201629846A (en) Modification of at least one parameter used by a video processing algorithm for monitoring of a scene
EP3113148A1 (en) Local location computation device and local location computation method
JP2007310706A (en) Vehicle periphery monitoring device
US9367742B2 (en) Apparatus and method for monitoring object from captured image
JP2014137288A (en) Device and method for monitoring surroundings of vehicle
JP2009175802A (en) Object detection system
WO2018211930A1 (en) Object detection device, object detection method, and computer-readable recording medium
EP3113150A1 (en) Local location computation device and local location computation method
JP6515704B2 (en) Lane detection device and lane detection method
US20170318279A1 (en) Stereo camera apparatus and vehicle comprising the same
WO2019044625A1 (en) Collision prediction device, collision prediction method, and program
JP2015185135A (en) Parking recognition device, parking recognition method and program
JP6531660B2 (en) Vehicle periphery monitoring system and computer program
JP6527183B2 (en) Leftover object detection device
Ye et al. An improved algorithm for Harris corner detection
JP2008165595A (en) Obstacle detection method, obstacle detection device, and obstacle detection system
JP4762774B2 (en) Ranging device and vehicle periphery monitoring device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190423

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190506

R151 Written notification of patent or utility model registration

Ref document number: 6531660

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees