JP2008257399A - Image processor - Google Patents

Image processor Download PDF

Info

Publication number
JP2008257399A
JP2008257399A JP2007097700A JP2007097700A JP2008257399A JP 2008257399 A JP2008257399 A JP 2008257399A JP 2007097700 A JP2007097700 A JP 2007097700A JP 2007097700 A JP2007097700 A JP 2007097700A JP 2008257399 A JP2008257399 A JP 2008257399A
Authority
JP
Japan
Prior art keywords
point
attention
surrounding
points
attention point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007097700A
Other languages
Japanese (ja)
Inventor
Masamichi Osugi
雅道 大杉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2007097700A priority Critical patent/JP2008257399A/en
Publication of JP2008257399A publication Critical patent/JP2008257399A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processor for detecting a part wherein a person may dash out without using a special device. <P>SOLUTION: This image processor 1 has a camera 10 picking up an image in front of a vehicle, and an image processing ECU (Electronic Control Unit) 20. The image processing ECU 20 is configured with: a target point setting part 21 setting a target point in a photographic image imaged by the camera 10; a peripheral point setting part 22 setting a peripheral point positioned around the target point, and on a straight line connecting the target point and a vanishing point; and a discontinuity decision part 24 detecting a gap wherein a person may dash out by comparing a characteristic amount of the target point and a characteristic amount of the peripheral point to decide discontinuity of the depth between the target point and the peripheral point in a real space. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置に関する。   The present invention relates to an image processing apparatus.

車両運転者の認知・判断行動を支援することによって安全性を向上させることを目的とし、車両前方での物体の飛び出しを検出する装置が研究・開発されている。このような装置として、特許文献1には、自車両の進行先の撮像画像を取得し、この撮像画像中に実空間上に仮想的に固定された検出領域を設定して、設定された検出領域におけるオプティカルフローを算出し、そのオプティカルフローに基づいて飛び出し物体を検出する飛び出し物体検出装置が開示されている。   In order to improve safety by supporting the recognition and judgment behavior of a vehicle driver, an apparatus for detecting an object jumping out in front of the vehicle has been researched and developed. As such an apparatus, in Patent Document 1, a captured image of a travel destination of the host vehicle is acquired, a detection region virtually fixed in real space is set in the captured image, and the set detection is performed. A pop-out object detection device is disclosed that calculates an optical flow in a region and detects a pop-out object based on the optical flow.

一方、移動方向や移動速度等の移動状態を検出してその検出情報を無線通信によって交換することができる装置を備えた歩行者や他車両からその検出情報を取得することにより、自車両の移動方向に存在する歩行者や他車両の飛び出しを予測する技術も知られている。
特開2006−72439号公報
On the other hand, the movement of the host vehicle is obtained by acquiring the detection information from a pedestrian or other vehicle equipped with a device capable of detecting a movement state such as a movement direction and a movement speed and exchanging the detection information by wireless communication. A technique for predicting the jump of a pedestrian or other vehicle existing in a direction is also known.
JP 2006-72439 A

ここで、上述した飛び出し検出装置によれば、実際に飛び出してきた物体を検出することはできる。しかしながら、既に飛び出してきている物体を検出できたとしても、その時点からでは、とることのできる対応策が限られてしまうおそれがある。一方、上述した歩行者や他車両の飛び出しを予測する技術を実現するためには、自車両の移動方向に存在する歩行者や他車両が、移動状態を検出する各種センサや通信端末などの特別な装置を備えている必要がある。   Here, according to the pop-out detection device described above, it is possible to detect an object that has actually popped out. However, even if an object that has already popped out can be detected, the countermeasures that can be taken from that point of time may be limited. On the other hand, in order to realize the above-described technology for predicting the pedestrians and other vehicles jumping out, the pedestrians and other vehicles existing in the moving direction of the own vehicle have special sensors such as various sensors and communication terminals for detecting the moving state. It is necessary to have a proper device.

本発明は、上記問題点を解消する為になされたものであり、特別な装置を用いることなく、飛び出しが発生する可能性のある箇所を検知することが可能な画像処理装置を提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides an image processing apparatus capable of detecting a place where a jump may occur without using a special apparatus. Objective.

本発明に係る画像処理装置は、車両前方を撮像する撮像手段と、撮像手段により撮像された撮像画像中において、注目点を設定する注目点設定手段と、注目点設定手段により設定された注目点の周囲に位置する周囲点を設定する周囲点設定手段と、注目点の特徴量と周囲点の特徴量とを比較することにより、注目点と周囲点との実空間における不連続性を判定する判定手段とを備えることを特徴とする。   An image processing apparatus according to the present invention includes an imaging unit that captures the front of a vehicle, an attention point setting unit that sets an attention point in a captured image captured by the imaging unit, and an attention point set by the attention point setting unit. The discontinuity in the real space between the attention point and the surrounding point is determined by comparing the feature amount of the attention point and the feature amount of the surrounding point with the surrounding point setting means for setting the surrounding points located around And determining means.

本発明に係る画像処理装置によれば、撮像画像中の注目点とその周囲に位置する周囲点とについて特徴量の比較が行われることにより、注目点及び周囲点それぞれに対応する実空間での2点間の不連続性が判定される。その結果、特別な装置を用いることなく、2点間の不連続性に関する判定結果に基づいて、運転者から見えていない物体が飛び出してくる可能性がある道路に面した(奥行きが不連続になる)隙間を検知することが可能となる。   According to the image processing device of the present invention, the feature amount is compared between the attention point in the captured image and the surrounding points located around the attention point, so that in the real space corresponding to the attention point and the surrounding points respectively. A discontinuity between the two points is determined. As a result, without using a special device, based on the determination result regarding the discontinuity between the two points, it faces a road where an object that is not visible to the driver may pop out (the depth is discontinuous). It becomes possible to detect the gap.

本発明に係る画像処理装置では、周囲点設定手段が、撮像画像中の消失点を求めるとともに、注目点と消失点とを結ぶ直線上に周囲点を設定することが好ましい。   In the image processing apparatus according to the present invention, it is preferable that the surrounding point setting unit obtains the vanishing point in the captured image and sets the surrounding point on a straight line connecting the attention point and the vanishing point.

歩行者や他車両などは道路面に対して平行に移動するため、通常、物体が飛び出してくる隙間は、道路面に沿って存在する。本発明に係る画像処理装置によれば、注目点と比較される周囲点が、注目点と消失点とを結ぶ直線上に設定される。このことは、注目点に対して、道路面と平行な位置関係にある点が周囲点として設定されることを意味する。そのため、実空間で物体が飛び出してくる可能性が高い隙間、すなわち道路面に沿って存在する隙間を適切に検知することが可能となる。   Since pedestrians and other vehicles move in parallel to the road surface, there is usually a gap along which the object pops out along the road surface. According to the image processing apparatus of the present invention, the surrounding points to be compared with the attention point are set on a straight line connecting the attention point and the vanishing point. This means that a point in a positional relationship parallel to the road surface with respect to the point of interest is set as a surrounding point. For this reason, it is possible to appropriately detect a gap where an object is likely to jump out in real space, that is, a gap existing along the road surface.

また、本発明に係る画像処理装置では、注目点設定手段が、撮像画像の略縦方向に複数の注目点を設定し、周囲点設定手段が、複数の注目点それぞれに対応する複数の周囲点を設定し、連続性判定手段が、複数の注目点それぞれの特徴量と、複数の周囲点それぞれの特徴量とを比較することにより、実空間における不連続性を判定することが好ましい。   In the image processing apparatus according to the present invention, the attention point setting unit sets a plurality of attention points in a substantially vertical direction of the captured image, and the surrounding point setting unit includes a plurality of surrounding points corresponding to each of the plurality of attention points. It is preferable that the continuity determination unit determines discontinuity in the real space by comparing the feature quantities of the plurality of attention points with the feature quantities of the plurality of surrounding points.

上述したように、物体が飛び出してくる隙間は道路面に沿って存在する。また、その隙間を形成する壁等は、道路面から略鉛直方向に形成されていることが多い。本発明に係る画像処理装置では、撮像画像の略縦方向、すなわち実空間の略鉛直方向に複数の注目点を設定するとともに、該複数の注目点それぞれに対応する複数の周囲点が設定され、これらの注目点と周囲点との間で特徴量が比較されることにより、実空間での不連続性が判定される。そのため、隙間を形成する壁面等の縁に沿って、実空間での不連続性を判定することができ、物体が飛び出してくる可能性が高い隙間の検知精度を向上することが可能となる。   As described above, the gap where the object pops out exists along the road surface. Further, the walls and the like forming the gap are often formed in a substantially vertical direction from the road surface. In the image processing apparatus according to the present invention, a plurality of attention points are set in a substantially vertical direction of a captured image, that is, a substantially vertical direction in real space, and a plurality of surrounding points corresponding to each of the plurality of attention points are set. A discontinuity in the real space is determined by comparing feature quantities between these attention points and surrounding points. Therefore, the discontinuity in the real space can be determined along the edge of the wall surface or the like that forms the gap, and it is possible to improve the accuracy of detecting the gap where there is a high possibility that the object will pop out.

本発明に係る画像処理装置では、注目点の特徴量及び周囲点の特徴量として、輝度、オプティカルフロー、又は3次元座標を用いることが好ましい。   In the image processing apparatus according to the present invention, it is preferable to use luminance, optical flow, or three-dimensional coordinates as the feature amount of the attention point and the feature amount of the surrounding points.

注目点と周囲点との間で奥行きが不連続である場合には、奥行きが連続している場合と比較して、注目点と周囲点の撮像画像上での輝度、オプティカルフローや3次元座標の値が大きく変化する。本発明に係る画像処理装置によれば、比較する特徴量として、輝度、オプティカルフロー、又は3次元座標を用いることにより、注目点と周囲点との奥行きが不連続であるか否かを適切に判定することが可能となる。   When the depth is discontinuous between the point of interest and the surrounding points, the brightness, optical flow, and three-dimensional coordinates on the captured image of the point of interest and the surrounding points are compared to when the depth is continuous. The value of changes significantly. According to the image processing apparatus of the present invention, it is possible to appropriately determine whether or not the depths of the attention point and the surrounding points are discontinuous by using luminance, optical flow, or three-dimensional coordinates as feature quantities to be compared. It becomes possible to judge.

本発明によれば、注目点の特徴量と周囲点の特徴量とを比較することにより、注目点と周囲点との実空間における奥行きの不連続性を判定する構成としたので、特別な装置を必要とすることなく、飛び出しが発生する可能性のある箇所を検知することが可能となる。   According to the present invention, since the feature amount of the attention point and the feature amount of the surrounding point are compared to determine the discontinuity of the depth in the real space between the attention point and the surrounding point, a special device is provided. It is possible to detect a place where a pop-out may occur without the need for.

以下、図面を参照して本発明の好適な実施形態について詳細に説明する。図中、同一又は相当部分には同一符号を用いることとする。   DESCRIPTION OF EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the drawings. In the figure, the same reference numerals are used for the same or corresponding parts.

まず、図1を用いて、実施形態に係る画像処理装置1の構成について説明する。図1は画像処理装置1の構成を示すブロック図である。   First, the configuration of the image processing apparatus 1 according to the embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration of the image processing apparatus 1.

画像処理装置1は、車両に搭載され、車両前方を撮像するとともに、その撮像画像中に含まれる2点間(又は2以上の複数点間)の奥行き方向の不連続性を判定することにより、車両前方に存在する、物体が飛び出してくる可能性のある道路に面した隙間を検知するものである。そのために、画像処理装置1は、車両前方のシーンを撮像するカメラ10、及び画像処理ECU(Electronic Control Unit)20を備えている。   The image processing device 1 is mounted on a vehicle, images the front of the vehicle, and determines discontinuity in the depth direction between two points (or between two or more points) included in the captured image, It detects a gap that faces the road in front of the vehicle where an object may pop out. For this purpose, the image processing apparatus 1 includes a camera 10 that captures a scene in front of the vehicle and an image processing ECU (Electronic Control Unit) 20.

カメラ10は、画像処理装置1が搭載された車両に取り付けられ、車両前方のシーンを撮像する。カメラ10は、例えば、ルームミラーの背面等に車両前方に向けて取り付けられている。カメラ10では、一定時間(例えば、1/30秒)毎に画像を撮像し、各フレームの画像情報を画像信号として画像処理ECU20に出力する。すなわち、カメラ10は、特許請求の範囲に記載の撮像手段として機能する。   The camera 10 is attached to a vehicle on which the image processing device 1 is mounted, and images a scene in front of the vehicle. For example, the camera 10 is attached to the rear surface of a rearview mirror or the like toward the front of the vehicle. The camera 10 captures an image at regular time intervals (for example, 1/30 seconds), and outputs image information of each frame to the image processing ECU 20 as an image signal. That is, the camera 10 functions as an imaging unit described in the claims.

画像処理ECU20は、演算を行うマイクロプロセッサ、マイクロプロセッサに各処理を実行させるためのプログラム等を記憶するROM、演算結果などの各種データを記憶するRAM及びバッテリによってその記憶内容が保持されるバックアップRAM等により構成されている。   The image processing ECU 20 includes a microprocessor that performs calculations, a ROM that stores programs for causing the microprocessor to execute each process, a RAM that stores various data such as calculation results, and a backup RAM in which the stored contents are held by a battery. Etc.

画像処理ECU20では、ROM等に記憶されたプログラムが実行されることにより、注目点設定部21、周囲点設定部22、特徴量抽出部23、及び不連続性判定部24が機能的に構築される。ここで、注目点設定部21は特許請求の範囲に記載の注目点設定手段に相当し、周囲点設定部22は周囲点設定手段に相当する。また、特徴量抽出部23及び不連続性判定部24は判定手段に相当する。   In the image processing ECU 20, the attention point setting unit 21, the surrounding point setting unit 22, the feature amount extraction unit 23, and the discontinuity determination unit 24 are functionally constructed by executing a program stored in the ROM or the like. The Here, the attention point setting unit 21 corresponds to attention point setting means described in the claims, and the surrounding point setting unit 22 corresponds to surrounding point setting means. The feature quantity extraction unit 23 and the discontinuity determination unit 24 correspond to a determination unit.

注目点設定部21は、カメラ10により撮像された撮像画像中に注目点を設定する。ここで、注目点とは、撮像画像中で飛び出しが有り得るか否かを確認すべき点である。事前情報から実空間で飛び出しがありそうな領域が予め判明しており、その実空間に対応した撮像画像中の領域が分かっている場合には、その領域に含まれる点を注目点として設定する。一方、事前情報が何もない場合には、撮像画像中の全画素を注目点として設定する。また、撮像画像中の色が急激に変化している領域に含まれる点、例えば撮像画像が白黒画像であれば輝度が急激に変化している領域に含まれる点、カラー画像であれば色そのものが大きく変化している領域に含まれる点を注目点として設定してもよい。なお、設定する注目点の数は、1であっても複数であってもよい。ただし、注目点を複数設定する場合には、撮像画像の略縦方向に複数の注目点を設定することが好ましい。   The attention point setting unit 21 sets the attention point in the captured image captured by the camera 10. Here, the attention point is a point to check whether or not there is a pop-up in the captured image. When a region that is likely to jump out in the real space is previously determined from the prior information, and a region in the captured image corresponding to the real space is known, a point included in the region is set as a point of interest. On the other hand, when there is no prior information, all pixels in the captured image are set as attention points. Also, a point included in a region where the color in the captured image changes abruptly, for example, a point included in a region where the luminance changes abruptly if the captured image is a monochrome image, or a color itself if it is a color image A point included in a region in which the value of is greatly changed may be set as a point of interest. Note that the number of attention points to be set may be one or plural. However, when a plurality of attention points are set, it is preferable to set a plurality of attention points in a substantially vertical direction of the captured image.

周囲点設定部22は、撮像画像中の消失点を求めるとともに、注目点設定部21により設定された注目点の周囲であって、該注目点と消失点とを結ぶ直線上に位置する点を周囲点として設定する。したがって、注目点が複数設定されているときには、それに対応して、周囲点も複数設定される。   The surrounding point setting unit 22 obtains a vanishing point in the captured image, and finds a point located on the straight line connecting the attention point and the vanishing point around the attention point set by the attention point setting unit 21. Set as a surrounding point. Therefore, when a plurality of attention points are set, a plurality of surrounding points are also set correspondingly.

特徴量抽出部23は、注目点及び周囲点の特徴量、例えば、注目点と周囲点の撮像画像中の輝度、オプティカルフロー、及び/又は3次元座標を取得する。   The feature amount extraction unit 23 acquires feature amounts of the attention point and the surrounding points, for example, luminance, optical flow, and / or three-dimensional coordinates in the captured image of the attention point and the surrounding points.

不連続性判定部24は、特徴量抽出部23で取得された注目点の特徴量と周囲点の特徴量とを比較することにより、注目点と周囲点との実空間における奥行き方向の不連続性を判定する。すなわち、注目点の特徴量と周囲点の特徴量とが所定値以上異なっている場合には、奥行きが不連続になる隙間があると判定される。一方、注目点の特徴量と周囲点の特徴量との偏差が所定値未満であるときには、注目点と周囲点とは奥行き方向に連続している(すなわち、隙間が存在しない)と判定される。そして、不連続性判定部24は、道路面に沿った隙間が検知された場合、該隙間を飛び出し領域として特定し、その結果を出力する。   The discontinuity determination unit 24 compares the feature amount of the attention point acquired by the feature amount extraction unit 23 with the feature amount of the surrounding point, thereby discontinuity in the depth direction in the real space between the attention point and the surrounding point. Determine sex. That is, when the feature amount of the attention point and the feature amount of the surrounding points are different from each other by a predetermined value or more, it is determined that there is a gap where the depth is discontinuous. On the other hand, when the deviation between the feature amount of the attention point and the feature amount of the surrounding points is less than the predetermined value, it is determined that the attention point and the surrounding points are continuous in the depth direction (that is, there is no gap). . Then, when a gap along the road surface is detected, the discontinuity determination unit 24 identifies the gap as a pop-out area and outputs the result.

次に、図2を用いて、画像処理装置1の動作について説明する。図2は、画像処理装置1による飛び出し領域判定処理の処理手順を示すフローチャートである。この処理は、画像処理ECU20によって行われるものであり、画像処理ECU20の電源がオンされてからオフされるまでの間、所定のタイミングで繰り返し実行される。   Next, the operation of the image processing apparatus 1 will be described with reference to FIG. FIG. 2 is a flowchart showing a processing procedure of the pop-out area determination process by the image processing apparatus 1. This process is performed by the image processing ECU 20, and is repeatedly executed at a predetermined timing from when the power of the image processing ECU 20 is turned on to when it is turned off.

ステップS100では、カメラ10により撮像された車両前方の撮像画像が読み込まれる。続いて、ステップS102では、ステップS100で読み込まれた撮像画像中の注目点が設定される。注目点の設定方法については上述したとおりであるので、ここでは重複する説明を省略する。   In step S100, a captured image in front of the vehicle captured by the camera 10 is read. Subsequently, in step S102, a point of interest in the captured image read in step S100 is set. Since the attention point setting method is as described above, a duplicate description is omitted here.

続くステップS104では、ステップS102で設定された注目点に対応した周囲点が設定される。ここでは、撮像画像中の消失点を求めるとともに、注目点の周囲であって、該注目点と消失点とを結ぶ直線上に位置する点を周囲点として設定する。ここで、図3,図4を参照しつつ、さらに具体的に周囲点の設定方法について説明する。図3は、周囲点の設定方法を説明するための撮像画像の一例である。また、図4は、図3に示される撮像画像に対応した実空間を上方から見た鳥瞰図である。   In subsequent step S104, surrounding points corresponding to the attention point set in step S102 are set. Here, the vanishing point in the captured image is obtained, and a point around the attention point and located on a straight line connecting the attention point and the vanishing point is set as the surrounding point. Here, a method for setting the surrounding points will be described more specifically with reference to FIGS. FIG. 3 is an example of a captured image for explaining a surrounding point setting method. FIG. 4 is a bird's eye view of the real space corresponding to the captured image shown in FIG. 3 as viewed from above.

図3に示される撮像画像において、飛び出しが起こり得る領域は楕円で囲まれた領域、すなわち壁が途切れている領域である。ここで、壁が途切れている領域とは、図4で示されるように、道路境界線に沿った方向(奥行き方向)で壁の連続性を評価したときに、壁が不連続になっている箇所である。そこで、図3に示された撮像画像から壁の不連続性を判定するには、撮像画像中の各点と道路境界線が作る道路消失点DPとを結ぶ直線上の画素間で不連続性を判定することによって実現することができる。よって、ここでは、注目点APと消失点DPとを結ぶ直線L上に位置する点を、注目点APが不連続点となるか否かを評価するための周囲点CPとして設定した。   In the captured image shown in FIG. 3, the region where the pop-out can occur is a region surrounded by an ellipse, that is, a region where the wall is interrupted. Here, as shown in FIG. 4, the region where the wall is interrupted is that the wall is discontinuous when the continuity of the wall is evaluated in the direction along the road boundary line (depth direction). It is a place. Therefore, in order to determine the discontinuity of the wall from the captured image shown in FIG. 3, the discontinuity between the pixels on the straight line connecting each point in the captured image and the road vanishing point DP formed by the road boundary line. It can be realized by determining. Therefore, here, a point located on the straight line L connecting the attention point AP and the vanishing point DP is set as a peripheral point CP for evaluating whether or not the attention point AP is a discontinuous point.

続いてステップS106において、注目点及び周囲点の特徴量、例えば、注目点と周囲点の撮像画像中の輝度、オプティカルフロー、及び/又は3次元座標が取得される。ここで、特徴量として輝度値を用いる場合には、各点の輝度値が撮像画像中の画素から抽出される。特徴量としてオプティカルフローを用いるときには、各点のオプティカルフローが撮像画像から抽出される。なお、オプティカルフローの抽出には公知の技術を用いることができる(例えば「B.Horn and B.Schunck. Determining optical flow. ArtificialIntelligence, 17:185-203, 1981.」参照)。また、特徴量として3次元座標を利用する場合には、各点の3次元座標が取得される。なお、3次元座標の取得には公知の技術を用いることができる(例えば「徐剛 3次元ビジョン 共立出版 P95」参照)。   Subsequently, in step S106, feature quantities of the attention point and the surrounding points, for example, luminance, optical flow, and / or three-dimensional coordinates in the captured image of the attention point and the surrounding points are acquired. Here, when the luminance value is used as the feature amount, the luminance value at each point is extracted from the pixels in the captured image. When the optical flow is used as the feature amount, the optical flow at each point is extracted from the captured image. A known technique can be used for extraction of the optical flow (see, for example, “B. Horn and B. Schunck. Determining optical flow. Artificial Intelligence, 17: 185-203, 1981”). In addition, when three-dimensional coordinates are used as feature quantities, the three-dimensional coordinates of each point are acquired. In addition, a well-known technique can be used for acquisition of a three-dimensional coordinate (for example, refer to "Xugang three-dimensional vision Kyoritsu publication P95").

次に、ステップS108では、ステップS106で取得された注目点の特徴量(例えば輝度など)と周囲点の特徴量(例えば輝度など)との比較結果に応じて、注目点・周囲点間の連続性/不連続性が判定される。ここで、注目点の特徴量と周囲点の特徴量との差の絶対値が所定のしきい値未満の場合には注目点と周囲点とは奥行き方向に連続していると判定することができる。一方、注目点の特徴量と周囲点の特徴量との差の絶対値が所定のしきい値以上のときには注目点と周囲点とは奥行き方向に連続していない(すなわち不連続である)と判定することができる。   Next, in step S108, the continuity between the attention point and the surrounding points is determined according to the comparison result between the feature amount (for example, luminance) of the attention point acquired in step S106 and the feature amount (for example, luminance) of the surrounding points. Sex / discontinuity is determined. Here, when the absolute value of the difference between the feature value of the attention point and the feature value of the surrounding points is less than a predetermined threshold value, it can be determined that the attention point and the surrounding points are continuous in the depth direction. it can. On the other hand, when the absolute value of the difference between the feature value of the attention point and the feature value of the surrounding points is equal to or greater than a predetermined threshold value, the attention point and the surrounding points are not continuous in the depth direction (that is, discontinuous). Can be determined.

また、周囲点の特徴量に基づいて、周囲点の特徴量を生成する母分布を推定するとともに、注目点の特徴量がその母分布から生成される確率を計算し、その確率が所定のしきい値未満の場合には注目点と周囲点とは不連続であると判定し、その確率が所定のしきい値以上のときには注目点と周囲点とは連続していると判定するようにしてもよい。なお、母分布の推定や、注目点の特徴量がその母分布から生成される確率の算出は、公知の技術を用いることができる(例えば「石井健一郎、上田修功、前田英作、村瀬洋 著、わかりやすいパターン認識、オーム社、P49〜55参照)。   Also, based on the feature values of the surrounding points, the population distribution that generates the feature values of the surrounding points is estimated, and the probability that the feature amount of the attention point is generated from the population distribution is calculated. When the threshold value is less than the threshold value, it is determined that the attention point and the surrounding points are discontinuous, and when the probability is equal to or higher than a predetermined threshold value, it is determined that the attention point and the surrounding points are continuous. Also good. In addition, the estimation of the population distribution and the calculation of the probability that the feature quantity of the attention point is generated from the population distribution can use known techniques (for example, “Kenichiro Ishii, Nobuyoshi Ueda, Hidesaku Maeda, Hiroshi Murase, Easy-to-understand pattern recognition, see Ohm, P49-55).

続くステップS110では、ステップS108で判定された判定結果に基づいて、飛び出し領域の特定が行われる。ここでは、ステップS108で不連続であると判定された注目点(又は周囲点)が、所定のしきい値以上連続して存在しているか否かに応じて、不連続線、すなわち飛び出し領域であるか否かが判定される。ここで、不連続であると判定された注目点が所定のしきい値以上連続して存在している場合には、飛び出し領域であると判定される。一方、不連続であると判定された注目点が所定のしきい値以上連続して存在していないときには、飛び出し領域とは判定されない。これは、検出ノイズを除去して、判定結果の信頼性を向上させるためである。   In the subsequent step S110, the pop-out area is specified based on the determination result determined in step S108. Here, depending on whether or not the point of interest (or surrounding points) determined to be discontinuous in step S108 exists continuously over a predetermined threshold, it is a discontinuous line, that is, a pop-up area. It is determined whether or not there is. Here, when the attention points determined to be discontinuous exist continuously for a predetermined threshold value or more, it is determined to be a pop-out area. On the other hand, if the point of interest determined to be discontinuous does not exist continuously for a predetermined threshold value or more, it is not determined to be a pop-out area. This is for removing the detection noise and improving the reliability of the determination result.

以上のように、本実施形態によれば、撮像画像中の注目点とその周囲に位置する周囲点とについて特徴量の比較が行われることにより、注目点及び周囲点それぞれに対応する実空間での2点間の奥行きの不連続性が判定される。その結果、特別な装置を用いることなく、2点間の奥行きの不連続性に関する判定結果に基づいて、物体が飛び出してくる可能性がある道路に面した(奥行きが不連続になる)隙間を検知することが可能となる。   As described above, according to the present embodiment, the feature amount is compared between the attention point in the captured image and the surrounding points located around the attention point, so that in the real space corresponding to each of the attention point and the surrounding points. The depth discontinuity between the two points is determined. As a result, without using a special device, based on the determination result regarding the discontinuity of the depth between two points, the gap facing the road where the object may jump out (the depth becomes discontinuous) It becomes possible to detect.

歩行者や他車両などは道路面に対して平行に移動するため、通常、物体が飛び出してくる隙間は、道路面に沿って存在する。本実施形態によれば、注目点と比較される周囲点が、注目点と消失点とを結ぶ直線上に設定される。そのため、実空間で物体が飛び出してくる可能性が高い隙間、すなわち道路面に沿って存在する隙間を適切に検知することが可能となる。   Since pedestrians and other vehicles move in parallel to the road surface, there is usually a gap along which the object pops out along the road surface. According to the present embodiment, the surrounding points to be compared with the attention point are set on a straight line connecting the attention point and the vanishing point. For this reason, it is possible to appropriately detect a gap where an object is likely to jump out in real space, that is, a gap existing along the road surface.

上述したように、物体が飛び出してくる隙間を形成する壁等は、道路面から略鉛直方向に形成されていることが多い。ここで、本実施形態では、不連続であると判定された注目点が所定のしきい値以上連続して存在している場合に、飛び出し領域であると判定される。すなわち、隙間を形成する壁面等の縁に沿って、実空間での不連続性が判定されるため、物体が飛び出してくる可能性が高い隙間の検知精度を向上することが可能となる。   As described above, a wall or the like that forms a gap from which an object pops out is often formed in a substantially vertical direction from the road surface. Here, in this embodiment, when the attention point determined to be discontinuous exists continuously for a predetermined threshold value or more, it is determined to be a pop-out area. That is, since the discontinuity in the real space is determined along the edge of the wall surface or the like that forms the gap, it is possible to improve the accuracy of detecting the gap where the object is likely to jump out.

注目点と周囲点との間で奥行きが不連続である場合には、奥行きが連続している場合と比較して、注目点と周囲点の撮像画像上での輝度、オプティカルフローや3次元座標の値が大きく変化する。本実施形態によれば、比較する特徴量として、輝度、オプティカルフロー、及び/又は3次元座標を用いることにより、注目点と周囲点との奥行きが不連続であるか否かを適切に判定することが可能となる。   When the depth is discontinuous between the point of interest and the surrounding points, the brightness, optical flow, and three-dimensional coordinates on the captured image of the point of interest and the surrounding points are compared to when the depth is continuous. The value of changes significantly. According to the present embodiment, brightness, optical flow, and / or three-dimensional coordinates are used as feature quantities to be compared, thereby appropriately determining whether or not the depths of the attention point and the surrounding points are discontinuous. It becomes possible.

以上、本発明の実施の形態について説明したが、本発明は、上記実施形態に限定されるものではなく種々の変形が可能である。   Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made.

実施形態に係る画像処理装置の構成を示すブロック図である。It is a block diagram which shows the structure of the image processing apparatus which concerns on embodiment. 実施形態に係る画像処理装置による飛び出し領域判定処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the protrusion area | region determination process by the image processing apparatus which concerns on embodiment. 周囲点の設定方法を説明するための撮像画像の一例である。It is an example of the captured image for demonstrating the setting method of a surrounding point. 図3に示される撮像画像に対応した実空間を上方から見た鳥瞰図である。It is the bird's-eye view which looked at the real space corresponding to the captured image shown by FIG. 3 from upper direction.

符号の説明Explanation of symbols

1…画像処理装置、10…カメラ、20…画像処理ECU、21…注目点設定部、22…周囲点設定部、23…特徴量抽出部、24…不連続性判定部。   DESCRIPTION OF SYMBOLS 1 ... Image processing apparatus, 10 ... Camera, 20 ... Image processing ECU, 21 ... Attention point setting part, 22 ... Peripheral point setting part, 23 ... Feature-value extraction part, 24 ... Discontinuity determination part.

Claims (4)

車両前方を撮像する撮像手段と、
前記撮像手段により撮像された撮像画像中において、注目点を設定する注目点設定手段と、
前記注目点設定手段により設定された前記注目点の周囲に位置する周囲点を設定する周囲点設定手段と、
前記注目点の特徴量と前記周囲点の特徴量とを比較することにより、前記注目点と前記周囲点との実空間における不連続性を判定する判定手段と、を備えることを特徴とする画像処理装置。
Imaging means for imaging the front of the vehicle;
An attention point setting means for setting an attention point in the captured image captured by the imaging means;
Surrounding point setting means for setting surrounding points located around the attention point set by the attention point setting means;
An image comprising: determination means for determining discontinuity in the real space between the attention point and the surrounding point by comparing the feature amount of the attention point and the feature amount of the surrounding point. Processing equipment.
前記周囲点設定手段は、前記撮像画像中の消失点を求めるとともに、前記注目点と前記消失点とを結ぶ直線上に前記周囲点を設定することを特徴とする請求項1に記載の画像処理装置。   The image processing according to claim 1, wherein the surrounding point setting unit obtains a vanishing point in the captured image and sets the surrounding point on a straight line connecting the attention point and the vanishing point. apparatus. 前記注目点設定手段は、前記撮像画像の略縦方向に複数の注目点を設定し、
前記周囲点設定手段は、前記複数の注目点それぞれに対応する複数の周囲点を設定し、
前記判定手段は、前記複数の注目点それぞれの特徴量と、前記複数の周囲点それぞれの特徴量とを比較することにより、実空間における不連続性を判定することを特徴とする請求項2に記載の画像処理装置。
The attention point setting means sets a plurality of attention points in a substantially vertical direction of the captured image,
The surrounding point setting means sets a plurality of surrounding points corresponding to the plurality of attention points,
3. The determination unit according to claim 2, wherein the determination unit determines discontinuity in the real space by comparing the feature quantities of the plurality of attention points with the feature quantities of the plurality of surrounding points. The image processing apparatus described.
前記注目点の特徴量及び前記周囲点の特徴量は、輝度、オプティカルフロー、又は3次元座標であることを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature amount of the attention point and the feature amount of the surrounding points are luminance, optical flow, or three-dimensional coordinates.
JP2007097700A 2007-04-03 2007-04-03 Image processor Pending JP2008257399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007097700A JP2008257399A (en) 2007-04-03 2007-04-03 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007097700A JP2008257399A (en) 2007-04-03 2007-04-03 Image processor

Publications (1)

Publication Number Publication Date
JP2008257399A true JP2008257399A (en) 2008-10-23

Family

ID=39980927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007097700A Pending JP2008257399A (en) 2007-04-03 2007-04-03 Image processor

Country Status (1)

Country Link
JP (1) JP2008257399A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003582A (en) * 2010-06-18 2012-01-05 Nissan Motor Co Ltd Device for recognizing environment outside vehicle and method for recognizing environment outside vehicle
JP2015011502A (en) * 2013-06-28 2015-01-19 株式会社Jvcケンウッド Forward situation determination device, and safe driving support device
KR102177614B1 (en) * 2020-01-09 2020-11-12 렉스젠(주) Lane generation system for collecting traffic information and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012003582A (en) * 2010-06-18 2012-01-05 Nissan Motor Co Ltd Device for recognizing environment outside vehicle and method for recognizing environment outside vehicle
JP2015011502A (en) * 2013-06-28 2015-01-19 株式会社Jvcケンウッド Forward situation determination device, and safe driving support device
KR102177614B1 (en) * 2020-01-09 2020-11-12 렉스젠(주) Lane generation system for collecting traffic information and method thereof

Similar Documents

Publication Publication Date Title
JP5482737B2 (en) Visual load amount estimation device, driving support device, and visual load amount estimation program
US20180114078A1 (en) Vehicle detection device, vehicle detection system, and vehicle detection method
US8160300B2 (en) Pedestrian detecting apparatus
KR20060021922A (en) Two camera based obstacle detection method and device
JP4962304B2 (en) Pedestrian detection device
JP2006339960A (en) Device and method for object detection
JP2012252501A (en) Traveling path recognition device and traveling path recognition program
JP2007011490A (en) Device and method for detecting road parameter
JP4772622B2 (en) Perimeter monitoring system
JP2008257399A (en) Image processor
JP2007087203A (en) Collision determination system, collision determination method, and computer program
JP4321410B2 (en) Object detection apparatus and method
JP6577595B2 (en) Vehicle external recognition device
JP5541099B2 (en) Road marking line recognition device
JP2008003696A (en) Image processing apparatus and image processing method
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP6949090B2 (en) Obstacle detection device and obstacle detection method
JP2009193130A (en) Vehicle surrounding monitoring device, vehicle, program for vehicle surrounding monitoring and vehicle surrounding monitoring method
JP2021131869A (en) Road surface state estimation device
JP5529058B2 (en) Three-dimensional object detection device and three-dimensional object detection method
WO2020036039A1 (en) Stereo camera device
JP6729358B2 (en) Recognition device
JP6564682B2 (en) Object detection device, object detection method, and object detection program
JP2007286873A (en) On-vehicle surrounding vehicle detector