JP2011076214A - Obstacle detection device - Google Patents

Obstacle detection device Download PDF

Info

Publication number
JP2011076214A
JP2011076214A JP2009224711A JP2009224711A JP2011076214A JP 2011076214 A JP2011076214 A JP 2011076214A JP 2009224711 A JP2009224711 A JP 2009224711A JP 2009224711 A JP2009224711 A JP 2009224711A JP 2011076214 A JP2011076214 A JP 2011076214A
Authority
JP
Japan
Prior art keywords
obstacle
road surface
input image
types
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009224711A
Other languages
Japanese (ja)
Inventor
Satoru Hayasaka
哲 早坂
Rinji Abe
林治 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP2009224711A priority Critical patent/JP2011076214A/en
Publication of JP2011076214A publication Critical patent/JP2011076214A/en
Withdrawn legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a change of an object such as a road surface from being falsely determined while allowing various objects to be determined as an obstacle. <P>SOLUTION: The obstacle detection device divides an input image (color still image) of a road surface R captured by a camera into a plurality of regions based on a frame F, and extracts average luminance or average color saturation as an input factor for each divided region. The obstacle detection device calculates the distance in a reference space based on the input factor, and determines that there is an obstacle when the distance exceeds a threshold. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、カメラにより撮影した画像を用いて対象範囲内の障害物について判定を行う障害物検出装置に関する。   The present invention relates to an obstacle detection apparatus that determines an obstacle within a target range using an image photographed by a camera.

この種の障害物検出装置に関して従来、ステレオ式ではなく単一のカメラで静止障害物を検出しようとする先行技術が知られている(例えば、特許文献1参照。)。この先行技術は、例えば車両が後進(バック)しようとする方向を車載のカメラで撮影した場合、一般的に道路(路面)の部分は色彩を有しないグレースケール画像であるが、その他の部分は色情報を有した有彩色画像となるため、画像中の色情報に基づいて路面部分とそれ以外の部分とを区別することができる点に着目したものである。このため先行技術によれば、たとえ単一のカメラで撮影した静止画像であっても、そこから静止障害物の存在を検出することができると考えられる。   With respect to this type of obstacle detection device, there is conventionally known a prior art for detecting a stationary obstacle with a single camera instead of a stereo type (see, for example, Patent Document 1). In this prior art, for example, when the direction in which the vehicle is going to move backward (back) is photographed with an in-vehicle camera, the road (road surface) portion is generally a grayscale image having no color, but the other portions are Since the image is a chromatic image having color information, attention is focused on the fact that the road surface portion and other portions can be distinguished based on the color information in the image. For this reason, according to the prior art, it is considered that the presence of a stationary obstacle can be detected from even a still image taken by a single camera.

特開2009−126493号公報JP 2009-126493 A

しかしながら上記の先行技術は、画像中の色情報だけに依存して障害物の検出(有無の判定)を行っているため、例えば画像に映った対象が赤色等の服装をした人物であれば、これを障害物として認識するものの、全身を黒色や白色等の無彩色の服装で統一した人物については、これを障害物として認識することができない。   However, since the above prior art performs detection (determination of presence / absence) of an obstacle depending only on color information in the image, for example, if the object reflected in the image is a person dressed in red or the like, Although this is recognized as an obstacle, a person whose entire body is unified with achromatic clothing such as black or white cannot be recognized as an obstacle.

すなわち先行技術の手法は、画像中の色情報という1つのファクターだけに依存して障害物の判定を行っているため、そのファクターが路面部分と大きく異なる対象であれば、これを容易に障害物として判定することができる。しかしその反面、色情報という唯一のファクターが路面部分とほとんど異ならない対象については、たとえその他のファクターが大きく異なっていたとしても、これを障害物と判定することができない。このように先行技術の手法には、障害物として認識できる対象のバリエーションに乏しく、障害物の認識性能が未だ十分でないという問題がある。   In other words, since the prior art method determines an obstacle depending on only one factor of color information in the image, if the factor is significantly different from the road surface portion, this can be easily determined. Can be determined. However, on the other hand, an object for which the only factor of color information is hardly different from the road surface portion cannot be determined as an obstacle even if other factors are greatly different. As described above, the prior art methods have a problem that there are few variations of objects that can be recognized as obstacles, and the recognition performance of the obstacles is not yet sufficient.

この点、静止画像中の複数のファクター(例えば、色情報と明度情報等)を観測して障害物の判定を行うという手法も考えられるものの、この場合は撮影時の路面状態の変化(例えば日照や照明等の明るさの変化)に対して判定結果が過敏になりやすく、障害物でない対象をも誤って障害物と判定するおそれがある。   In this regard, although a method of determining an obstacle by observing a plurality of factors (for example, color information and brightness information) in a still image is conceivable, in this case, a change in road surface condition at the time of shooting (for example, sunshine) The result of the determination is likely to be sensitive to a change in brightness such as lighting or lighting), and an object that is not an obstacle may be erroneously determined as an obstacle.

そこで本発明は、障害物と判定できる対象の多様性を確保しつつ、路面等の対象の変化に対して誤判定を生じにくくする技術の提供を課題とする。   Therefore, an object of the present invention is to provide a technique that makes it difficult to make an erroneous determination with respect to a change in an object such as a road surface while ensuring diversity of objects that can be determined as an obstacle.

上記の課題を解決するため、本発明の以下の解決手段を採用する。
本発明の障害物検出装置は、所定の対象範囲を撮影するカメラと、このカメラにより撮影して得られた入力画像を用いて対象範囲内の障害物の有無を判定する制御手段とを備える。本発明において制御手段は、特に以下の手法により障害物の判定を行っている。なお、下記の(1)〜(3)の処理は、本発明の十分な開示のため便宜的に付したインデックスに過ぎず、ここで本発明の判定(検出)手法をこれらの手順ないしステップだけに限定する意図ではない。
In order to solve the above problems, the following solution means of the present invention are employed.
The obstacle detection apparatus of the present invention includes a camera that captures a predetermined target range, and a control unit that determines the presence or absence of an obstacle within the target range using an input image obtained by capturing with the camera. In the present invention, the control means determines obstacles by the following method. Note that the following processes (1) to (3) are merely indexes provided for convenience of disclosure of the present invention. Here, the determination (detection) method of the present invention is the only procedure or step. It is not intended to be limited to.

(1)複数種類の入力ファクター抽出
制御手段は、カメラにより撮影された入力画像を分割した複数の分割領域毎に複数種類の入力ファクターを抽出(算出)する。ここで抽出する「入力ファクター」は、例えばカメラで撮影された入力画像を用いたデータ演算処理によって導き出すことができる。また、入力画像を複数の領域に分割することで、対象範囲についてより高精度な障害物の判定が可能となる。
(1) Extracting a plurality of types of input factors The control means extracts (calculates) a plurality of types of input factors for each of a plurality of divided regions obtained by dividing the input image captured by the camera. The “input factor” extracted here can be derived, for example, by a data calculation process using an input image taken by a camera. Further, by dividing the input image into a plurality of regions, it is possible to determine obstacles with higher accuracy for the target range.

(2)分割領域毎の距離演算
次に制御手段は、抽出した複数種類の入力ファクターに基づき入力画像の分割領域毎に距離を演算する。ここで演算する「距離」は、障害物の判定に関して予め記憶した複数種類の基準ファクターにより形成される基準空間において、個々の分割領域毎にそれぞれの位置を当てはめた場合に得られる統計上の指標や尺度等となる値である。
(2) Distance calculation for each divided region Next, the control means calculates a distance for each divided region of the input image based on the extracted plural types of input factors. The “distance” calculated here is a statistical index obtained when each position is applied to each divided area in a reference space formed by a plurality of types of reference factors stored in advance for obstacle determination. It is a value that becomes a scale or the like.

上記の「基準空間」を形成する複数種類の基準ファクターは、入力画像とは別に用意された複数の基準画像をそれぞれ複数の領域に分割した分割領域毎に抽出して得られる。制御手段は「距離」の演算に際して上記の「基準空間」を形成するため、予めこれら複数種類の基準ファクターを記憶しておくことができる。   A plurality of types of reference factors forming the above “reference space” are obtained by extracting a plurality of reference images prepared separately from the input image for each divided region obtained by dividing each of the reference images into a plurality of regions. Since the control means forms the above-mentioned “reference space” when calculating the “distance”, these plural types of reference factors can be stored in advance.

また「基準画像」は、例えばカメラにより撮影される対象範囲について標準的な対象物(例えば、障害物が存在しない状態の一般的な路面等)を事前に撮影して得ることができる。このとき複数の「基準画像」を用いることから、例えば対象が路面(地面も含む)の場合であっても、その様々な変化(路面状況や環境、明るさ等の違い)を予め想定して複数種類の基準ファクターを抽出しておくことができる。このような「基準画像」の分割領域毎に複数種類の基準ファクターを抽出することで、そこから標準的な対象(基準画像)についての基準空間における統計上の距離の分布を既知としておくことができる。したがって、基準空間において新たに複数種類の入力ファクターに基づいて演算した「距離」は、入力画像について個々の分割領域が基準空間においてどのような位置に存在するかを判断するための尺度となる。   In addition, the “reference image” can be obtained by, for example, photographing in advance a standard object (for example, a general road surface in a state where no obstacle exists) with respect to a target range photographed by a camera. Since a plurality of “reference images” are used at this time, for example, even when the target is a road surface (including the ground), various changes (differences in road surface conditions, environment, brightness, etc.) are assumed in advance. Multiple types of reference factors can be extracted. By extracting a plurality of types of reference factors for each divided region of such a “reference image”, the statistical distance distribution in the reference space for a standard object (reference image) can be made known from there. it can. Therefore, the “distance” calculated based on a plurality of types of input factors newly in the reference space serves as a scale for determining the position of each divided area in the reference space in the input image.

(3)障害物判定
制御手段は、演算した距離に基づき入力画像の分割領域毎に対象範囲内の障害物の有無を判定する。上記のように演算した「距離」は、今回の入力画像の各分割領域が基準空間においてどのような位置に存在するかを示すものである。このため例えば、演算した「距離」が予め設定しておいた閾値を超える場合は「障害物あり」と判定し、それ以外なら「障害物なし」と判定することができる。
(3) Obstacle determination The control means determines the presence or absence of an obstacle in the target range for each divided region of the input image based on the calculated distance. The “distance” calculated as described above indicates where each divided region of the current input image exists in the reference space. For this reason, for example, when the calculated “distance” exceeds a preset threshold value, it is determined that “there is an obstacle”, and otherwise, it can be determined that “there is no obstacle”.

つまり、「距離」が閾値を超える分割領域がある場合、その分割領域の「距離」は「基準画像」についての既知の分布からある程度かけ離れていると考えられるため、その入力画像中(分割領域内)に何らかの障害物が映り込んでいる(障害物あり)と判断することができる。一方、いずれの分割領域も「距離」が閾値を超えない場合、それは「基準画像」についての既知の分布に近いと考えられるため、その入力画像中(分割領域内)には障害物が映っていない(障害物なし)と判断することができる。   In other words, if there is a divided area where the “distance” exceeds the threshold, the “distance” of the divided area is considered to be far from the known distribution of the “reference image”. ) Can be determined that some kind of obstacle is reflected (there is an obstacle). On the other hand, if the “distance” does not exceed the threshold for any of the divided areas, it is considered to be close to the known distribution of the “reference image”, and therefore an obstacle appears in the input image (in the divided area). It can be judged that there is no (no obstacle).

このように本発明の障害物検出装置によれば、障害物の判定に用いる「距離」の演算を複数種類の入力ファクターを用いて行うため、より多様な対象についても障害物の判定が可能となり、それだけ認識できる障害物のバリエーションを増やすことができる。また、予め複数種類の基準画像を用いて抽出した基準ファクターを記憶していることから、カメラで撮影する対象範囲の様々な変化に対して過剰に反応することなく、障害物の有無を正確に判断することができる。   As described above, according to the obstacle detection device of the present invention, since the calculation of the “distance” used for the obstacle determination is performed using a plurality of types of input factors, it is possible to determine the obstacle even for a wider variety of objects. , It can increase the variation of obstacles that can be recognized. In addition, since the reference factors extracted using multiple types of reference images are stored in advance, the presence or absence of obstacles can be accurately determined without excessively reacting to various changes in the target range captured by the camera. Judgment can be made.

より好ましくは、制御手段はマハラノビスの距離を用いて障害物の判定を行うものとする。すなわち制御手段は、上記(2)で複数種類の基準ファクターにより形成されるマハラノビス空間を基準空間として、このマハラノビス空間における入力画像の分割領域毎のマハラノビス距離を基準空間における距離として演算する。そして上記(3)では、演算したマハラノビス距離に基づき入力画像の分割領域毎に対象範囲内の障害物の有無を判定する。   More preferably, the control means determines the obstacle using the Mahalanobis distance. That is, the control means calculates the Mahalanobis distance for each divided area of the input image in the Mahalanobis space as the distance in the reference space, with the Mahalanobis space formed by the plurality of types of reference factors in (2) above as the reference space. In (3) above, the presence / absence of an obstacle in the target range is determined for each divided region of the input image based on the calculated Mahalanobis distance.

この場合、基準画像について分割領域毎に求めたマハラノビス距離の分布を既知としておき、そこに入力画像から求めた分割領域毎のマハラノビス距離を演算して当てはめることで、容易に障害物の有無を判断することができる。すなわち、ある分割領域について演算したマハラノビス距離が大きいほど、その分割領域がマハラノビス空間において基準画像についての分布からかけ離れていることを意味する。このため、例えば予め障害物が存在しないと判断できるマハラノビス距離についての閾値を設定しておき、この閾値を超える場合は障害物があると判定し、それ以外は障害物がないと判定することができる。   In this case, the distribution of the Mahalanobis distance obtained for each divided area with respect to the reference image is known, and the presence of an obstacle is easily determined by calculating and applying the Mahalanobis distance obtained for each divided area from the input image. can do. That is, the larger the Mahalanobis distance calculated for a certain divided area, the farther the divided area is from the distribution of the reference image in the Mahalanobis space. For this reason, for example, a threshold is set in advance for the Mahalanobis distance that can be determined that there is no obstacle, and if this threshold is exceeded, it is determined that there is an obstacle, and otherwise there is no obstacle. it can.

より実用的には、制御手段は障害物の判定を行うに際し、入力画像から路面種類についての判別を行うものとする。すなわち制御手段は、カメラにより撮影される対象範囲に含まれる複数の路面種類のそれぞれについて、上記(2)で入力画像とは別に用意された複数の基準画像をそれぞれ複数の領域に分割し、これら分割領域毎に抽出して得られた複数種類の基準ファクターを予め複数の路面種類毎に記憶しておく。また制御手段は、複数の路面種類毎に基準空間における入力画像の分割領域毎の距離を複数種類の入力ファクターに基づき演算し、この演算した距離に基づいて対象範囲に含まれる路面種類を設定する。そして上記(3)で制御手段は、設定した路面種類について演算した距離に基づき分割領域毎に対象範囲内の障害物の有無を判定するものとする。   More practically, it is assumed that the control means determines the road surface type from the input image when determining the obstacle. That is, the control unit divides the plurality of reference images prepared separately from the input image in the above (2) into a plurality of regions for each of a plurality of road surface types included in the target range photographed by the camera. A plurality of types of reference factors obtained by extraction for each divided region are stored in advance for each of a plurality of road surface types. The control means calculates a distance for each divided region of the input image in the reference space for each of a plurality of road surface types based on a plurality of types of input factors, and sets a road surface type included in the target range based on the calculated distance. . In the above (3), the control means determines the presence or absence of an obstacle in the target range for each divided region based on the distance calculated for the set road surface type.

このような態様であれば、カメラで撮影する対象範囲が未知の路面種類を含むものであっても、その都度、複数の路面種類毎に演算した距離(マハラノビス距離でもよい)に基づきいずれかの路面種類を設定することができる。すなわち制御手段は、予め複数の路面種類(例えば路面種類a〜dとする)毎に複数種類の基準ファクターを記憶しておくことで、予め用意された複数の路面種類a〜d毎の基準画像についての距離の分布をいずれも既知とすることができる。そして、今回の入力画像から抽出した複数種類の入力ファクターに基づき複数の路面種類a〜d毎に距離(例えば距離Da〜Ddとする)をそれぞれ演算していくと、その中から最も距離が近くなるいずれかの路面種類(例えば路面種類b)を今回の対象範囲に含まれている路面種類として設定(推定)することができる。   In such a mode, even if the target range to be photographed by the camera includes an unknown road surface type, any one of them is calculated based on the distance calculated for each of the plurality of road surface types (may be Mahalanobis distance). The road surface type can be set. That is, the control means stores a plurality of types of reference factors for each of a plurality of road surface types (for example, road surface types a to d), so that a reference image for each of the plurality of road surface types a to d prepared in advance is stored. Any of the distance distributions for can be known. Then, when distances (for example, distances Da to Dd) are calculated for each of a plurality of road surface types a to d based on a plurality of types of input factors extracted from the current input image, the distance is the shortest among them. Any road surface type (for example, road surface type b) can be set (estimated) as the road surface type included in the current target range.

その上で制御手段は、設定した路面種類について演算した距離が例えば閾値を超える場合、その分割領域に障害物が存在すると判定し、それ以外については障害物が存在しないと判定することができる。   In addition, when the distance calculated for the set road surface type exceeds, for example, a threshold value, the control unit can determine that there is an obstacle in the divided region, and can determine that there is no obstacle in other areas.

以上のように本発明の障害物検出装置は、障害物として認識できる対象のバリエーションを多く確保することができ、より精度の高い判定を可能とする。   As described above, the obstacle detection device of the present invention can ensure a large number of variations of objects that can be recognized as obstacles, and enables more accurate determination.

また、カメラで撮影する対象範囲が未知の路面種類を含む場合であっても、入力画像を用いて路面種類を設定し、その上で障害物の有無を高精度に判定することができる。このため、例えば車両(自動車、トラック・バス、二輪車等)のように、多種多様な路面(地面を含む)上を移動していく移動手段に搭載されたカメラを用いて路面上の障害物を検出する用途に好適である。   Even if the target range to be photographed by the camera includes an unknown road surface type, it is possible to set the road surface type using the input image and determine the presence or absence of an obstacle with high accuracy. For this reason, for example, a vehicle mounted on a moving means that moves on various road surfaces (including the ground) such as a vehicle (automobile, truck / bus, two-wheeled vehicle, etc.) is used to remove obstacles on the road surface. Suitable for detecting applications.

障害物検出装置を車両に搭載した場合の実施形態を示す概要図である。It is a schematic diagram which shows embodiment at the time of mounting an obstacle detection apparatus in a vehicle. 障害物検出装置の構成を概略的に示した機能ブロック図である。It is the functional block diagram which showed the structure of the obstacle detection apparatus schematically. 後方カメラで撮影された入力画像を複数の領域に分割する処理を示す概要図である。It is a schematic diagram which shows the process which divides | segments the input image image | photographed with the back camera into several area | regions. 複数枚の基準画像をそれぞれ複数領域に分割する事前処理を示した概念図である。It is the conceptual diagram which showed the pre-process which divides | segments a some reference image into several area | region, respectively. 分割領域毎に演算されたマハラノビス距離を用いた障害物判定の手法を示す概念図である。It is a conceptual diagram which shows the technique of the obstacle determination using the Mahalanobis distance calculated for every division area. マハラノビス空間を用いた解析例を図解して示す概念図である。It is a conceptual diagram illustrating an analysis example using a Mahalanobis space. 後方カメラで撮影された別の入力画像を複数の領域に分割する処理を示す概要図である。It is a schematic diagram which shows the process which divides | segments another input image image | photographed with the back camera into several area | regions. 障害物が存在する入力画像について分割領域毎に演算されたマハラノビス距離を用いた障害物判定の手法を示す概念図である。It is a conceptual diagram which shows the technique of the obstacle determination using the Mahalanobis distance calculated for every division area about the input image in which an obstacle exists. 障害物が存在する場合のマハラノビス空間を用いた解析例を図解して示した概念図である。It is the conceptual diagram which illustrated and showed the example of analysis using Mahalanobis space when an obstruction exists. 砂利道を撮影した場合の入力画像の分割領域とその内部解析値を示す概要図である。It is a schematic diagram which shows the division area of the input image at the time of image | photographing a gravel road, and its internal analysis value. 路面種類が未知である入力画像から路面種類を設定する手法を図解した概要図である。It is the schematic which illustrated the method of setting a road surface type from the input image whose road surface type is unknown. 路面上に障害物がある砂利道を撮影した場合の入力画像の分割領域とその内部解析値を示す概要図である。It is a schematic diagram which shows the division area of the input image at the time of imaging | photography the gravel road with an obstruction on a road surface, and its internal analysis value. 障害物検出処理の手順例を示すフローチャートである。It is a flowchart which shows the example of a procedure of an obstacle detection process.

以下、本発明の実施形態について図面を参照しながら説明する。
図1は、障害物検出装置を車両10に搭載した場合の実施形態を示す概要図である。車両10は、ここでは普通自動車(乗用車)を例に挙げているが、トラックやバスに障害物検出装置を搭載することもできる。以下、車両10に搭載された障害物検出装置の構成について説明する。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a schematic diagram showing an embodiment when an obstacle detection device is mounted on a vehicle 10. Here, the vehicle 10 is an ordinary automobile (passenger car) as an example, but an obstacle detection device may be mounted on a truck or bus. Hereinafter, the configuration of the obstacle detection device mounted on the vehicle 10 will be described.

〔カメラ〕
障害物検出装置は、車両10の後部に搭載された後方カメラ12を備えている。この後方カメラ12は撮像素子(CCD、CMOS等)を有しており、例えば広角レンズを用いて車両10の後方を広範囲にわたって撮影することができる。後方カメラ12で撮影される対象範囲には、現在停車(駐車)している車両10の後方の路面Rが含まれる他、路上の空間や後方の遠景、場合によっては上空までをも含めることができる。ただし、後方カメラ12の撮影範囲(画角)をどの程度に設定するかは任意であり、少なくとも後方数メートル先までの路面Rやその上部の空間が撮影範囲に含まれていればよい。また車幅方向(水平方向)については、少なくとも車両10の全幅をカバーできる撮影範囲が確保されているものとする。
〔camera〕
The obstacle detection device includes a rear camera 12 mounted on the rear portion of the vehicle 10. The rear camera 12 has an image sensor (CCD, CMOS, etc.), and can photograph the rear of the vehicle 10 over a wide range using, for example, a wide-angle lens. The target range photographed by the rear camera 12 includes not only the road surface R behind the currently parked vehicle 10, but also the space on the road, the distant view of the rear, and possibly the sky. it can. However, how much the shooting range (angle of view) of the rear camera 12 is set is arbitrary, and at least the road surface R up to several meters ahead and the space above it may be included in the shooting range. Further, in the vehicle width direction (horizontal direction), it is assumed that an imaging range that can cover at least the entire width of the vehicle 10 is secured.

〔制御ユニット〕
また障害物検出装置は、上記の後方カメラ12とともに制御ユニット14を備えている。この制御ユニット14は、例えばマイクロコンピュータとしてのハードウェアリソースを有するものであり、本実施形態では車載の電子コントロールユニット(ECU)をそのまま制御ユニット14として利用することができる。制御ユニット14は、上記の後方カメラ12で撮影された画像(デジタルデータ化された画像)を入力画像として処理する。なお、公知のように車載のECUには、プロセッサやメモリデバイス、周辺ICといった各種のコンピュータハードウェアが内蔵されているため、これらリソースを障害物検出装置の制御ユニット14として好適に活用することができる。
〔Controller unit〕
The obstacle detection apparatus includes a control unit 14 together with the rear camera 12 described above. The control unit 14 has, for example, hardware resources as a microcomputer, and an in-vehicle electronic control unit (ECU) can be used as the control unit 14 as it is in this embodiment. The control unit 14 processes an image (image converted into digital data) captured by the rear camera 12 as an input image. As is well known, various in-vehicle computer hardware such as a processor, a memory device, and a peripheral IC are built in an in-vehicle ECU, so that these resources can be suitably used as the control unit 14 of the obstacle detection apparatus. it can.

〔表示器〕
本実施形態のように障害物検出装置を車両10に適用する場合、車載の液晶ディスプレイ16を障害物検出装置の一部として活用することができる。この液晶ディスプレイ16には、上記の後方カメラ12で撮影された入力画像が表示される他、車載のECUに予め組み込まれている各種のサービス機能(例えばカーナビゲーション機能、AV管理機能、空調管理機能等)に関する操作メニュー等が表示されるものとなっている。
〔display〕
When the obstacle detection device is applied to the vehicle 10 as in this embodiment, the vehicle-mounted liquid crystal display 16 can be used as a part of the obstacle detection device. The liquid crystal display 16 displays an input image taken by the rear camera 12 as well as various service functions (for example, a car navigation function, an AV management function, and an air conditioning management function) that are incorporated in advance in an in-vehicle ECU. Etc.) is displayed.

〔シフト位置検出器〕
また障害物検出装置は、例えばシフト位置センサ18をその構成の一部として活用することもできる。シフト位置センサ18は、運転者によるシフトセレクタレバー20の操作状態に応じてそのときのシフト位置(「P」,「R」,「N」,「D」,「2」,「L」等)を表す信号(シフト位置信号)を出力する。本実施形態では主に、車両10の後方に位置する静止した障害物の検出を想定している。このため、運転者によりシフト位置が「R(後退)」に操作されたことをシフト位置信号に基づいて判断した場合、制御ユニット14は後方カメラ12による撮影機能や障害物検出機能をアクティブにすることができる。なおシフト位置センサ18には、車両10の電装部品をそのまま活用することができる。
[Shift position detector]
The obstacle detection device can also utilize, for example, the shift position sensor 18 as a part of its configuration. The shift position sensor 18 shifts at that time according to the operation state of the shift selector lever 20 by the driver (“P”, “R”, “N”, “D”, “2”, “L”, etc.). Is output (shift position signal). In the present embodiment, detection of a stationary obstacle located behind the vehicle 10 is mainly assumed. For this reason, when it is determined based on the shift position signal that the shift position is operated to “R (reverse)” by the driver, the control unit 14 activates the imaging function and the obstacle detection function by the rear camera 12. be able to. The shift position sensor 18 can utilize the electrical components of the vehicle 10 as they are.

〔障害物警報機〕
さらに障害物検出装置は、例えば車載のスピーカ22をその構成の一部として活用することができる。本実施形態では、障害物検出装置により車両10の後方に位置する障害物を検出した場合、車室内の後部に設置されているスピーカ22から警報音を出力することができる。なおスピーカ22についても、車両10の電装部品をそのまま活用することができる。
[Obstacle Alarm]
Further, the obstacle detection device can utilize, for example, the vehicle-mounted speaker 22 as a part of its configuration. In the present embodiment, when an obstacle located behind the vehicle 10 is detected by the obstacle detection device, an alarm sound can be output from the speaker 22 installed at the rear of the vehicle interior. Note that the electrical components of the vehicle 10 can also be used for the speaker 22 as they are.

図2は、障害物検出装置の構成を概略的に示した機能ブロック図である。特に図2においては、制御ユニット14の内部構成がより具体的に示されている。   FIG. 2 is a functional block diagram schematically showing the configuration of the obstacle detection apparatus. In particular, FIG. 2 shows the internal configuration of the control unit 14 more specifically.

制御ユニット14は画像入力部24及び入力部26を有している。これら入力部24,26には、例えばECUに実装されている周辺IC(例えば入力ドライバ、画像メモリ等)の機能を割り当てることができる。このうち画像入力部24は、後方カメラ12から送信される画像信号(例えばシリアル信号)を入力画像のデータ(例えば8ビットRGBカラー)に変換し、これを画像メモリに展開して記憶する。また入力部26は、シフト位置センサ18からシフト位置信号を入力し、これをシフト位置情報として記憶する。   The control unit 14 has an image input unit 24 and an input unit 26. For example, functions of peripheral ICs (for example, an input driver, an image memory, etc.) mounted on the ECU can be assigned to the input units 24 and 26. Among these, the image input unit 24 converts an image signal (for example, a serial signal) transmitted from the rear camera 12 into input image data (for example, 8-bit RGB color), and expands and stores the data in an image memory. The input unit 26 receives a shift position signal from the shift position sensor 18 and stores it as shift position information.

また制御ユニット14は処理部30を有している。この処理部30には、例えばECUに実装されているプロセッサ(例えばCPU)の機能を割り当てることができる。処理部30は、画像入力部24に記憶されている入力画像のデータを参照し、障害物の検出に必要な演算処理を実行する。また処理部30は、入力部26に記憶されているシフト位置情報を参照し、運転者によるシフトセレクタレバー20の操作状態(現在のシフト位置)を認識する。   The control unit 14 also has a processing unit 30. For example, a function of a processor (for example, a CPU) mounted on the ECU can be assigned to the processing unit 30. The processing unit 30 refers to the input image data stored in the image input unit 24 and executes arithmetic processing necessary for detecting an obstacle. Further, the processing unit 30 refers to the shift position information stored in the input unit 26 and recognizes the operation state (current shift position) of the shift selector lever 20 by the driver.

制御ユニット14はさらに記憶部32を有している。この記憶部32には、例えばECUに実装されているRWM(RAM)やROM等のメモリデバイスの機能を割り当てることができる。記憶部32には、例えば処理部30による演算処理に用いられる各種のデータがその記憶領域内に記憶されており、処理部30はその記憶領域にアクセスして必要なデータを読み出すことができる。なお、演算処理に用いられる各種のデータについてはさらに後述する。   The control unit 14 further has a storage unit 32. For example, a function of a memory device such as an RWM (RAM) or a ROM mounted in the ECU can be assigned to the storage unit 32. In the storage unit 32, for example, various types of data used for arithmetic processing by the processing unit 30 are stored in the storage area, and the processing unit 30 can access the storage area and read out necessary data. Various data used for the arithmetic processing will be further described later.

また制御ユニット14はLCDコントローラ34を有している。このLCDコントローラ34は、例えば処理部30からの表示信号に基づいて上記の液晶ディスプレイ16による表示動作を管理する他、液晶ディスプレイ16の表示領域に対応したVRAM(フレームバッファ)を有する。液晶ディスプレイ16には、LCDコントローラ34から出力される表示制御信号に基づき各種の画像(例えば後方カメラ12で撮影された画像)が表示される。本実施形態においてLCDコントローラ34には、ECUに実装されている電装部品をそのまま利用することができる。   The control unit 14 has an LCD controller 34. The LCD controller 34 manages a display operation by the liquid crystal display 16 based on a display signal from the processing unit 30, for example, and has a VRAM (frame buffer) corresponding to the display area of the liquid crystal display 16. Various images (for example, images taken by the rear camera 12) are displayed on the liquid crystal display 16 based on the display control signal output from the LCD controller 34. In the present embodiment, an electrical component mounted on the ECU can be used as it is for the LCD controller 34.

この他に制御ユニット14は、音響出力部36を有している。この音響出力部36は、例えば処理部30からの音響出力信号に基づいて上記のスピーカ22に駆動信号を出力する。この駆動信号に基づき、スピーカ22から例えば上記の警報音(アラーム音)が発せられたり、カーナビゲーション用の音声や効果音、AV再生時の音声や音楽等が発せられたりする。   In addition, the control unit 14 has an acoustic output unit 36. For example, the sound output unit 36 outputs a drive signal to the speaker 22 based on the sound output signal from the processing unit 30. Based on this drive signal, for example, the above-mentioned alarm sound (alarm sound) is emitted from the speaker 22, or sound or sound effect for car navigation, sound or music at the time of AV reproduction, etc. are emitted.

〔障害物検出手法〕
次に、障害物検出装置による障害物の検出手法について説明する。図3は、後方カメラ12で撮影された画像を入力画像とし、これを複数の領域に分割するまでの処理を示す概要図である。
[Obstacle detection method]
Next, an obstacle detection method by the obstacle detection device will be described. FIG. 3 is a schematic diagram illustrating processing until an image captured by the rear camera 12 is used as an input image and is divided into a plurality of regions.

〔入力画像〕
図3中(A):例えば、車両10の運転者がシフトセレクタレバー20を「R(後退)」に操作すると、制御ユニット14が後方カメラ12の撮影機能を起動することで、後方カメラ12により車両10の後方が撮影される。このとき撮影される画像には、車両10がこれから後進(バック)しようとする方向の路面Rが含まれる他、その周辺環境の様子が含まれている。いずれにしても制御ユニット14は、後方カメラ12で撮影された画像を入力画像として処理する。
[Input image]
3A: For example, when the driver of the vehicle 10 operates the shift selector lever 20 to “R (reverse)”, the control unit 14 activates the photographing function of the rear camera 12, so that the rear camera 12 The rear of the vehicle 10 is photographed. The image photographed at this time includes the road surface R in the direction in which the vehicle 10 is going to travel backward (back), and the surrounding environment. In any case, the control unit 14 processes an image captured by the rear camera 12 as an input image.

なお、ここでは路面Rとして例えば駐車場内の舗装路面を想定している。このため入力画像中には、その大部分にアスファルトの表面が黒っぽい(チャコールグレー)画像として映っている。また入力画像中の右上には、例えば路肩用のコンクリートブロックが白っぽい画像として映っている。   Here, as the road surface R, for example, a paved road surface in a parking lot is assumed. For this reason, most of the input image shows the asphalt surface as a dark (charcoal gray) image. In addition, a concrete block for a road shoulder, for example, appears as a whitish image on the upper right in the input image.

〔分割領域〕
図3中(B):制御ユニット14の処理部30は、入力画像を複数の領域(例えば16個)に分割する処理を行う。このとき分割される範囲は、入力画像の中で車両10の数メートル後方までの路面Rが映っている部分に設定されている。このため図3中(B)には、画像処理上で分割される範囲が台形状のフレームFで示されるとともに、その内側に16個の分割領域が区画して示されている。この例では、後方カメラ12と路面Rとの位置関係やその画角との関係から、入力画像中で車両10が後進する際の進路に該当する範囲に合わせてフレームFが台形状に設定されているが、フレームFは例えば入力画像全体の外形に沿った矩形状であってもよい。
[Division area]
3B: The processing unit 30 of the control unit 14 performs a process of dividing the input image into a plurality of regions (for example, 16). The range to be divided at this time is set to a portion where the road surface R up to several meters behind the vehicle 10 is shown in the input image. For this reason, in FIG. 3B, the range divided in the image processing is indicated by a trapezoidal frame F, and 16 divided areas are partitioned inside. In this example, the frame F is set in a trapezoidal shape according to the range corresponding to the course when the vehicle 10 moves backward in the input image, based on the positional relationship between the rear camera 12 and the road surface R and the angle of view. However, the frame F may have a rectangular shape along the outline of the entire input image, for example.

〔事前処理〕
一方で障害物検出装置は、予め上記の入力画像とは別に用意された複数の基準画像に基づく事前処理を行っている。具体的には、(1)複数の基準画像の取り込み、(2)各基準画像の分割、そして(3)基準ファクターの抽出である。以下、事前処理について具体的に説明する。
[Pre-processing]
On the other hand, the obstacle detection device performs preprocessing based on a plurality of reference images prepared separately from the input image. Specifically, (1) capturing a plurality of reference images, (2) dividing each reference image, and (3) extracting a reference factor. Hereinafter, the pre-processing will be specifically described.

(1)複数の基準画像の取り込み
特に図示していないが、基準画像には例えば同種の舗装路(アスファルトの表面が多く露出している路面)を複数の場所や様々な環境下(明るさや天候、時間帯等が異なる条件下)で、かつ、障害物が存在しない状態で撮影したものを用いることができる。ここでは例として、m枚の画像(例えば10枚)を後方カメラ12で撮影したものを基準画像S1〜Smとして制御ユニット14に取り込むものとする。なお、基準画像の取り込みを含む以下の事前処理は、制御ユニット14とは別のコンピュータ機器を用いて行ってもよい。
(1) Capturing a plurality of reference images Although not shown in the figure, for example, the reference image may include, for example, the same type of pavement (a road surface on which many asphalt surfaces are exposed) in a plurality of locations and in various environments (brightness and weather). , Under different time zones, etc.) and in the absence of obstacles can be used. Here, as an example, m images (for example, 10 images) captured by the rear camera 12 are taken into the control unit 14 as reference images S1 to Sm. Note that the following preprocessing including capturing of the reference image may be performed using a computer device different from the control unit 14.

(2)各基準画像の分割
図4は、m枚の基準画像S1〜Smについて、それぞれをフレームF内でn個の領域に分割する事前処理を示した概念図である。この事前処理では、取り込んだ基準画像Si(i=1〜m)のそれぞれを、さらにn個(この例では16個)の領域Si1〜Sinに分割する。分割領域の序列は、例えばフレームF内の左上隅をスタート地点として行方向に進み、各行の右端位置で折り返して下段に進むものとする。したがって、例えば1枚目の基準画像S1であれば、フレームF内の左上隅に分割領域S11を有し、右下隅に分割領域S116を有する。つまり任意の基準画像Siであれば、フレームF内に任意の分割領域Sijを有することになり、m枚目の基準画像Smであれば、フレームF内の右下隅に分割領域Smnを有することになる。
(2) Division of each reference image FIG. 4 is a conceptual diagram showing pre-processing for dividing each of m reference images S1 to Sm into n regions within the frame F. In this pre-processing, each captured reference image Si (i = 1 to m) is further divided into n (16 in this example) regions Si1 to Sin. For example, the order of the divided areas proceeds in the row direction with the upper left corner in the frame F as a start point, and is folded at the right end position of each row and proceeds to the lower stage. Therefore, for example, the first reference image S1 has a divided area S11 in the upper left corner in the frame F, and a divided area S116 in the lower right corner. In other words, an arbitrary reference image Si has an arbitrary divided region Sij in the frame F, and an mth reference image Sm has a divided region Smn at the lower right corner in the frame F. Become.

各分割領域Sijには、T個の画素(例えば平均して100個程度)が含まれるものとする。なお本実施形態では、台形状のフレームFに則して分割領域Si1〜Sinを区画しているため、上段から下段に向かうほど分割領域内の画素数が多くなるが、例えば上記のようにフレームFを矩形状として、全ての分割領域Si1〜Si16の画素数を共通に設定することもできる。   Each divided region Sij includes T pixels (for example, about 100 on average). In the present embodiment, since the divided areas Si1 to Sin are partitioned in accordance with the trapezoidal frame F, the number of pixels in the divided area increases from the upper stage to the lower stage. For example, the frame as described above It is also possible to set the number of pixels of all the divided regions Si1 to Si16 in common by making F a rectangular shape.

(3)基準ファクターの抽出
各基準画像Siについて、それぞれ分割領域Sij内に含まれるT個の画素から複数種類の基準ファクターxij,yij(2種類の場合)を計算により抽出する。このうち一方の基準ファクターxijは例えば分割領域Sij内の画素の平均輝度を示すファクターであり、もう一方の基準ファクターyijは例えば分割領域Sij内の画素の平均彩度を示すファクターである。ここで抽出される複数種類の基準ファクターxij,yijの組の数は、全m枚の基準画像についてm×n個(この例では全部で160組)となる。
(3) Extraction of reference factors For each reference image Si, a plurality of types of reference factors xij and yij (in the case of two types) are extracted by calculation from T pixels included in each divided region Sij. One of the reference factors xij is a factor indicating the average luminance of the pixels in the divided region Sij, for example, and the other reference factor yij is a factor indicating the average saturation of the pixels in the divided region Sij, for example. The number of sets of a plurality of types of reference factors xij and yij extracted here is m × n for all m reference images (160 sets in this example in total).

〔平均輝度:xij〕
先ず、分割領域Sij内の画素の平均輝度xijは、例えば以下の式(1)から計算することができる。
xij=Σ(0.299R+0.587G+0.114B)/T ・・・(1)
上式(1)において、
R:各画素のR成分の値
G:各画素のG成分の値
B:各画素のB成分の値
T:分割領域内の全画素数
である。
[Average luminance: xij]
First, the average luminance xij of the pixels in the divided region Sij can be calculated from the following equation (1), for example.
xij = Σ (0.299R + 0.587G + 0.114B) / T (1)
In the above formula (1),
R: R component value of each pixel G: G component value of each pixel B: B component value of each pixel T: Total number of pixels in the divided area.

〔平均彩度:yij〕
次に分割領域Sij内の画素の平均彩度yijは、例えば以下の式(2)から計算することができる。
yij=Σ√[{(R−Y)/1.14}+{(B−Y)/2.03}]/T ・・・(2)
上式(2)において、
Y:分割領域Sijの平均輝度
R:各画素のR成分の値
B:各画素のB成分の値
T:分割領域内の全画素数
である。
[Average saturation: yij]
Next, the average saturation yij of the pixels in the divided region Sij can be calculated from the following equation (2), for example.
yij = Σ√ [{(R−Y) /1.14} 2 + {(B−Y) /2.03} 2 ] / T (2)
In the above equation (2),
Y: Average luminance of the divided area Sij R: R component value of each pixel B: B component value of each pixel T: Total number of pixels in the divided area.

以上の計算結果をm×n個の基準ファクターの組(x11,y11),(x12,y12),・・・,(xmn,ymn)とし、さらにこれら基準ファクターから、全ての平均輝度の平均x_ave、平均彩度の平均y_ave、平均輝度の分散x_sigma、平均彩度の分散y_sigma及び平均輝度と平均彩度の共分散xy_sigmaをそれぞれ計算する。   The above calculation result is a set of m × n reference factors (x11, y11), (x12, y12),..., (Xmn, ymn), and from these reference factors, an average x_ave of all average luminances is obtained. The average saturation average y_ave, the average luminance variance x_sigma, the average saturation variance y_sigma, and the average luminance and average chroma covariance xy_sigma are respectively calculated.

〔平均輝度の平均:x_ave〕
先ず平均輝度の平均x_aveは、例えば以下の式(3)から計算することができる。
x_ave=Σx/n ・・・(3)
上式(3)において、
x:平均輝度xij(i=1〜m,j=1〜n)
m:基準画像枚数(=10)
n:分割領域数(=16)
である。
〔平均彩度の平均:y_ave〕
また平均彩度の平均y_aveは、例えば以下の式(4)から計算することができる。
y_ave=Σy/n ・・・(4)
上式(4)において、
y:平均彩度yij(i=1〜m,j=1〜n)
m:基準画像枚数(=10)
n:分割領域数(=16)
である。
[Average brightness: x_ave]
First, the average luminance average x_ave can be calculated from the following equation (3), for example.
x_ave = Σx / n (3)
In the above equation (3),
x: Average luminance xij (i = 1 to m, j = 1 to n)
m: reference image number (= 10)
n: number of divided areas (= 16)
It is.
[Average saturation average: y_ave]
The average y_ave of average saturation can be calculated from the following equation (4), for example.
y_ave = Σy / n (4)
In the above equation (4),
y: average saturation yij (i = 1 to m, j = 1 to n)
m: reference image number (= 10)
n: number of divided areas (= 16)
It is.

〔平均輝度の分散:x_sigma〕
次に平均輝度の分散x_sigmaは、例えば以下の式(5)から計算することができる。
x_sigma=Σ(x−x_ave)/n ・・・(5)
上式(5)において、
x:平均輝度xij(i=1〜m,j=1〜n)
n:分割領域数(=16)
である。
[Average luminance variance: x_sigma]
Next, the average luminance variance x_sigma can be calculated from the following equation (5), for example.
x_sigma = Σ (xx−ave) 2 / n (5)
In the above equation (5),
x: Average luminance xij (i = 1 to m, j = 1 to n)
n: number of divided areas (= 16)
It is.

〔平均彩度の分散:y_sigma〕
また平均彩度の分散y_sigmaは、例えば以下の式(6)から計算することができる。
y_sigma=Σ(y−y_ave)/n ・・・(6)
上式(6)において、
y:平均輝度yij(i=1〜m,j=1〜n)
n:分割領域数(=16)
である。
[Average chroma dispersion: y_sigma]
Also, the average saturation variance y_sigma can be calculated from the following equation (6), for example.
y_sigma = Σ (y−y_ave) 2 / n (6)
In the above equation (6),
y: Average luminance yij (i = 1 to m, j = 1 to n)
n: number of divided areas (= 16)
It is.

そして平均輝度と平均彩度の共分散xy_sigmaは、例えば以下の式(7)から計算することができる。
xy_sigma=Σ(x−x_ave)・(y−y_ave)/n ・・・(7)
The covariance xy_sigma of the average luminance and the average saturation can be calculated from the following equation (7), for example.
xy_sigma = Σ (xx−ave) · (y−y_ave) / n (7)

事前処理において以上の各計算結果x_ave,y_ave,x_sigma,y_sigma,xy_sigma,は、いずれも制御ユニット14の記憶部32に予め記憶されているものとする。   It is assumed that all of the above calculation results x_ave, y_ave, x_sigma, y_sigma, and xy_sigma in the pre-processing are stored in advance in the storage unit 32 of the control unit 14.

〔静止障害物の検出手法〕
次に、実際の入力画像(例えば図3)を用いて静止した障害物を検出する手法について説明する。制御ユニット14の処理部30は、例えば以下の処理を通じて障害物の検出を行うことができる。
[Static obstacle detection method]
Next, a method for detecting a stationary obstacle using an actual input image (for example, FIG. 3) will be described. The processing unit 30 of the control unit 14 can detect an obstacle through the following processing, for example.

〔1〕入力画像の取り込み
処理部30は、上記のように後方カメラ12で撮影された入力画像を取り込む。ここでは入力画像として、図3中(A)に示されている舗装路面の画像を取り込むものとする。
[1] Capture of Input Image The processing unit 30 captures the input image captured by the rear camera 12 as described above. Here, it is assumed that an image of the paved road surface shown in FIG.

〔2〕入力画像の分割
また処理部30は、入力画像を複数の領域に分割する処理を行う。ここでは図3中(B)に示されるフレームFに則して入力画像の一部をn(=16)個の領域に分割するものとする。
[2] Division of Input Image The processing unit 30 performs a process of dividing the input image into a plurality of areas. Here, it is assumed that a part of the input image is divided into n (= 16) areas in accordance with the frame F shown in FIG.

〔3〕入力ファクターの抽出
次に処理部30は、入力画像についての分割領域aj(j=1〜n)内に含まれるT個の画素(画素数は分割領域ajにより異なる)から、複数種類の入力ファクターxj,yjを計算により抽出する。このうち一方の入力ファクターxjは、入力画像について分割領域aj内の画素の平均輝度を示すファクターであり、もう一方の基準ファクターyjは例えば分割領域aj内の画素の平均彩度を示すファクターである。なお入力ファクターxjの計算には上式(1)の右辺、入力ファクターyjの計算には上式(2)の右辺をそれぞれ適用することができる。ここで抽出される複数種類の入力ファクターxj,yjの組の数は、今回の入力画像についてn個(この例では全部で16組)となる。
[3] Extraction of Input Factor Next, the processing unit 30 selects a plurality of types from T pixels (the number of pixels varies depending on the divided area aj) included in the divided area aj (j = 1 to n) of the input image. The input factors xj and yj are extracted by calculation. One of the input factors xj is a factor indicating the average luminance of the pixels in the divided region aj with respect to the input image, and the other reference factor yj is a factor indicating the average saturation of the pixels in the divided region aj, for example. . The right side of the above equation (1) can be applied to the calculation of the input factor xj, and the right side of the above equation (2) can be applied to the calculation of the input factor yj. The number of sets of plural types of input factors xj and yj extracted here is n (16 sets in this example in total) for the current input image.

〔4〕マハラノビス距離の演算
次に処理部30は、抽出した入力ファクターxj,yjの組に基づき分割領域aj毎のマハラノビス距離Djを演算する。分割領域aj毎のマハラノビス距離Djは、予め記憶されている基準ファクターxij,yijの組により形成されるマハラノビス空間において、各分割領域ajがどのような位置付けとなるかを示す尺度ないし指標となるものである。マハラノビス距離Djは、例えば以下の計算式(8)により演算することができる。
[4] Calculation of Mahalanobis distance Next, the processing unit 30 calculates the Mahalanobis distance Dj for each divided region aj based on the set of the extracted input factors xj and yj. The Mahalanobis distance Dj for each divided area aj serves as a scale or index indicating how each divided area aj is positioned in the Mahalanobis space formed by a set of reference factors xij and yij stored in advance. It is. The Mahalanobis distance Dj can be calculated by, for example, the following calculation formula (8).

〔5〕分割領域毎の障害物判定
図5は、分割領域aj毎に演算されたマハラノビス距離Djを用いた障害物判定の手法を示す概念図である。
[5] Obstacle Determination for Each Divided Area FIG. 5 is a conceptual diagram showing an obstacle determination method using the Mahalanobis distance Dj calculated for each divided area aj.

〔内部解析画像〕
図5中(A):ここには、分割領域aj(a1〜a16)毎に演算されたマハラノビス距離Djの内部解析画像の例を示している。各分割領域aj内に示されている縦長のバー(棒図形)の長さは、分割領域aj毎のマハラノビス距離Djに相当する。このように処理部30による障害物判定の過程では、例えばその内部メモリ空間上で各分割領域ajのマハラノビス距離Djを仮想的にプロットし、1つの入力画像を分割領域aj毎に解析することができる。
[Internal analysis image]
FIG. 5A shows an example of an internal analysis image of the Mahalanobis distance Dj calculated for each divided region aj (a1 to a16). The length of the vertically long bar (bar figure) shown in each divided area aj corresponds to the Mahalanobis distance Dj for each divided area aj. As described above, in the obstacle determination process by the processing unit 30, for example, the Mahalanobis distance Dj of each divided region aj is virtually plotted on the internal memory space, and one input image is analyzed for each divided region aj. it can.

〔閾値との比較〕
図5中(B):ここには、分割領域aj毎に演算したマハラノビス距離Djの結果を一覧にして示している。また縦軸上には、障害物の判定に用いられる閾値Bを合わせて示している。処理部30による障害物の判定は、例えば各分割領域ajのマハラノビス距離Djが閾値Bを超えるか否かによって行うことができる。この例では、いずれの分割領域ajについてもマハラノビス距離Djが閾値Bを超えていないため、今回の入力画像からは障害物が検出されなかった(障害物がない)と判定することができる。なお閾値Bは、障害物が存在しない状態で撮影された多くのサンプル画像に基づき統計的に設定することができる。
[Comparison with threshold]
In FIG. 5, (B): Here, the results of the Mahalanobis distance Dj calculated for each divided region aj are listed. On the vertical axis, a threshold value B used for obstacle determination is also shown. The determination of the obstacle by the processing unit 30 can be performed based on, for example, whether or not the Mahalanobis distance Dj of each divided region aj exceeds a threshold value B. In this example, since the Mahalanobis distance Dj does not exceed the threshold value B for any divided region aj, it can be determined that no obstacle has been detected (no obstacle) from the current input image. Note that the threshold value B can be set statistically based on many sample images taken in the absence of an obstacle.

〔マハラノビス空間解析〕
図6は、マハラノビス空間を用いた解析例を図解して示す概念図である。上記のように、予め基準ファクターxij,yijとして平均輝度及び平均彩度を記憶部32に記憶しておくことにより、処理部30による内部解析上で仮想的にマハラノビス空間(この例では二次元空間)を形成することができる。
[Mahalanobis spatial analysis]
FIG. 6 is a conceptual diagram illustrating an analysis example using the Mahalanobis space. As described above, by storing the average luminance and the average saturation as the reference factors xij and yij in the storage unit 32 in advance, a virtual Mahalanobis space (in this example, a two-dimensional space on the internal analysis by the processing unit 30). ) Can be formed.

このようなマハラノビス空間において、今回の入力画像について各分割領域aj毎に演算したマハラノビス距離Djをドット(図6中の「●」)で表した場合を想定する。対象範囲内に障害物が存在しない状態で撮影された入力画像(図3)の場合、マハラノビス空間を用いた解析結果は、全てのドットが標準的なグループ(図6中の符号SG)の広がりの中に分布した状態となる。これはつまり、いずれの分割領域ajについてもマハラノビス距離Djが標準的なグループから大きくかけ離れていないことを意味する。したがってこの場合、いずれの分割領域aj内にも障害物が存在していない(画像に映り込んでいない)と判定することができる。   In such a Mahalanobis space, it is assumed that the Mahalanobis distance Dj calculated for each divided region aj for the current input image is represented by dots (“●” in FIG. 6). In the case of an input image (FIG. 3) taken with no obstacle in the target range, the analysis result using the Mahalanobis space shows that all the dots are spread in a standard group (reference symbol SG in FIG. 6). It becomes the state distributed in. This means that the Mahalanobis distance Dj is not significantly different from the standard group for any divided region aj. Therefore, in this case, it can be determined that no obstacle exists in any of the divided regions aj (does not appear in the image).

なお公知のように、マハラノビス空間においては、標準的なグループ(SG)の広がりを表す複重の楕円の1つ1つは等距離線に相当する。このため、例えば図6中に示される2つのドットaj1,aj2は、見かけ上(ユークリッド距離)で互いに長短差を有しているものの、これらのマハラノビス距離は互いに等しい。   As is well known, in the Mahalanobis space, each double ellipse representing the spread of a standard group (SG) corresponds to an equidistant line. Therefore, for example, the two dots aj1 and aj2 shown in FIG. 6 have a difference in length (Euclidean distance) in appearance, but these Mahalanobis distances are equal to each other.

〔障害物ありの場合〕
図7は、後方カメラ12で撮影された別の入力画像と、これを複数の領域に分割するまでの処理を示す概要図である。
[If there are obstacles]
FIG. 7 is a schematic diagram showing another input image captured by the rear camera 12 and processing until the input image is divided into a plurality of regions.

〔入力画像〕
図7中(A):ここでも同様に、車両10の運転者がシフトセレクタレバー20を「R(後退)」に操作すると、制御ユニット14が後方カメラ12の撮影機能を起動することで、後方カメラ12により車両10の後方が撮影される。このとき車両10の後方に各種の障害物BX,CNが存在していた場合、入力画像には、車両10がこれから後進(バック)しようとする方向の路面Rとともに障害物BX,CNが含まれる。
[Input image]
7A: Similarly, when the driver of the vehicle 10 operates the shift selector lever 20 to “R (reverse)”, the control unit 14 activates the imaging function of the rear camera 12 so that the rear camera 12 The rear of the vehicle 10 is photographed by the camera 12. At this time, when various obstacles BX and CN exist behind the vehicle 10, the input image includes the obstacles BX and CN together with the road surface R in the direction in which the vehicle 10 is going to move backward (back). .

なお、ここでは障害物BXとして例えば段ボール箱を想定し、別の障害物CNとして例えばロードコーン(パイロン)を想定している。このため入力画像中には、これら障害物BX,CNが明るく色彩の強い画像として映っている。また障害物は、段ボール箱やロードコーン以外の静止物体であってもよいし、人物であってもよい。   Here, for example, a cardboard box is assumed as the obstacle BX, and a road cone (pylon) is assumed as another obstacle CN. For this reason, in the input image, these obstacles BX and CN are reflected as bright and strong images. The obstacle may be a stationary object other than a cardboard box or a load cone, or may be a person.

〔分割領域〕
図7中(B):いずれにしても、処理部30は同様に入力画像を複数の分割領域aj(j=1〜n)に分割する処理を行う。この例では、ある1つの分割領域内に1つの障害物CNの輪郭全体が収まっている様子が示されているが、通常多くは障害物BXのように、その輪郭が複数の分割領域にまたがっていたり、フレームFから一部がはみ出ていたりする。
[Division area]
7B: In any case, the processing unit 30 similarly performs processing for dividing the input image into a plurality of divided regions aj (j = 1 to n). In this example, it is shown that the entire contour of one obstacle CN is contained in one divided area, but usually the outline extends over a plurality of divided areas like an obstacle BX. Or part of the frame F protrudes.

図8は、障害物が存在する入力画像について分割領域aj毎に演算されたマハラノビス距離Djを用いた障害物判定の手法を示す概念図である。   FIG. 8 is a conceptual diagram showing an obstacle determination method using the Mahalanobis distance Dj calculated for each divided region aj for an input image in which an obstacle exists.

〔内部解析画像〕
図8中(A):上記のように、障害物BX,CNが含まれている分割領域(例えば分割領域a3,a4,a7,a10等)では、いずれもマハラノビス距離が他の分割領域に比較して突出していることがわかる。なお図8中(A)では、縦長のバーが画像枠からはみ出た部分を破線で示している。
[Internal analysis image]
In FIG. 8, (A): As described above, in the divided areas including the obstacles BX and CN (for example, divided areas a3, a4, a7, a10, etc.), the Mahalanobis distance is compared with other divided areas. It can be seen that it protrudes. In FIG. 8A, the portion where the vertically long bar protrudes from the image frame is indicated by a broken line.

〔閾値との比較〕
図8中(B):この場合、分割領域a3,a4,a10のマハラノビス距離D3,D4,D10がいずれも閾値Bを超えるため、処理部30による内部解析では、これら分割領域a3,a4,a10内に障害物が存在する(映り込んでいる)と判定することができる。それ以外の分割領域ではマハラノビス距離Djが閾値Bを超えていないものの、いずれかの分割領域aj内(つまりフレームF内)に障害物が存在すると判定した場合、処理部30は今回の入力画像から障害物が検出されたと最終的に判定する。
[Comparison with threshold]
In FIG. 8, (B): In this case, since the Mahalanobis distances D3, D4, and D10 of the divided regions a3, a4, and a10 all exceed the threshold value B, in the internal analysis by the processing unit 30, these divided regions a3, a4, and a10 It can be determined that an obstacle is present (is reflected). If the Mahalanobis distance Dj does not exceed the threshold B in the other divided areas, but it is determined that an obstacle exists in any of the divided areas aj (that is, in the frame F), the processing unit 30 determines from the current input image. It is finally determined that an obstacle has been detected.

〔マハラノビス空間解析〕
図9は、障害物が存在する場合のマハラノビス空間を用いた解析例を図解して示した概念図である。マハラノビス空間において、今回のように対象範囲内に障害物(BX,CN等)が存在する状態で撮影された入力画像(図7)の場合、マハラノビス空間を用いた解析結果は、実際に障害物が含まれている分割領域a3,a4,a10についてのドットが標準的なグループ(SG)の広がりよりも外側に大きくはみ出た状態となる。これはつまり、分割領域a3,a4,a10についてマハラノビス距離D3,D4,D10(それぞれ点線の矢印で示す)が標準的なグループから大きくかけ離れていることを意味する。したがってこの場合、これら分割領域a3,a4,a10内に障害物が存在する(画像に映り込んでいる)と判定することができる。
[Mahalanobis spatial analysis]
FIG. 9 is a conceptual diagram illustrating an analysis example using a Mahalanobis space when an obstacle is present. In the case of an input image (Fig. 7) taken in a state where there are obstacles (BX, CN, etc.) within the target range as in this case in the Mahalanobis space, the analysis result using the Mahalanobis space is actually an obstacle. The dots in the divided regions a3, a4, and a10 that contain the dot are in a state of protruding beyond the standard group (SG). This means that the Mahalanobis distances D3, D4, and D10 (respectively indicated by dotted arrows) for the divided areas a3, a4, and a10 are far from the standard group. Therefore, in this case, it can be determined that an obstacle exists in these divided areas a3, a4, and a10 (appears in the image).

なお図9中、分割領域a10のドットが横軸(彩度)方向に大きく中心から離れているのは、入力画像中で障害物CNの彩度が大きく影響したためであると考えられる。それ以外の分割領域については、各ドットが標準的なグループ(SG)の広がりの中に分布した状態となる。   In FIG. 9, the dots in the divided area a10 are largely separated from the center in the horizontal axis (saturation) direction because the saturation of the obstacle CN is greatly influenced in the input image. For the other divided regions, the dots are distributed in the standard group (SG) spread.

以上は、予め路面Rの種類が舗装路であることを想定した場合に適用できる障害物検出手法の第1例であるが、車両10の特性上、常に路面Rの種類が1つであるとは限らず、後方カメラ12で撮影される路面Rの種類は、車両10が移動した先の場所によって異なる場合がある。すなわち路面Rの種類は、車両10の移動に伴って舗装路だけでなく、例えば砂利道、農道、山道、林道等のように変化することがある。路面Rの種類が異なれば、それに伴って障害物検出に用いるべき基準ファクターも異なってくる。   The above is the first example of the obstacle detection method that can be applied when it is assumed that the type of the road surface R is a paved road in advance, but due to the characteristics of the vehicle 10, the type of the road surface R is always one. However, the type of the road surface R photographed by the rear camera 12 may vary depending on the location where the vehicle 10 has moved. That is, the type of the road surface R is not limited to paved roads as the vehicle 10 moves, but may change, for example, gravel roads, farm roads, mountain roads, forest roads, and the like. If the type of the road surface R is different, the reference factor to be used for the obstacle detection is accordingly different.

そこで本実施形態では、予め複数の路面種類について基準ファクターを記憶しておくことにより、その都度、未知の入力画像を用いて演算したマハラノビス距離に基づいて路面Rの種類を設定(推定)し、その上で障害物を検出する手法として次の第2例を採用している。以下、第2例について説明する。   Therefore, in this embodiment, by storing reference factors for a plurality of road surface types in advance, the type of road surface R is set (estimated) based on the Mahalanobis distance calculated using an unknown input image each time. In addition, the following second example is adopted as a technique for detecting an obstacle. Hereinafter, the second example will be described.

〔障害物検出手法の第2例〕
図10は、後方カメラ12で砂利道を撮影した場合の入力画像の分割領域とその内部解析値を示す概要図である。すなわち、ここでは路面Rの種類に例えば「舗装路」及び「砂利道」の2種類が含まれることを想定し、このうち「砂利道」が入力画像として撮影された場合を例に挙げている。
[Second example of obstacle detection method]
FIG. 10 is a schematic diagram showing divided regions of the input image and the internal analysis values when the gravel road is photographed by the rear camera 12. That is, here, it is assumed that there are two types of road surface R, for example, “paved road” and “gravel road”, and among these, “gravel road” is taken as an input image as an example. .

〔入力画像の分割〕
図10中(A):例えば、車両10が砂利道に停車(駐車)している状態で運転者がシフトセレクタレバー20を「R(後退)」に操作すると、後方カメラ12により車両10の後方が撮影される。このとき入力画像中には、その大部分に砂利道の表面(路面R)が灰色っぽい画像として映っており、その中に砂利や石塊等が点在して映っている。また入力画像中の右上には、例えばブロック塀が白っぽい画像として映っている。なおフレームFを用いた入力画像の分割についてはこれまでの処理と同様である。
[Division of input image]
10A: For example, when the driver operates the shift selector lever 20 to “R (reverse)” while the vehicle 10 is stopped (parked) on the gravel road, the rear camera 12 causes the rear of the vehicle 10 to move backward. Is filmed. At this time, in the input image, the gravel road surface (road surface R) is reflected as a grayish image in most of them, and gravel, stone blocks, etc. are scattered in the image. Further, for example, a block wall is shown as a whitish image on the upper right in the input image. The division of the input image using the frame F is the same as the processing so far.

〔内部解析画像〕
図10中(B):ここでも同様に、分割領域aj(a1〜a16)毎に演算されたマハラノビス距離Djの内部解析画像の例を示している。特に障害物が存在していなければ、路面Rの種類が砂利道に該当する場合についても、マハラノビス距離Djは上記の閾値Bを超えることはない。
[Internal analysis image]
FIG. 10B shows an example of the internal analysis image of the Mahalanobis distance Dj calculated for each divided region aj (a1 to a16). In particular, when there is no obstacle, the Mahalanobis distance Dj does not exceed the above threshold B even when the type of the road surface R corresponds to a gravel road.

第2例のように路面Rの種類が複数(例えば「舗装路」と「砂利道」の2種類)にまたがることを想定している場合、事前処理において予め路面種類毎に異なる基準ファクターxkij,ykij(k=1,2)の組が制御ユニット14の記憶部32に記憶されている。すなわち、記憶部32には舗装路についての基準ファクターx1ij,y1ijの組が記憶されている他、砂利道についての基準ファクターx2ij,y2ijの組が合わせて記憶されている。   When it is assumed that there are a plurality of types of road surface R (for example, two types of “paved road” and “gravel road”) as in the second example, reference factors xkij, A set of ykij (k = 1, 2) is stored in the storage unit 32 of the control unit 14. That is, the storage unit 32 stores a set of reference factors x1ij and y1ij for a paved road, and also stores a set of reference factors x2ij and y2ij for a gravel road.

このように、複数の路面種類毎に基準ファクターを記憶しておくため、障害物検出装置はその事前処理において、複数の路面種類毎に上述した(1)複数の基準画像の取り込み、(2)各基準画像の分割、及び(3)基準ファクターの抽出を行っている。   As described above, since the reference factor is stored for each of the plurality of road surface types, the obstacle detection apparatus performs (1) capturing a plurality of reference images for each of the plurality of road surface types in the pre-processing, and (2). Each reference image is divided and (3) a reference factor is extracted.

その上で処理部30は、今回の入力画像について路面種類のそれぞれについて分割領域akj毎のマハラノビス距離Dkjを演算し、その結果に基づきマハラノビス空間上で最もグループの中心に近い路面種類を設定することができる。   Then, the processing unit 30 calculates the Mahalanobis distance Dkj for each divided area akj for each road surface type for the current input image, and sets the road surface type closest to the center of the group in the Mahalanobis space based on the result. Can do.

〔路面種類の設定例〕
図11は、路面Rの種類が未知である入力画像から路面種類を設定する手法を図解した概要図である。
[Setting example of road surface type]
FIG. 11 is a schematic diagram illustrating a method of setting a road surface type from an input image whose road surface R type is unknown.

上記のように記憶部32に複数の路面種類毎に基準ファクターxkij,ykijが記憶されている場合、これらに基づいて形成されるマハラノビス空間には、路面種類毎に標準的なグループ(SG1,SG2)の広がりが存在する。この例では舗装路についての標準的なグループ(SG1)と砂利道についての標準的なグループ(SG2)のみが示されているが、3つ以上の路面種類について基準ファクターxkij,ykijが予め記憶されていれば、その路面種類の数に応じた数(3つ以上)の標準的なグループの広がりがマハラノビス空間に存在することになる。   When the reference factors xkij and ykij are stored in the storage unit 32 for each of the plurality of road surface types as described above, the standard group (SG1, SG2) for each road surface type is included in the Mahalanobis space formed based on them. ) Spread. In this example, only the standard group (SG1) for paved roads and the standard group (SG2) for gravel roads are shown, but reference factors xkij and ykiji are stored in advance for three or more road surface types. If so, the number of standard groups corresponding to the number of road surface types (three or more) will spread in the Mahalanobis space.

〔路面種類毎のマハラノビス距離〕
いずれにしても、路面Rの種類が未知である入力画像を取り込むと、ひとまず処理部30は、その分割領域aj毎に入力ファクターxj,yjを抽出した後、これら入力ファクターxj,yjに基づいて路面種類毎にマハラノビス距離Dkjを演算する。なお、路面種類毎のマハラノビス距離Dkjは、上式(8)において平均(x_ave,y_ave)や分散(x_sigma,y_sigma)、共分散(xy_sigma)等の諸変数を路面種類別に代入することで演算することができる。
[Mahalanobis distance for each road type]
In any case, when an input image whose type of road surface R is unknown is captured, the processing unit 30 first extracts the input factors xj and yj for each of the divided areas aj, and then based on these input factors xj and yj. The Mahalanobis distance Dkj is calculated for each road surface type. The Mahalanobis distance Dkj for each road surface type is calculated by substituting various variables such as average (x_ave, y_ave), variance (x_sigma, y_sigma), and covariance (xy_sigma) for each road surface type in the above equation (8). be able to.

したがって、例えば入力画像中のある分割領域ajについては、路面種類毎に複数通りのマハラノビス距離Dkj(k=1,2)が算出されることになる。これを図11のマハラノビス空間上にドットとしてプロットしてみると、ある分割領域(図11中のドットakj)のマハラノビス距離Dkjは、舗装路についての標準的なグループ(SG1)の広がりからは大きく離れているが、砂利道についての標準的なグループ(SG2)の広がりの中に存在していることが分かる。これはつまり、この分割領域(ドットakj)は、舗装路よりも砂利道についてのマハラノビス距離の方が短いことを意味する。これにより処理部30は、この分割領域(ドットakj)は砂利道についての標準的なグループ(SG2)に属するものと判断し、今回の入力画像に映っている路面Rの種類として「砂利道」の路面種類を設定する。   Therefore, for example, for a certain divided region aj in the input image, a plurality of Mahalanobis distances Dkj (k = 1, 2) are calculated for each road surface type. When this is plotted as a dot on the Mahalanobis space in FIG. 11, the Mahalanobis distance Dkj of a certain divided area (dot akj in FIG. 11) is large from the spread of the standard group (SG1) on the paved road. It can be seen that it exists in the spread of the standard group (SG2) for gravel roads. This means that this divided area (dot akj) has a shorter Mahalanobis distance for gravel roads than paved roads. Accordingly, the processing unit 30 determines that the divided region (dot akj) belongs to the standard group (SG2) for the gravel road, and “gravel road” is used as the type of the road surface R shown in the current input image. Set the road type.

以上の処理を通じて路面種類を設定すると、処理部30はこれまでと同様に内部解析画像を用いて障害物についての判定を行うことができる。   When the road surface type is set through the above processing, the processing unit 30 can determine an obstacle using the internal analysis image as before.

〔障害物ありの場合〕
図12は、路面R上に障害物がある砂利道を後方カメラ12で撮影した場合の入力画像の分割領域とその内部解析値を示す概要図である。ここまでの処理において、処理部30は今回の入力画像に基づき路面Rの種類を「砂利道」に設定しているものとする。
[If there are obstacles]
FIG. 12 is a schematic diagram showing a divided region of the input image and its internal analysis value when a gravel road with an obstacle on the road surface R is photographed by the rear camera 12. In the processing so far, it is assumed that the processing unit 30 sets the type of the road surface R to “gravel road” based on the current input image.

〔入力画像の分割〕
図12中(A):車両10の後方に障害物BXが存在していた場合、入力画像には、車両10がこれから後進(バック)しようとする方向の路面Rとともに障害物BXが含まれる。このため入力画像中には、障害物BXが明るく色彩の強い画像として映っている。なお、フレームFを用いた入力画像の分割については、これまでの処理と同様に行われる。
[Division of input image]
In FIG. 12, (A): When the obstacle BX is present behind the vehicle 10, the input image includes the obstacle BX together with the road surface R in the direction in which the vehicle 10 is going to move backward (back). For this reason, the obstacle BX is reflected in the input image as a bright and strong image. Note that the division of the input image using the frame F is performed in the same manner as the processing so far.

〔内部解析画像〕
図12中(B):処理部30は、入力画像から抽出した入力ファクターxj,yjに基づき、設定した「砂利道」についての基準ファクターxij,yijを記憶部32から読み出してマハラノビス距離Djを演算する。その結果、障害物BXが含まれている分割領域a1,a2,a5,a6では、いずれもマハラノビス距離D1,D2,D5,D6が他の分割領域に比較して突出した状態となる。そして処理部30は、これらマハラノビス距離D1,D2,D5,D6が閾値Bを超える場合、分割領域a1,a2,a5,D6内に障害物が存在する(映り込んでいる)と判定することができる。これにより処理部30は、今回の入力画像から障害物が検出されたと最終的に判定することができる。
[Internal analysis image]
In FIG. 12, (B): The processing unit 30 reads the reference factors xij and yij for the set “gravel road” from the storage unit 32 based on the input factors xj and yj extracted from the input image, and calculates the Mahalanobis distance Dj. To do. As a result, in the divided areas a1, a2, a5, and a6 including the obstacle BX, the Mahalanobis distances D1, D2, D5, and D6 are in a state of protruding as compared with the other divided areas. When the Mahalanobis distances D1, D2, D5, and D6 exceed the threshold value B, the processing unit 30 determines that an obstacle exists (is reflected) in the divided areas a1, a2, a5, and D6. it can. Thereby, the processing unit 30 can finally determine that an obstacle has been detected from the current input image.

以上の第2例から明らかなように、本実施形態では路面Rの種類が未知の場合であっても、予め事前処理により複数の路面種類毎に基準ファクターxij,yijを記憶しておくことにより、入力画像に基づいて先ず路面種類を設定し、その上で分割領域毎に演算したマハラノビス距離に基づき障害物の有無を正確に判定することができる。   As is clear from the above second example, in the present embodiment, even if the type of the road surface R is unknown, the reference factors xij and yij are stored in advance for each of a plurality of road surface types by preprocessing. First, the road surface type is set based on the input image, and then the presence or absence of an obstacle can be accurately determined based on the Mahalanobis distance calculated for each divided region.

なお第2例では路面種類として主に「舗装路」と「砂利道」を想定しているが、本実施形態ではより多くの路面種類を想定した上で入力画像から路面種類を設定し、最終的に障害物の有無を判定することができる。このような障害物検出手法は、例えば以下の処理手順により一般化することができる。   In the second example, “paved road” and “gravel road” are mainly assumed as road surface types, but in this embodiment, the road surface type is set from the input image after assuming more road surface types, and the final The presence or absence of an obstacle can be determined. Such an obstacle detection method can be generalized by, for example, the following processing procedure.

〔障害物検出処理〕
図13は、多数の路面種類に対応した障害物検出処理の手順例を示すフローチャートである。例えば車両10のメインスイッチONに伴い、制御ユニット14の処理部30は定期的に(例えば割込処理として)この障害物検出処理を実行する。以下、障害物検出処理の内容を手順例に沿って説明する。
[Obstacle detection processing]
FIG. 13 is a flowchart illustrating a procedure example of obstacle detection processing corresponding to a large number of road surface types. For example, when the main switch of the vehicle 10 is turned on, the processing unit 30 of the control unit 14 executes this obstacle detection process periodically (for example, as an interrupt process). Hereinafter, the content of the obstacle detection process will be described along with a procedure example.

ステップS10:処理実行に伴い、先ず処理部30はシフト位置が「R(後退)」に切り替え操作されたか否かを確認する。この確認は、上記のシフト位置センサ18からの信号に基づいて行うことができる。特にシフト位置が「R(後退)」に操作されていなければ(No)、処理部30はここで障害物検出処理から従前の処理(例えばメインプログラム)に復帰する。   Step S10: As the process is executed, the processing unit 30 first checks whether or not the shift position has been switched to “R (reverse)”. This confirmation can be performed based on the signal from the shift position sensor 18 described above. In particular, if the shift position is not operated to “R (reverse)” (No), the processing unit 30 returns from the obstacle detection process to the previous process (for example, the main program).

これに対し、シフト位置が「R(後退)」に操作されたことを確認した場合(Yes)、処理部30は次のステップS12に進む。なお、シフト位置が「P(駐車)」→「R(後退)」、あるいは「N(中立)」→「R(後退)」へ切り替え操作可能になるのは、通常、車速が0km/hで、かつ、ブレーキペダルが踏み込まれている必要がある(シフトロック解除時)ため、ステップS10の条件を満たす場合(Yes)、現時点で車両10は停車(駐車)中であると考えられる。   On the other hand, when it is confirmed that the shift position is operated to “R (reverse)” (Yes), the processing unit 30 proceeds to the next step S12. The shift position can be switched from “P (parking)” → “R (reverse)” or “N (neutral)” → “R (reverse)”. Normally, the vehicle speed is 0 km / h. In addition, since the brake pedal needs to be depressed (when the shift lock is released), when the condition of step S10 is satisfied (Yes), it is considered that the vehicle 10 is currently stopped (parked).

ステップS12:次に処理部30は、後方カメラ12を起動する。これにより、後方カメラ12による撮影機能がアクティブとなり、車両10の後方(対象範囲)の撮影が行われる。   Step S12: Next, the processing unit 30 activates the rear camera 12. As a result, the imaging function of the rear camera 12 becomes active, and imaging of the rear (target range) of the vehicle 10 is performed.

ステップS14:後方カメラ12を起動すると、処理部30は今回の入力画像を取り込む。入力画像を取り込む処理の内容は、例えば図3に示される入力画像の例とともに説明したとおりである。   Step S14: When the rear camera 12 is activated, the processing unit 30 captures the current input image. The contents of the process for capturing the input image are as described together with the example of the input image shown in FIG.

〔画像分割処理〕
ステップS16:次に処理部30は、画像分割処理を実行する。この処理では、処理部30は入力画像を複数の領域に分割する。具体的な分割処理の手法は、例えば図4に示されるフレームFに則した分割領域の例とともに説明したとおりである。
(Image division processing)
Step S16: Next, the processing unit 30 executes image division processing. In this process, the processing unit 30 divides the input image into a plurality of areas. A specific division processing technique is as described together with an example of a divided area in accordance with the frame F shown in FIG.

〔領域別抽出処理〕
ステップS18:画像分割処理から復帰すると、次に処理部30は領域別抽出処理を実行する。この処理では、処理部30は複数の分割領域毎に上記の入力ファクターxj,yjを計算により抽出する。ここでも、入力ファクターxjの計算には上式(1)の右辺、入力ファクターyjの計算には上式(2)の右辺をそれぞれ適用することができる。
[Extraction processing by area]
Step S18: After returning from the image segmentation process, the processing unit 30 next executes an area-specific extraction process. In this process, the processing unit 30 extracts the input factors xj and yj by calculation for each of a plurality of divided areas. Again, the right side of the above equation (1) can be applied to the calculation of the input factor xj, and the right side of the above equation (2) can be applied to the calculation of the input factor yj.

〔路面種類設定処理〕
ステップS20:領域別演算処理から復帰すると、処理部30は路面種類設定処理を実行する。この処理では、処理部30は記憶部32に記憶されている路面種類毎の基準ファクターxij,yijに基づいて分割領域毎のマハラノビス距離を演算し、その中で最も距離が短くなる路面種類を設定する。複数の路面種類からいずれか1つの種類を設定する手法は、例えば図11に示される例とともに説明したとおりである。ただし、ここでは一般化に適した事前処理を例に挙げて路面種類の設定手法について説明する。
[Road surface type setting process]
Step S20: When returning from the area-specific calculation process, the processing unit 30 executes a road surface type setting process. In this process, the processing unit 30 calculates the Mahalanobis distance for each divided area based on the reference factors xij and yij for each road surface type stored in the storage unit 32, and sets the road surface type with the shortest distance among them. To do. The method of setting any one type from a plurality of road surface types is as described with the example shown in FIG. 11, for example. However, here, a road surface type setting method will be described by taking pre-processing suitable for generalization as an example.

(1)路面種類別の複数の基準画像の取り込み
特に図示していないが、事前処理として上記の「舗装路」や「砂利道」の他、「農道」や「山道」、「林道」等のR種類(例えば10種類)の路面を複数の場所や様々な環境下で、かつ、障害物が存在しない状態で撮影した複数枚の基準画像を取り込む。なお基準画像は、例えば「舗装路」については10枚、「砂利道」については20枚といったように、各路面種類別にmk枚(k=1〜R)が用意されているものとする。
(1) Importing multiple reference images for each road type Although not shown in the figure, in addition to the above-mentioned “paved road” and “gravel road”, “agricultural road”, “mountain road”, “forest road”, etc. A plurality of reference images obtained by capturing R types (for example, 10 types) of road surfaces in a plurality of places and in various environments and without any obstacles are captured. It is assumed that mk sheets (k = 1 to R) are prepared for each road surface type, for example, 10 sheets for “paved road” and 20 sheets for “gravel road”.

(2)各基準画像の分割
また事前処理として、取り込んだ路面種類別の基準画像Ski(i=1〜m)のそれぞれを、さらにn個(例えば16個)の領域Ski1〜Skinに分割する。なお分割の手法は、例えば図4の例を用いて既に説明したとおりである。また各分割領域Skijには、T個の画素(例えば平均して100個程度)が含まれるものとする。
(2) Division of each reference image As a pre-process, each of the captured reference images Ski (i = 1 to m) for each road surface type is further divided into n (for example, 16) regions Ski1 to Skin. Note that the division method is as already described with reference to the example of FIG. Each divided region Skij includes T pixels (for example, about 100 on average).

(3)路面種類別の基準ファクターの抽出
路面種類別の各基準画像Skiについて、それぞれ分割領域Skij内に含まれるT個の画素から複数種類の基準ファクターxkij,ykij(2種類の場合)を計算により抽出する。このうち一方の基準ファクターxkijは例えば分割領域Skij内の画素の平均輝度を示すファクターであり、もう一方の基準ファクターykijは例えば分割領域Skij内の画素の平均彩度を示すファクターである。ここで抽出される複数種類の基準ファクターxkij,yikjの組の数は、路面種類毎にそれぞれm枚の基準画像についてm×n個(例えば「舗装路」が160組、「砂利道」が320組等)となる。なお、平均輝度xkij、平均彩度ykijはそれぞれ上式(1),(2)を用いて計算することができる。
(3) Extraction of reference factor for each road surface type For each reference image Ski for each road surface type, a plurality of types of reference factors xkij, ykij (in the case of two types) are calculated from T pixels included in each divided area Skij. Extract by One of the reference factors xkij is a factor indicating the average luminance of the pixels in the divided region Skij, for example, and the other reference factor ykij is a factor indicating the average saturation of the pixels in the divided region Skij, for example. The number of sets of a plurality of types of reference factors xkij and yikj extracted here is mxn for m reference images for each road surface type (for example, 160 sets of “paved road” and 320 sets of “gravel road”). Set). The average luminance xkij and the average saturation ykij can be calculated using the above equations (1) and (2), respectively.

各路面種類における以上の計算結果をm×n個の基準ファクターの組(xk11,yk11),(xk12,yk12),・・・,(xkmn,ykmn)とし(k=1〜R)、さらにこれら基準ファクターから、路面種類毎に全ての平均輝度の平均xk_ave、平均彩度の平均yk_ave、平均輝度の分散xk_sigma、平均彩度の分散yk_sigma及び平均輝度と平均彩度の共分散xyk_sigmaをそれぞれ計算する。これらの計算は、それぞれ上式(3)〜(7)を用いて行うことができる。   The above calculation results for each road surface type are set to m × n reference factor sets (xk11, yk11), (xk12, yk12),..., (Xkmn, ykmn) (k = 1 to R), and these Based on the reference factors, the average xk_ave of all average luminance, the average yk_ave of average saturation, the variance of average luminance xk_sigma, the variance of average saturation yk_sigma, and the covariance xyk_sigma of average luminance and average saturation are calculated for each road type. . These calculations can be performed using the above equations (3) to (7), respectively.

そして、事前処理において以上の各計算結果xk_ave,yk_ave,xk_sigma,yk_sigma,xyk_sigma,は、路面種類別に制御ユニット14の記憶部32に予め記憶されているものとする。   The calculation results xk_ave, yk_ave, xk_sigma, yk_sigma, and xyk_sigma in the preprocessing are assumed to be stored in advance in the storage unit 32 of the control unit 14 for each road surface type.

(4)マハラノビス距離の演算
その上で処理部30は、今回の入力画像について計算した入力ファクターxj,yijに基づき、分割領域aj毎にマハラノビス距離Dkj(k=1〜R)を演算する。計算式は上式(8)になぞらえて、例えば以下の一般式(9)を用いるものとする。
(4) Calculation of Mahalanobis distance Based on the input factors xj and yij calculated for the current input image, the processing unit 30 calculates the Mahalanobis distance Dkj (k = 1 to R) for each divided region aj. For example, the following general formula (9) is used as the calculation formula, similar to the above formula (8).

処理部30は、以上のマハラノビス距離Dkjの演算を路面種類数であるk回(k=1〜R)繰り返し、路面種類別のマハラノビス距離Dkj(j=1〜n)を演算する。   The processing unit 30 repeats the above calculation of the Mahalanobis distance Dkj k times (k = 1 to R) that is the number of road surface types, and calculates the Mahalanobis distance Dkj (j = 1 to n) for each road surface type.

(5)路面種類の設定(推定)
そして処理部30は、演算結果Dkj(k=1〜R)のうち、最も小さい値となる路面種類kを今回の入力画像に映っている路面の種類として設定する。これにより、今回の入力画像について路面種類が1つに特定される結果、分割領域aj毎のマハラノビス距離Djが改めて確定した状態となる。
(5) Road surface type setting (estimation)
Then, the processing unit 30 sets the road surface type k having the smallest value among the calculation results Dkj 2 (k = 1 to R) as the type of the road surface shown in the current input image. Thereby, as a result of specifying one road surface type for the current input image, the Mahalanobis distance Dj for each divided region aj is determined again.

ステップS22:これにより処理部30は、分割領域aj毎のマハラノビス距離Djを閾値Bと比較することにより、分割領域aj毎に障害物があるか否か(障害物が映っているか否か)を判定することができる。その結果、特に障害物が存在しないと判定した場合(No)、処理部30はここで障害物検出処理から従前の処理に復帰する。これに対し、障害物があると判定した場合(Yes)、処理部30は次のステップS24を実行する。   Step S22: Thereby, the processing unit 30 compares the Mahalanobis distance Dj for each divided region aj with the threshold value B to determine whether there is an obstacle for each divided region aj (whether the obstacle is reflected). Can be determined. As a result, when it is determined that no obstacle exists (No), the processing unit 30 returns from the obstacle detection process to the previous process. On the other hand, when it determines with there being an obstruction (Yes), the process part 30 performs following step S24.

〔警報出力処理〕
ステップS24:処理部30は、ここで警報出力処理を実行する。この処理では、処理部30は上記の音響出力部36に対して警報音の出力コマンドを発行する。これを受けて音響出力部36は、スピーカ22を駆動して実際に警報音を出力させる。このとき警報音は、車室内の後方位置から運転席に向かって発せられるため、直感的にも運転者が車両10の後方に障害物が存在することを認識しやすくなる。
[Alarm output processing]
Step S24: The processing unit 30 executes an alarm output process here. In this process, the processing unit 30 issues an alarm sound output command to the sound output unit 36. In response to this, the sound output unit 36 drives the speaker 22 to actually output an alarm sound. At this time, since the warning sound is emitted from the rear position in the passenger compartment toward the driver's seat, the driver can easily recognize that an obstacle exists behind the vehicle 10 intuitively.

また、このとき処理部30は、LCDコントローラ34に対して警報表示の出力コマンドを発行してもよい。これにより、液晶ディスプレイ16に例えば「障害物に注意」といった警報情報が表示されるため、それによって運転者に注意を喚起することができる。   At this time, the processing unit 30 may issue an alarm display output command to the LCD controller 34. Accordingly, for example, alarm information such as “attention to obstacles” is displayed on the liquid crystal display 16, thereby alerting the driver.

〔障害物検出手法の第3例〕
ここまでに説明した障害物検出手法の第1例及び第2例では、ファクターとして平均輝度と平均彩度の2種類を用いているが、以下のようなファクターを用いて障害物の検出を行ってもよい。
[Third example of obstacle detection method]
In the first and second examples of the obstacle detection method described so far, two types of factors, average luminance and average saturation, are used, but obstacle detection is performed using the following factors. May be.

例えば複数種類のファクター(基準ファクター及び入力ファクター)として、各分割領域内のR成分の平均r_ave、G成分の平均g_ave、B成分の平均b_ave、RG共分散rg_sigma、GB共分散gb_sigma、BR共分散br_sigmaの6種類を用いるものとする。これらファクターは、例えば以下の各計算式(10)〜(15)を用いてそれぞれ計算することができる。   For example, as a plurality of types of factors (reference factor and input factor), R component average r_ave, G component average g_ave, B component average b_ave, RG covariance rg_sigma, GB covariance gb_sigma, BR covariance in each divided region It is assumed that six types of br_sigma are used. These factors can be calculated using, for example, the following calculation formulas (10) to (15).

r_ave=ΣR/n ・・・(10)
g_ave=ΣG/n ・・・(11)
b_ave=ΣB/n ・・・(12)
rg_sigma=Σ(R−r_ave)・(G−g_ave)/n ・・・(13)
gb_sigma=Σ(G−g_ave)・(B−b_ave)/n ・・・(14)
rb_sigma=Σ(R−r_ave)・(B−b_ave)/n ・・・(15)
上式(10)〜(15)において、
R:各画素のR成分の値
G:各画素のG成分の値
B:各画素のB成分の値
である。
r_ave = ΣR / n (10)
g_ave = ΣG / n (11)
b_ave = ΣB / n (12)
rg_sigma = Σ (R−r_ave) · (G−g_ave) / n (13)
gb_sigma = Σ (G−g_ave) · (B−b_ave) / n (14)
rb_sigma = Σ (R−r_ave) · (B−b_ave) / n (15)
In the above formulas (10) to (15),
R: R component value of each pixel G: G component value of each pixel B: B component value of each pixel.

また、上記のファクターを用いる場合、マハラノビス距離の計算式は次元数(この場合は6次元)に応じたものとなる。なお、ここではファクターとして上記の6種類を例に挙げているが、より多種類のファクターを用いてもよい。   When the above factors are used, the Mahalanobis distance calculation formula is in accordance with the number of dimensions (in this case, 6 dimensions). Here, the above six types are given as examples of factors, but more types of factors may be used.

以上のように本実施形態の障害物検出装置によれば、単一の後方カメラ12で撮影された静止画像に基づき、車両10の後方に障害物が存在するか否かを確実に判定することができる。また、複数種類の入力ファクターに基づいて障害物の判定を行っているため、それだけ障害物として認識できる対象のバリエーションを多くすることができる。   As described above, according to the obstacle detection device of the present embodiment, it is reliably determined whether there is an obstacle behind the vehicle 10 based on the still image captured by the single rear camera 12. Can do. In addition, since the obstacle is determined based on a plurality of types of input factors, it is possible to increase the variation of objects that can be recognized as an obstacle.

また本実施形態では、事前処理において路面を様々な条件下で撮影した基準画像から基準ファクターを抽出しておき、その上で、今回の入力画像についてマハラノビス距離(マハラノビス空間における距離)に基づき障害物の有無を判断している。したがって、路面状態の変化(日照や照明等の明るさの変化)に対して判定結果が過敏になりにくく、その分、誤判定を防止してより高精度な障害物の検出が可能となる。   In this embodiment, the reference factor is extracted from the reference image obtained by photographing the road surface under various conditions in the pre-processing, and then the obstacle is based on the Mahalanobis distance (distance in the Mahalanobis space) for the current input image. Judging the presence or absence of. Therefore, the determination result is less sensitive to changes in road surface conditions (changes in brightness such as sunshine and lighting), and accordingly, erroneous determination can be prevented and obstacles can be detected with higher accuracy.

本発明は上述した実施形態に制約されることなく、種々に変形して実施することができる。一実施形態では、後方カメラ12を用いて車両10の後方を対象範囲として障害物の検出を行っているが、車両10の前方や側方(周囲)にそれぞれカメラを設置し、多方向からの入力画像に基づいて障害物の検出を行ってもよい。   The present invention is not limited to the embodiments described above, and can be implemented with various modifications. In one embodiment, obstacles are detected using the rear camera 12 with the rear of the vehicle 10 as a target range. However, cameras are installed in front and sides (peripheries) of the vehicle 10, respectively. An obstacle may be detected based on the input image.

また、路面状態については昼間と夜間、あるいは晴天時と曇天時、雨天時等の条件を細かく分けて基準画像を用意してもよい。この場合、例えば明るさセンサや路面センサ等の補助装置を用いて入力画像の路面状態(天候や時間帯、ドライ路面、ウェット路面等の状態)を予め設定し、その上で基準画像を設定して障害物の検出を行うことができる。   As for the road surface condition, a reference image may be prepared by finely dividing conditions such as daytime and nighttime, or when the weather is fine, cloudy, and rainy. In this case, for example, using an auxiliary device such as a brightness sensor or a road surface sensor, the road surface state (weather, time zone, dry road surface, wet road surface, etc.) of the input image is set in advance, and then a reference image is set. Obstacles can be detected.

また障害物検出装置は、車両10以外の移動体(例えば鉄道車両、牽引物、車椅子、カート等)に適用することもできる。   The obstacle detection device can also be applied to a moving body other than the vehicle 10 (for example, a railway vehicle, a towed object, a wheelchair, a cart, etc.).

さらに、障害物の有無を判定する対象範囲は路面(道路面)に限らず、更地や運動場、河川敷、海岸、芝地、雑草地等であってもよい。これらの場合についても、予め想定される対象範囲について複数の基準画像を用意し、種類毎に基準ファクターを記憶しておくことで入力画像を用いた障害物の検出が可能である。   Furthermore, the target range for determining the presence or absence of an obstacle is not limited to the road surface (road surface), but may be terrain, a playground, a riverbed, a beach, a lawn, a weedy, and the like. Also in these cases, it is possible to detect an obstacle using an input image by preparing a plurality of reference images for a presumed target range and storing a reference factor for each type.

10 車両
12 後方カメラ
14 制御ユニット
16 液晶ディスプレイ
18 シフト位置センサ
20 シフトセレクタレバー
22 スピーカ
30 処理部
32 記憶部
DESCRIPTION OF SYMBOLS 10 Vehicle 12 Rear camera 14 Control unit 16 Liquid crystal display 18 Shift position sensor 20 Shift selector lever 22 Speaker 30 Processing part 32 Storage part

Claims (3)

所定の対象範囲を撮影するカメラと、
前記カメラにより撮影して得られた入力画像を用いて前記対象範囲内の障害物の有無を判定する制御手段とを備え、
前記制御手段は、
前記入力画像を分割した複数の分割領域毎に複数種類の入力ファクターを抽出するとともに、
前記入力画像とは別に用意された複数の基準画像をそれぞれ複数の領域に分割した分割領域毎に抽出して得た複数種類の基準ファクターを予め記憶しておき、これら複数種類の基準ファクターにより形成される基準空間における前記入力画像の分割領域毎の距離を前記複数種類の入力ファクターに基づき演算し、
前記演算した距離に基づき前記入力画像の分割領域毎に前記対象範囲内の障害物の有無を判定することを特徴とする障害物検出装置。
A camera for photographing a predetermined target range;
Control means for determining the presence or absence of an obstacle within the target range using an input image obtained by photographing with the camera;
The control means includes
Extracting a plurality of types of input factors for each of a plurality of divided regions obtained by dividing the input image,
A plurality of types of reference factors obtained by extracting a plurality of reference images prepared separately from the input image for each divided region obtained by dividing each of the plurality of reference images into a plurality of regions are stored in advance, and formed by these plurality of types of reference factors. A distance for each divided region of the input image in the reference space to be calculated based on the plurality of types of input factors,
An obstacle detection device that determines the presence or absence of an obstacle within the target range for each divided region of the input image based on the calculated distance.
請求項1に記載の障害物検出装置において、
前記制御手段は、
前記複数種類の基準ファクターにより形成されるマハラノビス空間を前記基準空間として、前記マハラノビス空間における前記入力画像の分割領域毎のマハラノビス距離を前記基準空間における距離として演算し、
前記マハラノビス距離に基づき前記入力画像の分割領域毎に前記対象範囲内の障害物の有無を判定することを特徴とする障害物検出装置。
The obstacle detection device according to claim 1,
The control means includes
A Mahalanobis space formed by the plurality of types of reference factors is used as the reference space, and a Mahalanobis distance for each divided region of the input image in the Mahalanobis space is calculated as a distance in the reference space.
An obstacle detection apparatus that determines the presence or absence of an obstacle within the target range for each divided region of the input image based on the Mahalanobis distance.
請求項1又は2に記載の障害物検出装置において、
前記制御手段は、
前記対象範囲に含まれる複数の路面種類のそれぞれについて、前記入力画像とは別に用意された複数の基準画像をそれぞれ複数の領域に分割し、これら分割領域毎に抽出して得られた複数種類の基準ファクターを予め前記複数の路面種類毎に記憶しておき、前記複数の路面種類毎に前記基準空間における前記入力画像の分割領域毎の距離を前記複数種類の入力ファクターに基づき演算し、この演算した距離に基づいて前記対象範囲に含まれる路面種類を設定し、
前記設定した路面種類について演算した距離に基づき前記分割領域毎に前記対象範囲内の障害物の有無を判定することを特徴とする障害物検出装置。
In the obstacle detection device according to claim 1 or 2,
The control means includes
For each of a plurality of road surface types included in the target range, a plurality of reference images prepared separately from the input image are divided into a plurality of regions, and a plurality of types obtained by extracting for each of the divided regions. A reference factor is stored in advance for each of the plurality of road surface types, and a distance for each divided region of the input image in the reference space is calculated based on the plurality of types of input factors for each of the plurality of road surface types. Set the road surface type included in the target range based on the distance
An obstacle detection device that determines the presence or absence of an obstacle in the target range for each of the divided areas based on the distance calculated for the set road surface type.
JP2009224711A 2009-09-29 2009-09-29 Obstacle detection device Withdrawn JP2011076214A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009224711A JP2011076214A (en) 2009-09-29 2009-09-29 Obstacle detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009224711A JP2011076214A (en) 2009-09-29 2009-09-29 Obstacle detection device

Publications (1)

Publication Number Publication Date
JP2011076214A true JP2011076214A (en) 2011-04-14

Family

ID=44020165

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009224711A Withdrawn JP2011076214A (en) 2009-09-29 2009-09-29 Obstacle detection device

Country Status (1)

Country Link
JP (1) JP2011076214A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168098A (en) * 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
KR101316501B1 (en) * 2011-10-14 2013-10-10 현대자동차주식회사 Parking area detection system and method thereof using mesh space analysis
CN104331910A (en) * 2014-11-24 2015-02-04 沈阳建筑大学 Track obstacle detection system based on machine vision
JP2016223915A (en) * 2015-05-29 2016-12-28 Kyb株式会社 Monitor device
JP2017005468A (en) * 2015-06-09 2017-01-05 富士通テン株式会社 Image processor and image processing method
JP2018017101A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2019125969A (en) * 2018-01-18 2019-07-25 株式会社東芝 Image transmission system, monitoring apparatus, and image transmission method
JP2020501281A (en) * 2016-12-19 2020-01-16 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. Obstacle detection method and device
CN113734048A (en) * 2020-05-29 2021-12-03 广州汽车集团股份有限公司 Backing warning method and device

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288936A (en) * 1993-04-06 1994-10-18 Fujikura Ltd Foreign matter inspection method
JP2000149026A (en) * 1998-11-16 2000-05-30 Dainippon Printing Co Ltd Image trimming device
JP2000306191A (en) * 1999-04-16 2000-11-02 Matsushita Electric Ind Co Ltd Area division and device for extracting object
JP2002140789A (en) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit Road surface situation judging device
JP2003344163A (en) * 2002-05-23 2003-12-03 Ohbayashi Corp Stone classifying method and method of manufacturing structure using the same
JP2004034946A (en) * 2002-07-08 2004-02-05 Toyota Motor Corp Image processing device, parking support device, and image processing method
JP2004251886A (en) * 2003-01-28 2004-09-09 Nissan Motor Co Ltd Device for detecting surrounding object
JP2004274431A (en) * 2003-03-10 2004-09-30 Fujitsu Ltd Road surface conditions determination method and device
JP2005353101A (en) * 2005-08-25 2005-12-22 Ricoh Co Ltd Image-feature extraction method and computer-readable recording medium stored with program for executing on computer each step of the method
JP2006260310A (en) * 2005-03-17 2006-09-28 Kyushu Institute Of Technology Article discrimination method, article discrimination device, and program
JP2006268820A (en) * 2004-11-02 2006-10-05 Matsushita Electric Ind Co Ltd Method, apparatus and program for image identification, image processing method and integrated circuit
JP2007164737A (en) * 2005-12-16 2007-06-28 Mitsubishi Heavy Ind Ltd Color-identifying method
JP2008544334A (en) * 2005-06-27 2008-12-04 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model a scene

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06288936A (en) * 1993-04-06 1994-10-18 Fujikura Ltd Foreign matter inspection method
JP2000149026A (en) * 1998-11-16 2000-05-30 Dainippon Printing Co Ltd Image trimming device
JP2000306191A (en) * 1999-04-16 2000-11-02 Matsushita Electric Ind Co Ltd Area division and device for extracting object
JP2002140789A (en) * 2000-10-31 2002-05-17 Natl Inst For Land & Infrastructure Management Mlit Road surface situation judging device
JP2003344163A (en) * 2002-05-23 2003-12-03 Ohbayashi Corp Stone classifying method and method of manufacturing structure using the same
JP2004034946A (en) * 2002-07-08 2004-02-05 Toyota Motor Corp Image processing device, parking support device, and image processing method
JP2004251886A (en) * 2003-01-28 2004-09-09 Nissan Motor Co Ltd Device for detecting surrounding object
JP2004274431A (en) * 2003-03-10 2004-09-30 Fujitsu Ltd Road surface conditions determination method and device
JP2006268820A (en) * 2004-11-02 2006-10-05 Matsushita Electric Ind Co Ltd Method, apparatus and program for image identification, image processing method and integrated circuit
JP2006260310A (en) * 2005-03-17 2006-09-28 Kyushu Institute Of Technology Article discrimination method, article discrimination device, and program
JP2008544334A (en) * 2005-06-27 2008-12-04 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド How to model a scene
JP2005353101A (en) * 2005-08-25 2005-12-22 Ricoh Co Ltd Image-feature extraction method and computer-readable recording medium stored with program for executing on computer each step of the method
JP2007164737A (en) * 2005-12-16 2007-06-28 Mitsubishi Heavy Ind Ltd Color-identifying method

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200000966023; 山田 宗男、外3名: '"画像情報による路面状態の判別"' 情報処理学会論文誌 Vol.38, No.12, 19971215, p.2648-2655, 社団法人情報処理学会 *
JPN6013009612; 山田 宗男、外3名: '"画像情報による路面状態の判別"' 情報処理学会論文誌 Vol.38, No.12, 19971215, p.2648-2655, 社団法人情報処理学会 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012168098A (en) * 2011-02-16 2012-09-06 Aisin Aw Co Ltd Photographic position specification system, photographic position specification program, and method for specifying photographic position
KR101316501B1 (en) * 2011-10-14 2013-10-10 현대자동차주식회사 Parking area detection system and method thereof using mesh space analysis
CN104331910A (en) * 2014-11-24 2015-02-04 沈阳建筑大学 Track obstacle detection system based on machine vision
JP2016223915A (en) * 2015-05-29 2016-12-28 Kyb株式会社 Monitor device
JP2017005468A (en) * 2015-06-09 2017-01-05 富士通テン株式会社 Image processor and image processing method
JP2018017101A (en) * 2016-07-29 2018-02-01 エヌ・ティ・ティ・コムウェア株式会社 Information processing apparatus, information processing method, and program
JP2020501281A (en) * 2016-12-19 2020-01-16 深▲せん▼前海達闥云端智能科技有限公司Cloudminds (Shenzhen) Robotics Systems Co.,Ltd. Obstacle detection method and device
US10997438B2 (en) 2016-12-19 2021-05-04 Cloudminds (Shanghai) Robotics Co., Ltd. Obstacle detection method and apparatus
JP2019125969A (en) * 2018-01-18 2019-07-25 株式会社東芝 Image transmission system, monitoring apparatus, and image transmission method
CN113734048A (en) * 2020-05-29 2021-12-03 广州汽车集团股份有限公司 Backing warning method and device

Similar Documents

Publication Publication Date Title
US11606516B2 (en) Image processing device, image processing method, and image processing system
JP2011076214A (en) Obstacle detection device
US10449899B2 (en) Vehicle vision system with road line sensing algorithm and lane departure warning
US10078789B2 (en) Vehicle parking assist system with vision-based parking space detection
US8766816B2 (en) System for monitoring the area around a vehicle
US8810653B2 (en) Vehicle surroundings monitoring apparatus
JP6176028B2 (en) Vehicle control system, image sensor
US8988276B2 (en) Vehicle surroundings monitoring device
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
US9619716B2 (en) Vehicle vision system with image classification
JP5648655B2 (en) Object identification device
JP4173902B2 (en) Vehicle periphery monitoring device
JP5171723B2 (en) Obstacle detection device and vehicle equipped with the device
US20210358304A1 (en) Vehicle vision system with cross traffic detection
JP4528283B2 (en) Vehicle periphery monitoring device
EP1671216A2 (en) Moving object detection using low illumination depth capable computer vision
JP2007241898A (en) Stopping vehicle classifying and detecting device and vehicle peripheral monitoring device
WO2009101660A1 (en) Vehicle periphery monitoring device, vehicle, and vehicle periphery monitoring program
JP4644273B2 (en) Vehicle periphery monitoring device
JP5457224B2 (en) Road surface condition detection device
JP4972116B2 (en) Vehicle periphery monitoring device
JP4813304B2 (en) Vehicle periphery monitoring device
US20200118280A1 (en) Image Processing Device
JP6847709B2 (en) Camera devices, detectors, detection systems and mobiles
Dai et al. A driving assistance system with vision based vehicle detection techniques

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120405

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120421

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130412

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20131126