JP2011170568A - Device and method for detecting obstacle - Google Patents

Device and method for detecting obstacle Download PDF

Info

Publication number
JP2011170568A
JP2011170568A JP2010033010A JP2010033010A JP2011170568A JP 2011170568 A JP2011170568 A JP 2011170568A JP 2010033010 A JP2010033010 A JP 2010033010A JP 2010033010 A JP2010033010 A JP 2010033010A JP 2011170568 A JP2011170568 A JP 2011170568A
Authority
JP
Japan
Prior art keywords
image
obstacle
vehicle
enlarged image
road
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010033010A
Other languages
Japanese (ja)
Other versions
JP5521217B2 (en
Inventor
Minoru Fujioka
稔 藤岡
Kenichi Kanetani
健一 金谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Okayama University NUC
Original Assignee
Denso Ten Ltd
Okayama University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd, Okayama University NUC filed Critical Denso Ten Ltd
Priority to JP2010033010A priority Critical patent/JP5521217B2/en
Publication of JP2011170568A publication Critical patent/JP2011170568A/en
Application granted granted Critical
Publication of JP5521217B2 publication Critical patent/JP5521217B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technology capable of detecting a distant obstacle on a road and reducing a processing load while suppressing a capacity of a storage area necessary in processing to detect the obstacle. <P>SOLUTION: The technique extracts, from an image photographed from a vehicle, an image area as an area of the road on which the vehicle travels, enlarges a faraway area in the extracted image area to generate an enlargement image, and stores the generated enlargement image. For comparing the enlargement images which are stored sequentially in time, the technology calculates a moving distance on the basis of speed information about the speed of the vehicle, converts the enlargement image which is temporally preceding into a conversion enlargement image corresponding to the moving distance, compares the enlargement image with the converted conversion enlargement image to detect different points as the obstacle in both the images, and outputs the detected detection result. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、障害物検出装置、及び障害物検出方法の技術に関する。   The present invention relates to an obstacle detection apparatus and an obstacle detection method.

車両に搭載したカメラによって例えば車両の前方を撮影し、車両前方の障害物を検出する装置が知られている。例えば、特許文献1では、車両に搭載したカメラにより車両の前方を撮影し、前後する2時刻の撮影画像について射影変換を施した後に差分をとり、その差分から時間ずれが生じた特徴点を検出し、これらの特徴点から動きベクトルのオプティカルフローを検出して車両前方の障害物を検出する。   2. Description of the Related Art A device that captures, for example, the front of a vehicle with a camera mounted on the vehicle and detects an obstacle ahead of the vehicle is known. For example, in Patent Document 1, the front of a vehicle is photographed by a camera mounted on the vehicle, a difference is obtained after projective transformation is performed on the captured images at two times before and after, and a feature point in which a time lag has occurred is detected from the difference. Then, an optical flow of the motion vector is detected from these feature points to detect an obstacle ahead of the vehicle.

特許第3463858号公報Japanese Patent No. 3463858

センサー、レーダ、GPSを用い、車両が障害物に接近すると、アラームやモニタを通じて運転者に危険を知らせる技術が知られている。また、これらの技術と比較して、使用機器数を低減して低価格にて提供可能な技術とするため、単眼モノクロカメラ(以下、単にカメラとも称する)を車両に搭載し、搭載されたカメラによって撮影された画像列を解析することで、障害物を検出する技術が開発されている。   A technology is known that uses a sensor, a radar, and a GPS to notify a driver of danger through an alarm or monitor when a vehicle approaches an obstacle. Also, in order to make the technology that can be provided at a low price by reducing the number of devices used compared to these technologies, a monocular monochrome camera (hereinafter also simply referred to as a camera) is mounted on a vehicle, and the mounted camera A technique for detecting an obstacle by analyzing an image sequence photographed by the method has been developed.

カメラによって撮影された画像列を解析することで、障害物を検出する従来技術では、まず、道路平面画像(俯瞰図)を作成する。そして、作成された四角形の道路平面画像のうち、前後する2時刻の道路平面画像の差分をとり、差分から時間ずれが生じた特徴点を検出し、これらの特徴点を障害物として検出する。   In the conventional technique for detecting an obstacle by analyzing an image sequence photographed by a camera, a road plane image (overhead view) is first created. Then, of the created quadrilateral road plane images, the difference between the road plane images at the two preceding and following times is taken, the feature points where the time lag has occurred are detected, and these feature points are detected as obstacles.

ここで、上記従来技術では、遠くの障害物の有無の判定は、道路平面画像の大きさを大きくすること、すなわち、道路平面画像における車両の前方方向の長さを長くすることで可能となる。つまり、上記従来技術では、作成される道路平面画像を大きくすればするほど、より遠くまで障害物の有無の判定を行うことが可能となる。   Here, in the above-described conventional technology, it is possible to determine the presence or absence of a distant obstacle by increasing the size of the road plane image, that is, by increasing the length of the road in the front direction of the vehicle. . In other words, in the above-described conventional technology, the larger the road plane image that is created, the greater the distance can be determined.

しかしながら、作成される道路平面画像を大きくすることで、より遠の障害物の検出が可能となるものの、道路平面画像を大きくすればするほど、道路平面画像を作成する際に必要となる記憶領域の容量が大きくなり、処理装置の処理負荷が大きくなる。なお、道路平面画像を小さくすることで、当然、道路平面画像を作成する際に必要となる記憶領域の容量を小さくし、処理装置の処理負担を小さくすることができる。しかし、遠くの障害物の検出ができなくなり、障害物が存在することを運転者に知らせるタイミングが遅くなることが懸念される。   However, although the far road obstacle can be detected by enlarging the created road plane image, the larger the road plane image is, the more storage area is required when creating the road plane image. And the processing load of the processing apparatus increases. Note that, by reducing the road plane image, naturally, the capacity of the storage area required when creating the road plane image can be reduced, and the processing load on the processing apparatus can be reduced. However, there is a concern that distant obstacles cannot be detected, and the timing for notifying the driver that an obstacle exists is delayed.

本発明では、道路遠方の障害物の検出ができ、障害物を検出する処理で必要とされる記憶領域の容量を抑えて処理負荷の軽減を図ることが可能な技術を提供することを課題とする。   It is an object of the present invention to provide a technique capable of detecting an obstacle far from the road and reducing the processing load by suppressing the capacity of a storage area required for the process of detecting the obstacle. To do.

本発明では、上述した課題を解決するため、車両から撮影した画像を道路平面画像に変換せず、車両から撮影した画像における道路遠方領域を拡大し、時間的に前の画像と比較
することで、道路遠方の障害物を検出することとした。
In the present invention, in order to solve the above-described problem, the image captured from the vehicle is not converted into a road plane image, but the road far region in the image captured from the vehicle is enlarged and temporally compared with the previous image. It was decided to detect obstacles far away from the road.

より詳細には、本発明は、車両の周囲における少なくとも一方向を撮影し、撮影された画像から前記一方向に存在する障害物を検出する障害物検出装置であって、前記画像から、該車両が走行する道路の領域としての画像領域を抽出する抽出部と、前記抽出部で抽出される画像領域における遠方領域を拡大して拡大画像を生成する拡大画像生成部と、前記拡大画像生成部で生成される拡大画像を記憶する記憶部と、前記記憶部に記憶される、時間的に前後する拡大画像を比較するため、車両の速度に関する速度情報に基づいて車両の移動距離を算出し、時間的に前の拡大画像を該移動距離に応じた変換拡大画像に変換する拡大画像変換部と、前記拡大画像と前記拡大画像変換部によって変換された変換拡大画像とを比較して両画像の異なる点を障害物として検出する障害物検出部と、前記障害物検出部が検出した検出結果を出力する出力部と、を備える。   More specifically, the present invention is an obstacle detection device that captures at least one direction around a vehicle and detects an obstacle existing in the one direction from the captured image. An extracting unit that extracts an image region as a region of a road on which the vehicle travels, an enlarged image generating unit that generates an enlarged image by enlarging a distant region in the image region extracted by the extracting unit, and the enlarged image generating unit In order to compare the storage unit that stores the generated enlarged image and the enlarged image that is stored in the storage unit and that moves back and forth in time, the moving distance of the vehicle is calculated based on the speed information related to the vehicle speed, and the time In comparison, the enlarged image conversion unit that converts the previous enlarged image into a converted enlarged image corresponding to the movement distance, and the enlarged image and the converted enlarged image converted by the enlarged image converting unit are different from each other. point Comprising an obstacle detector for detecting as an obstacle, and an output unit for outputting a detection result, wherein the obstacle detecting unit has detected.

上述したように、道路平面画像を用いて障害物を検出する従来の技術では、道路上の遠方の障害物を検出するためには、作成する道路平面画像を大きく、極端に言えば無限大まで拡大する必要があった。これに対し本発明に係る障害物検出装置では、道路平面画像を作成することなく障害物の検出が可能であることから、従来の道路平面画像を作成する技術に比べて使用する記憶領域を低減でき、処理負荷の軽減を実現できる。   As described above, in the conventional technique for detecting an obstacle using a road plane image, in order to detect a distant obstacle on the road, the road plane image to be created is large, and in an extreme case, to infinity. There was a need to expand. On the other hand, the obstacle detection device according to the present invention can detect an obstacle without creating a road plane image, so that the storage area used is reduced compared to the conventional technique for creating a road plane image. This can reduce the processing load.

撮影される方向は、車両の周囲であればよく、特に限定されるものではないが、車両の前方や後方、特には前方が好ましい。撮影は、車両の周囲を連続的に撮影可能な撮影手段によって行うことができる。最も簡易な撮影手段として、単眼モノクロカメラが例示されるが、撮影手段は、カラーに対応したカメラでもよい。本発明における障害物とは、車両が走行する道路上の障害物であり、道路面上から上方に突出しているもの、特に道路に対して相対的に移動するもの、換言すると、障害物検出装置が搭載される車両の速度に依存せずに移動するものを意味する。具体的には、障害物には、他の車両や歩行者が例示される。   The direction in which the image is taken is not particularly limited as long as it is around the vehicle, but it is preferably forward or backward of the vehicle, particularly forward. The photographing can be performed by photographing means capable of continuously photographing the periphery of the vehicle. A monocular monochrome camera is exemplified as the simplest photographing means, but the photographing means may be a camera corresponding to color. The obstacle in the present invention is an obstacle on the road on which the vehicle travels, and projects upward from the road surface, in particular, moves relative to the road, in other words, an obstacle detection device. Means a vehicle that moves independently of the speed of the vehicle on which it is mounted. Specifically, other vehicles and pedestrians are exemplified as the obstacle.

抽出部は、画像から道路の領域を含む画像領域を抽出する。道路には、自車両の走行車線の他、隣接する車線や、路側帯、歩道も含めることができる。道路の領域は、上記のように特定される道路と隣接する他の領域との境界によって形成される。例えば、道路が自車両の走行車線である場合、自車両の走行車線と隣接する車線、路側帯、歩道との境界に挟まれた領域が道路の領域に相当する。なお、例えば、画像が車両の前方の画像である場合、画像には、道路の領域の幅が、車両に近いほど広く、車両から離れるにつれて狭く写る。   The extraction unit extracts an image area including a road area from the image. In addition to the driving lane of the vehicle, the road can include adjacent lanes, roadside belts, and sidewalks. The road area is formed by the boundary between the road specified as described above and another area adjacent thereto. For example, when the road is the traveling lane of the host vehicle, a region sandwiched by the boundary between the traveling lane of the host vehicle and the adjacent lane, roadside zone, and sidewalk corresponds to the road region. For example, when the image is an image in front of the vehicle, the width of the road region is wider in the image as it is closer to the vehicle, and becomes narrower as the distance from the vehicle increases.

拡大画像生成部は、抽出される画像領域における遠方領域を拡大して拡大画像を生成する。遠方領域とは、車両から離れた領域であり、例えば、画像が車両の前方の画像である場合、道路幅が車両に近い部分と比較して狭く写る領域であり、車両から10m以上離れた領域を遠方領域とすることができる。遠方領域を拡大することで、遠方領域に障害物が存在する場合、遠方領域に存在する障害物も拡大されることになる。その結果、障害物の特定が容易となり、遠方領域に存在する障害物検出の精度が向上される。   The enlarged image generation unit generates an enlarged image by enlarging a distant area in the extracted image area. The distant area is an area away from the vehicle. For example, when the image is an image in front of the vehicle, the road width is an area that is narrower than a portion close to the vehicle, and an area that is 10 m or more away from the vehicle. Can be the far region. By enlarging the far region, when an obstacle exists in the far region, the obstacle existing in the far region is also enlarged. As a result, it is easy to identify an obstacle, and the accuracy of detecting an obstacle existing in a remote area is improved.

記憶部は、拡大画像を記憶する。具体的には、記憶部は、撮影された画像であって、拡大画像生成部によって拡大された拡大画像を順次記憶する。すなわち、記憶部には、時間的に前後する拡大画像が複数記憶されることになる。なお、本発明では、道路平面画像を作成することなく障害物の検出が可能であることから、記憶部の記憶領域の容量を従来よりも低減することができる。   The storage unit stores the enlarged image. Specifically, the storage unit sequentially stores enlarged images that have been taken and enlarged by the enlarged image generation unit. That is, the storage unit stores a plurality of enlarged images that move back and forth in time. In the present invention, since it is possible to detect an obstacle without creating a road plane image, the capacity of the storage area of the storage unit can be reduced as compared with the conventional case.

拡大画像変換部は、拡大画像を移動距離に応じた変換拡大画像に変換する。変換拡大画
像に変換されるのは、比較する拡大画像のうち、時間的に前の拡大画像、すなわちより古い拡大画像である。時間的に前の拡大画像は、車両の移動を踏まえて時系列的に変化させると、本来、時間的に後の拡大画像と一致することになる。そこで、本発明では、移動距離に応じて、時間的に前の拡大画像を変換拡大画像に変換する。速度情報は、車両から得ることができる。
The enlarged image conversion unit converts the enlarged image into a converted enlarged image corresponding to the movement distance. Of the enlarged images to be compared, the temporally previous enlarged image, that is, the older enlarged image is converted into the converted enlarged image. When the temporally previous enlarged image is changed in time series in consideration of the movement of the vehicle, it essentially matches the temporally subsequent enlarged image. Therefore, in the present invention, the previous enlarged image in time is converted into a converted enlarged image according to the moving distance. The speed information can be obtained from the vehicle.

障害物検出部は、拡大画像と拡大画像変換部によって変換された変換拡大画像とを比較して両画像の異なる点を障害物として検出する。変換拡大画像は、移動距離に応じた画像であり、時系列的に変化させた画像であるが、この時系列的な変化とは、あくまで車両の速度に依存した変化である。換言すると、車両の速度に依存しない変化は、含まれない。従って、拡大画像と拡大画像変換部によって変換された変換拡大画像とを比較することで両画像の異なる点を抽出することが可能となる。異なる点は、車両の速度に依存しない変化として現れるものであり障害物に相当する。   The obstacle detection unit compares the enlarged image with the converted enlarged image converted by the enlarged image conversion unit, and detects a difference between the two images as an obstacle. The converted enlarged image is an image according to the moving distance, and is an image that is changed in time series. This time series change is a change that depends on the speed of the vehicle to the last. In other words, changes that do not depend on the speed of the vehicle are not included. Therefore, by comparing the enlarged image with the converted enlarged image converted by the enlarged image conversion unit, it is possible to extract different points between the two images. The different points appear as changes that do not depend on the speed of the vehicle and correspond to obstacles.

出力部は、検出結果を出力する。出力結果は、障害物検出装置の使用者、例えば車両の運転者や搭乗者が認識可能な態様で出力することができる。出力結果は、例えば、映像により視覚を通じて出力してもよく、また、音により聴覚を通じて出力してもよい。   The output unit outputs the detection result. The output result can be output in a manner that can be recognized by a user of the obstacle detection device, for example, a driver or a passenger of the vehicle. For example, the output result may be output visually through video, or may be output through sound through sound.

ここで、本発明において、前記抽出部は、前記画像に含まれる、道路の境界に関する境界情報を抽出し、該境界情報から前記画像の消失点を算出し、該消失点を頂点とする、前記道路の領域としての三角形の画像領域を抽出し、前記拡大画像生成部は、前記抽出部で抽出される画像領域における消失点近傍を拡大して四角形の拡大画像を生成するようにしてもよい。   Here, in the present invention, the extraction unit extracts boundary information about a road boundary included in the image, calculates a vanishing point of the image from the boundary information, and uses the vanishing point as a vertex. A triangular image region as a road region may be extracted, and the enlarged image generation unit may enlarge the vicinity of the vanishing point in the image region extracted by the extraction unit to generate a rectangular enlarged image.

抽出部は、境界情報から画像の消失点を算出し、三角形の画像領域を抽出する。境界情報とは、車両が走行する道路と他の領域とを区別するために用いられる情報であり、道路に沿って延びる車線、車道と歩道との境界に設けられる境界線、道路の脇に設けられる縁石や側溝などに関する情報が含まれる。ここで、消失点とは、二つの直線が交わる交点であり、本発明では、境界情報に基づいて算出される。従って、境界情報には、少なくとも二つの直線を特定するための情報が含まれる。三角形の画像領域は、消失点からなる頂点と、頂点から伸びる二つの直線を有する。二つの直線(斜辺)は、消失点を算出するために用いられる線であり、換言すると車両が走行する道路と道路に隣接する他の領域とを区別する線である。なお、三角形の画像領域を形成する底辺の位置によって、障害物の検出可能領域、特に車両に近い領域においてどの程度まで障害物を検出するか否かが特定される。   The extraction unit calculates a vanishing point of the image from the boundary information and extracts a triangular image region. Boundary information is information used to distinguish the road on which the vehicle travels from other areas. The lane extends along the road, the boundary provided at the boundary between the roadway and the sidewalk, and provided on the side of the road. Includes information about curbstones and gutters. Here, the vanishing point is an intersection where two straight lines intersect, and is calculated based on the boundary information in the present invention. Therefore, the boundary information includes information for specifying at least two straight lines. The triangular image area has a vertex composed of a vanishing point and two straight lines extending from the vertex. The two straight lines (slanted sides) are lines used for calculating the vanishing point, in other words, lines that distinguish the road on which the vehicle is traveling from other areas adjacent to the road. It should be noted that the position of the base forming the triangular image region specifies to what extent the obstacle is detected in the obstacle detectable region, particularly in the region close to the vehicle.

拡大画像生成部は、消失点近傍を拡大して拡大画像を生成する。消失点近傍を拡大するとは、消失点近傍の画像を撮影の方向と直交する水平方向へ引き伸ばすことを意味する。これにより、三角形の画像領域が四角形の拡大画像に変換される。また、消失点は、車両から最も離れた位置に対応する。従って、消失点近傍を拡大することで、消失点近傍に障害物が存在する場合、消失点近傍に存在する障害物も拡大されることになる。その結果、障害物の特定が容易となり、障害物検出の精度が向上される。   The enlarged image generation unit enlarges the vicinity of the vanishing point and generates an enlarged image. Enlarging the vicinity of the vanishing point means that the image in the vicinity of the vanishing point is stretched in the horizontal direction orthogonal to the shooting direction. As a result, the triangular image region is converted into a rectangular enlarged image. The vanishing point corresponds to the position farthest from the vehicle. Accordingly, by enlarging the vicinity of the vanishing point, when an obstacle exists near the vanishing point, the obstacle existing near the vanishing point is also enlarged. As a result, it is easy to identify an obstacle, and the accuracy of obstacle detection is improved.

なお、本発明は、上述した障害物検出装置に加えて、車両の周囲を撮影する撮影手段と、障害物検出が検出した検出結果を表示する表示手段とのうち、少なくともいずれか一方を含む障害物検出システムとして構成してもよい。   In addition to the obstacle detection device described above, the present invention includes an obstacle including at least one of an imaging unit that captures an image of the periphery of the vehicle and a display unit that displays a detection result detected by the obstacle detection. You may comprise as an object detection system.

また、本発明は、上述した障害物検出装置で実行される処理を実現させる障害物検出方法として特定することもできる。具体的には、本発明は、車両の周囲における少なくとも一方向を撮影し、撮影された画像から前記一方向に存在する障害物を検出する障害物検出
方法であって、前記画像から、該車両が走行する道路の領域を含む画像領域を抽出する抽出ステップと、前記抽出ステップで抽出される画像領域における遠方領域を拡大して拡大画像を生成する拡大画像生成ステップと、前記拡大画像生成ステップで生成される拡大画像を記憶する記憶ステップと、前記記憶ステップで記憶される、時間的に前後する拡大画像を比較するため、車両の速度に関する速度情報に基づいて車両の移動距離を算出し、時間的に前の拡大画像を該移動距離に応じた変換拡大画像に変換する拡大画像変換ステップと、前記拡大画像と前記拡大画像変換ステップによって変換された変換拡大画像とを比較して両画像の異なる点を障害物として検出する障害物検出ステップと、前記障害物検出ステップで検出される検出結果を出力する出力ステップと、をコンピュータが実行する障害物検出方法である。
Moreover, this invention can also be specified as an obstacle detection method which implement | achieves the process performed with the obstacle detection apparatus mentioned above. Specifically, the present invention is an obstacle detection method for photographing an obstacle in the one direction from a photographed image by photographing at least one direction around the vehicle, and from the image, the vehicle An extraction step of extracting an image region including a region of a road on which the vehicle travels, an enlarged image generation step of generating an enlarged image by enlarging a distant region in the image region extracted in the extraction step, and the enlarged image generation step In order to compare the storage step for storing the generated enlarged image and the enlarged image stored in the storage step, the vehicle moving distance is calculated based on the speed information related to the vehicle speed, and the time The enlarged image conversion step for converting the previous enlarged image into a converted enlarged image corresponding to the movement distance, and the converted image by the enlarged image and the enlarged image conversion step. An obstacle that the computer executes an obstacle detection step of comparing the converted enlarged image with each other and detecting a different point between the two images as an obstacle, and an output step of outputting the detection result detected in the obstacle detection step. This is an object detection method.

また、本発明に係る障害物検出方法において、前記抽出ステップでは、前記画像に含まれる、道路の境界に関する境界情報を抽出し、該境界情報から前記画像の消失点を算出し、該消失点を頂点とする、前記道路の領域としての三角形の画像領域を抽出し、前記拡大画像生成ステップでは、前記抽出ステップで抽出される画像領域における消失点近傍を拡大して四角形の拡大画像を生成するようにしてもよい。   In the obstacle detection method according to the present invention, in the extraction step, boundary information regarding a road boundary included in the image is extracted, a vanishing point of the image is calculated from the boundary information, and the vanishing point is calculated. A triangular image area as the road area is extracted as a vertex, and in the enlarged image generation step, the vicinity of the vanishing point in the image area extracted in the extraction step is enlarged to generate a rectangular enlarged image. It may be.

なお、本発明は、上述した障害物検出装置で実行される処理を実現させるプログラムであってもよい。更に、本発明は、そのようなプログラムを記録したコンピュータが読み取り可能な記録媒体であってもよい。この場合、コンピュータ等に、この記録媒体のプログラムを読み込ませて実行することにより、その機能を提供させることができる。なお、コンピュータ等が読み取り可能な記録媒体とは、データやプログラム等の情報を電気的、磁気的、光学的、機械的、又は化学的作用によって蓄積し、コンピュータ等から読み取ることができる記録媒体をいう。   The present invention may be a program that realizes processing executed by the obstacle detection device described above. Furthermore, the present invention may be a computer-readable recording medium that records such a program. In this case, the function can be provided by causing the computer or the like to read and execute the program of the recording medium. Note that a computer-readable recording medium is a recording medium that accumulates information such as data and programs by electrical, magnetic, optical, mechanical, or chemical action and can be read from a computer or the like. Say.

本発明によれば、道路遠方の障害物の検出ができ、障害物を検出する処理で必要とされる記憶領域の容量を抑えて処理負荷の軽減を図ることが可能な技術を提供することができる。   According to the present invention, it is possible to provide a technique capable of detecting an obstacle far from the road and reducing the processing load by suppressing the capacity of a storage area required for the process of detecting the obstacle. it can.

実施形態に係る障害物検出装置の概略構成を示す。1 shows a schematic configuration of an obstacle detection apparatus according to an embodiment. カメラの設置状況を示す。Indicates the installation status of the camera. 遠方障害物検出処理フローを示す。A far obstacle detection processing flow is shown. ヘッセの標準系による直線の表示を示す。The display of the straight line by the standard system of Hesse is shown. 画像の左右から直線を検出した様子を示す。A state in which a straight line is detected from the left and right of the image is shown. カメラで撮影された画像の一例を示す。An example of the image image | photographed with the camera is shown. 図6Aに対応する画像から作成したエッジ画像を示す。The edge image produced from the image corresponding to FIG. 6A is shown. 図6Aに対応する、直線の存在を表す配列H、Hを示す。Corresponding to Figure 6A, showing the sequence H L, H R representing the presence of a straight line. ハフ変換で得られた2直線を画像に当てはめた画像を示す。An image obtained by fitting two straight lines obtained by the Hough transform to the image is shown. 三角形の画像領域が抽出された画像を示す。The image from which the triangular image area | region was extracted is shown. 消失点の近傍が拡大された四角形の拡大画像を示す。A rectangular enlarged image in which the vicinity of the vanishing point is enlarged is shown. 移動距離に応じた時間的に前の変換拡大画像を示す。The conversion enlarged image before in time according to a movement distance is shown. 拡大画像と拡大画像変換部によって変換された変換拡大画像との差分から生成される差分画像を示す。The difference image produced | generated from the difference of an expansion image and the conversion expansion image converted by the expansion image conversion part is shown. 途切れた白線の片側の一方の境界と、別の白線の反対側の境界をなすエッジ点が選ばれることを示す。This indicates that an edge point that forms one boundary on one side of a broken white line and the boundary on the opposite side of another white line is selected. 白線や路側帯とは別の、同一直線上に検出されたエッジ点を通るものが選ばれることを示す。This indicates that the one that passes through the edge point detected on the same straight line other than the white line and the roadside belt is selected. 次フレーム(時間的に後の拡大画像)の変形拡大画像の作成方法を示す。A method for creating a deformed enlarged image of the next frame (enlarged image later in time) will be described. カメラ座標系と車両座標系を示す。A camera coordinate system and a vehicle coordinate system are shown. 射影処理において視点Oから出て画像上の点(x,y)を通る視線と道路面X=−hとの交点(X,Y,Z)の画素値が、画像上の(x,y)へと写る様子を示す。In the projection processing, the pixel value of the intersection (X, Y, Z) of the line of sight that passes from the point (x, y) on the image and passes through the point (x, y) on the image and the road surface X = −h is (x, y) on the image. Shown in the picture. 道路上に突起した物体の障害物検出原理を示す。The obstacle detection principle of an object protruding on the road is shown. 道路面の障害物の検出の原理を示す。The principle of detecting obstacles on the road surface is shown. 実施例における、全750フレームのビデオ画像列の一部を示す。Fig. 4 shows a part of a video image sequence of a total of 750 frames in the embodiment. 実施例における、ハフ変換により画像の左右から1本ずつ直線を検出し、その交点(消失点)に黒丸印をつけた画像列の一部を示す。In the embodiment, a part of an image sequence in which a straight line is detected one by one from the left and right of the image by Hough transform and a black circle is marked at the intersection (vanishing point) is shown. 実施例における、消失点付近を左右に拡大した遠方領域拡大画像列の一部を示す。The part of distant area expansion image sequence which expanded the vanishing point vicinity in the right and left in an Example is shown. 俯瞰図を用いた処理による障害物検出結果と遠方障害物検出処理による障害物検出結果を並べて表示させたものを示す。The obstacle detection result by the process using the overhead view and the obstacle detection result by the distant obstacle detection process are displayed side by side.

次に、本発明の障害物検出装置の実施形態について図面に基づいて説明する。以下では、カメラ2、障害物検出装置3、表示装置4を含む障障害物検出システム6として説明する。障害物検出装置3は、車両1に搭載され、カメラ2で撮影された画像を解析して、車両1の前方における道路上の障害物20を検出する。以下、図面では、障害物としての他の車両には、符号21を付し、障害物としての歩行者には、符号22を付すものとする。特に、区別する必要がない場合には、単に障害物20と称する。検出結果は、表示装置4に表示される他、車両1に搭載されたスピーカ(図示せず)を通じて音声として出力される。以下に説明する実施形態は例示にすぎず、本発明は、以下に説明する実施形態に限定されるものではない。例えば、検出結果は、車両1の記憶装置やECU(Electrical Control Unit)等に対して出力し、PCS(Pre-crash Safety System)などの車両制御に用いるようにしてもよい。   Next, an embodiment of the obstacle detection device of the present invention will be described based on the drawings. Below, it demonstrates as the obstacle detection system 6 containing the camera 2, the obstacle detection apparatus 3, and the display apparatus 4. FIG. The obstacle detection device 3 is mounted on the vehicle 1 and analyzes an image captured by the camera 2 to detect an obstacle 20 on the road in front of the vehicle 1. Hereinafter, in the drawings, reference numeral 21 is given to other vehicles as obstacles, and reference numeral 22 is given to pedestrians as obstacles. In particular, when there is no need to distinguish, it is simply referred to as an obstacle 20. In addition to being displayed on the display device 4, the detection result is output as sound through a speaker (not shown) mounted on the vehicle 1. The embodiment described below is merely an example, and the present invention is not limited to the embodiment described below. For example, the detection result may be output to a storage device of the vehicle 1, an ECU (Electrical Control Unit), or the like, and used for vehicle control such as a PCS (Pre-crash Safety System).

[構成]
実施形態に係る障障害物検出システム6は、カメラ2、障害物検出装置3、表示装置4を備える。カメラ2、障害物検出装置3、表示装置4は、何れも車両1に搭載され、互いに電気的に接続されている。
[Constitution]
The obstacle detection system 6 according to the embodiment includes a camera 2, an obstacle detection device 3, and a display device 4. The camera 2, the obstacle detection device 3, and the display device 4 are all mounted on the vehicle 1 and are electrically connected to each other.

カメラ2は、本実施形態では、図2に示すように、車両1の前方を撮影するため、バックミラー11の非鏡面側に設けられている。本実施形態では、カメラ2として単眼モノクロカメラが用いられており、車両1の前方を連続的に撮影する。撮影された画像には、障害物20を含む車両1の前方の状況に関する情報が含まれる。本実施形態における障害物20とは、車両が走行する道路上の障害物であり、他の車両21や歩行者22(道路の横断者を含む)が例示される。なお、カメラ2は、カラーに対応したカメラでもよい。   In the present embodiment, as shown in FIG. 2, the camera 2 is provided on the non-mirror surface side of the rearview mirror 11 in order to photograph the front of the vehicle 1. In the present embodiment, a monocular monochrome camera is used as the camera 2 and continuously captures the front of the vehicle 1. The captured image includes information regarding the situation ahead of the vehicle 1 including the obstacle 20. The obstacle 20 in the present embodiment is an obstacle on the road on which the vehicle travels, and examples include other vehicles 21 and pedestrians 22 (including road crossers). The camera 2 may be a camera corresponding to color.

障害物検出装置3は、カメラ2で撮影された画像を解析して、車両1の前方における道路上の障害物20を検出する。具体的には、制御部5を備え、障害物検出装置3が備える各構成を制御する。制御部5は、CPU(Central Processing Unit)50、メモリ51
等を含むコンピュータとコンピュータ上で実行されるプログラムによって実現することができる。メモリ51は、揮発性のRAM(Random Access Memory)と、不揮発性のROM(Read Only Memory)を含む。ROMには、フラッシュメモリ、EPROM(Erasable Programmable Read-Only Memory)、EEPROM(Electrically Erasable Programmable
Read-Only Memory)のような書き換え可能な半導体メモリを含む。CPU50は、RO
Mに格納されている、障害物検出装置3を制御するための各種プログラムをRAMのワークエリアに展開し、制御部5に入力される各種データに応じて、各種プログラムに従った処理を実行する。制御部5が有する各構成は、CPU50上で実行されるコンピュータプ
ログラムとして構成することができる。また、各構成は、専用のプロセッサとして構成してもよい。制御部5が有する各構成には、抽出部52、拡大画像生成部53、記憶部54、拡大画像変換部55、障害物検出部56、出力部57が含まれる。
The obstacle detection device 3 analyzes an image taken by the camera 2 and detects an obstacle 20 on the road in front of the vehicle 1. Specifically, the control part 5 is provided and each structure with which the obstacle detection apparatus 3 is provided is controlled. The control unit 5 includes a CPU (Central Processing Unit) 50 and a memory 51.
Etc. and a program executed on the computer. The memory 51 includes a volatile RAM (Random Access Memory) and a nonvolatile ROM (Read Only Memory). ROM includes flash memory, EPROM (Erasable Programmable Read-Only Memory), EEPROM (Electrically Erasable Programmable
Includes rewritable semiconductor memory such as Read-Only Memory. CPU50 is RO
Various programs for controlling the obstacle detection device 3 stored in M are expanded in the work area of the RAM, and processing according to the various programs is executed according to various data input to the control unit 5. . Each component included in the control unit 5 can be configured as a computer program executed on the CPU 50. Each configuration may be configured as a dedicated processor. Each component included in the control unit 5 includes an extraction unit 52, an enlarged image generation unit 53, a storage unit 54, an enlarged image conversion unit 55, an obstacle detection unit 56, and an output unit 57.

抽出部52は、カメラ2で撮影された画像から、道路の境界11、12に関する境界情報を抽出し、該境界情報から画像の消失点13を算出し、消失点13を頂点とする、道路の領域としての三角形の画像領域16を抽出する(図6E参照)。   The extraction unit 52 extracts boundary information about road boundaries 11 and 12 from the image captured by the camera 2, calculates the vanishing point 13 of the image from the boundary information, and uses the vanishing point 13 as a vertex. A triangular image region 16 is extracted as a region (see FIG. 6E).

拡大画像生成部53は、抽出部52で抽出される画像領域16における消失点13近傍を拡大して四角形の拡大画像を生成する(図6F参照)。   The enlarged image generation unit 53 enlarges the vicinity of the vanishing point 13 in the image region 16 extracted by the extraction unit 52 to generate a rectangular enlarged image (see FIG. 6F).

記憶部54は、撮影された画像であって、拡大画像生成部53によって拡大された拡大画像をメモリ51内の所定の記憶領域に順次記憶させる。メモリ51には、時間的に前後する拡大画像が複数記憶される。   The storage unit 54 sequentially stores, in a predetermined storage area in the memory 51, enlarged images that have been captured and enlarged by the enlarged image generation unit 53. The memory 51 stores a plurality of enlarged images that move back and forth in time.

拡大画像変換部55は、時間的に前の拡大画像を移動距離に応じた変換拡大画像に変換する。移動距離は、速度情報に基づいて算出される。速度情報は、車両1内から適宜取得することができる。   The enlarged image conversion unit 55 converts the previous enlarged image into a converted enlarged image corresponding to the moving distance. The moving distance is calculated based on the speed information. The speed information can be appropriately acquired from within the vehicle 1.

障害物検出部56は、拡大画像と拡大画像変換部53によって変換された変換拡大画像とを比較して、両画像の異なる点を障害物として検出する。本実施形態では、障害物検出部56は、拡大画像と拡大画像変換部53によって変換された変換拡大画像との差分画像を生成し、適当な閾値による2値化を行うことで障害物を検出する(図6H参照)。   The obstacle detection unit 56 compares the enlarged image with the converted enlarged image converted by the enlarged image conversion unit 53, and detects a difference between the images as an obstacle. In the present embodiment, the obstacle detection unit 56 generates a difference image between the enlarged image and the converted enlarged image converted by the enlarged image conversion unit 53, and detects the obstacle by performing binarization with an appropriate threshold value. (See FIG. 6H).

[処理フロー]
次に上述した実施形態に係る障害物検出装置3で実行される処理(以下、遠方障害物検出処理ともいう)について説明する。ここで、図3は、道路遠方の障害物を検出する遠方障害物検出処理フローを示す。以下で説明する遠方障害物検出処理の順序は、一例にすぎず、実施の形態に応じて適宜入れ替えてもよい。以下の説明では、所定の速度で走行中の車両1に搭載されたカメラ2によって車両1の前方を撮影し(図2参照)、前方の障害物20、特に遠方に出現する障害物20を検出する場合を一例として説明する。ここで、遠方障害物検出処理では、車両1に搭載されたカメラ2から撮影した道路ビデオ画像(本発明の画像に相当する。以下、単に画像という)を道路面に射影するのではなく、道路遠方部分を左右に引き伸ばし、後フレーム(本発明の時間的に後の画像に対応する変換拡大画像に相当する。)と前フレーム(本発明の時間的に前の画像に対応する変換拡大画像に相当する。)との差分を取ることにより、差分画像を生成し、これに基づいて道路遠方の障害物を検出する。従って、遠方障害物検出処理は、道路遠方の障害物20の検出に特に適している。一方で、車両1から近い領域に存在する障害物20については、画像を道路面に射影する既存の技術(以下、俯瞰図を用いた処理ともいう。)によっても検出可能であり、遠方障害物検出処理と俯瞰図を用いた処理は併用して用いることもできる。そこで、俯瞰図を用いた処理についても、遠方障害物検出処理の説明後に説明する。
[Processing flow]
Next, a process executed by the obstacle detection device 3 according to the above-described embodiment (hereinafter also referred to as a remote obstacle detection process) will be described. Here, FIG. 3 shows a distant obstacle detection processing flow for detecting an obstacle far from the road. The order of the remote obstacle detection process described below is merely an example, and may be appropriately changed depending on the embodiment. In the following description, the front of the vehicle 1 is photographed by the camera 2 mounted on the vehicle 1 traveling at a predetermined speed (see FIG. 2), and the obstacle 20 in front, particularly the obstacle 20 that appears far away is detected. This will be described as an example. Here, in the distant obstacle detection process, a road video image (corresponding to an image of the present invention, hereinafter simply referred to as an image) taken from the camera 2 mounted on the vehicle 1 is not projected onto the road surface, but a road. The far portion is stretched to the left and right, and the rear frame (corresponding to the converted enlarged image corresponding to the temporally subsequent image of the present invention) and the previous frame (converted expanded image corresponding to the temporally previous image of the present invention). The difference image is taken to generate a difference image, and based on this, an obstacle far from the road is detected. Therefore, the distant obstacle detection process is particularly suitable for detecting the obstacle 20 far from the road. On the other hand, the obstacle 20 existing in the area close to the vehicle 1 can be detected by an existing technique for projecting an image onto the road surface (hereinafter also referred to as processing using a bird's-eye view), and is a distant obstacle. The detection process and the process using the overhead view can be used in combination. Therefore, processing using the overhead view will also be described after the description of the remote obstacle detection processing.

(三角形の画像領域を抽出)
ステップS01では、抽出部52は、カメラ2で撮影された画像から、三角形の画像領域16を抽出する。本実施形態では、白線又は路側帯の境界を道路の境界11、12(以下、道路の境界を特に区別する必要がない場合には、単に道路の境界11という。)に関する境界情報として抽出し、道路の境界11によって算出される2直線14、15(以下、直線を特に区別する必要ながない場合には、直線14という。)の交点から消失点13を算出し、消失点13を頂点とする、道路の領域としての三角形の画像領域16を抽出する。ここで、図6Aは、カメラ2で撮影された画像の一例であり、図6Bは、図6Aに対
応する画像から作成したエッジ画像である。図6Cは、図6Aに対応する、直線の存在を表す配列H、Hを示す。また、図6Dは、ハフ変換で得られた2直線を画像に当てはめた画像を示す。更に、図6Eは、三角形の画像領域が抽出された画像を示す。
(Extract triangle image area)
In step S01, the extraction unit 52 extracts the triangular image region 16 from the image captured by the camera 2. In the present embodiment, the boundary of the white line or the roadside zone is extracted as boundary information regarding the road boundaries 11 and 12 (hereinafter, simply referred to as the road boundary 11 when it is not necessary to distinguish the road boundary). The vanishing point 13 is calculated from the intersection of the two straight lines 14 and 15 calculated by the road boundary 11 (hereinafter referred to as the straight line 14 when there is no need to distinguish the straight line), and the vanishing point 13 is defined as the vertex. A triangular image area 16 as a road area is extracted. Here, FIG. 6A is an example of an image photographed by the camera 2, and FIG. 6B is an edge image created from an image corresponding to FIG. 6A. Figure 6C corresponds to Figure 6A, showing the sequence H L, H R representing the presence of a straight line. FIG. 6D shows an image obtained by fitting two straight lines obtained by the Hough transform to the image. Furthermore, FIG. 6E shows an image from which a triangular image region has been extracted.

(ハフ変換における直線の投票と検出)
ここで、抽出部52による三角形の画像領域16の抽出は、ハフ変換によって行うことができる。そこで、まず、ハフ変換について説明する。ハフ変換とは、画像の特徴点を最も多く通る直線を決定する手法である。換言すると、ハフ変換とは、画像に最もよく合う直線を決定することであり、画像処理において幅広く用いられている手法である。この手法を用いるに際し、直線14を数1に示すへッセ(Hesse)の標準型で表す。図4は、ヘ
ッセの標準系による直線の表示を示す。また、図5は、画像の左右から直線を検出した様子を示す。
(Line voting and detection in Hough transform)
Here, the extraction of the triangular image region 16 by the extraction unit 52 can be performed by Hough transform. First, the Hough transform will be described. The Hough transform is a method for determining a straight line that passes through the most feature points of an image. In other words, the Hough transform is to determine a straight line that best fits an image and is a technique widely used in image processing. When this method is used, the straight line 14 is represented by the standard type of Hesse shown in Equation 1. FIG. 4 shows a straight line display according to the Hesse standard system. FIG. 5 shows a state in which straight lines are detected from the left and right sides of the image.

数1は、原点からの距離がhであり、その単位法線べクトルnがx軸から角度θをなす
直線14を表す。すなわち、ヘッセの標準系によれば、直線14を原点Oからの距離hと角度θによって一意的に表すことができる。本実施形態では画像の中心を座標原点Oとし、x軸を上方に、y軸を右方にとる。画像の左右から路側帯若しくは白線からなる道路の境界11が検出されるが、x軸と直線との成す角度の範囲は30°、距離の範囲は100画素とし、左側の直線の向きθと距離h、および右側の直線の向きθと距離hの範囲は例えば数2のように設定される。設定範囲は、下記に限定されるものではなく、画像に写りこむ白線や路側帯からなる直線14の形状に関する過去のデータや実験データに基づいて設定することができる。
Equation 1 represents a straight line 14 whose distance from the origin is h and whose unit normal vector n forms an angle θ from the x axis. That is, according to the Hesse standard system, the straight line 14 can be uniquely represented by the distance h from the origin O and the angle θ. In this embodiment, the center of the image is the coordinate origin O, the x axis is upward, and the y axis is right. A road boundary 11 consisting of a roadside band or a white line is detected from the left and right of the image. The range of the angle between the x axis and the straight line is 30 °, the range of the distance is 100 pixels, and the direction of the straight line on the left side θ L The distance h L and the range of the straight line direction θ R on the right side and the distance h R are set as shown in Equation 2, for example. The setting range is not limited to the following, and can be set based on past data and experimental data relating to the shape of the straight line 14 formed of a white line or a roadside band reflected in the image.

設定範囲を設定したら、左右の直線14、15候補に対応する31×101の整数型配列H(i,j),H(i,j)を用意する。そしてエッジ画像(図6B参照)の左半分と右半分からエッジ画素(x,y)を取り出し、各画素ごとにi=0、1,・・・,30に対して以下の計算を行う。 Once the setting range is set, 31 × 101 integer arrays H L (i, j) and H R (i, j) corresponding to the left and right straight line 14 and 15 candidates are prepared. Then, the edge pixel (x, y) is extracted from the left half and the right half of the edge image (see FIG. 6B), and the following calculation is performed for i = 0, 1,.

まず、画像の左半分及び右半分について、左側の直線15の向きθ及び右側の直線14の向きθを夫々求める(数3参照)。 First, the left half and the right half of the image, the orientation theta R orientation theta L and the right of the straight line 14 on the left side of the straight line 15 respectively determined (see Equation 3).

次に、画像の左半分及び右半分について、原点Oから左側の直線15までの距離h及び原点Oから右側の直線14までの距離hを夫々求める(数4参照)。 Next, for the left half and the right half of the image, a distance h L from the origin O to the left straight line 15 and a distance h R from the origin O to the right straight line 14 are obtained (see Equation 4).

そして、画像の左半分及び右半分について、配列H、Hの値を数5のように更新する。なお、配列の31×101の範囲をはみ出すものは無視するものとする。 Then, the left half and the right half of the image, and updates the sequence H L, the value of H R as number 5. It should be noted that anything outside the 31 × 101 range of the array is ignored.

このようにして得られた配列H、Hの要素(i,j)の値は、その(i,j)に対応する直線{h,θ}、{h,θ}の近傍の重みつき画素数である。そこでH、Hの最大要素をそれぞれH(i,j)、H(i,j)とすると、それぞれが表す直線14、15は数6のようになる。 The values of the elements (i, j) of the arrays H L and H R obtained in this way are the values of the straight lines {h R , θ R }, {h L , θ L } corresponding to the (i, j). The number of neighboring weighted pixels. Therefore, assuming that the maximum elements of H L and H R are H L (i L , j L ) and H R (i R , j R ), respectively, the straight lines 14 and 15 represented by the equations are as shown in Equation 6, respectively.

なお、図6Cは、図6Aに対応する、直線の存在を表す配列H、Hを示す。また、図6Dは、ハフ変換で得られた2直線14、15を画像に当てはめた画像を示す。 Incidentally, FIG. 6C corresponds to Figure 6A, showing the sequence H L, H R representing the presence of a straight line. FIG. 6D shows an image obtained by fitting the two straight lines 14 and 15 obtained by the Hough transform to the image.

(消失点の計算)
次に、消失点13の計算について説明する。消失点13は、数6で示される2直線14、15の交点として算出される。具体的には、消失点13の座標は、次のようにして求められる。まず、数6から得られたθ,h,θ,hを用いてべクトルn,nを定義する(数7参照)。
(Calculation of vanishing point)
Next, calculation of the vanishing point 13 will be described. The vanishing point 13 is calculated as an intersection of two straight lines 14 and 15 expressed by Equation 6. Specifically, the coordinates of the vanishing point 13 are obtained as follows. First, vectors n L and n R are defined using θ L , h L , θ R and h R obtained from Equation 6 (see Equation 7).

次に、上記二つのベクトルn,nのベクトル積uを求める(数8参照)。 Next, a vector product u of the two vectors n L and n R is obtained (see Expression 8).

その結果、2直線14、15の交点(x,y)が得られる(数9参照)。 As a result, the intersection (x v , y v ) of the two straight lines 14 and 15 is obtained (see Equation 9).

ここで、上述したように、ハフ変換は同一直線上に並んだエッジ点をなるべく多く通る直線を検出するものであるが、そのエッジ点が直線上に並んでいても、それが同じ直線の境界線となっているとは限らない。例えば、道路遠方の景色は原画像上において写りこむ範囲が小さいことから、エッジを検出する際に精度よくエッジ点を検出できるとは限らない。従って、途切れた白線の一方の境界ともうーつの白線の反対側の境界をつないだ直線14aが当てはまることも想定される。図7は、途切れた白線の片側の一方の境界と、別の白線の反対側の境界をなすエッジ点が選ばれることを示す。また、建物7と空の境界と道路上のエッジ点が数多く検出された領域(「とまれ」や「バス専用」等の文字が書き込まれている領域など)とをつなぐ直線15aを検出してしまった場合も存在する。図8は、白線や路側帯とは別の、同一直線上に検出されたエッジ点を通るものが選ばれることを示す。   Here, as described above, the Hough transform is to detect a straight line passing through as many edge points as possible on the same straight line, but even if the edge points are arranged on a straight line, it is the boundary of the same straight line. It is not always a line. For example, since a scene far away from a road has a small range in the original image, it is not always possible to accurately detect an edge point when detecting an edge. Therefore, it is also assumed that the straight line 14a connecting one boundary of the broken white line and the boundary on the opposite side of the other white line applies. FIG. 7 shows that an edge point is selected which forms one boundary on one side of a broken white line and the boundary on the opposite side of another white line. In addition, the straight line 15a connecting the boundary between the building 7 and the sky and an area where a large number of edge points on the road are detected (such as an area where characters such as “Torare” and “Bus only” are written) is detected. It also exists. FIG. 8 shows that the one that passes through the edge point detected on the same straight line, which is different from the white line and the roadside belt, is selected.

上記のような課題を解決するため、各エッジ点に「方向」をつけるようにしてもよい。具体的には、以下の手順による。エッジ検出は画像の輝度値の微分を利用しているので、各エッジ点では揮度値Iが最も増力する方向が計算される(数10参照)。   In order to solve the above-described problems, a “direction” may be attached to each edge point. Specifically, the following procedure is followed. Since edge detection uses differentiation of the luminance value of the image, the direction in which the volatility value I increases most is calculated at each edge point (see Equation 10).

但し、I,Iは、それぞれ輝度値Iのx軸方向、y軸方向の微分である。そこで、数10において、▽Iの方向角をφとすると、cosφ及びsinφは、数11のようになる。 However, I x and I y are differentiations of the luminance value I in the x-axis direction and the y-axis direction, respectively. Therefore, in Equation 10, when the direction angle of ▽ I is φ, cos φ and sin φ are as shown in Equation 11.

ここで、この方向の単位ベクトル(数12参照)と直線14の単位法線ベクトル(数13参照)の内積は、数14のようになる。   Here, the inner product of the unit vector in this direction (see Equation 12) and the unit normal vector of the straight line 14 (see Equation 13) is as shown in Equation 14.

数14で計算される内積cは、輝度値が直線の法線べクトルn方向に増加していると正
、直線の方向に沿って増加していると0、直線の法線べクトルnと反対方向に増加してい
ると負となる。従って、ハフ変換の行列Hに整数ではなく実数cを投票することによって、例えば白線14を横断するように当てはまっていた直線14では、異なる部分のエッジ点のcの符号が反対となり、投票された値がより0に近くなり選ばれにくくなる。具体的には上記数5を数15のように更新する。
The inner product c calculated by Equation 14 is positive when the luminance value increases in the direction of the straight normal vector n, and is 0 when the luminance value increases in the direction of the straight line. Negative if it increases in the opposite direction. Therefore, by voting a real number c instead of an integer to the matrix H of the Hough transform, for example, in the straight line 14 that is applied so as to cross the white line 14, the sign of c of the edge point of a different part is reversed and the vote is voted. The value is closer to 0, making it difficult to select. Specifically, the above formula 5 is updated to formula 15.

そしてH、Hの絶対値が最大の要素をそれぞれH(i,j)、H(i,j)とし、上記計算を繰り返す。その結果、白線や路側帯からなる道路の境界11、12を、より厳密に検出することが可能となる。 Then, the elements having the maximum absolute values of H L and H R are set as H L (i L , j L ) and H R (i R , j R ), respectively, and the above calculation is repeated. As a result, it becomes possible to more accurately detect the road boundaries 11 and 12 including white lines and roadside belts.

道路の境界11を検出したら、次に、画像の左右の端における道路面との境界のx座標をxとする。道路面は、道路面とみなせる面でもよい。これにより、画像中の道路領域は、前述したようにハフ変換による白線検出から推定した消失点16(x,y)を頂点とし、2点(xa1+(M−1)/2)、(xa1−(M−1)/2)を結ぶ水平線を底辺とする三角形の画像領域16となる。Mは画像の横幅である。 After detecting the boundary 11 of the road, then the x-coordinate of the boundary between the road surface of the left and right edges of the image and x a. The road surface may be a surface that can be regarded as a road surface. As a result, the road region in the image has two points (x a1 + (M−1) / 2) with the vanishing point 16 (x v , y v ) estimated from the white line detection by the Hough transform as the vertex as described above. , (X a1 − (M−1) / 2) is a triangular image area 16 having a horizontal line as a base. M is the width of the image.

以上により、ステップ01における三角形の画像領域16の抽出が完了する。三角形の画像領域16の抽出が完了すると、ステップS02へ進む。   Thus, the extraction of the triangular image region 16 in step 01 is completed. When the extraction of the triangular image region 16 is completed, the process proceeds to step S02.

(拡大画像の生成)
ステップS02では、拡大画像生成部53は、抽出部52で抽出される三角形の画像領域16における消失点13の近傍を拡大して四角形の拡大画像を生成する(図6F参照)。具体的には、以下の手順で行われる。上述したように、画像中の三角形の画像領域16は、前述したようにハフ変換による道路の境界11から生成される直線14から推定した消失点(x,y)を頂点とし、2点(xa1+(M−1)/2)、(xa1−(M−1)/2)を結ぶ水平線を底辺とする三角形の画像領域16となる。道路上の遠方領域は、この三角形の頂点(x,y)、すなわち消失点13付近に圧縮されているため、このままでは精度が足りず、解析が困難である。そこで、この三角形の画像領域16の頂点のーつである消失点13(x,y)を左右に引き伸ばし、長方形領域へと変換する(数16参照)。
(Generate enlarged image)
In step S02, the magnified image generating unit 53 magnifies the vicinity of the vanishing point 13 in the triangular image region 16 extracted by the extracting unit 52 to generate a quadrangle magnified image (see FIG. 6F). Specifically, the following procedure is performed. As described above, the triangular image region 16 in the image has two vanishing points (x v , y v ) estimated from the straight line 14 generated from the road boundary 11 by the Hough transform as described above. This is a triangular image region 16 having a horizontal line connecting (x a1 + (M−1) / 2) and (x a1 − (M−1) / 2) as a base. Since the distant area on the road is compressed near the vertex (x v , y v ) of this triangle, that is, near the vanishing point 13, the accuracy is not sufficient as it is, and analysis is difficult. Therefore, the vanishing point 13 (x v , y v ) which is one of the vertices of the triangular image region 16 is stretched left and right to be converted into a rectangular region (see Expression 16).

数16において、それぞれx,yについて解くと数17で表される。   In Equation 16, when solving for x and y, respectively, Equation 17 is obtained.

そして、メモリ51内に、三角形の画像領域16を拡大した画像を保存する記憶領域を
予め用意しておき、その画像領域16の各点(x´,y´)に対して、数17によって(x,y)を計算し、画像上のその点を(x´,y´)へコピーする。なお、x=x(消失点を通る水平線)上は特異点となるため計算しない方がよい。これにより、数16において零除算の発生を抑えることができる。すなわち、処理負荷の軽減を図ることができる。
Then, a storage area for storing an image obtained by enlarging the triangular image area 16 is prepared in advance in the memory 51, and each point (x ′, y ′) of the image area 16 is expressed by Equation 17 ( x, y) is calculated and the point on the image is copied to (x ′, y ′). Since x = x v (horizontal line passing the vanishing point) is a singular point, it is better not to calculate. Thus, occurrence of division by zero can be suppressed in Equation 16. That is, the processing load can be reduced.

以上により、ステップ02における拡大画像の生成が完了する。拡大画像の生成が完了すると、ステップS03へ進む。   Thus, the generation of the enlarged image in step 02 is completed. When the generation of the enlarged image is completed, the process proceeds to step S03.

(変換拡大画像への変換)
ステップS03では、拡大画像変換部55は、時間的に前の拡大画像を移動距離に応じた変換拡大画像に変換する(図G参照)。ここで、上述したように消失点13の近傍を拡大しても直線y´=0の位置は画像上と同じ位置にある。従って、その直線上の点を道路面上に写像すると、数18のようなZ軸上の点となる。
(Conversion to converted enlarged image)
In step S03, the enlarged image conversion unit 55 converts the temporally previous enlarged image into a converted enlarged image corresponding to the movement distance (see FIG. G). Here, as described above, even if the vicinity of the vanishing point 13 is enlarged, the position of the straight line y ′ = 0 is at the same position on the image. Therefore, when the point on the straight line is mapped onto the road surface, the point on the Z-axis as shown in Equation 18 is obtained.

また、車両1が速度V(画素/フレーム)で移動しているとすれば、1フレーム前(時
間的に前)における直線y´=0のZ軸上の位置は、数19のようになる。
Also, assuming that the vehicle 1 is moving at a speed V (pixel / frame), the position on the Z-axis of the straight line y ′ = 0 one frame before (temporally before) is as shown in Equation 19. .

この点を画像上に逆写像した位置のx´座標は、数20のようになる。   The x ′ coordinate of the position obtained by inversely mapping this point on the image is as shown in Expression 20.

従って、変形拡大画像と時間的に1時刻前の変形拡大画像とを合わせるためには、図9のように処理する必要がある。図9は、次フレーム(時間的に後の拡大画像)の変形拡大画像の作成方法を示す。具体的には、まず、変形拡大画像の各点(x´,y´)に対して、数18を計算し、直線上の点を道路面上に写像しZ軸上の点を求める。次に、車両が速度V(画素/フレーム)で移動しているとして、時間的に前の変形拡大画像のZ軸上の位
置を、数19より求める。次に、Z軸上の位置を画像上に逆写像した位置のx´座標を、数20から求める。そして、時間的に前の変形拡大画像の点(x´−1,y´)の輝度値を点(x´,y´)へコピーする。
Therefore, in order to match the deformed enlarged image with the deformed enlarged image one hour before in time, it is necessary to perform processing as shown in FIG. FIG. 9 shows a method of creating a deformed enlarged image of the next frame (enlarged image after time). Specifically, first, Equation 18 is calculated for each point (x ′, y ′) of the deformed enlarged image, and a point on the straight line is mapped onto the road surface to obtain a point on the Z axis. Next, assuming that the vehicle is moving at a speed V (pixel / frame), the position on the Z-axis of the previous deformation enlarged image in terms of time is obtained from Equation 19. Next, the x ′ coordinate of the position obtained by inversely mapping the position on the Z axis on the image is obtained from Equation 20. Then, the luminance value of the point (x ′ −1 , y ′) of the previous deformed enlarged image in time is copied to the point (x ′, y ′).

以上により、変換拡大画像への変換が完了する。変換拡大画像への変換が完了すると、ステップS04へ進む。   Thus, the conversion into the converted enlarged image is completed. When the conversion to the converted enlarged image is completed, the process proceeds to step S04.

(障害物の検出)
ステップS04では、拡大画像と拡大画像変換部55によって変換された変換拡大画像との差画像を生成し、適当な閾値による2値化を行うことで障害物20を検出する(図6
H参照)。その後、出力部57により、検出結果を表示装置4へ出力する。表示装置4に出力するに際しては、検出された障害物の周囲を点滅させたり、障害物を着色するなどして、より識別しやすい態様にすることが好ましい。なお、表示装置4に表示すると共に、スピーカを通じて音声により障害物を存在することを報知するようにしてもよい。
(Detection of obstacles)
In step S04, a difference image between the enlarged image and the converted enlarged image converted by the enlarged image conversion unit 55 is generated, and the obstacle 20 is detected by performing binarization with an appropriate threshold (FIG. 6).
H). Thereafter, the output unit 57 outputs the detection result to the display device 4. When outputting to the display device 4, it is preferable to make it easier to identify by blinking around the detected obstacle or coloring the obstacle. In addition, while displaying on the display apparatus 4, you may make it alert | report that an obstruction exists with a sound through a speaker.

(俯瞰図を用いた処理)
上述した遠方障害物検出処理は、上述したように、俯瞰図を用いた処理と併用して用いることもできる。そこで、カメラ2で撮影された画像を道路面に射影する、俯瞰図を用いた処理について以下に説明する。なお、遠方障害物検出処理と俯瞰図を用いた処理とを併用する場合には、例えば車両1から10m以上離れた障害物20の検出については、遠方障害物検出処理を用い、車両1から10mより近い領域に存在する障害物20の検出については、俯瞰図を用いた処理を用いることができる。なお、以下に説明する処理は、制御部5のCPU50によって行うことができる。
(Processing using an overhead view)
The far obstacle detection process described above can be used in combination with the process using the overhead view as described above. Therefore, processing using an overhead view for projecting an image photographed by the camera 2 onto a road surface will be described below. In the case where the distant obstacle detection process and the process using the overhead view are used in combination, for example, for the detection of the obstacle 20 that is 10 m or more away from the vehicle 1, the distant obstacle detection process is used. For the detection of the obstacle 20 existing in a closer area, a process using an overhead view can be used. The processing described below can be performed by the CPU 50 of the control unit 5.

ここで、図10は、俯瞰図を用いた処理におけるカメラ座標系と車両座標系を示し、図11は、俯瞰図を用いた処理において視点Oから出て画像上の点(x,y)を通る視線と道路面X=−hとの交点(X,Y,Z)の画素値が、画像上の(x,y)へと写る様子を示す。   Here, FIG. 10 shows the camera coordinate system and the vehicle coordinate system in the processing using the overhead view, and FIG. 11 shows the point (x, y) on the image that is out of the viewpoint O in the processing using the overhead view. A state in which the pixel value of the intersection (X, Y, Z) between the line of sight passing through and the road surface X = −h appears in (x, y) on the image.

俯瞰図を用いた処理では、カメラ2により撮影された画像を道路上方から撮影したかのような道路平面画像(俯瞰図)を作成し、現在の道路平面画像と時間的に前の道路平面画像(前フレームの道路平面画像)の差分から障害物を検出する。   In the processing using the overhead view, a road plane image (overhead view) as if the image taken by the camera 2 was taken from above the road is created, and the current road plane image and the previous road plane image in time are created. An obstacle is detected from the difference of the road plane image of the previous frame.

まず、車両画像系とカメラ画像系について説明する。車両画像系とは、カメラ2の視点(レンズ中心)を原点にとり、鉛直上方をX軸、水平横方向をY軸、水平前方をZ軸とするものである。カメラ座標系とは、カメラの光軸方向(斜め下方)にZ軸をとり、水平横方向にY軸(車両画像系のY軸と一致)をとり、Y軸に直交するようにX軸を斜め上方とするものである。このとき、カメラ2が、角度αだけ下方に傾いているとすると、車両画像系(数21の左辺)とカメラ画像系(数21の右辺)は、数21で表される。   First, the vehicle image system and the camera image system will be described. The vehicle image system has the viewpoint (lens center) of the camera 2 as the origin, the X axis is the vertical upper direction, the Y axis is the horizontal horizontal direction, and the Z axis is the horizontal front. The camera coordinate system takes the Z axis in the optical axis direction of the camera (diagonally below), the Y axis in the horizontal and horizontal directions (matches the Y axis of the vehicle image system), and the X axis so as to be orthogonal to the Y axis. It is assumed to be obliquely upward. At this time, if the camera 2 is inclined downward by an angle α, the vehicle image system (left side of Equation 21) and the camera image system (right side of Equation 21) are expressed by Equation 21.

道路面は、車両画像系に対して−hとすると、画像面上の点(x,y)に見える道路面上の点(X,Y,Z)は、数22のようになる。hとは、道路面からカメラ2までの垂直高さである。   When the road surface is -h with respect to the vehicle image system, a point (X, Y, Z) on the road surface that appears as a point (x, y) on the image surface is expressed by Equation 22. h is the vertical height from the road surface to the camera 2.

更に、上記道路面上の点(X,Y,Z)について、カメラ画像系に変換すると数23のようになる。   Further, when the point (X, Y, Z) on the road surface is converted into the camera image system, the following equation 23 is obtained.

次に、道路平面画像の作成について説明する。まず、数23の関係を用いて、カメラ画像系における道路面上の点(x,y)を車両画像系における道路面上の点に写像する。この際、カメラ2の高さhで割った座標系は、数24に示され、数24で示される座標系が道路面上の座標系と考える。   Next, creation of a road plane image will be described. First, the point (x, y) on the road surface in the camera image system is mapped to the point on the road surface in the vehicle image system using the relationship of Equation 23. At this time, the coordinate system divided by the height h of the camera 2 is represented by Equation 24, and the coordinate system represented by Equation 24 is considered as the coordinate system on the road surface.

ここで、画像の縦(x方向)の幅をN、画像の横(y方向)の幅をMとし、画像の左右の縁における道路面あるいは水平な地面と垂直物(建物など)との境界面の位置を(xa1±(M−1)/2)とすると、カメラ画像系における道路面上の点(x,y)は、数25に示す点に写像される。 Here, the vertical (x direction) width of the image is N, and the horizontal (y direction) width of the image is M, and the boundary between the road surface or the horizontal ground and a vertical object (such as a building) at the left and right edges of the image. When the position of the surface is (x a1 ± (M−1) / 2), the point (x, y) on the road surface in the camera image system is mapped to the point shown in Equation 25.

また、画像上の左右の縁における車両のボンネットの部分が写る境界を(xb1±(M−1)/2)とすると、カメラ画像系における道路面上の点(x,y)は、数26に示す点に写像される。 Further, if a boundary where the bonnet portion of the vehicle at the left and right edges on the image is reflected is (x b1 ± (M−1) / 2), the point (x, y) on the road surface in the camera image system is It is mapped to the point shown in FIG.

ここで、道路面上の、数27に示される長方形領域を考える。   Here, a rectangular area represented by Equation 27 on the road surface is considered.

点Zの最大値は、どこまで前方を表示するかによって決定される。従って、前方を全て表示する場合には、点Zの最大値は、無限となる。また、数27に示される長方形領域を正方形にするならば、点Zの最大値は、数28のようになる。   The maximum value of the point Z is determined by how far forward is displayed. Therefore, when all the fronts are displayed, the maximum value of the point Z is infinite. If the rectangular area shown in Equation 27 is square, the maximum value of the point Z is as shown in Equation 28.

ここで、数27において、点Zの最大値は、大きいほど作成する平面画像が大きくなり、より遠くまで障害物の有無の判定を行うことが可能となる。しかし、それと同時に道路平面画像を作成する際に必要となる記憶装置の記憶領域の容量が大きくなり、処理装置の処理負担が大きくなる。更に、車両から障害物までの距離が遠ければ遠いほど、撮影した画像上に映る範囲は当然小さくなり、その領域を拡大して書き込むため、判定精度の低下は避けられない。なお、点Zの最大値を小さくすることで道路平面画像を作成する際に必要となる記憶装置の容量を小さくし、処理装置の処理負担を小さくすることができる。しかし、障害物が存在することを運転者に知らせるタイミングが遅くなることが懸念される。従って、上記を踏まえて数7で示される長方形領域、換言すると表示領域の最小値及び最大値を決定する必要がある。そこで、本実施形態では、遠方における障害物20の検出については、上述した遠方障害物検出処理を用いる。   Here, in Expression 27, the larger the maximum value of the point Z, the larger the planar image to be created, and it is possible to determine whether there is an obstacle farther away. However, at the same time, the capacity of the storage area of the storage device required for creating the road plane image increases, and the processing load on the processing device increases. Furthermore, as the distance from the vehicle to the obstacle increases, the range that appears on the captured image is naturally reduced, and since the area is enlarged and written, a decrease in determination accuracy is unavoidable. Note that by reducing the maximum value of the point Z, it is possible to reduce the capacity of the storage device required when creating a road plane image and reduce the processing load on the processing device. However, there is a concern that the timing to inform the driver that there is an obstacle will be delayed. Therefore, based on the above, it is necessary to determine the rectangular area represented by Equation 7, in other words, the minimum value and the maximum value of the display area. Therefore, in the present embodiment, the far obstacle detection process described above is used for the detection of the obstacle 20 in the distance.

数27で示される長方形領域、換言すると表示領域の最小値及び最大値が決定されると、表示領域に相当する記憶装置の記憶領域(画像バッファ)を定め、画像を写像する。具体的には、範囲が決定された表示領域の各画素に相当する画像面上の画素(x,y)を計算し、その画素の輝度値を数24、25、26で示される座標系の各点にコピーする。これを表示領域の全ての画素に対して行うことで、数29に示す逆写像が得られる。   When the rectangular area represented by Equation 27, in other words, the minimum value and the maximum value of the display area are determined, the storage area (image buffer) of the storage device corresponding to the display area is determined, and the image is mapped. Specifically, a pixel (x, y) on the image plane corresponding to each pixel of the display area for which the range is determined is calculated, and the luminance value of the pixel is expressed in the coordinate system represented by Equations 24, 25, and 26. Copy to each point. By performing this operation for all the pixels in the display area, the inverse mapping shown in Equation 29 is obtained.

ここで、算出された逆写像(x,y)は、必ずしも整数値ではないので、周辺の画素の双一次補間によって決定する。   Here, since the calculated inverse mapping (x, y) is not necessarily an integer value, it is determined by bilinear interpolation of surrounding pixels.

次に双一次補間について説明する。双一次補間は、まず、サイズM×Nの画像Iから実数(i,j)の位置の輝度値を得るために行われものであり、次のように行われる。以下、k,l,ε,ηは実数、K,Lは整数とする。   Next, bilinear interpolation will be described. Bilinear interpolation is first performed to obtain a luminance value at a position of a real number (i, j) from an image I of size M × N, and is performed as follows. Hereinafter, k, l, ε, and η are real numbers, and K and L are integers.

まず、k<0、または、k≧M、L<0、または、l≧Nの場合、フレームからはみ出た領域を0として処理する。これにより、(k,l)は、無限の範囲をとり得る。   First, in the case of k <0, or k ≧ M, L <0, or l ≧ N, processing is performed assuming that the region protruding from the frame is 0. Thereby, (k, l) can take an infinite range.

次に、k<0、または、k≧M、L<0、または、l≧Nでない場合、整数部分K,Lと小数部分ε,ηを数30のように計算する。なお、数30における一番左の式の右辺は、kの整数部分(切捨て)を表す床関数(floor)である。   Next, when k <0, or k ≧ M, L <0, or l ≧ N, the integer parts K and L and the fractional parts ε and η are calculated as in Expression 30. Note that the right side of the leftmost expression in Equation 30 is a floor function (floor) representing the integer part (cut off) of k.

次に、I(I,J)とI(I,J+1)をη:1−ηに内分し、I(I+1,J)とI(I,J+1)をη:1−ηに内分し、それらをε:1−εに内分する(数31参照)。   Next, I (I, J) and I (I, J + 1) are internally divided into η: 1−η, and I (I + 1, J) and I (I, J + 1) are internally divided into η: 1−η. , They are internally divided into ε: 1−ε (see Equation 31).

次に障害物20の検出について説明する。まず、車両1からみた前方の画像を上述のように道路面に写像する。道路面は、水平であると仮定し、その上を車両1が速度V/フレームで直進するとする。その時、道路上の物体は、相対的に速度−V/フレームで車両に近づいてきていると解釈することができる。すなわち、道路面上の点は、フレーム間でV/hだけ鉛直下方向へ平行移動すると解釈することができる。従って、前フレームの道路平面画像をV/hだけ鉛直下方向へ平行移動すれば、現フレームに一致することになる。但し、道路面上に突起した物体、すなわち歩行者22や車両21などの障害物20と考えられるものが存在すれば、道路面と映り方が異なり平行移動しない。具体的には、道路面からより離れている、すなわちより高さのあるほど道路面より速い速度で鉛直下方向へ移動する。このように、道路面上の水平でない部分は、道路面とは違った動きをする。そこで、平行移動によって時間差による位置ずれを取り除いた前フレームと現フレームの差画像を計算し、適当な閾値による2値化を行うことで、道路面上の水平でない部分を検出することが可能となる。   Next, detection of the obstacle 20 will be described. First, the image ahead of the vehicle 1 is mapped onto the road surface as described above. The road surface is assumed to be horizontal, and the vehicle 1 travels straight at a speed of V / frame. At that time, it can be interpreted that the object on the road is approaching the vehicle at a relative speed of −V / frame. That is, a point on the road surface can be interpreted as being translated vertically downward by V / h between frames. Therefore, if the road plane image of the previous frame is translated vertically downward by V / h, it matches the current frame. However, if there is an object that protrudes on the road surface, that is, an obstacle 20 such as a pedestrian 22 or a vehicle 21, the image is different from the road surface and does not translate. Specifically, the further away from the road surface, that is, the higher the height, the lower the vehicle moves at a higher speed than the road surface. Thus, the non-horizontal part on the road surface moves differently from the road surface. Therefore, it is possible to detect a non-horizontal portion on the road surface by calculating a difference image between the previous frame and the current frame from which the position shift due to the time difference is removed by translation and binarizing with an appropriate threshold. Become.

具体的にには、以下の手順によって、障害物画像Eを作成する。まず、第0画像Iを画像とし、道路平面画像I´を作成する。次に、第一画像Iを画像とし、同と面画像I´を作成する。次に、道路平面画像I´を鉛直下方に平行移動し、I´と重ねて差をとり、2値化した差画像D1を作成する。そして、第2画像を画像とし、以下上記処理を繰り返す。 Specifically, the obstacle image Et is created by the following procedure. First, a road plane image I 0 ′ is created using the 0th image I 0 as an image. Next, the first image I 1 is used as an image, and the same surface image I 1 ′ is created. Next, the road plane image I 0 ′ is translated vertically downward, overlapped with I 1 ′, a difference is taken, and a binarized difference image D1 is created. Then, the second image is used as an image, and the above processing is repeated thereafter.

ここで、図12は、道路上に突起した物体の障害物検出原理を示す。道路面に垂直な線分ABは次の時刻には車両に相対的にA´B´へ移動する。このとき、上部のAの道路面上への写像A´は、車両の移動速度Vよりも速い速度でA´へと移動する。   Here, FIG. 12 shows the obstacle detection principle of an object protruding on the road. The line segment AB perpendicular to the road surface moves to A′B ′ relative to the vehicle at the next time. At this time, the map A ′ of the upper A on the road surface moves to A ′ at a speed higher than the moving speed V of the vehicle.

図13は、道路面の障害物の検出の原理を示す。高さのある物体は、道路面から離れるに従って、道路平面上での移動距離が大きくなり、フレーム間差分をとった際に差が生じる。一方、道路標識等、道路面上に存在するものは高さがないため、フレーム間差分をとっても差は生じない。   FIG. 13 shows the principle of detection of obstacles on the road surface. An object having a height has a larger moving distance on the road plane as it gets away from the road surface, and a difference is generated when a difference between frames is taken. On the other hand, since a road sign or the like existing on the road surface has no height, there is no difference even if an interframe difference is taken.

以上により、障害物の検出、特に車両1との距離が近い障害物の検出が可能となる。但し、俯瞰図を用いた処理では、障害物の検出状況が俯瞰図として表示される。そこで、運転者が障害物を確認し易くするため、前方を撮影した画像に障害物画像Etを写像する。具体的には、画像フレームの表示領域に相当する記憶領域をメモリ52内に用意し、その各画素(x,y)に対応する道路平面画像の位置を障害物として検出する。例えば、最大輝度値となっていれば、バッファ領域中の画素(x,y)をカラー表示する。具体的には、以下の手順で行う。   As described above, it is possible to detect an obstacle, in particular, an obstacle that is close to the vehicle 1. However, in the process using the overhead view, the obstacle detection status is displayed as an overhead view. Therefore, in order to make it easier for the driver to check the obstacle, the obstacle image Et is mapped to an image taken in front. Specifically, a storage area corresponding to the display area of the image frame is prepared in the memory 52, and the position of the road plane image corresponding to each pixel (x, y) is detected as an obstacle. For example, if the maximum luminance value is reached, the pixel (x, y) in the buffer area is displayed in color. Specifically, the following procedure is used.

各時刻tごとに、原画像It´の各画素(x,y)を操作し、数32に示す道路面上の位置を計算する。   At each time t, each pixel (x, y) of the original image It ′ is manipulated to calculate the position on the road surface shown in Equation 32.

数32で示される位置に対応する障害物画像Etの画素が黒画素であるか、またはフレームの外であれば何もしない。一方、数12で示される位置に対応する障害物画像Etの画素が白画素であれば、原画像It´の各画素(x,y)のR値を最大諧調に、G値とB値を0に書き換える。   If the pixel of the obstacle image Et corresponding to the position shown in Expression 32 is a black pixel or is outside the frame, nothing is done. On the other hand, if the pixel of the obstacle image Et corresponding to the position shown in Expression 12 is a white pixel, the R value of each pixel (x, y) of the original image It ′ is set to the maximum gradation, and the G value and the B value are set. Rewrite to 0.

(作用効果)
以上説明した実施形態に係る障害物検出装置によれば、道路の遠方の障害物の検出においては、道路平面画像を作成することなく障害物の検出が可能であることから、俯瞰図を用いた処理によって道路の遠方の障害物を検出する場合にくらべて使用する記憶領域を低減でき、処理負荷の軽減を実現できる。
(Function and effect)
According to the obstacle detection device according to the embodiment described above, in the detection of an obstacle far from the road, it is possible to detect the obstacle without creating a road plane image. The storage area used can be reduced compared with the case where an obstacle far from the road is detected by processing, and the processing load can be reduced.

(実施例)
上述したハフ変換による直線14、15の検出と、ハフ変換により当てはめた直線14、15から推定した消失点13付近を拡大し、差画像をとることによりどの程度遠方の障害物20を検出できるかを実験した。カメラ2の設定パラメータは、表1の通りである。また、道路遠方の障害物判定の判定領域は、数33のようにした。なお、数33において、xは、消失点13のx座標である。
(Example)
How far can the obstacle 20 be detected by enlarging the vicinity of the vanishing point 13 estimated from the detection of the straight lines 14 and 15 by the Hough transform and the straight lines 14 and 15 fitted by the Hough transform and taking the difference image? We experimented. The setting parameters of the camera 2 are as shown in Table 1. In addition, the determination area for determining obstacles far from the road is as shown in Equation 33. In Equation 33, xv is the x coordinate of the vanishing point 13.

前述の実験により、ハフ変換を用いることによって、画像中の白線と道路の境界に直線14、15を精度よく、かつ自動的に当てはめることができることが確認された。この当てはめた2直線14、15の交わる点が消失点13であり、この付近を拡大することで遠方の障害物20を検出した。画像は全750フレームのビデオ画像列を用いた(図14参照)。なお、図14から図17では、全750フレームのうち、40フレーム、180フレーム、430フレームを例示する。ビデオ画像列は、見通しの良い2車線直線道路を直進しており、車両1の前方を頻繁に歩行者22が横断している。また、路上に駐車している車両を避けるために対向車が中央線をはみ出して走行したり、車両1の前方で別の車両21が車庫から出発するなど、車両1に対して危険だと考えられる要因が多数存在する設定である。この入力ビデオ画像列に対して道路遠方の障害物解析を行い、俯瞰図を用いた処理とどのような違いがあるかを確認した。ハフ変換により画像の左右から1本ずつ直線を検出し、その交点(消失点13)に黒丸印をつけた画像は図15となる。   From the above experiment, it was confirmed that the straight lines 14 and 15 can be automatically and accurately applied to the boundary between the white line and the road in the image by using the Hough transform. The point where the two straight lines 14 and 15 fitted to each other is the vanishing point 13, and a distant obstacle 20 was detected by enlarging the vicinity. The image was a video image sequence of a total of 750 frames (see FIG. 14). 14 to 17 exemplify 40 frames, 180 frames, and 430 frames among all 750 frames. The video image sequence goes straight on a two-lane straight road with good visibility, and pedestrians 22 frequently cross the front of the vehicle 1. In addition, in order to avoid vehicles parked on the road, it is considered dangerous for the vehicle 1 such that the oncoming vehicle runs out of the center line or another vehicle 21 departs from the garage in front of the vehicle 1. This is a setting where many factors are present. This input video image sequence was analyzed for obstacles far away from the road, and the difference from the processing using the overhead view was confirmed. FIG. 15 shows an image in which straight lines are detected one by one from the left and right of the image by the Hough transform, and the intersection (disappearance point 13) is marked with a black circle.

さらに、消失点13付近を左右に拡大した遠方領域拡大画像は図16となる。最後に、
俯瞰図を用いた処理による障害物検出結果と遠方障害物検出処理による障害物検出結果を並べて表示させたものが図17となる。画像中でドットで囲まれた領域が障害物を判定した領域である。図17を見れば分かるように、俯瞰図を用いた処理では、障害物20の判定領域が車両1の直前に広く取っているが、記憶領域の容量及び処理負荷を考慮すると、検出範囲はせいぜい車両の前方10メートル程度しか取ることができなかった。また、10メートル程離れた位置にいる歩行者22は、その足元に僅かに障害物判定が存在している程度である一方、今回の遠方障害物検出処理では、車両1からある程度距離が離れている領域で障害物判定を行うことを可能にしている。図17では俯瞰図を用いた処理では僅かに障害物20として検出することができた歩行者22も、遠方障害物検出処理によって歩行者22の全身を取り囲むように障害物検出をすることができた。また、俯瞰図を用いた処理では検出範囲外であった図17の歩行者22も障害物20として判定することができた(図17の400フレーム参照)。
Further, a far region enlarged image in which the vicinity of the vanishing point 13 is enlarged to the left and right is shown in FIG. Finally,
FIG. 17 shows the obstacle detection result by the process using the overhead view and the obstacle detection result by the far obstacle detection process displayed side by side. A region surrounded by dots in the image is a region where an obstacle is determined. As can be seen from FIG. 17, in the processing using the overhead view, the determination area of the obstacle 20 is wide immediately before the vehicle 1, but the detection range is at best considering the capacity of the storage area and the processing load. I could only take about 10 meters in front of the vehicle. In addition, while the pedestrian 22 located at a distance of about 10 meters has a slight obstacle determination at his / her feet, in this distance obstacle detection process, the distance from the vehicle 1 is some distance away. It is possible to perform obstacle determination in the area where In FIG. 17, a pedestrian 22 that can be slightly detected as an obstacle 20 in the process using the overhead view can also detect an obstacle so as to surround the whole body of the pedestrian 22 by the distant obstacle detection process. It was. Moreover, the pedestrian 22 of FIG. 17 which was outside the detection range in the process using the overhead view could be determined as the obstacle 20 (see 400 frame of FIG. 17).

以上、本発明の好適な実施形態を説明したが、本発明に係る障害物検出装置はこれらに限らず、可能な限りこれらの組合せを含むことができる。   The preferred embodiments of the present invention have been described above, but the obstacle detection device according to the present invention is not limited to these, and can include combinations thereof as much as possible.

1・・・車両
2・・・カメラ
3・・・障害物検出装置
4・・・表示装置
5・・・制御部
6・・・障害物検出システム
11、12・・・境界
13・・・消失点
14、15・・・直線
16・・・三角形の画像領域
20・・・障害物
21・・・他の車両
22・・・歩行者
50・・・CPU
51・・・メモリ
52・・・抽出部
53・・・拡大画像生成部
54・・・記憶部
55・・・拡大画像変換部
56・・・障害物検出部
57・・・出力部
DESCRIPTION OF SYMBOLS 1 ... Vehicle 2 ... Camera 3 ... Obstacle detection apparatus 4 ... Display apparatus 5 ... Control part 6 ... Obstacle detection system 11, 12 ... Boundary 13 ... Disappearance Points 14, 15 ... straight line 16 ... triangular image area 20 ... obstacle 21 ... other vehicle 22 ... pedestrian 50 ... CPU
51 ... Memory 52 ... Extraction unit 53 ... Enlarged image generation unit 54 ... Storage unit 55 ... Enlarged image conversion unit 56 ... Obstacle detection unit 57 ... Output unit

Claims (4)

車両の周囲における少なくとも一方向を撮影し、撮影された画像から前記一方向に存在する障害物を検出する障害物検出装置であって、
前記画像から、該車両が走行する道路の領域を含む画像領域を抽出する抽出部と、
前記抽出部で抽出される画像領域における遠方領域を拡大して拡大画像を生成する拡大画像生成部と、
前記拡大画像生成部で生成される拡大画像を記憶する記憶部と、
前記記憶部に記憶される、時間的に前後する拡大画像を比較するため、車両の速度に関する速度情報に基づいて車両の移動距離を算出し、時間的に前の拡大画像を該移動距離に応じた変換拡大画像に変換する拡大画像変換部と、
前記拡大画像と前記拡大画像変換部によって変換された変換拡大画像とを比較して両画像の異なる点を障害物として検出する障害物検出部と、
前記障害物検出部が検出した検出結果を出力する出力部と、
を備える障害物検出装置。
An obstacle detection device that captures at least one direction around a vehicle and detects an obstacle existing in the one direction from the captured image,
An extraction unit for extracting an image region including a region of a road on which the vehicle travels from the image;
An enlarged image generation unit that generates an enlarged image by enlarging a distant region in the image region extracted by the extraction unit;
A storage unit for storing an enlarged image generated by the enlarged image generation unit;
In order to compare the enlarged images that are stored in the storage unit and that move forward and backward in time, the moving distance of the vehicle is calculated based on the speed information related to the speed of the vehicle, and the previous enlarged image in time is determined according to the moving distance. An enlarged image conversion unit for converting to a converted enlarged image;
An obstacle detection unit that compares the enlarged image and the converted enlarged image converted by the enlarged image conversion unit to detect different points of both images as an obstacle,
An output unit for outputting a detection result detected by the obstacle detection unit;
An obstacle detection device comprising:
前記抽出部は、前記画像に含まれる、道路の境界に関する境界情報を抽出し、該境界情報から前記画像の消失点を算出し、該消失点を頂点とする、前記道路の領域としての三角形の画像領域を抽出し、
前記拡大画像生成部は、前記抽出部で抽出される画像領域における消失点近傍を拡大して四角形の拡大画像を生成する、
請求項1に記載の障害物検出装置。
The extraction unit extracts boundary information about a road boundary included in the image, calculates a vanishing point of the image from the boundary information, and has a triangle as a road region having the vanishing point as a vertex. Extract the image area,
The enlarged image generating unit generates a rectangular enlarged image by enlarging the vicinity of the vanishing point in the image region extracted by the extracting unit,
The obstacle detection apparatus according to claim 1.
車両の周囲における少なくとも一方向を撮影し、撮影された画像から前記一方向に存在する障害物を検出する障害物検出方法であって、
前記画像から、該車両が走行する道路の領域を含む画像領域を抽出する抽出ステップと、
前記抽出ステップで抽出される画像領域における遠方領域を拡大して拡大画像を生成する拡大画像生成ステップと、
前記拡大画像生成ステップで生成される拡大画像を記憶する記憶ステップと、
前記記憶ステップで記憶される、時間的に前後する拡大画像を比較するため、車両の速度に関する速度情報に基づいて車両の移動距離を算出し、時間的に前の拡大画像を該移動距離に応じた変換拡大画像に変換する拡大画像変換ステップと、
前記拡大画像と前記拡大画像変換ステップによって変換された変換拡大画像とを比較して両画像の異なる点を障害物として検出する障害物検出ステップと、
前記障害物検出ステップで検出される検出結果を出力する出力ステップと、をコンピュータが実行する障害物検出方法。
An obstacle detection method for photographing at least one direction around a vehicle and detecting an obstacle existing in the one direction from a photographed image,
An extraction step for extracting an image region including a region of a road on which the vehicle travels from the image;
An enlarged image generation step of generating an enlarged image by enlarging a distant area in the image area extracted in the extraction step;
A storage step of storing the enlarged image generated in the enlarged image generating step;
In order to compare the enlarged images that are stored in the storage step and that move forward and backward in time, the moving distance of the vehicle is calculated based on the speed information related to the speed of the vehicle, and the previous enlarged image in time is determined according to the moving distance. An enlarged image conversion step for converting to a converted enlarged image;
An obstacle detection step of comparing the enlarged image and the converted enlarged image converted by the enlarged image conversion step to detect different points of both images as obstacles;
An obstacle detection method in which a computer executes an output step of outputting a detection result detected in the obstacle detection step.
前記抽出ステップでは、前記画像に含まれる、道路の境界に関する境界情報を抽出し、該境界情報から前記画像の消失点を算出し、該消失点を頂点とする、前記道路の領域としての三角形の画像領域を抽出し、
前記拡大画像生成ステップでは、前記抽出ステップで抽出される画像領域における消失点近傍を拡大して四角形の拡大画像を生成する、
請求項3に記載の障害物検出方法。
In the extraction step, boundary information relating to a road boundary included in the image is extracted, a vanishing point of the image is calculated from the boundary information, and a triangle as a road region having the vanishing point as a vertex is calculated. Extract the image area,
In the magnified image generating step, a quadrangle magnified image is generated by enlarging the vicinity of the vanishing point in the image region extracted in the extracting step.
The obstacle detection method according to claim 3.
JP2010033010A 2010-02-17 2010-02-17 Obstacle detection device and obstacle detection method Active JP5521217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010033010A JP5521217B2 (en) 2010-02-17 2010-02-17 Obstacle detection device and obstacle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010033010A JP5521217B2 (en) 2010-02-17 2010-02-17 Obstacle detection device and obstacle detection method

Publications (2)

Publication Number Publication Date
JP2011170568A true JP2011170568A (en) 2011-09-01
JP5521217B2 JP5521217B2 (en) 2014-06-11

Family

ID=44684640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010033010A Active JP5521217B2 (en) 2010-02-17 2010-02-17 Obstacle detection device and obstacle detection method

Country Status (1)

Country Link
JP (1) JP5521217B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104002730A (en) * 2013-02-27 2014-08-27 阿尔派株式会社 Solid object detector, driving support device and solid object detection method
CN106772397A (en) * 2016-12-14 2017-05-31 深圳市歌美迪电子技术发展有限公司 Vehicle data processing method and vehicle radar system
JP2017183971A (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
CN111158359A (en) * 2019-12-02 2020-05-15 北京京东乾石科技有限公司 Obstacle processing method and device
JP2021068056A (en) * 2019-10-18 2021-04-30 トヨタ自動車株式会社 On-road obstacle detecting device, on-road obstacle detecting method, and on-road obstacle detecting program
JP2022037779A (en) * 2020-08-25 2022-03-09 トヨタ自動車株式会社 Road obstacle detection apparatus, road obstacle detection method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10241264A (en) * 1997-02-26 1998-09-11 Clarion Co Ltd Identity discriminating method for recording medium and recording medium reproducer using the method
JP2006053754A (en) * 2004-08-11 2006-02-23 Honda Motor Co Ltd Plane detection apparatus and detection method
JP2006236568A (en) * 2006-04-13 2006-09-07 Yamaha Corp Disk unit and transportation control method of optical pickup

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10241264A (en) * 1997-02-26 1998-09-11 Clarion Co Ltd Identity discriminating method for recording medium and recording medium reproducer using the method
JP2006053754A (en) * 2004-08-11 2006-02-23 Honda Motor Co Ltd Plane detection apparatus and detection method
JP2006236568A (en) * 2006-04-13 2006-09-07 Yamaha Corp Disk unit and transportation control method of optical pickup

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104002730A (en) * 2013-02-27 2014-08-27 阿尔派株式会社 Solid object detector, driving support device and solid object detection method
JP2014164637A (en) * 2013-02-27 2014-09-08 Alpine Electronics Inc Solid object detection device, drive assist device, and solid object detection method
JP2017183971A (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
WO2017169705A1 (en) * 2016-03-30 2017-10-05 マツダ株式会社 Electronic mirror control device
US10336258B2 (en) 2016-03-30 2019-07-02 Mazda Motor Corporation Electronic mirror control device
CN106772397A (en) * 2016-12-14 2017-05-31 深圳市歌美迪电子技术发展有限公司 Vehicle data processing method and vehicle radar system
JP2021068056A (en) * 2019-10-18 2021-04-30 トヨタ自動車株式会社 On-road obstacle detecting device, on-road obstacle detecting method, and on-road obstacle detecting program
JP7327077B2 (en) 2019-10-18 2023-08-16 トヨタ自動車株式会社 Road obstacle detection device, road obstacle detection method, and road obstacle detection program
CN111158359A (en) * 2019-12-02 2020-05-15 北京京东乾石科技有限公司 Obstacle processing method and device
CN111158359B (en) * 2019-12-02 2023-08-04 北京京东乾石科技有限公司 Obstacle processing method and device
JP2022037779A (en) * 2020-08-25 2022-03-09 トヨタ自動車株式会社 Road obstacle detection apparatus, road obstacle detection method, and program

Also Published As

Publication number Publication date
JP5521217B2 (en) 2014-06-11

Similar Documents

Publication Publication Date Title
US10984261B2 (en) Systems and methods for curb detection and pedestrian hazard assessment
US20210334557A1 (en) Monocular cued detection of three-dimensional strucures from depth images
US11138750B2 (en) Distance estimating method and apparatus
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
KR101093316B1 (en) Method and System for Image Matching While Driving Vehicle
EP2463843A2 (en) Method and system for forward collision warning
JP5521217B2 (en) Obstacle detection device and obstacle detection method
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JP2009053818A (en) Image processor and method thereof
JP6379770B2 (en) Vehicle display device
KR20200000953A (en) Around view monitoring system and calibration method for around view cameras
JP2011100174A (en) Apparatus and method for detecting vehicle on lane
JP2006350699A (en) Image processor and image processing method
KR101699014B1 (en) Method for detecting object using stereo camera and apparatus thereof
KR102031635B1 (en) Collision warning device and method using heterogeneous cameras having overlapped capture area
JP2008282067A (en) Approach object detection device and approaching object detection program
WO2011039977A1 (en) Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device
JP2012198857A (en) Approaching object detector and approaching object detection method
Taubel et al. An experimental study of a lane departure warning system based on the optical flow and Hough transform methods
KR20140024681A (en) Apparatus and method for detecting lane
Taubel et al. A lane departure warning system based on the integration of the optical flow and Hough transform methods
KR20160126254A (en) System for detecting road area
JP6152261B2 (en) Car parking frame recognition device
JP2016162130A (en) Device and method for detecting pedestrian crossing and computer for pedestrian crossing detection
KR20160064275A (en) Apparatus and method for recognizing position of vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130218

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5521217

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250