JP2993611B2 - Image processing method - Google Patents

Image processing method

Info

Publication number
JP2993611B2
JP2993611B2 JP2262270A JP26227090A JP2993611B2 JP 2993611 B2 JP2993611 B2 JP 2993611B2 JP 2262270 A JP2262270 A JP 2262270A JP 26227090 A JP26227090 A JP 26227090A JP 2993611 B2 JP2993611 B2 JP 2993611B2
Authority
JP
Japan
Prior art keywords
area
parallax
image
point
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2262270A
Other languages
Japanese (ja)
Other versions
JPH04138578A (en
Inventor
文明 富田
佐藤  淳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Advanced Industrial Science and Technology AIST
Aisin Corp
Original Assignee
Agency of Industrial Science and Technology
Aisin Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Agency of Industrial Science and Technology, Aisin Seiki Co Ltd filed Critical Agency of Industrial Science and Technology
Priority to JP2262270A priority Critical patent/JP2993611B2/en
Publication of JPH04138578A publication Critical patent/JPH04138578A/en
Application granted granted Critical
Publication of JP2993611B2 publication Critical patent/JP2993611B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 〔発明の目的〕 (産業上の利用分野) 本発明は、2個以上の撮像カメラで前方のシーンを撮
映しステレオ画像処理により、該シーンにあるものを摘
出もしくは認識する画像処理に関し、特に、該シーンに
ある平面もしくは擬似平面などの平面状部の摘出に関す
る。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention captures a forward scene with two or more imaging cameras, and extracts or recognizes an object in the scene by stereo image processing. In particular, the present invention relates to extracting a planar portion such as a plane or a pseudo plane in the scene.

(従来の技術) 例えば車両や船舶においは、前方車両又は船舶もしく
は障害物を自動検出する技術が望まれている。これに答
えるものとして特開昭61−44312号公報および特開昭61
−44313号公報には、車両上の二台のテレビカメラで撮
映したそれぞれ一画面分の画像情報をステレオ処理し
て、カメラで映したシーン内の物の距離を算出する距離
測定装置が提示されている。
(Prior Art) For example, in a vehicle or a ship, a technology for automatically detecting a preceding vehicle, a ship, or an obstacle is desired. To respond to this, Japanese Patent Application Laid-Open Nos.
No. 44313 discloses a distance measuring device that performs stereo processing on image information of one screen each captured by two television cameras on a vehicle and calculates a distance of an object in a scene projected by the camera. Have been.

前者では、所定量離して配置した2台のカメラで撮影
した画像上で、同一の明るさを持つ領域をブロック化す
る。次に一方の画像上の各々のブロックを視差が減る方
向に動かし、もう一方のブロックと比較しブロックが一
致する位置を見つける。一致するまでに動かした量から
距離を計算する。
In the former, regions having the same brightness are divided into blocks on images taken by two cameras arranged at a predetermined distance from each other. Next, each block on one image is moved in a direction to reduce the parallax, and is compared with the other block to find a position where the blocks match. Calculate the distance from the amount moved until they match.

後者では、所定量離して配置した2台のカメラで撮影
した画像上で、同一の明るさを持つ領域をブロック化す
る。次に一方の画像上のブロックともう一方の画像上の
ブロックのそれぞれの特徴量を算出し、相異なるカメラ
で撮影した各ブロックの間で特徴量を比較し最も良く一
致するブロックを検出する(対応ブロックの検出)。そ
して対応ブロック間の位置差から距離を計算する。
In the latter, regions having the same brightness are divided into blocks on images taken by two cameras arranged at a predetermined distance from each other. Next, the feature amount of each of the blocks on one image and the block on the other image is calculated, and the feature amounts are compared between the blocks captured by different cameras to detect the best matching block ( Detection of corresponding block). Then, the distance is calculated from the position difference between the corresponding blocks.

また本出願人の出願にかかる特願平2−29878号公報
および特開平2−29879号公報は、前記シーン内の特定
の物体、特に表面凹凸が多く複雑な外表面を呈する物
体、の撮映画面上の領域すなわちテクスチャ領域を検出
し、該物体の表面各部の距離すなわち立体形状を検出す
る技術を提示している。
Further, Japanese Patent Application No. 2-29878 and Japanese Patent Application Laid-Open No. 29879/1990 filed by the present applicant disclose a photographic movie of a specific object in the scene, particularly an object having a complex outer surface with a large number of surface irregularities. A technique for detecting an area on a surface, that is, a texture area, and detecting a distance between each part of the surface of the object, that is, a three-dimensional shape is proposed.

(発明が解決しようとする課題) 前記特開昭61−44312号公報および特開昭61−44313号
公報に開示の如き距離測定装置では、2台のカメラの視
差が大きいときには非常に大きな領域を対応探索するこ
とになるので、似かよった特徴を持つブロックが多く存
在する場合には対応ブロック検出を誤る確率が高くな
る。また、探索領域が大きいため対応ブロック検出に時
間がかかる。
(Problems to be Solved by the Invention) In the distance measuring device disclosed in the above-mentioned JP-A-61-44312 and JP-A-61-44313, when a parallax between two cameras is large, a very large area is formed. Since the correspondence search is performed, the probability of erroneously detecting the corresponding block increases when there are many blocks having similar characteristics. Further, since the search area is large, it takes time to detect the corresponding block.

前記特開平2−29878号公報および特開平2−29879号
公報に開示の如き距離測定装置では、立体的に比較的に
複雑な形状をした物体の検出に多くの利点をもたらす
が、立体的には比較的に単調でしかも領域が広く、画面
上に1つの独立体(単体)として現われにくい物体、例
えばテーブルの上面,床面,路面,水面等々、平面又は
擬似平面(以下平面状部という)、の摘出は難しい。こ
れはこれらの距離測定装置がもともと立体的な個体を正
確に摘出しかつその表面凹凸をより正確に検出しようと
するものであることを考えれば当然でもある。
The distance measuring device disclosed in the above-mentioned JP-A-2-29878 and JP-A-2-29879 has many advantages in detecting an object having a three-dimensional and relatively complicated shape. Is relatively monotonous and has a large area, and is difficult to appear on the screen as one independent body (single body), such as a table top surface, a floor surface, a road surface, a water surface, etc., a plane or a pseudo plane (hereinafter, referred to as a plane portion). Is difficult to extract. This is, of course, given that these distance measuring devices originally attempt to accurately extract a three-dimensional individual and more accurately detect surface irregularities.

ところで、例えば自動機によるテーブル面,床面,路
面,水面等の自動加工,自動清掃あるいはそれらの面上
での物体の自動移動又はオペレータ運転による走行、例
えば道路における車両の運転では、車両の前方の物体の
自動捕捉が意味をなさない場合がある。例えばカーブ走
行中は、テレビカメラが捕える前方物体は道路を外れた
ものとなることがあるのでこの捕捉は実質上無意味とな
りやすい。また、路上駐車がある場合や、片方向2車線
以上などの比較的に広い道路の走行では、前方に物体
(駐車車両,前方走行車両,障害物等)があってそのま
まの直進は不可でも、それを回避した運転が可能か否か
を判断するためには、むしろ物体が存在しない路面領域
(物体がある領域を外した路面領域)を正確に検出する
のが好ましい。
By the way, for example, an automatic machine automatically processes, automatically cleans a table surface, a floor surface, a road surface, a water surface, or the like, or automatically moves an object on those surfaces, or runs by an operator. Automatic capture of other objects may not make sense. For example, while traveling on a curve, the front object captured by the television camera may be off the road, so that the capturing tends to be substantially meaningless. In addition, when there is parking on the road, or when traveling on a relatively wide road such as two or more lanes in one direction, even if there is an object (parking vehicle, vehicle traveling ahead, obstacle, etc.) ahead and it is not possible to go straight on, In order to determine whether it is possible to avoid such a situation, it is preferable to accurately detect a road surface area where no object exists (a road surface area where the object is excluded).

本発明は、物体が存在する領域を外した平面状部領域
を検出することを第1の目的とし、該平面状部領域の検
出を容易かつ正確に行なうことを第2の目的とする。
A first object of the present invention is to detect a planar portion region excluding a region where an object is present, and a second object is to easily and accurately detect the planar portion region.

〔発明の構成〕[Configuration of the invention]

(課題を解決するための手段) 本発明は、複数個の撮像カメラによりそれらの前方の
シーンを撮映してそれぞれビデオ信号を得て、これらの
ビデオ信号をデジタル処理し、各撮像カメラで得たシー
ンの対応点を検索して前記シーンにあるものを摘出する
画像処理において、 前記シーンを映した各画面内の水平方向中央部に位置
し垂直方向で下側に位置する物領域を検出して検出した
物領域の対応点の視差を算出し、算出した二次元方向の
実質上不連続な変化点を平面もしくは擬似平面領域の端
縁として検出し該端縁に接し二次元方向の視差の変化が
実質上連続的な領域を平面もしくは擬似平面として検出
することを特徴とする。
(Means for Solving the Problems) According to the present invention, a plurality of imaging cameras shoot scenes in front of them, obtain video signals, digitally process these video signals, and obtain the video signals with each imaging camera. In the image processing of searching for the corresponding point of the scene and extracting what is in the scene, detecting an object area located at the center in the horizontal direction and vertically below in each screen showing the scene Calculate the parallax of the corresponding point of the detected object area, detect the calculated substantially discontinuous change point in the two-dimensional direction as the edge of the plane or pseudo plane area, and touch the edge to change the parallax in the two-dimensional direction. Detects a substantially continuous area as a plane or a pseudo plane.

(作用) 平面状部はカメラの下方から前方に広がっているの
で、撮映した画面において平面状部は、画面中でまず下
方に広く映りしかも上方に延びている。
(Operation) Since the planar portion extends forward from below the camera, the planar portion is first widely reflected in the captured image on the screen and extends upward.

第7a図に示すように、平面よりある高さ(h)にある
二台のステレオ撮映カメラ2a,2bで斜め下向きに前方の
シーンを撮映し、第1b図に示すように、左カメラ2aの撮
映画面をFLa、右カメラ2bの撮映画面をFLbとすると、平
面上の点P(X,Y,Z)は、左画面FLaにおいては点(画
素:ピクセル)Paに、右画面FLbにおいては点Pbに現わ
れる。PaとPbが左右画面上の対応点である。
As shown in FIG. 7a, two stereo shooting cameras 2a and 2b at a certain height (h) from the plane shoot a scene diagonally downward and forward, and as shown in FIG. 1b, the left camera 2a Assuming that the photographing film surface of the right camera 2b is FLa and the photographing film surface of the right camera 2b is FLb, a point P (X, Y, Z) on the plane is a point (pixel: pixel) Pa on the left screen FLa, and a right screen FLb Appears at point Pb. Pa and Pb are the corresponding points on the left and right screens.

左右画面FLa,FLbの両者に前方の平面のみが映ってい
るときには、画面上の各対応点について視差を計算する
と、この視差が画面上で二次元方向に連続的に変化し前
方点ほど視差が小さい。
When only the front plane is reflected on both the left and right screens FLa and FLb, when the parallax is calculated for each corresponding point on the screen, the parallax continuously changes in the two-dimensional direction on the screen. small.

ところが、第7a図に示すように前方に物体OBがありし
かもその像が左右画面FLa,FLbの一部分(例えば中央部
分)に映って、画面の他の部分には前方平面が映ってい
ると、物体OBの表面OBfsでは視差が大きく二次元方向で
実質上一定であるが、OBfsの辺を外方に外れる所で視差
が大きな変化を示す。すなわちOBfsの左右辺および上辺
を外側に外れるとそこには遠方の平面が映っているので
視差が小さいので、二次元視差分布で大きな急激な変化
が現われる。OBfsの下辺の直近では視差の変化率はやや
小さいが、下辺より下側にはカメラと物体間の平面があ
るので視差が二次元方向に連続的に変化するが、下辺の
上側(面OBfs)では視差が実質上一定であり、やはり視
差の二次元分布にかなりの変化が現われる。
However, as shown in FIG. 7a, there is an object OB in front and the image is reflected on a part (for example, the center part) of the left and right screens FLa and FLb, and the front plane is reflected on the other part of the screen, Although the parallax is large on the surface OBfs of the object OB and substantially constant in the two-dimensional direction, the parallax shows a large change at a position outside the side of OBfs. In other words, if the left and right sides and the upper side of OBfs deviate outward, a distant plane is reflected there and the parallax is small, so a large sharp change appears in the two-dimensional parallax distribution. Although the rate of change of parallax is slightly small near the lower side of OBfs, the parallax continuously changes in two-dimensional directions because there is a plane between the camera and the object below the lower side, but the upper side of the lower side (plane OBfs) In this case, the parallax is substantially constant, and a considerable change also appears in the two-dimensional distribution of the parallax.

したがって、二次元方向の実質上不連続な変化点を平
面もしくは擬似平面領域の端縁として検出し該端縁に接
し二次元方向の視差の変化が実質上連続的な領域を平面
もしくは擬似平面として検出することにより、平面状部
が摘出される。
Therefore, a substantially discontinuous change point in the two-dimensional direction is detected as an edge of a plane or a pseudo-plane region, and a region in contact with the edge and in which the change of parallax in the two-dimensional direction is substantially continuous is defined as a plane or a pseudo-plane. Upon detection, the planar portion is extracted.

ところで、平面状部は、撮映画面において、その画面
内で下部領域に左右に広がり上部領域に延びる形で現わ
れる。特に平面状部の上を走行する物体例えば車両に撮
映カメラを搭載している場合には、車両が前方物体から
所要距離以上離れていると、撮映画面においてその画面
内で下部領域に必ず平面領域(路面)が現われる。した
がって、画面上ではその下部領域に平面状部がある確率
が最も高く、各画面内の水平方向中央部に位置し垂直方
向で下側に位置する物領域を検出することにより、左右
画面FLa,FLb上のシーンの対応点検出、特に平面状部の
検出と対応検出が迅速かつ正確となる。
By the way, the planar portion appears on the photographic movie surface in such a manner that it extends right and left in the lower region within the screen and extends to the upper region. In particular, when an object that travels on a flat part, such as a vehicle, is equipped with a shooting camera, if the vehicle is more than a required distance from the object in front, the lower part of the screen in the cinematographic screen must be located in the screen. A flat area (road surface) appears. Therefore, on the screen, the probability that there is a planar portion in the lower area is the highest, and by detecting the object area located in the center in the horizontal direction and the lower side in the vertical direction in each screen, the left and right screens FLa, Detection of corresponding points of a scene on FLb, particularly detection of a planar portion and corresponding detection, are quick and accurate.

本発明の他の目的および特徴は、図面を参照した以下
の実施例の説明より明らかになろう。
Other objects and features of the present invention will become apparent from the following description of embodiments with reference to the drawings.

(実施例) 第1図に、本発明を一態様で実施する画像処理装置の
構成を示す。
(Embodiment) FIG. 1 shows a configuration of an image processing apparatus that implements the present invention in one embodiment.

この装置は、コンピュータ1,撮像カメラ2a(左),2b
(右),画像メモリ4,ディスプレイ5,プリンタ6,フロッ
ピーディスク7およびキーボードターミナル8等でな
り、これらは乗用車に搭載されている。
This device consists of a computer 1, an imaging camera 2a (left), 2b
(Right), consists of an image memory 4, a display 5, a printer 6, a floppy disk 7, a keyboard terminal 8, and the like, which are mounted on a passenger car.

左,右カメラ2a,2bは、それぞれ、前方のシーンを撮
映して512×512画素区分でアナログ画像信号を出力する
同諸元のITVカメラ(CCDカメラ)であり、これらの画像
信号をA/Dコンバータ22a,22bが1画素256階調のデジタ
ルデータ(画像データ)に変換する。撮映カメラ2a,2b
は、第7a図に示すように、平面(路面)よりある高さh
にあり、る二台のステレオで斜め下向き(下向き角度)
で前方のシーンを撮映する。第1b図に示すように左カメ
ラ2aの撮映画面FLaを左画像と、右カメラ2bの撮映画面F
Lbと呼ぶものとする。
The left and right cameras 2a and 2b are ITV cameras (CCD cameras) of the same specifications, each of which captures a scene in front and outputs an analog image signal in a 512 × 512 pixel section. The D converters 22a and 22b convert digital data (image data) of 256 gradations per pixel. Movie camera 2a, 2b
Is a height h above a plane (road surface), as shown in FIG. 7a.
Diagonally downward with two stereos (downward angle)
To shoot the scene in front. As shown in FIG. 1b, the film FLa captured by the left camera 2a is a left image, and the film FL captured by the right camera 2b is F.
Lb.

画像メモリ4は読み書き自在であり、左画像や右画像
の原画像データを始めとして種々の処理データを記憶す
る。
The image memory 4 is readable and writable, and stores various processing data including the original image data of the left image and the right image.

ディスプレイユニット5およびプリンタ6は、コンピ
ュータ1の処理結果等を出力し、フロッピーディスク7
はその処理結果を登録しておく。また、キーボードター
ミナル8はオペレータにより操作されて、各種の指示が
入力される。
The display unit 5 and the printer 6 output processing results of the computer 1 and the like, and
Registers the processing result. The keyboard terminal 8 is operated by an operator to input various instructions.

コンピュータ1には、さらにホストコンピュータが接
続されており、そこから与えられた指示、またはキーボ
ードターミナル8より与えられた指示に従って各部を制
御し、対応する処理を行なう。以下、その処理のうち、
前方のシーンの中の路面領域を摘出しそれを表示するた
めの、「道路面の検出」について説明する。
The computer 1 is further connected to a host computer, and controls each unit in accordance with an instruction given from the host computer or an instruction given from the keyboard terminal 8, and performs a corresponding process. Hereinafter, of the processing,
“Detection of road surface” for extracting a road surface region in a forward scene and displaying it will be described.

第2図は、ホストコンピュータ又はキーボードターミ
ナル8より与えられた指示に応答して、その指示が解除
されるまで実質上所定周期で繰返えされる「道路面の検
出」ルーチンの概略を示すメインルーチンであり、第3a
図〜第6図はその中の主たる処理項目の処理内容を示す
サブルーチンである。
FIG. 2 is a main routine showing an outline of a "road surface detection" routine that is repeated in a substantially predetermined cycle in response to an instruction given from the host computer or the keyboard terminal 8 until the instruction is released. And 3a
FIG. 6 to FIG. 6 are subroutines showing the processing contents of the main processing items therein.

まず第2図を参照すると、コンピュータ1は、1サイ
クルの「道路面検出」処理の先頭において、左右カメラ
2a,2bの左画像,右画像の画像データを画像メモリ4に
書き込む(サブルーチン1)。なお、以下カッコ内では
サブルーチンとかステップという語を省略し、それに付
した番号数字のみを示す。次に左右画像内の画像分割を
行なう(2)。この内容は前記特開平2−29878号公報
に開示されているものと同じであるので、その内容の図
示は省略した。この内容を説明する。
First, referring to FIG. 2, the computer 1 starts the left and right camera
The image data of the left and right images 2a and 2b is written into the image memory 4 (subroutine 1). In the following, the word "subroutine" or "step" is omitted in parentheses, and only the numerals attached thereto are shown. Next, image division of the left and right images is performed (2). Since the contents are the same as those disclosed in the above-mentioned Japanese Patent Application Laid-Open No. 2-29878, the contents are not shown. The contents will be described.

「画像分割」(2)では、まず左画像に対して順方向
ラスタスキャンを設定する。なお、ラスタスキャンの方
向は、撮映シーンの水平方向(車上から前方を見て左右
方向)である。順方向ラスタスキャンは、第1b図に示す
撮像領域FLa(右画面ではFLb)内をXa(Xb)に平行なua
(ub)軸を主走査軸とし、Ya(Yb)に平行なva(vb)軸
を副走査軸として左上端画素から右下画素に至る経路で
各画素に注目する走査を行なう。すなわち第7b図に示す
u方向(主走査方向)およびv(副走査方向)の走査
を、左上の画素(画像原点0,0)から右下画素(511,51
1)まで行なう。なお後述する逆方向ラスタスキャンは
この逆に、右下画素(511,511)から左上画素(0,0)ま
で行なう。順方向ラスタスキャンを行いながら微分デー
タおよび傾きデータを生成し微分データのヒストグラム
を作成する。
In the "image division" (2), first, a forward raster scan is set for the left image. Note that the direction of the raster scan is the horizontal direction of the shooting scene (the left-right direction when looking forward from above the vehicle). In the forward raster scan, the ua parallel to Xa (Xb) in the imaging area FLa (FLb on the right screen) shown in FIG.
The (ub) axis is set as a main scanning axis, and the va (vb) axis parallel to Ya (Yb) is set as a sub-scanning axis, and scanning is performed on each pixel along a path from the upper left pixel to the lower right pixel. That is, the scanning in the u-direction (main scanning direction) and v (sub-scanning direction) shown in FIG. 7b is performed from the upper left pixel (image origin 0,0) to the lower right pixel (511,51
Perform until 1). Conversely, the backward raster scan described later is performed from the lower right pixel (511, 511) to the upper left pixel (0, 0). Differential data and gradient data are generated while performing a forward raster scan, and a histogram of the differential data is created.

微分データは、注目画素およびその近傍画素8個の原
画像データ(注目画素を中心とする3×3の画像データ
マトリックス)の原画像データを、第7d図に示すように
定めると、 (p1+p2+p8)−(p4+p5+p6)で与えられる主走査
方向微分データと、 (p2+p3+p4)−(p6+p7+p8)で与えられる副走査
方向微分データとの和であり、原画像データの空間的な
変化量を示す。また、傾きデータは、上記の主走査方向
御分データと副走査方向微分デーとの比、すなわち、 副走査方向微分データ/主走査方向微分データを8分
類したものであり、原画像データが空間的に変化して行
く方向を示す。コンピュータ1は、これらのデータを各
画素に対応付けして画像メモリ4に書き込む。
The differential data is obtained by defining the original image data of the original image data of the target pixel and its eight neighboring pixels (3 × 3 image data matrix centered on the target pixel) as shown in FIG. 7D: (p1 + p2 + p8) It is the sum of the main scanning direction differential data given by − (p4 + p5 + p6) and the sub-scanning direction differential data given by (p2 + p3 + p4) − (p6 + p7 + p8), and indicates the spatial variation of the original image data. The inclination data is a ratio of the main scanning direction control data to the sub-scanning direction differential data, that is, the sub-scanning direction differential data / main scanning direction differential data is classified into eight categories. Indicates the direction in which it is changing. The computer 1 writes these data in the image memory 4 in association with each pixel.

第8a図に左画面像の一例を、第8b図に右画面像を示
す。
FIG. 8a shows an example of a left screen image, and FIG. 8b shows a right screen image.

ヒストグラムは微分データの大きさと出現頻度を求め
たものであり、コンピュータ1は順方向ラスタスキャン
を終了すると、このヒストグラムよりしきい値を設定し
て微分データを2値化し、2値化データを各画素に対応
付けして記憶する。
The histogram is obtained by calculating the size and the appearance frequency of the differential data. When the forward raster scan is completed, the computer 1 sets a threshold value from this histogram to binarize the differential data, It is stored in association with the pixel.

このようにして2値化した結果、原画像データが空間
的に急激に変化する部位、すなわち「エッジ」が検出さ
れる。このエッジが、前方シーンに存在する物の輪郭や
背景を示しているときにはそれが連続となることが好ま
しいが、撮像条件等により、必ずしも連続とはならな
い。そこで、再び順方向ラスタスキャンを設定して不連
続なエッジを接続する処理を行なう。
As a result of the binarization in this manner, a portion where the original image data changes abruptly spatially, that is, an “edge” is detected. When the edge indicates the outline or background of an object existing in the front scene, it is preferable that the edge be continuous. However, the edge is not necessarily continuous due to an imaging condition or the like. Therefore, a process of setting a forward raster scan again to connect discontinuous edges is performed.

すなわち、未だ接続処理を行な漬ていないエッジの端
点画素(エッジの切れ目画素)を検出すると順方向ラス
タスキャンを中断して、その画素を注目画素とし、その
近傍8画素を含む3×3画素から、注目画素の傾きデー
タが示す方向にある画素を延長候補画素に選定し、それ
がエッジ構成画素でありうるかの判定を行なう。ここで
は、延長候補画素、および、それに注目画素の傾きデー
タと直交する方向に連結する両側2画素の微分データを
比較し、延長候補画素対応微分データが最大であれば尾
根と判定する。
That is, when an end point pixel (edge break pixel) of an edge which has not yet been subjected to connection processing is detected, the forward raster scan is interrupted, the pixel is set as a target pixel, and 3 × 3 pixels including eight neighboring pixels are set. Therefore, a pixel in the direction indicated by the inclination data of the target pixel is selected as an extension candidate pixel, and it is determined whether or not the pixel is an edge constituent pixel. Here, the extension candidate pixel and the differential data of the two pixels on both sides connected in a direction orthogonal to the inclination data of the pixel of interest are compared with each other, and if the differential data corresponding to the extension candidate pixel is the maximum, the ridge is determined.

尾根と判定した場合には、その延長候補画素にエッジ
を延長する。このとき、延長した画素が再び端点画素と
なる場合には、それに注目して上記を繰り返すが、そう
でないときにはエッジが接続されたことになるので、順
方向ラスタスキャンを再開する。また、尾根でないと判
定した場合には、延長候補画素の両側2画素のうちの山
側の画素に延長候補画素に延長候補画素を更新する。こ
のとき、更新した延長候補画素が注目画素の近傍8画素
にあれば、上記の判定を行なうが、それを外れた場合に
は、エッジはそこで切れているものとして順方向ラスタ
スキャンを再開する。
If the ridge is determined, the edge is extended to the extension candidate pixel. At this time, if the extended pixel becomes the end point pixel again, the above is repeated by focusing on that. Otherwise, since the edge is connected, the forward raster scan is restarted. If it is determined that the pixel is not a ridge, the extension candidate pixel is updated to a pixel on the mountain side of the two pixels on both sides of the extension candidate pixel. At this time, if the updated extension candidate pixel is located in the eight pixels in the vicinity of the target pixel, the above-described determination is made. If the updated candidate pixel is out of that, the forward raster scan is restarted on the assumption that the edge has been cut there.

左画像について以上の画像分割を終了すると、全く同
じ手順で右画像の画像分割を実行する。
When the above image division is completed for the left image, image division of the right image is executed in exactly the same procedure.

以上のような「画像分割処理」により第9a図(左画
像)および第9b図(右画像)に示すエッジ画像が得られ
る。
The edge image shown in FIG. 9a (left image) and FIG. 9b (right image) is obtained by the “image division processing” as described above.

「画像分割」(2)を終了すると、コンピュータ1は
次に「道路領域の抽出」(3)を実行する。この内容を
第3a図〜第3d図に示す。この「道路領域の抽出」(3)
では、分割された各画像(エッジで囲まれる各領域)の
大きさと重心位置を計算し、大きさがあるしきい値以上
で重心位置が最も低くしかも中心寄りの領域を道路の路
面領域として抽出する。
When the “image division” (2) is completed, the computer 1 next executes “extraction of road area” (3). The contents are shown in FIGS. 3a to 3d. This "extraction of road area" (3)
Calculates the size and center of gravity of each divided image (each area surrounded by edges), and extracts the area near the center where the size is above a certain threshold value and has the lowest center of gravity as the road surface area I do.

すなわち、第3a図〜第3d図を参照すると、画像上を順
方向ラスタースキャンしてある分割領域(エッジ)を見
つけるとそのエッジに沿って該領域を1周する。1周す
る間の領域エッジ上の画素の数n(周長),エッジ各画
素のu座標の和を計算し、下記式(1)により領域の重
心点(ug,vg)を求める(11〜16)。この算出方法で
は、(ug,vg)は正確な重心位置ではないが、ほぼ近い
位置を高速で求めることができる。またエッジ画素の数
nを擬似的に領域の大きさとする。求めたより下記式
(2)により、道路領域としての確からしさRを計算す
る(16)。Rは領域の大きさが大きいほど、領域中心が
中央であるほど、また領域が画面の下側に近いほど、大
きい値となる評価関数である。したがって、Rは、それ
を計算した領域が第7b図に斜線で示す領域であると大き
い値となる。
That is, referring to FIGS. 3a to 3d, when a forward divided raster scan is performed on an image to find a divided area (edge), the divided area makes one round along the edge. The sum of the number n (perimeter) of pixels on the edge of the region and the u coordinate of each pixel of the edge during one round is calculated, and the center of gravity (ug, vg) of the region is obtained by the following equation (1) (11 to 11). 16). In this calculation method, (ug, vg) is not an accurate position of the center of gravity, but a near-close position can be obtained at high speed. The number n of edge pixels is assumed to be the size of the region in a pseudo manner. The likelihood R as a road area is calculated from the obtained equation (2) (16). R is an evaluation function that has a larger value as the size of the region is larger, the center of the region is at the center, and the region is closer to the lower side of the screen. Therefore, R has a large value when the region in which it is calculated is the region indicated by oblique lines in FIG. 7b.

ug=(Σu)/n, vg=(Σv)/n ……(1) R=(uc−ABS(uc−ug))×(2vc−Vg)×n ……(2) (uc,vc):カメラセンター座標, ABS:絶対値 すべての領域について上記の処理を繰り返し、Rが最
も大きい領域を見つけ道路領域であることを示すラベル
を該領域内の各点に付ける(17〜22)。このとき、この
領域に他の領域が含まれている場合、含まれた領域にも
一応ラベルが付けられる。道路領域抽出結果と領域分割
結果から道路領域内のエッジ画素を見つけて道路領域の
エッジ画素であることを示すラベルを付ける(23〜5
2)。同じ処理を右画像についても実行する(53)。
ug = (Σu) / n, vg = (Σv) / n (1) R = (uc-ABS (uc-ug)) × (2vc-Vg) × n (2) (uc, vc) : Camera center coordinates, ABS: Absolute value The above process is repeated for all the areas, the area having the largest R is found, and a label indicating that it is a road area is attached to each point in the area (17 to 22). At this time, if another area is included in this area, the included area is also temporarily labeled. Find edge pixels in the road area from the road area extraction results and the area division results, and label them as edge pixels in the road area (23 to 5
2). The same process is executed for the right image (53).

第10a図(左画像)および第10b図(右画像)に、道路
領域とラベルを付した領域を黒塗りで示し、第11a図
(左画像)および第11b図(右画像)に道路領域ならび
にその領域内に含まれる領域のエッジのみを示す。
In FIG. 10a (left image) and FIG. 10b (right image), the road area and the labeled area are shown in black, and in FIG. 11a (left image) and FIG. 11b (right image), the road area and Only the edges of the region included in the region are shown.

「道路領域の抽出」(3)を終えるとコンピュータ1
は、次に「左右画像対応」(4)の処理を行なう。この
内容を第4a図〜第4c図に示す。これにおいては、領域の
境界及び該領域のエッジ画素について左右画像で対応を
とり、対応画素の視差を算出し、この視差と画素位置に
基づいてエッジ各点の3次元位置を算出する。左右画像
の道路領域エッジ画素について対応を取る両眼立体視で
は誤対応をいかに無くすかが重要な課題である。先に説
明したように、道路領域は画面の上下方向で下側に存在
する確率が高い。そこで左画像を逆方向ラスタースキャ
ンし、道路領域エッジ画素(ua,va)が見つかった場合
次のおよびの方法で対応点を予測し、で対応点を
確定する。
Completion of "extraction of road area" (3)
Performs the process of "corresponding to left and right images" (4). The contents are shown in FIGS. 4a to 4c. In this case, the boundary of the region and the edge pixels of the region are associated with each other in the left and right images, the parallax of the corresponding pixel is calculated, and the three-dimensional position of each point of the edge is calculated based on the parallax and the pixel position. In binocular stereopsis, which takes correspondence with the road area edge pixels of the left and right images, how to eliminate erroneous correspondence is an important issue. As described above, there is a high probability that the road area exists below the screen in the vertical direction. Therefore, the left image is raster-scanned in the backward direction, and if a road area edge pixel (ua, va) is found, the corresponding point is predicted by the following methods and the corresponding point is determined.

カメラと道路の相対位置からの予測 道路面とカメラの位置関係が基準状態であった場合
(車両のピッチングが無い場合)に、左右カメラにおけ
る道路面上の点の結像位置を計算することにより左右画
像の対応点を予測する。すなわち順方向ラスタースキャ
ンを行なって、次の式(3)により道路領域のエッジ画
素(ua,va)相当点(道路上)の左カメラ座標系におけ
るその3次元位置(XaA,YaA,ZaA)を計算する(第4a図
の54〜57)。次の式(4)によりこの点の、左カメラ座
標系における3次元位置(XbA,YbA,ZbA)を計算する。
そして次の式(5)によりこの点の右画像上で存在する
はずの位置(ubA,vbA)(すなわち左画像に基づいた右
画像上での位置)を計算(予測)し(57)、この点を中
心点として左右5画素(主走査方向計11画素)を対応候
補点とする。
Prediction from the relative position of the camera and the road When the positional relationship between the road surface and the camera is in the reference state (when there is no pitching of the vehicle), the imaging position of a point on the road surface by the left and right cameras is calculated. Predict the corresponding points of the left and right images. That is, a forward raster scan is performed, and the three-dimensional position (XaA, YaA, ZaA) in the left camera coordinate system of the point (on the road) corresponding to the edge pixel (ua, va) of the road area is calculated by the following equation (3). Calculate (54-57 in FIG. 4a). The three-dimensional position (XbA, YbA, ZbA) of this point in the left camera coordinate system is calculated by the following equation (4).
Then, the position (ubA, vbA) that should exist on the right image of this point (that is, the position on the right image based on the left image) is calculated (predicted) by the following equation (5) (57). Five pixels on the left and right (a total of 11 pixels in the main scanning direction) with the point as the center point are set as corresponding candidate points.

ZaA=Sya×h/(va−vca−Sya・tanθ)cosθ, XaA=(uca−ua)ZaA/Sxa, YaA=−ZaA・tanθ−h/cosθ ……(3) ZbA=ZaA, XbA=XaA−D, YbA=YaA ……(4) UbA=−XbA×Sxb/ZbA+Ucb, VbA=Va ……(5) Uca,Vca:左カメラセンター, Ucb,Vcb:右カメラセンター, Sxa,Sya:左カメラスケールファクタ, Sxb,Syb:右カメラスケールファクタ, h:カメラ高さ, θ :カメラ下向き角度, D:左右カメラ間距離 連続条件からの予測 分割された画像で表わされる対象物が3次元的に連続
しておれば、2次元画像上でも該対象物の画像(領域エ
ッジ)が連続する。これに着目して、既に対応のとれて
いる点(画素)の近傍の点(画素)は、それらの視差か
ら対応点を予測する。従ってこの予測は視差が求まって
いる点に限られる。近傍点の視差が求まっていない場合
は、結果として上記のみの予測に基づく対応点の確定
となる。
ZaA = Sya × h / (va−vca−Sya · tanθ) cosθ, XaA = (uca−ua) ZaA / Sxa, YaA = −ZaA · tanθ−h / cosθ (3) ZbA = ZaA, XbA = XaA −D, YbA = YaA (4) UbA = −XbA × Sxb / ZbA + Ucb, VbA = Va (5) Uca, Vca: Left camera center, Ucb, Vcb: Right camera center, Sxa, Sya: Left camera Scale factor, Sxb, Syb: Right camera scale factor, h: Camera height, θ: Camera downward angle, D: Distance between left and right cameras Prediction from continuous conditions The object represented by the divided image is three-dimensionally continuous If so, the image (region edge) of the target object continues on the two-dimensional image. Focusing on this, a point (pixel) in the vicinity of a point (pixel) already taken is predicted to be a corresponding point from their parallax. Therefore, this prediction is limited to the point where the parallax is obtained. If the parallax of the neighboring point has not been determined, the corresponding point is determined based on only the above prediction.

まず注目点(画素)(ua,va)の対応点を予測する場
合、視差マップ上で注目点(ua,va)に近い点から視差
が登録されているか否かをチェックする。すなわち(u
a,va+1),(ua,va+1),(ua−1,va+1),(ua
+1,va+1),(ua,va+2)の順に視差マップを調べ
る。この順番を第7c図に示す。第7c図において「1」を
付した画素が注目点(画素)である。視差が存在すれば
その値(d1)から次の式(6)により右画像上の予測対
応点(ubA,vbA)を計算し、その左右5画素(主走査方
向計11画素)を対応候補点とする(58〜67)。ここで、
視差マップとは、画像と同じu−v座標系の各点(画
素)(ui,vi)にその点の視差diの値を登録したメモリ
領域(メモリテーブル)である。
First, when predicting the corresponding point of the attention point (pixel) (ua, va), it is checked whether or not the disparity is registered from a point close to the attention point (ua, va) on the disparity map. That is, (u
a, va + 1), (ua, va + 1), (ua−1, va + 1), (ua
The disparity map is checked in the order of (+1, va + 1), (ua, va + 2). This order is shown in FIG. 7c. In FIG. 7c, the pixel marked with “1” is the point of interest (pixel). If there is a parallax, a predicted corresponding point (ubA, vbA) on the right image is calculated from the value (d1) by the following equation (6), and 5 pixels on the left and right (a total of 11 pixels in the main scanning direction) are used as corresponding candidate points. (58-67). here,
The disparity map is a memory area (memory table) in which the value of the disparity di of each point (pixel) (ui, vi) in the same uv coordinate system as the image is registered.

ubA=ua−d1, vba=va ……(6) 対応の確定 左画像上の注目点(ua,va)と、上記,で求めた
各対応候補点(ub,vb)の間で次の式(7)により相関
値「I」を計算し、Iが最も小さい点を対応点と確定す
る。左右画像の対応点のu座標から次の式(8)により
視差dを計算し視差マップに登録する(68〜82)。そし
て視差dより左カメラ座標系における3次元位置(Xa,Y
a,Za)を次の式(9)によって求める(83)。
ubA = ua−d1, vba = va (6) Determination of correspondence The following equation is used between the point of interest (ua, va) on the left image and each of the correspondence candidate points (ub, vb) obtained in the above. The correlation value “I” is calculated according to (7), and the point where I is the smallest is determined as the corresponding point. The parallax d is calculated from the u coordinate of the corresponding point of the left and right images by the following equation (8) and registered in the parallax map (68 to 82). Then, from the parallax d, the three-dimensional position (Xa, Y
a, Za) is obtained by the following equation (9) (83).

I=ΣΣ(f(ua+j,va+i)−f(ub+j,vb+i) ……(7) i,j:−3〜+3 d=ua−ub ……(8) Za=Sxa×D/d, Xa=(uca−ua)ZaA/Sxa, Ya=(xca−xa)ZaA/Sya ……(9) なお、逆方向ラスタースキャンしながら、道路領域の
エッジ点が見つかると上記〜を実行して視差を視差
マップに登録していく。処理が進むと徐々に視差マップ
が埋まっていき、の予測が行なえる確率が徐々に上昇
し、視差マップが完成する。
I = ΣΣ (f (ua + j, va + i) −f (ub + j, vb + i) (7) i, j: −3 to +3 d = ua−ub (8) Za = Sxa × D / d, Xa = (Uca-ua) ZaA / Sxa, Ya = (xca-xa) ZaA / Sya (9) When an edge point of the road area is found while performing reverse raster scanning, the above-mentioned is executed to obtain parallax. As the process proceeds, the parallax map gradually fills up, and the probability of being able to make predictions gradually increases, and the parallax map is completed.

なお、この状態では、道路領域はその中に前方車両や
障害物等の物体領域を含むものである。
In this state, the road area includes an object area such as a preceding vehicle and an obstacle therein.

第11c図に、道路領域のエッジの3次元位置を表わす
グラフィックディスプレイ画面を示す。第12a図は、第1
1c図に表わされた3次元位置情報に基づいて、上方から
見た場合の道路領域エッジを平面上に表示したもの(平
面投影図)であり、第12b図は、正面から見た場合の道
路領域エッジを平面上に表示したもの(正面投影図)で
あり、また、第12c図は、右側面から見た場合の道路領
域エッジを平面図に表示したもの(右側面投影図)であ
る。
FIG. 11c shows a graphic display screen showing the three-dimensional position of the edge of the road area. FIG.
Based on the three-dimensional position information shown in FIG. 1c, a road area edge when viewed from above is displayed on a plane (planar projection), and FIG. 12b is a view when viewed from the front. FIG. 12c shows a road area edge as viewed from the right side in a plan view (right side projection), and FIG. 12c shows a road area edge as viewed from the right side. .

「左右画像対応」(4)により上述のように道路領域
内の視差マップを完成するとコンピュータ1は、「道路
面の推定」(5)を実行する。その内容を第5図〜第5c
図に示す。車両走行路は、撮映画面内の通常最も低い点
が路面である。最も低い点は路面に対してある高さを持
ったカメラから見た場合、路面がある各水平ライン上で
最も遠い点(視差が小さい点)ということになる。
When the disparity map in the road area is completed as described above by “correspondence to left and right images” (4), the computer 1 executes “estimation of road surface” (5). Figures 5 to 5c
Shown in the figure. The vehicle travel path is usually the lowest point in the film scene. When viewed from a camera having a certain height with respect to the road surface, the lowest point is the farthest point (point with small parallax) on each horizontal line with the road surface.

したがって「道路面の推定」(5)では、視差マップ
上の、各一水平ライン(主走査線)の最低の視差を見つ
け、この視差をその水平ラインにおける道路面までの距
離を表わす視差として視差マップに登録する。次に、道
路面は滑らかに連続しており、視差の急激な変化点は路
面とは別物(前方車両,障害物,縁石,ガードレール,
ポール等)のエッジであるので、急激な変化点を除去す
る。
Therefore, in “estimate road surface” (5), the lowest parallax of each horizontal line (main scanning line) on the parallax map is found, and this parallax is used as the parallax representing the distance to the road surface in that horizontal line. Register on the map. Next, the road surface is smoothly continuous, and the point of rapid change in parallax is different from that of the road surface (vehicles ahead, obstacles, curbs, guardrails,
A sharp change point is removed because the edge is a pole.

すなわち第5a図〜第5c図を参照すると、視差マップ
を、逆方向ラスタースキャンして道路領域の視差データ
を調べて行き、現在の注目点(画素)より走査順で過去
10点(10画素)の視差(dv−9〜dv)から次の式(10)
により、注目点の視差(dv+1)が道路面を表わす視差
であるかをチェックする(88〜104)。道路面の視差で
ないと、式(10)のdv+1′を該注目点の視差として視
差マップに更新登録する(105)。このようにして計
算,修正された視差マップの各点の視差(d)より、各
点の左カメラ座標系における3次元位置(Xa,Ya,Za)を
式(9)により求める(106〜118)。
That is, referring to FIGS. 5a to 5c, the disparity map is scanned in the reverse direction by raster scanning to check the disparity data of the road area, and the past in the scanning order from the current point of interest (pixel).
From the parallax (dv-9 to dv) of 10 points (10 pixels), the following equation (10) is used.
It is checked whether the parallax (dv + 1) of the point of interest is a parallax representing the road surface (88 to 104). If the parallax is not a road surface parallax, dv + 1 'in equation (10) is updated and registered in the parallax map as the parallax of the point of interest (105). From the disparity (d) of each point of the disparity map calculated and corrected in this way, the three-dimensional position (Xa, Ya, Za) of each point in the left camera coordinate system is obtained by Expression (9) (106 to 118). ).

ABS(Dv+1−dv+1′)≦2:道路面, ABS(Dv+1−dv+1′)>2:道路面 ……(10) dv+1′=a(v−1)+b, a=S1/S2, b=(Σd)/n−a(Σv)/n, S1:Σ(dv)−(ΣdΣv)/n, S2:Σv2−(Σv)2/n なお、この実施例ではn=10であり、この式(10)
は、最小自乗法で求めた、10点の中心値に対する注目点
の偏差が2以上であるか否かを判定するという内容であ
る。
ABS (Dv + 1−dv + 1 ′) ≦ 2: road surface, ABS (Dv + 1−dv + 1 ′)> 2: road surface (10) dv + 1 ′ = a (v−1) + b, a = S1 / S2, b = ( Σd) / n−a (Σv) / n, S1: Σ (dv) − (ΣdΣv) / n, S2: Σv 2 − (Σv) 2 / n In this embodiment, n = 10, and (Ten)
Indicates that it is determined whether or not the deviation of the target point from the center value of 10 points obtained by the least square method is 2 or more.

第13a図に、以上により得た視差マップのデータに基
づいた道路面(表面)の領域エッジを、上方から見た形
で示し、第13b図に、正面から見た形で、また第13c図に
は、右側面から見た形で示す。
FIG. 13a shows the area edge of the road surface (surface) based on the data of the disparity map obtained as described above, as viewed from above, and FIG. 13b, as viewed from the front, and FIG. 13c. Are shown as viewed from the right side.

「道路面の推定」(5)を終えるとコンピュータ1は
次に「カメラ下向き角度計算」(6)を実行する。その
内容を第6図に示す。これにおいては、道路領域の境界
線に属する点の3次元座標(X,Y,Z)から最小自乗法に
より道路面に対するカメラの角度(下向き角度)θを次
の式(11)で算出し、角度レジスタに格納している角度
データをこれに更新する。なお、角度レジスタの初期値
は、標準状態(水平路面に標準状態で車両があるときの
理想的な角度)であり、図示しない初期化(第1a図に示
すシステムに電源が入った直後に実行される)において
角度レジスタに書込まれる。
After completing the "estimation of road surface" (5), the computer 1 executes "calculation of camera downward angle" (6). The contents are shown in FIG. In this case, the camera angle (downward angle) θ with respect to the road surface is calculated by the following equation (11) from the three-dimensional coordinates (X, Y, Z) of a point belonging to the boundary line of the road area by the least square method. The angle data stored in the angle register is updated to this. The initial value of the angle register is a standard state (ideal angle when the vehicle is in a standard state on a horizontal road surface), and is initialized (not shown immediately after the power is turned on to the system shown in FIG. 1a). Is written to the angle register.

θ=tan-1(S3/S4), ……(11) S3=Σ(ZY)−(ΣZΣY)/n, S4=ΣZ2−(ΣZ)2/n, n=境界線上の点の数 以上の1サイクルの処理(1〜6)を終了すると、所
定時間後にまたこの1サイクルの処理を行なう形で、上
述の処理を繰返す。このように繰返えされるので、車両
の姿勢が変化するのに追従して、「カメラ下向き角度計
算」(6)の実行により、カメラの下向き角度データθ
が自動的に現実のものに更新され、したがって車両の時
々刻々の姿勢変化による下向き角度θの変動による視差
および距離等の算出誤差が低減する。
θ = tan −1 (S3 / S4),... (11) S3 = Σ (ZY) − (ΣZΣY) / n, S4 = ΣZ 2 − (ΣZ) 2 / n, n = number of points on the boundary line When the processing of one cycle (1 to 6) is completed, the above processing is repeated in a form in which the processing of this one cycle is performed again after a predetermined time. Since the repetition is performed in this manner, following the change in the attitude of the vehicle, the “down camera angle calculation” (6) is executed to execute the down camera angle data θ.
Is automatically updated to the real one, and therefore the calculation error of the parallax, the distance, and the like due to the fluctuation of the downward angle θ due to the moment-to-moment posture change is reduced.

〔発明の効果〕〔The invention's effect〕

本発明では、例えば車両上に撮影カメラを備えた一例
で説明すると、撮映画面の水平方向中央部および垂直方
向下部の道路領域(平面状部の領域)のみをまず検出
し、そして道路領域内の各点の左右カメラによる視差を
算出して、視差が円滑に変わっている点は路面(平面状
部)として摘出し、物体があって視差が急激に変わると
ころは路面外又は路上物体であるとして路面から排除し
て実際に露出する路面のみを検出するので、路面検出処
理時間が短く、しかも路面検出精度が高い。車両上にお
いて上述のように路面領域のみを検出すると、車両が現
進行方向のままで進行して良いか否かの自動判定および
否と判定したときの自動減速又は制動等の、自動判定や
自動制御を容易に行なうことができるのは勿論、車両の
進行方向と路面領域との相関から、空いた路面領域に進
路変更を行なう自動ターン制御や、空いた路面領域への
進路変更をうながす自動報知などの制御が容易となる。
In the present invention, for example, as an example in which a photographing camera is provided on a vehicle, first, only a road area (area of a plane portion) in a horizontal center portion and a vertical lower portion of a photographic film surface is first detected, and The parallax of each point is calculated by the left and right cameras, and the point where the parallax changes smoothly is extracted as a road surface (planar part), and the place where there is an object and the parallax changes rapidly is an object outside the road surface or on the road. Because only the road surface that is actually exposed while being excluded from the road surface is detected, the road surface detection processing time is short, and the road surface detection accuracy is high. When only the road surface area is detected on the vehicle as described above, automatic determination and automatic determination such as automatic determination of whether or not the vehicle may proceed in the current traveling direction and automatic deceleration or braking when it is determined that the vehicle is not traveling are performed. Control can be easily performed, and of course, the automatic turn control that changes the course to an empty road surface area and the automatic notification that prompts the driver to change to an empty road surface area based on the correlation between the traveling direction of the vehicle and the road surface area. Such control becomes easy.

【図面の簡単な説明】[Brief description of the drawings]

第1a図は、本発明を一態様で実施する装置構成を示すブ
ロック図である。 第1b図は、第1a図に示す左,右カメラ2a,2bが撮映した
画像FLa,FLbとカメラ前方の平面上の点Pとの関係を示
す斜視図である。 第2図は、第1a図に示すコンピュータ1の、道路面検出
処理動作の概要を示すフローチャートである。 第3a図,第3b図,第3c図および第3d図は、第2図に示す
「道路領域の抽出」(3)の内容を示すフローチャート
である。 第4a図,第4b図および第4c図は、第2図に示す「左右画
像対応」(4)の内容を示すフローチャートである。 第5a図,第5b図および第5c図は、第2図に示す「道路面
の推定」(5)の内容を示すフローチャートである。 第6図は、第2図に示す「カメラ下向き角度計算」
(6)の内容を示すフローチャートである。 第7a図は、第1a図に示す左,右カメラ2a,2bと、それら
の前方の道路面上の点Pおよび物体OBとの関係を示す斜
視図である。 第7b図は、第1b図に示す左画面FLaの、順方向ラスター
スキャン基点(0,0),画面中心(uc,vc)および画面内
の水平方向中央部かつ垂直方向下部の領域(斜線部)を
示す拡大平面図である。 第7c図は、第4a図に示す「左右画像対応」(4)の中
で、左,右画面の対応点を探索するときの探索注目画素
とその周辺の参照画素とを示す平面図である。 第7d図は、第2図に示す「画像分割」(2)において、
画面中画像のエッジを検出するための微分計算において
参照する注目画素および周辺画素と、その画像濃度値を
示す記号とを示す平面図である。 第8a図および第8b図は、第1図に示す左カメラ2aおよび
右カメラ2bで映した画面をそれぞれ示す平面図である。 第9a図および第9b図は、第8a図および第8b図に示す画面
に、第2図に示す「画像分割」(2)を実施して得た画
面をそれぞれ示す平面図である。 第10a図および第10b図は、第9a図および第9b図に示す画
面に、第2図に示す「道路領域の抽出」(3)を実施し
て得た画面をそれぞれ示す平面図である。 第11a図および第11b図は、第10a図および第10b図に示す
画面に示される道路領域のエッジとその中に含まれる領
域のエッジを示す画像を示す平面図である。 第11c図は、第2図に示す「道路面の推定」(5)で得
た道路領域の3次元位置を示すグラフィック表示を示す
平面図である。 第12a図は、第11c図に示す3次元位置を、水平面投影の
2次元位置に変換して示す平面図を示す平面図である。 第12b図は、第11c図に示す3次元位置を、垂直正面投影
の2次元位置に変換して示す正面図を示す平面図であ
る。 第12c図は、第11c図に示す3次元位置を、車両から前方
を見た場合の右側から垂直左側面投影の2次元位置に変
換して示す右側面図を示す平面図である。 第13a図は、第12a図に示される平面投影の路面エッジの
内部を線引きして路面領域を示す平面図である。 第13b図は、第12b図に示される正面投影の路面エッジの
内部を線引きして路面領域を示す平面図である。 第13c図は、第12c図に示される側面投影の路面エッジの
内部を線引きして路面領域を示す平面図である。 1:コンピュータ、2a,2b:撮映カメラ 22a,22b:A/Dコンバータ 4:画像メモリ、5:CRTディスプレイ 6:プリンタ、7:フロッピーディスク 8:キーボードターミナル
FIG. 1a is a block diagram showing an apparatus configuration for implementing the present invention in one aspect. FIG. 1b is a perspective view showing the relationship between the images FLa and FLb captured by the left and right cameras 2a and 2b shown in FIG. 1a and a point P on a plane in front of the cameras. FIG. 2 is a flowchart showing an outline of a road surface detection processing operation of the computer 1 shown in FIG. 1a. FIGS. 3a, 3b, 3c and 3d are flowcharts showing the contents of "extraction of road area" (3) shown in FIG. FIGS. 4a, 4b, and 4c are flowcharts showing the contents of “correspondence to left and right images” (4) shown in FIG. FIGS. 5a, 5b and 5c are flowcharts showing the contents of "estimation of road surface" (5) shown in FIG. FIG. 6 shows the “camera downward angle calculation” shown in FIG.
It is a flowchart which shows the content of (6). FIG. 7a is a perspective view showing the relationship between the left and right cameras 2a and 2b shown in FIG. 1a, a point P on the road surface in front of them, and an object OB. FIG. 7b shows the forward raster scan origin (0,0), the center of the screen (uc, vc), and the horizontal center and vertically lower area (shaded area) in the screen of the left screen FLa shown in FIG. 1b. FIG. FIG. 7c is a plan view showing a search pixel of interest when searching for corresponding points on the left and right screens and reference pixels in the vicinity thereof in “correspondence between left and right images” (4) shown in FIG. 4a. . FIG. 7d shows the “image division” (2) shown in FIG.
FIG. 9 is a plan view showing a target pixel and peripheral pixels to be referred to in differential calculation for detecting an edge of an on-screen image, and symbols indicating the image density values. FIGS. 8a and 8b are plan views respectively showing screens projected by the left camera 2a and the right camera 2b shown in FIG. 9a and 9b are plan views each showing a screen obtained by performing the “image division” (2) shown in FIG. 2 on the screen shown in FIG. 8a and FIG. 8b. 10a and 10b are plan views respectively showing a screen obtained by performing “extraction of road area” (3) shown in FIG. 2 on the screen shown in FIGS. 9a and 9b. 11a and 11b are plan views showing images showing the edges of the road area and the edges of the area contained therein shown on the screen shown in FIGS. 10a and 10b. FIG. 11c is a plan view showing a graphic display showing the three-dimensional position of the road area obtained in “estimation of road surface” (5) shown in FIG. FIG. 12a is a plan view showing a plan view in which the three-dimensional position shown in FIG. 11c is converted into a two-dimensional position of horizontal plane projection. FIG. 12b is a plan view showing a front view in which the three-dimensional position shown in FIG. 11c is converted into a two-dimensional position of vertical front projection. FIG. 12c is a plan view showing a right side view in which the three-dimensional position shown in FIG. 11c is converted into a two-dimensional position of a vertical left side projection from the right when looking ahead from the vehicle. FIG. 13a is a plan view showing a road surface area by delineating the inside of the road surface edge of the planar projection shown in FIG. 12a. FIG. 13b is a plan view showing a road surface area by drawing the inside of the road surface edge of the front projection shown in FIG. 12b. FIG. 13c is a plan view showing the road surface area by drawing the inside of the road surface edge of the side projection shown in FIG. 12c. 1: Computer, 2a, 2b: Camera 22a, 22b: A / D converter 4: Image memory, 5: CRT display 6: Printer, 7: Floppy disk 8: Keyboard terminal

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭61−44312(JP,A) 特開 昭61−44313(JP,A) 特開 平2−29878(JP,A) 特開 平2−29879(JP,A) 特開 平2−73474(JP,A) 特開 平4−127383(JP,A) (58)調査した分野(Int.Cl.6,DB名) G06T 7/00 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-61-44312 (JP, A) JP-A-61-44313 (JP, A) JP-A-2-29878 (JP, A) JP-A-2- 29879 (JP, A) JP-A-2-73474 (JP, A) JP-A-4-127383 (JP, A) (58) Fields investigated (Int. Cl. 6 , DB name) G06T 7/00

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数個の撮像カメラによりそれらの前方の
シーンを撮映してそれぞれビデオ信号を得て、これらの
ビデオ信号をデジタル処理し、各撮像カメラで得たシー
ンの対応点を検索して前記シーンにあるものを摘出する
画像処理において、 前記シーンを映した各画面内の水平方向中央部に位置し
垂直方向で下側に位置する物領域を検出して検出した物
領域の対応点の視差を算出し、算出した二次元方向の実
質上不連続な変化点を平面もしくは擬似平面領域の端縁
として検出し該端縁に接し二次元方向の視差の変化が実
質上連続的な領域を平面もしくは擬似平面として検出す
ることを特徴とする、画像処理方法。
1. A plurality of imaging cameras shoot scenes in front of them and obtain video signals respectively. These video signals are digitally processed, and corresponding points of the scene obtained by each imaging camera are searched. In the image processing of extracting an object in the scene, the corresponding point of the detected object area is detected by detecting the object area located at the center in the horizontal direction and located vertically below in each screen reflecting the scene. The parallax is calculated, and the calculated substantially discontinuous change point in the two-dimensional direction is detected as an edge of a plane or a quasi-planar area, and the area in contact with the edge and the change of the parallax in the two-dimensional direction is substantially continuous. An image processing method characterized by detecting a plane or a pseudo plane.
JP2262270A 1990-09-29 1990-09-29 Image processing method Expired - Lifetime JP2993611B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2262270A JP2993611B2 (en) 1990-09-29 1990-09-29 Image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2262270A JP2993611B2 (en) 1990-09-29 1990-09-29 Image processing method

Publications (2)

Publication Number Publication Date
JPH04138578A JPH04138578A (en) 1992-05-13
JP2993611B2 true JP2993611B2 (en) 1999-12-20

Family

ID=17373463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2262270A Expired - Lifetime JP2993611B2 (en) 1990-09-29 1990-09-29 Image processing method

Country Status (1)

Country Link
JP (1) JP2993611B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099628A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Image processing device, image processing system, image processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013099628A1 (en) * 2011-12-27 2013-07-04 ソニー株式会社 Image processing device, image processing system, image processing method, and program
US9345429B2 (en) 2011-12-27 2016-05-24 Sony Corporation Image processing device, image processing system, image processing method, and program

Also Published As

Publication number Publication date
JPH04138578A (en) 1992-05-13

Similar Documents

Publication Publication Date Title
CN108406731B (en) Positioning device, method and robot based on depth vision
US20200027276A1 (en) Method and Apparatus for Representing a Virtual Object in a Real Environment
JP5328979B2 (en) Object recognition method, object recognition device, autonomous mobile robot
US9390560B2 (en) Method and device for illustrating a virtual object in a real environment
US8867790B2 (en) Object detection device, object detection method, and program
US6205242B1 (en) Image monitor apparatus and a method
JPH10143659A (en) Object detector
JP4872769B2 (en) Road surface discrimination device and road surface discrimination method
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
JP4344860B2 (en) Road plan area and obstacle detection method using stereo image
JP2000207693A (en) Obstacle detector on vehicle
CN109886064A (en) Determination can driving space boundary method
JP3577875B2 (en) Moving object extraction device
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method
JP3516118B2 (en) Object recognition method and object recognition device
JP2993610B2 (en) Image processing method
JP3465531B2 (en) Object recognition method and apparatus
JP2993611B2 (en) Image processing method
Omar et al. Detection and localization of traffic lights using yolov3 and stereo vision
JP4106163B2 (en) Obstacle detection apparatus and method
JP4584405B2 (en) 3D object detection apparatus, 3D object detection method, and recording medium
CN110488320B (en) Method for detecting vehicle distance by using stereoscopic vision
JP2000222563A (en) Obstacle detector, and mobile object mounting obstacle detector
CN110717471B (en) B-ultrasonic image target detection method based on support vector machine model and B-ultrasonic scanner
JP3055721B2 (en) Method for searching corresponding points of images captured by left and right cameras

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term