JPH06325298A - Device for monitoring vehicle periphery - Google Patents

Device for monitoring vehicle periphery

Info

Publication number
JPH06325298A
JPH06325298A JP5111683A JP11168393A JPH06325298A JP H06325298 A JPH06325298 A JP H06325298A JP 5111683 A JP5111683 A JP 5111683A JP 11168393 A JP11168393 A JP 11168393A JP H06325298 A JPH06325298 A JP H06325298A
Authority
JP
Japan
Prior art keywords
bright spot
data
bright
image
luminescent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5111683A
Other languages
Japanese (ja)
Inventor
Kazuyuki Sasaki
一幸 佐々木
Naoto Ishikawa
直人 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yazaki Corp
Original Assignee
Yazaki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yazaki Corp filed Critical Yazaki Corp
Priority to JP5111683A priority Critical patent/JPH06325298A/en
Publication of JPH06325298A publication Critical patent/JPH06325298A/en
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE:To provide a vehicle periphery monitoring device which is improved so as to surely detect a luminescent point even if distortion aberration exists in an image-pickup machine lens and to easily detect an obstacle. CONSTITUTION:A pattern optical projector 3 projects a luminescent matrix on a projecting surface in a square grid shape as against incident laser light. The image-pickup machine image-pickups the luminescent pattern of the luminescent matrix. A data processing part 10 adds luminescent locating direction data corresponding to lens aberration to respective kinds of luminescent data which are obtained from a flat road surface and from the image-pickup machine, scanning and locating are executed based on luminescent locating direction data at the time of locating a luminescent obtained from the inspection road surface and an image is processed so that the existance of the obstacle, a groove, a person, etc., is detected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、自動車などの車両の周
辺を監視して車両運転におけるドライバーの安全確認を
支援するのに有効に適用される車両周辺監視装置に関す
るものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicle periphery monitoring device which is effectively applied to monitor the periphery of a vehicle such as an automobile and assist the driver's safety confirmation in driving the vehicle.

【0002】[0002]

【従来の技術】自動車などの車両の周辺を監視する装置
としては、パターン光投光器によって投影された格子状
の輝点を撮像機で撮像し、平坦路面に投影された輝点パ
ターンと検査路面上に投影された輝点パターンとのづれ
より障害物等を検出するようにしていた。
2. Description of the Related Art As a device for monitoring the periphery of a vehicle such as an automobile, a grid-like bright spot projected by a pattern light projector is imaged by an image pickup device, and a bright spot pattern projected on a flat road surface and an inspection road surface are projected. Obstacles and the like are detected based on the deviation from the bright spot pattern projected on the screen.

【0003】[0003]

【発明が解決しようとする課題】前述したように、従来
の車両周辺監視装置は、パターン光投光器によって投影
された格子状の輝点を撮像機で撮像し、平坦路面に投影
された輝点パターンと検査路面上に投影された輝点パタ
ーンとのづれより障害物等を検出するようにしていた。
障害物等の監視範囲を拡大するには、撮像機に取付けら
れるレンズを広角レンズに変更する必要があり、広角レ
ンズに変更するとレンズの歪曲収差が発生して、中心部
より離れるに従って輝点位置が変化して格子状のパター
ンを形成しなくなる。
As described above, in the conventional vehicle periphery monitoring device, the bright spot pattern projected on the flat road surface is obtained by capturing the image of the grid-like bright spots projected by the pattern light projector. An obstacle or the like is detected based on the deviation of the bright spot pattern projected on the inspection road surface.
In order to expand the monitoring range of obstacles, etc., it is necessary to change the lens attached to the imaging device to a wide-angle lens, and when changing to a wide-angle lens, distortion of the lens occurs, and the bright spot position increases with distance from the center. Change and no longer form a grid pattern.

【0004】このため、歪曲収差が無い場合は平坦路面
に投影された輝点と検査路面に投影された輝点との比較
を水平方向に探索して、その差より3次元計測により障
害物等を検出するようにしていたが、歪曲収差が有ると
水平方向に探索しても輝点が存在せず、3次元の障害物
を検出できなくなる。本発明は、撮像機のレンズに歪曲
収差が有っても確実に輝点が検出でき、障害物を容易に
検出できるように改良した車両周辺監視装置を提供する
ことを目的とする。
For this reason, when there is no distortion, the comparison between the bright spots projected on the flat road surface and the bright spots projected on the inspection road surface is searched in the horizontal direction, and an obstacle or the like is three-dimensionally measured from the difference. However, if there is distortion, there is no bright spot even when searching in the horizontal direction, and a three-dimensional obstacle cannot be detected. An object of the present invention is to provide a vehicle periphery monitoring device improved so that a bright spot can be reliably detected even if a lens of an image pickup device has distortion and an obstacle can be easily detected.

【0005】[0005]

【課題を解決するための手段】上記課題を解決するため
本発明により成された車両周辺監視装置は、レーザ光入
射により監視領域に輝点パターンを投影するパターン光
投光器と、該輝点パターンを撮像する撮像機と、該撮像
機から得られる画像を処理して障害物や溝あるいは人等
の存在を検知するデータ処理部とを備えることを特徴と
している。
In order to solve the above-mentioned problems, a vehicle periphery monitoring device according to the present invention is provided with a pattern light projector for projecting a bright spot pattern onto a surveillance region by incidence of laser light, and a bright spot pattern for the bright spot pattern. It is characterized by including an image pickup device for picking up an image and a data processing unit for processing an image obtained from the image pickup device to detect the presence of an obstacle, a groove, a person or the like.

【0006】前記データ処理部は、平坦路面に投影され
た輝点パターンを撮像した前記撮像機からの画像信号に
よる画素データから輝点パターンを抽出して各輝点座標
を含む参照データを作成する参照データ作成手段と、前
記参照データの輝点毎に輝点探索方向データを付加する
輝点探索方向付加手段と、検査路面に投影された輝点パ
ターンを撮像した前記撮像機からの画像信号による画素
データを前記輝点探索方向データに基づいてスキャンし
て抽出した輝点と前記参照データの各輝点を対比して障
害物や溝あるいは人等の存在を検知する検知手段とを有
することを特徴としている。
The data processing unit extracts a bright spot pattern from pixel data based on an image signal from the image pickup device that picks up a bright spot pattern projected on a flat road surface, and creates reference data including each bright spot coordinate. Reference data creation means, bright spot search direction adding means for adding bright spot search direction data for each bright spot of the reference data, and image signals from the image pickup device that picks up the bright spot pattern projected on the inspection road surface It has a detection means for detecting the presence of an obstacle, a groove, a person or the like by comparing the bright spots extracted by scanning the pixel data based on the bright spot search direction data with each bright spot of the reference data. It has a feature.

【0007】[0007]

【作用】上記構成において、パターン光投光器は、レー
ザ光入射に対し投影面(実施例では監視領域としての地
面を示す)に正方格子状に輝点マトリクスを投影する。
参照データ作成手段は撮像機によって撮像された平坦路
面に投影された輝点パターンを抽出して各輝点座標を含
む参照データを作成する。
In the above structure, the pattern light projector projects a bright spot matrix in a square lattice pattern on the projection surface (in the embodiment, the ground is shown as a monitoring area) in response to the laser light incident.
The reference data creation means extracts the bright spot pattern projected on the flat road surface picked up by the image pickup device, and creates reference data including each bright spot coordinate.

【0008】輝点探索方向付加手段は前記参照データ作
成手段によって作成された輝点毎に輝点探索を行う方向
を示すデータを付加する。検知手段では検査路面に投影
された輝点パターンを撮像した画像信号の画素データを
前記輝点探索方向データに基づいてスキャンして抽出し
た輝点と前記参照データの各輝点を対比して障害物や溝
あるいは人等の存在を検知する。
The bright spot search direction adding means adds data indicating the direction in which the bright spot search is performed for each bright spot created by the reference data creating means. In the detection means, the pixel data of the image signal of the image of the bright spot pattern projected on the inspection road surface is scanned based on the bright spot search direction data, and the extracted bright spot is compared with each bright spot of the reference data to cause an obstacle. Detects the presence of objects, grooves, people, etc.

【0009】[0009]

【実施例】以下、本発明の実施例を図面とともに説明す
る。図1は本考案による車両周辺監視装置の一実施例を
示す図であり、同図において、1はレーザ光源、2はレ
ーザ光源1を駆動するレーザ光源駆動装置、3はレーザ
光源1からレーザ光1aを入力し、この入力したレーザ
光1aにより監視領域に輝点マトリクスを投影するパタ
ーン光投光素子、4は輝点マトリクスを撮影する撮像機
としてのCCDカメラ、5はCCDカメラ4から得られ
る映像信号を一時的に蓄えるフレームメモリ、6は予め
定めたプログラムに従って動作するコンピュータによっ
て構成されるデータ処理部、7は障害物等がない平坦な
地面の場合の画像データを参照データとして予め記憶し
た参照データ記憶部、8はハンドルの操舵角度を検出す
る舵角検出器、9は警報音を発するブザー、10はディ
スプレイ装置である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing an embodiment of a vehicle periphery monitoring device according to the present invention, in which 1 is a laser light source, 2 is a laser light source driving device for driving a laser light source 1, and 3 is a laser light from the laser light source 1. 1a is input and a pattern light projecting element for projecting a bright spot matrix on a monitoring area by the inputted laser light 1a, 4 is a CCD camera as an image pickup device for photographing the bright spot matrix, and 5 is obtained from the CCD camera 4. A frame memory that temporarily stores a video signal, 6 is a data processing unit configured by a computer that operates according to a predetermined program, and 7 is image data in the case of a flat ground with no obstacles or the like stored in advance as reference data. Reference data storage unit, 8 is a rudder angle detector that detects the steering angle of the steering wheel, 9 is a buzzer that emits an alarm sound, and 10 is a display device.

【0010】上記パターン光投光素子3としては、図2
(a)に示すようなファイバグレイティング(FG)1
3や、図2(b)に示すようなマルチビームプロジェク
タ(MBP)23が適用される。
As the pattern light projecting element 3 shown in FIG.
Fiber grating (FG) 1 as shown in (a)
3 or a multi-beam projector (MBP) 23 as shown in FIG. 2B is applied.

【0011】図2(a)のFG13は、直径が数十μ
m、長さ10mmの光ファイバを100本程度シート状
に並べそれを2枚直交して重ね合わせたものである。こ
のFG13にレーザ光源1が発生するレーザ光1aを入
射すると、レーザ光は個々の光ファイバの焦点で集光し
た後、球面波となり干渉しつつ広がって行き、その結
果、投影面には正方格子状に輝点マトリクス14が投影
される。
The FG 13 shown in FIG. 2A has a diameter of several tens μ.
About 100 optical fibers each having a length of 10 mm and a length of 10 m are arranged in a sheet shape, and two sheets of the optical fibers are stacked orthogonally to each other. When the laser light 1a generated by the laser light source 1 is incident on the FG 13, the laser light is condensed at the focal points of the individual optical fibers and then spreads as a spherical wave while interfering, resulting in a square lattice on the projection surface. The bright spot matrix 14 is projected in a uniform manner.

【0012】図2(b)のMBP23は、薄い透明なプ
レートにマイクロレンズを多数集積したものであり、レ
ーザ光源1から入射されたレーザ光1aはMBP23に
より多重ビームとなり、投影面に正方格子状に輝点マト
リクス14が投影される。
The MBP 23 shown in FIG. 2 (b) is a thin transparent plate in which a large number of microlenses are integrated. The laser light 1a incident from the laser light source 1 becomes a multiple beam by the MBP 23 and has a square lattice pattern on the projection surface. The bright spot matrix 14 is projected onto the.

【0013】以上の構成により、パターン光投光素子3
(FG13またはMBP23)により監視領域に投影さ
れた輝点マトリクス14がCCDカメラ4によって撮像
され、CCDカメラ4から得られる映像信号はフレーム
メモリ5に一時的に蓄えられた後、データ処理部6に取
り込まれる。データ処理部6は、フレームメモリ5から
得られる画像データと、参照データ記憶部7に予め記憶
された参照データとを比較することによって、CCDカ
メラ4のイメージプレーン4b上での輝点の移動量を求
める。
With the above configuration, the pattern light projecting element 3
The bright spot matrix 14 projected onto the monitoring area by the (FG 13 or MBP 23) is imaged by the CCD camera 4, and the video signal obtained from the CCD camera 4 is temporarily stored in the frame memory 5 and then stored in the data processing unit 6. It is captured. The data processing unit 6 compares the image data obtained from the frame memory 5 with the reference data stored in the reference data storage unit 7 in advance to calculate the movement amount of the bright spot on the image plane 4b of the CCD camera 4. Ask for.

【0014】図3は図1について上述した実施例におけ
るレンズに歪曲収差が無い場合の光学配置を示し、CC
Dカメラ4のレンズ4aを原点にして、パターン光投光
素子3をy軸上で距離dの位置に、イメージプレーン4
bをZ軸上で距離Iの位置にそれぞれ配置する。この光
学配置において、監視領域4c(CCDカメラの視野)
が障害物等のない平坦な地面(路面)であるとき点Pn
(Xn ,Yn ,0)に投影される輝点は、監視領域4c
内に物体Oが存在することによって、物体O上の点PB
(XB ,YB ,ZB )に投影される。これによって、こ
の輝点を撮像するCCDカメラ4のイメージプレーン4
b上では、図中の点Pn (Xn ,Yn ,0)に対応する
点A(u,v)が、点PB (XB ,YB ,ZB )に対応
する点B(u,v+δ)に移動する。すなわち、輝点が
一定の方向に移動する。
FIG. 3 shows the optical arrangement when the lens in the embodiment described above with reference to FIG. 1 has no distortion, and CC
With the lens 4a of the D camera 4 as the origin, the pattern light projecting element 3 is placed at the position of the distance d on the y-axis, and the image plane 4
b is arranged at the position of the distance I on the Z axis. In this optical arrangement, the monitoring area 4c (field of view of the CCD camera)
Is a flat ground surface (road surface) without obstacles and the like, a point P n
The bright point projected on (X n , Y n , 0) is the monitoring area 4c.
Due to the existence of the object O inside the point P B on the object O
It is projected on (X B , Y B , Z B ). As a result, the image plane 4 of the CCD camera 4 that takes an image of this bright spot
On b, point P n in FIG. (X n, Y n, 0 ) corresponding points A (u, v) is the point P B (X B, Y B , Z B) points corresponding to B ( u, v + δ). That is, the bright spot moves in a fixed direction.

【0015】従って、点Aの位置と点Bの位置との距離
を求めることによって移動量δが検出される。データ処
理部6はまた、上記距離d及びIと、監視領域4cから
y軸までの距離hと、CCDカメラ光軸と監視領域4c
の法線となす角θと、上記移動量δとを用いて演算処理
することによって、輝点の三次元位置〔図3においては
点PB (XB ,YB ,ZB )〕を検出する。そして、入
力画像における全ての輝点について三次元位置を検出
し、三次元位置の変化した輝点について演算処理を施す
ことによって、障害物や溝あるいは人等のおおよその大
きさや位置を検出し、この検出結果によってディスプレ
イ装置10に表示を行う。
Therefore, the movement amount δ is detected by obtaining the distance between the position of the point A and the position of the point B. The data processing unit 6 also uses the distances d and I, the distance h from the monitoring area 4c to the y axis, the CCD camera optical axis, and the monitoring area 4c.
The three-dimensional position of the bright spot [point P B (X B , Y B , Z B in FIG. 3)] is detected by performing calculation processing using the angle θ formed with the normal line of To do. Then, the three-dimensional position is detected for all the bright points in the input image, and the approximate size and position of obstacles, grooves, people, etc. are detected by performing arithmetic processing on the bright points whose three-dimensional position has changed, Display is performed on the display device 10 according to the detection result.

【0016】図4は、パターン光投光素子3、レーザ光
源1及びCCDカメラ4により構成したセンサ部Sを、
自動車の後部において地面の法線に対し角度θで固定し
た場合の設置の一例を示す。
FIG. 4 shows a sensor section S composed of a pattern light projecting element 3, a laser light source 1 and a CCD camera 4.
An example of installation in the case where the vehicle is fixed at an angle θ with respect to the normal to the ground at the rear of the vehicle is shown.

【0017】以上概略説明したデータ処理部6における
処理は、大別して、図5及び図6のフローチャートに示
す基準画面データ(参照データ)の作成処理と障害物検
出処理とからなる。
The processing in the data processing unit 6 outlined above is roughly divided into a standard screen data (reference data) creation processing and an obstacle detection processing shown in the flowcharts of FIGS. 5 and 6.

【0018】参照データ作成処理においては、図5のフ
ローチャートに示すように、ステップS1において、C
CDカメラ4が撮像して出力する輝点マトリクス14の
画像信号を入力し、これを例えば512×512ピクセ
ル、輝度0〜255階調の画素データに変換してフレー
ムメモリ5に一時的に蓄える。フレームメモリ5に一時
的に蓄えられた画素データは、ステップS2においてデ
ータ処理部6において先ず輝点抽出を行う。その後、ス
テップS3において、輝点重心の座標位置を決定する処
理が行われる。更にその後、ステップS4において、輝
点の明るさを決定する処理、すなわち、検査時の輝点抽
出のためのしきい値を決定する処理を行う。ステップS
5ではレンズに歪曲収差が存在する場合に適用される輝
点探索方向データを参照データの輝点毎に付加する。ス
テップS6では明るさ補正の際に必要な背景輝度データ
を求める。
In the reference data creating process, as shown in the flowchart of FIG. 5, in step S1, C
The image signal of the bright spot matrix 14 captured and output by the CD camera 4 is input, and this is converted into pixel data having 512 × 512 pixels and a brightness of 0 to 255 gradations and temporarily stored in the frame memory 5. The pixel data temporarily stored in the frame memory 5 is first subjected to bright point extraction in the data processing unit 6 in step S2. Then, in step S3, a process of determining the coordinate position of the center of gravity of the bright spot is performed. After that, in step S4, a process of determining the brightness of the bright spot, that is, a process of determining a threshold value for extracting the bright spot at the time of inspection is performed. Step S
In 5, the bright spot search direction data applied when the lens has distortion is added to each bright spot of the reference data. In step S6, background luminance data required for brightness correction is obtained.

【0019】上記ステップS2の輝点抽出処理は、図7
に示すような監視領域内の輝点投影画像の図8に示すよ
うな一走査線上の輝度をしきい値と比較して輝点を抽出
するためのもので、この処理においては、先ずフレーム
メモリ5の各画素データについて、画素の階調値が予め
設定されたしきい値より大きければその値を残し、小さ
ければその画素の階調値を零にする。上述した処理は1
画素づつずらして全ての画素について行い、この処理に
よって、図9に示すような画素のかたまり(輝点)が抽
出される。
The bright spot extraction processing in step S2 is as shown in FIG.
In order to extract the bright spot by comparing the brightness on one scanning line as shown in FIG. 8 of the bright spot projection image in the monitoring area as shown in FIG. For each pixel data of 5, if the gradation value of the pixel is larger than a preset threshold value, the value is left, and if smaller, the gradation value of the pixel is set to zero. The above process is 1
This process is performed for all the pixels by shifting them pixel by pixel, and a cluster (bright spot) of pixels as shown in FIG. 9 is extracted by this processing.

【0020】なお、各輝点間の輝度の差が大きく、固定
のしきい値では輝点の抽出ができない場合には、図10
に示すようなある画素を中心にしたm×nピクセルの窓
内の輝度平均値を求め、この平均値をしきい値としてそ
の画素を残すか否かを決定し、他の画素についても同様
の処理でしきい値を求めて、画素毎に異なるしきい値で
輝点を抽出するようにすればよい。
If there is a large difference in luminance between the bright spots and the bright spots cannot be extracted with a fixed threshold value, the brightness shown in FIG.
The average brightness value in a window of m × n pixels centered on a certain pixel as shown in Fig. 3 is obtained, this average value is used as a threshold value to decide whether or not to leave that pixel, and the same applies to other pixels. It suffices to obtain a threshold value by processing and extract a bright spot with a different threshold value for each pixel.

【0021】次に、上記ステップS3の処理、すなわ
ち、輝点重心の座標位置を決定する処理について説明す
る。この決定処理においては、例えば図11に示すよう
な輝点の重心座標(U,V)を輝点内の各画素の輝点の
座標から輝度の重みを付けた重心位置を求める。
Next, the process of step S3, that is, the process of determining the coordinate position of the center of gravity of the bright spot will be described. In this determination processing, for example, the barycentric position (U, V) of the bright point as shown in FIG. 11 is obtained by weighting the brightness from the coordinates of the bright point of each pixel in the bright point to obtain the barycentric position.

【0022】その後のステップS4の処理、すなわち、
輝点の明るさ(輝度しきい値)を決定する処理について
説明する。この処理においては、輝点を構成する画素の
例えば最小値を輝点の重心の明るさとする。図11に示
した輝点では、I(min )=50であるから、輝点重心
の明るさは50である。
The subsequent processing of step S4, that is,
The process of determining the brightness (luminance threshold) of the bright spot will be described. In this processing, for example, the minimum value of the pixels forming the bright spot is set as the brightness of the center of gravity of the bright spot. At the bright spot shown in FIG. 11, since I (min) = 50, the brightness of the bright spot centroid is 50.

【0023】次にステップS5の処理では輝点探索方向
データの付加を行なう。CCDカメラ4のレンズに歪曲
収差が無い場合は、図12(A)に示す正方状格子を撮
像すると、歪のない正方状格子が撮像画像として得られ
る。しかし、レンズに歪曲収差が有ると図12(B)お
よび(C)で示すように、撮像画面に歪を生ずる。した
がって、参照データの輝点位置から、後で説明する検査
路面より得られた輝点を探索する際の探索方向のデータ
を算出して付加する。
Next, in the process of step S5, bright spot search direction data is added. When the lens of the CCD camera 4 has no distortion aberration, the square lattice shown in FIG. 12A is imaged, and a square lattice without distortion is obtained as a captured image. However, if the lens has distortion, distortion occurs in the image pickup screen as shown in FIGS. 12 (B) and 12 (C). Therefore, the data of the search direction when searching for the bright spot obtained from the inspection road surface, which will be described later, is calculated and added from the bright spot position of the reference data.

【0024】輝点探索方向データは、図13に示すよう
に、輝点P(u1 ,v1 )に対しては、点Pを通る収差
曲線は2次曲線の u=av2 +u0 ………(1) ただし、a=ku0 ………(2) で表わされる。
As shown in FIG. 13, the bright spot search direction data shows that for a bright spot P (u 1 , v 1 ), the aberration curve passing through the point P is a quadratic curve u = av 2 + u 0 . (1) However, a = ku 0 is expressed by (2).

【0025】したがって式(1)を微分して、 u′=2av=2ku0 v ………(3) が得られ、点P(u1 ,v1 )における接線の正接TP
は TP =2ku0 1 ………(4) ≒2ku1 1 ………(5) で表わされる。
Therefore, by differentiating the equation (1), u '= 2av = 2ku 0 v (3) is obtained, and the tangent tangent T P of the tangent line at the point P (u 1 , v 1 ) is obtained.
Is expressed by T P = 2ku 0 v 1 (4) ≈ 2ku 1 v 1 (5)

【0026】そこで、ステップS5では、各輝点に対し
て式(5)の演算処理を行って接線の方向を算出し、水
平方向に順次画素移動した場合垂直方向に1画素ずれる
までの画素数を輝点探索方向データとして付加する。
Therefore, in step S5, the tangential direction is calculated by performing the calculation process of equation (5) for each bright point, and the number of pixels until one pixel is shifted in the vertical direction when the pixels are sequentially moved in the horizontal direction. Is added as bright spot search direction data.

【0027】上述のような処理を行うことにより、図1
4に示すように、各輝点のNo. に対する輝点重心とその
輝度並びに背景データ(位置、輝度)とからなる最終基
準輝点データ(参照データ)が得られ、これが参照デー
タ記憶部7に記憶される。上述した図5のフローチャー
トの実行により、データ処理部6は、平坦路面に投影さ
れた輝点パターンを撮像した前記撮像機からの画像信号
による画素データから各輝点座標、各輝度しきい値、探
索方向データ、背景データを含む参照データを作成す
る。
By carrying out the above-mentioned processing, FIG.
As shown in FIG. 4, the final standard luminescent spot data (reference data) consisting of the luminescent spot centroid of each luminescent spot No., its brightness, and background data (position, brightness) is obtained, and this is stored in the reference data storage unit 7. Remembered. By executing the flow chart of FIG. 5 described above, the data processing unit 6 determines each bright spot coordinate, each brightness threshold value from the pixel data based on the image signal from the image pickup device that picks up the bright spot pattern projected on the flat road surface. Create reference data including search direction data and background data.

【0028】上記障害物検出処理においては、図6のフ
ローチャートに示すように、先ずステップS11におい
て参照データ記憶部7から参照データを取り込む処理を
行う。そして、続くステップS12においてセンサの高
さ変化に対する補正処理を行う。その後、ステップS1
3において画像を取り込む処理を行ってからステップS
14に進み、ここで取り込んだ画像に付いて背景の明る
さに対する変化の検出・補正処理を行う。更にステップ
S15に進んで前記輝点探索方向データに基づいて、移
動スポットの抽出処理を行う。続いてステップS16で
各スポットの三次元座標位置の計算処理、ステップS1
7で監視領域を表示する処理、ステップS18で舵角値
取り込み処理、ステップS19で車両進路予測処理、ス
テップS20で障害物との衝突予測処理、ステップS2
1で表示処理を行ってステップS13に戻る。
In the obstacle detection process, as shown in the flow chart of FIG. 6, first, in step S11, a process of fetching reference data from the reference data storage unit 7 is performed. Then, in a succeeding step S12, a correction process for the height change of the sensor is performed. Then, step S1
After performing the process of capturing the image in step 3, step S
Proceeding to 14, the detection / correction processing of the change with respect to the brightness of the background is performed on the captured image. Further, the process proceeds to step S15, and the moving spot is extracted based on the bright spot search direction data. Subsequently, in step S16, calculation processing of the three-dimensional coordinate position of each spot, step S1
Processing for displaying the monitoring area in step 7, processing for fetching the steering angle value in step S18, processing for predicting the vehicle path in step S19, processing for predicting collision with an obstacle in step S20, step S2
The display process is performed in 1 and the process returns to step S13.

【0029】上記ステップS12のセンサの高さ変化に
対する補正処理は次の理由で行う。すなわち、上述した
三次元位置点PB (XB ,YB ,ZB )を計測するため
に距離hと共に使用するイメージプレーン4b上の三次
元座標からなる参照データを取り込むが、この参照デー
タとしては、車両の高さhの再現性などを考慮し、車両
に重量物が乗っていない場合の座標を用いる。このため
に平坦路面上の各輝点のイメージプレーン4b上の三次
元座標からなる参照データを記憶しておき、各計測時の
基準値とする。そして、実際の走行状態における凹凸路
面の三次元計測では、重量物を一切乗せないで求めた各
輝点の基準値に対する計測時の輝点座標のずれより各輝
点の三次元座標を求めることになる。
The correction process for the height change of the sensor in step S12 is performed for the following reason. That is, the reference data consisting of the three-dimensional coordinates on the image plane 4b used together with the distance h to measure the above-mentioned three-dimensional position point P B (X B , Y B , Z B ) is fetched. In consideration of the reproducibility of the height h of the vehicle and the like, the coordinate is used when there is no heavy object on the vehicle. For this reason, reference data composed of three-dimensional coordinates on the image plane 4b of each bright spot on the flat road surface is stored and used as a reference value at each measurement. Then, in the three-dimensional measurement of the uneven road surface in the actual running state, the three-dimensional coordinates of each bright spot are obtained from the deviation of the bright spot coordinates at the time of measurement with respect to the reference value of each bright spot obtained without placing a heavy object at all. become.

【0030】しかし、実走行においては車両に乗員、荷
物などが乗り、これらの総重量は数十kg〜数百kgと
なり、その結果車両は数cm沈み込むことになる。ま
た、車両は一様に沈み込むわけでなく重量物の配置によ
りかなり傾斜して沈み込むことになる。
However, in actual driving, an occupant, luggage, and the like ride on the vehicle, and the total weight of these is several tens kg to several hundreds kg, and as a result, the vehicle sinks several cm. In addition, the vehicle does not sink uniformly, but the vehicle sinks at a considerable angle due to the arrangement of heavy objects.

【0031】周辺監視装置は図4について上述したよう
に車両に固定されているので、荷重による車両の沈み込
みに伴って路面の監視領域4cに近づくことになる。こ
の場合、周辺監視装置から見れば、CCDレンズ4aか
らhの距離にあった領域4cが車両の沈み込んだ分だけ
上方にせり出した状態になるので、路面全体が数cmせ
り出したと周辺監視装置は判断する。ここで、車載重量
が大きければ車両の沈み込みも大きく、その結果監視装
置は車両走行に問題ある高さの凸面があるとして誤警報
を発することになる。
Since the perimeter monitoring device is fixed to the vehicle as described above with reference to FIG. 4, the monitoring area 4c on the road surface is approached as the vehicle sinks due to the load. In this case, when viewed from the surroundings monitoring device, the area 4c located at the distance h from the CCD lens 4a is in a state of protruding upward by the amount of the sinking of the vehicle, so that the surroundings monitoring device indicates that the entire road surface is protruding by several cm. to decide. Here, if the vehicle-mounted weight is large, the vehicle sinks too much, and as a result, the monitoring device gives an erroneous alarm because there is a convex surface of a height that is problematic for vehicle traveling.

【0032】このようなことを解消するには、乗員、荷
物などが乗った状態でまず略平坦と考えられる路面で車
両沈み込みによる路面せり出し量を計測すればよい。こ
のためには、図15に示すように、検出エリアの四隅の
輝点1,2,3及び4の移動量より四隅の輝点の路面せ
り出し量を求め、これより直線近似で各輝点のせり出し
量を算出できる。これらの検出されたせり出し量は車両
の沈み込みにより発生したものであり、実際の路面凹凸
の三次元座標を求める際の補正値となる。
In order to solve such a problem, the amount of road protrusion due to the vehicle sinking may be first measured on a road surface which is considered to be substantially flat in a state where an occupant, luggage, etc. are on. To this end, as shown in FIG. 15, the road surface protrusion amounts of the bright spots at the four corners are obtained from the moving amounts of the bright spots 1, 2, 3 and 4 at the four corners of the detection area, and from this, the straight line approximation of each bright spot is performed. The amount of protrusion can be calculated. These detected amounts of protrusion are generated due to the sinking of the vehicle, and serve as correction values when obtaining the three-dimensional coordinates of the actual road surface unevenness.

【0033】実際の計測時には、各輝点から求まる路面
の三次元座標に対して上記補正値を用いて補正(補正値
を引く)することで車両の沈み込みを補正した正確な三
次元座標が求まる。
At the time of actual measurement, the three-dimensional coordinates of the road surface obtained from each bright spot are corrected (subtracted) by using the above-mentioned correction values to obtain accurate three-dimensional coordinates in which the subduction of the vehicle is corrected. I want it.

【0034】上述した例では、監視領域4cの四隅の輝
点1乃至4について補正値を求めたが、車両の沈み込み
に比べて車両の傾斜が小さければ、監視領域4c内の一
点、例えば輝点5の路面高さを求めこの値を全ての輝点
に対して補正値として用いることができる。いずれにし
ても乗員などを乗せた状態で平坦路面において数点の輝
点から求まる三次元座標を計測時の車両沈み込みの補正
値として使用すればよい。
In the above-mentioned example, the correction values are obtained for the bright spots 1 to 4 at the four corners of the monitoring area 4c. However, if the inclination of the vehicle is smaller than the sinking of the vehicle, one point in the monitoring area 4c, for example, The road surface height of the point 5 can be obtained and this value can be used as a correction value for all bright points. In any case, the three-dimensional coordinates obtained from several bright points on a flat road surface with an occupant or the like mounted thereon may be used as a correction value for the vehicle subsidence during measurement.

【0035】上記ステップS12のセンサの高さ変化に
対する補正処理は、具体的には、図16のフローチャー
トによって実行される。図16のフローチャートにおい
て、ステップS12a及び12bにおいてドアが閉じか
つイグニッションスイッチがオンしていることが検出さ
れたとき、ステップS12cにおいて補正データ取り込
みスイッチがオンであるか否を判定し、この判定がNO
の時にはステップS12dにおいて車速が5km/hと
40km/hとの間にあることを確認する。
The correction process for the height change of the sensor in step S12 is specifically executed by the flowchart of FIG. In the flowchart of FIG. 16, when it is detected that the door is closed and the ignition switch is turned on in steps S12a and 12b, it is determined in step S12c whether the correction data acquisition switch is turned on, and the determination is NO.
In case of, it is confirmed in step S12d that the vehicle speed is between 5 km / h and 40 km / h.

【0036】この確認の結果、車速が5km/hと40
km/hとの間にあるときには、ステップS12eにお
いて数カ所の輝点移動量より監視領域が平坦であるかを
算出し、ステップS12fで平坦であると判断すると、
ステップS12gにおいて数カ所の輝点移動量より車両
沈み込み補正データを算出する。補正データ取り込みス
イッチがオンされ、ステップS12cの判定がYESに
なったときにはステップS12gに進んで数カ所の輝点
移動量より車両沈み込み補正データを算出してからその
後のステップに進む。図16のフローチャートの実行に
より、データ処理部6は、撮像機の路面からの高さ変化
により前記参照データを補正する高さ補正手段として働
く。
As a result of this confirmation, the vehicle speed was 5 km / h and 40
If it is between km / h and step S12e, it is calculated whether or not the monitoring area is flat in accordance with the amount of movement of the bright spots at several places, and if it is determined in step S12f that it is flat,
In step S12g, vehicle subduction correction data is calculated from the amount of movement of the bright spots at several locations. When the correction data acquisition switch is turned on and the determination in step S12c is YES, the process proceeds to step S12g, the vehicle subduction correction data is calculated from the bright spot movement amounts of several places, and then the process proceeds to the subsequent step. By executing the flowchart of FIG. 16, the data processing unit 6 functions as a height correction unit that corrects the reference data according to the height change of the image pickup device from the road surface.

【0037】また、補正値の取り込みのタイミングとし
ては運転者が平坦路面であることを確認してスイッチ操
作などのマニアル操作で行ってもよいし、また上述のよ
うに空気抵抗などが車両に影響を与えない程度の低速
(例えば5〜40km/h)で一定速度走行時に監視装
置で検出された路面が略平坦であると処理装置が判断で
きれば、その場合処理装置が自動で補正値を取り込んで
もよい。これ以外にも処理装置が平坦路面と判断できる
場合はその時点で補正値を取り込めばよい。
As a timing of fetching the correction value, the driver may confirm the flat road surface and perform a manual operation such as a switch operation. Further, as described above, the air resistance may affect the vehicle. If the processing device can determine that the road surface detected by the monitoring device is substantially flat when traveling at a constant speed at a low speed (for example, 5 to 40 km / h) that does not give a value, in that case, even if the processing device automatically captures the correction value. Good. In addition to this, when the processing device can determine that the road surface is flat, the correction value may be loaded at that time.

【0038】上記ステップS13における画像取り込み
処理では、図7に示すような監視領域4c内の輝点投影
画像の取り込みを行う。CCDカメラ4が撮像して出力
する画像信号の一走査線分を図8に示したが、輝点及び
背景の明るさが一様でないため、輝点を検出するための
輝度しきい値は同図に破線で示すようなしきい値(各輝
点毎に異なった値)となっている。この輝度しきい値
は、上述したように参照データの一部として予め記憶さ
れている。
In the image capturing process in step S13, the bright spot projection image in the monitoring area 4c as shown in FIG. 7 is captured. One scanning line segment of the image signal captured and output by the CCD camera 4 is shown in FIG. 8. However, since the brightness of the bright spot and the background are not uniform, the brightness threshold value for detecting the bright spot is the same. The threshold value (value different for each bright point) is shown by the broken line in the figure. This brightness threshold value is stored in advance as a part of the reference data as described above.

【0039】上記ステップS14における画像について
背景の明るさに対する変化の検出及び輝度しきい値の補
正処理は次の理由で行う。今、輝度投影画像を取り込ん
で輝点の移動量を求め、障害物などの検出を行おうとす
る際、まず取り込んだ画像から輝点を抽出しなければな
らない。このとき、自車のブレーキランプや他車のヘッ
ドライトの光によって監視領域4c内が照らされると、
図17に示すように輝度分布が変化し、予め記憶した輝
度しきい値では輝点を抽出できなくなる。この場合、障
害物検出不能若しくは大きな検出誤差が生じる。
The detection of the change in the background brightness of the image and the correction process of the luminance threshold value in the step S14 are performed for the following reason. Now, when trying to detect an obstacle or the like by capturing a luminance projection image to obtain the amount of movement of the bright spot, the bright spot must first be extracted from the captured image. At this time, if the inside of the monitoring area 4c is illuminated by the light of the brake lamp of the own vehicle or the headlights of another vehicle,
As shown in FIG. 17, the brightness distribution changes, and it becomes impossible to extract bright points with the brightness threshold value stored in advance. In this case, the obstacle cannot be detected or a large detection error occurs.

【0040】このようなことを解消するためには、輝点
投影画像を取り込んで輝点の移動量を求める際に、予め
参照データに記録した背景位置に相当する画素の輝度を
求める。次に、求めた数点の背景輝度値より輝度しきい
値に対する補正係数を算出する。この補正係数に基づい
て参照データの輝度しきい値を補正し、輝点の抽出を行
う。
In order to solve such a problem, the brightness of the pixel corresponding to the background position previously recorded in the reference data is obtained when the bright spot projection image is captured and the movement amount of the bright spot is obtained. Next, a correction coefficient for the brightness threshold value is calculated from the obtained background brightness values of several points. The brightness threshold value of the reference data is corrected based on this correction coefficient, and the bright spot is extracted.

【0041】具体的には、例えば図18に示すように、
監視領域4c内の輝点のうち最も左上の輝点と最も右下
の輝点について着目し、この2つの輝点周辺の背景と思
われる画素(×印)の輝度データを基に、下式(6)に
示すように補正係数A(u座標方向の輝度傾斜)を求め
る。参照データの各輝点の輝度しきい値は下式(7)に
よって補正される。 A=(IRL−ILU)/(URL−ULU) ………(6) Th′(i) =Th(i) +A(U(i) −ULU) +(ILU−IBK) ………(7)
Specifically, for example, as shown in FIG.
Of the bright spots in the monitoring area 4c, the brightest spot on the upper left and the bright spot on the lower right are focused, and the following formula is used based on the luminance data of the pixels (marked by x) that are considered to be the background around these two bright spots. As shown in (6), the correction coefficient A (luminance gradient in the u coordinate direction) is obtained. The brightness threshold value of each bright spot of the reference data is corrected by the following expression (7). A = (I RL -I LU) / (U RL -U LU) ......... (6) Th '(i) = Th (i) + A (U (i) -U LU) + (I LU -I BK ) ………… (7)

【0042】上記式中、 A :補正係数 uLU :最も左上の輝点周辺の所定画素のu座標 ILU :最も左上の輝点周辺の所定画素の輝度 uRL :最も右下の輝点周辺の所定画素のu座標 IRL :最も右下の輝点周辺の所定画素の輝度 Th′(i) :i番目の輝点の補正後の輝度しきい値 Th(i) :i番目の輝点の補正前の輝度しきい値 u(i) :i番目の輝点のu座標 IBK :参照データ取得時の背景輝度In the above formula, A: correction coefficient u LU : u coordinate of a predetermined pixel around the leftmost bright point I LU : luminance of a predetermined pixel around the left uppermost bright point u RL : around the right lowermost bright point U RL of a predetermined pixel of ‘I RL’ : the brightness of a predetermined pixel around the bottom rightmost bright point Th ′ (i) : a brightness threshold after correction of the i th bright point Th (i) : the i th bright point Before correction of u (i) : u coordinate of i-th bright spot I BK : Background brightness at the time of reference data acquisition

【0043】以上説明したステップS14の実行によ
り、データ処理部6は、検査路面に投影された輝点パタ
ーンを撮像した前記撮像機からの画像信号による画素デ
ータから輝点以外の背景の明るさの参照データの背景の
明るさに対する変化量によって当該画素データの輝点抽
出のための輝度しきい値を補正する。
By executing step S14 described above, the data processing unit 6 determines the brightness of the background other than the bright spot from the pixel data based on the image signal from the image pickup device that picks up the bright spot pattern projected on the inspection road surface. The brightness threshold value for extracting the bright spot of the pixel data is corrected according to the amount of change of the background brightness of the reference data.

【0044】その後の上記ステップS15における輝点
探索による移動スポットの抽出は、各輝点毎に求めた補
正後の輝度しきい値Th′によって各輝点ついて行われ
る。そして、ステップS16において、抽出された輝点
座標と参照データの輝点座標により各輝点の移動量を求
め障害物の三次元位置を算出する。なお、上述したステ
ップS14における補正係数の算出方法としては、一般
的な補間法などが利用できる。また、全輝点について各
輝点周辺の背景の輝度データを用いて補正すれば処理時
間は遅くなるものの、精度のよい補正が行える。
The subsequent extraction of the moving spot by the bright spot search in step S15 is performed for each bright spot by the corrected luminance threshold Th ′ obtained for each bright spot. Then, in step S16, the movement amount of each bright spot is obtained from the extracted bright spot coordinates and the bright spot coordinates of the reference data, and the three-dimensional position of the obstacle is calculated. A general interpolation method or the like can be used as the method of calculating the correction coefficient in step S14 described above. Further, if all the bright spots are corrected using the brightness data of the background around each bright spot, the processing time becomes slow, but the correction can be performed with high accuracy.

【0045】上述のようにして抽出した輝点を構成する
画素により各輝点の重心座標を求めることでイメージプ
レーン4c上での各輝点座標が求まる。各輝点座標の算
出は、平坦路面における基準値を求める場合も、凹凸路
面などを対象とした三次元計測時にも適用される。上記
輝点座標の算出はCCDカメラの全画素(例えば512
×512)出力が計算対象となるため計算時間が長くな
る。計測前の平坦路を対象とした基準値取りの場合は問
題ないが、計測時には計測速度が遅いという問題があ
る。
The coordinates of each bright spot on the image plane 4c can be found by finding the barycentric coordinates of each bright spot by the pixels constituting the bright spot extracted as described above. The calculation of the coordinates of each bright spot is applied both when obtaining the reference value on a flat road surface and when performing three-dimensional measurement on an uneven road surface or the like. The calculation of the bright spot coordinates is performed by all pixels (for example, 512
X512) Since the output is the calculation target, the calculation time becomes long. There is no problem in taking a reference value for a flat road before measurement, but there is a problem that the measurement speed is slow during measurement.

【0046】図3及び図4に示した幾何学的レイアウト
において、イメージプレーン4b上における各輝点座標
は、レンズの歪曲収差が無い場合は、平坦路面の場合の
点A(u,v)に対し路面に凹凸があると輝点座標B
(u,v+δ)は一定方向にのみ移動する。図の場合、
輝点の移動方向はv方向のみであり、路面が凸の場合v
の正の向きに、凹の場合vの負の方向にそれぞれ移動す
る。また、レンズに収差が有る場合は、前述した式
(4)又は(5)に示す方向に移動する。この性質を利
用して以下のようにして三次元座標の算出を高速化する
ことができる。
In the geometric layouts shown in FIGS. 3 and 4, the coordinates of each bright spot on the image plane 4b are the points A (u, v) in the case of a flat road surface when there is no lens distortion. On the other hand, if there is unevenness on the road surface, the bright spot coordinates B
(U, v + δ) moves only in a fixed direction. In the case of the figure,
The moving direction of the bright spot is only the v direction, and v when the road surface is convex
In the positive direction, and in the negative direction of v in the case of the concave. When the lens has an aberration, the lens moves in the direction indicated by the equation (4) or (5). By utilizing this property, the calculation of the three-dimensional coordinates can be speeded up as follows.

【0047】図19において、A(u,v)は平坦路面
上のある輝点に対応する点を示す。枠Fは三次元座標計
測時の走査領域を示し、サブ領域+S1 ,−S2 は実走
行状態で問題となる路面凹凸の大きさより設定できる。
例えば一般乗用車の場合、平坦路面上1.5 m、路面下0.
5 mなどと設定し、これに対応して+S1 ,−S2 をそ
れぞれ設定できる。なお、同図に示されている点は全て
各輝点の重心位置を表しており、v方向において隣接す
る輝点間の距離は、上記のような条件下で輝点が移動し
ても重なり合うことがないように設定されている。ま
た、同図においては、スペースの有効利用のため各輝点
がu方向において1つおきになるように配置されたパタ
ーンとなっている。
In FIG. 19, A (u, v) indicates a point corresponding to a bright point on the flat road surface. The frame F shows the scanning area at the time of measuring the three-dimensional coordinates, and the sub-areas + S 1 and −S 2 can be set based on the size of the road surface unevenness which becomes a problem in the actual traveling state.
For example, in the case of an ordinary passenger car, 1.5 m above the flat road and 0 below the road.
It can be set to 5 m, etc., and + S 1 and -S 2 can be set accordingly. It should be noted that all the points shown in the figure represent the center of gravity of each bright point, and the distance between adjacent bright points in the v direction overlaps even if the bright points move under the above conditions. Is set to never happen. Further, in the figure, in order to effectively utilize the space, each bright spot is arranged in the u direction in every other pattern.

【0048】次に計測時においては、各輝点について、
上記走査領域についてのみ輝点座標を求めればよい。輝
点座標の求め方は、例えば所定しきい値以上の画素が輝
点を構成しているとして、この輝点の重心又は幾何学的
中心などを算出すればよい。
Next, at the time of measurement, for each bright spot,
The bright spot coordinates may be obtained only for the scanning area. The bright spot coordinates may be obtained by calculating the center of gravity or the geometric center of the bright spots, for example, assuming that pixels having a predetermined threshold value or more form the bright spots.

【0049】具体的には、レンズの歪曲収差が無い場合
は図20に示すように、参照データの輝点重心と同一ラ
イン上において、V1 ,V2 を検出し、この検出したV
1 ,V2 により輝点重心(V1 +V2 )/2を求め、重
心間の距離によって輝点の移動量ΔVを求める。なお、
同一ライン上に輝点が存在しなければ、上下ラインを走
査する。また、V1 ,V2 の検出は基準輝点の輝度しき
い値Iの大小により検出する。走査領域の幅Wは一画素
ライン分でも良いし、検出精度向上を考慮し、数画素ラ
イン、例えば5画素ラインとしてもよい。
Specifically, when there is no lens distortion, as shown in FIG. 20, V 1 and V 2 are detected on the same line as the bright spot barycenter of the reference data, and the detected V is detected.
The bright center of gravity (V 1 + V 2 ) / 2 is obtained from 1 and V 2 , and the amount of movement ΔV of the bright spot is obtained from the distance between the centers of gravity. In addition,
If there is no bright spot on the same line, the upper and lower lines are scanned. Further, the detection of V 1 and V 2 is performed by detecting the brightness threshold I of the reference bright spot. The width W of the scanning region may be one pixel line, or may be several pixel lines, for example, 5 pixel lines in consideration of improvement in detection accuracy.

【0050】また、歪曲収差がある場合の輝点探索は、
輝点重心と同一ライン上を参照データ中の探索方向デー
タ分探索したら、一画素分u方向にシフトして再度v方
向に探索方向データ分探索を行い、これを繰返すことに
よって輝点の探索を行なう。なお、上記例では検出速度
を速めるために重心表を幾何学的中心座標におきかえて
求めているが、精度を上げるためには、上述の参照デー
タ作成時の重心座標検出方法の方がよい。
The bright spot search when there is distortion is
After searching for the search direction data in the reference data on the same line as the center of gravity of the bright spot, the search is performed for the search direction data in the v direction again by shifting by one pixel in the u direction, and the bright spot is searched by repeating this search. To do. In the above example, the barycentric table is replaced with the geometrical center coordinates in order to increase the detection speed, but in order to improve the accuracy, the barycentric coordinate detection method at the time of creating the reference data is preferable.

【0051】以上説明したように、計測時、設定した走
査領域についてのみ輝度座標を求めればよいので、計測
の高速化が実現できる。また、図21は、監視領域4c
内に壁及び溝がある場合の輝点の三次元位置検出結果を
ディスプレイ装置10に表示した例を示し、図中、O1
は壁、O2 は溝である。
As described above, at the time of measurement, it is only necessary to obtain the luminance coordinate for the set scanning area, so that the measurement can be speeded up. Further, FIG. 21 shows the monitoring area 4c.
The three-dimensional position detection result of the bright spot in the case where there is a wall and a groove within shows an example of displaying on the display device 10, in FIG., O 1
Is a wall and O 2 is a groove.

【0052】次に、舵角検出器8を用いた場合の監視方
法について説明する。実施例においては、舵角検出器8
によって検出した舵角を用いて自動車の進路を予測する
ことによって自動車の移動軌跡を求め、その軌跡を障害
物等が示される監視領域4cの二次元マップに重ねるこ
とにより、車体が障害物等に接触または衝突することを
事前に検知し、発音手段としてのスピーカ9に、ブザー
音などの警告音やデータ処理部6内に構成した音声合成
手段によって形成した警告メッセージを発生させたり、
ディスプレイ装置10に表示を行わせることによって運
転者に警告する。
Next, a monitoring method when the steering angle detector 8 is used will be described. In the embodiment, the steering angle detector 8
The moving path of the vehicle is obtained by predicting the course of the vehicle using the steering angle detected by, and the vehicle is considered as an obstacle by superimposing the trajectory on the two-dimensional map of the monitoring area 4c where obstacles are shown. The contact or collision is detected in advance, and a warning sound such as a buzzer sound or a warning message formed by a voice synthesizing unit configured in the data processing unit 6 is generated in the speaker 9 as a sounding unit,
The driver is warned by causing the display device 10 to display.

【0053】図21は、自動車の車体Boのエッヂが壁
1 のような障害物に接触する地点及びタイヤTが溝O
2 に落ちる地点をディスプレイ装置10に表示した一例
を示す。図20に示す自動車の後退では、データ処理部
6がCCDカメラ4から次々に得られる画像を処理する
ことによって、監視領域4c内における障害物O1 及び
溝O2 がほぼ実時間で検知され、また、舵角検出器8か
ら得られる舵角を用いた自動車の進路予測により障害物
等との接触を事前に警告することによって、ドライバー
の安全確認を効果的に支援することができる。
FIG. 21 shows a point where the edge of the car body Bo of an automobile comes into contact with an obstacle such as the wall O 1 and the groove T of the tire T.
An example in which the point falling at 2 is displayed on the display device 10 is shown. In the backward movement of the vehicle shown in FIG. 20, the data processing unit 6 processes the images successively obtained from the CCD camera 4, whereby the obstacle O 1 and the groove O 2 in the monitoring area 4c are detected almost in real time, In addition, the driver's safety confirmation can be effectively supported by warning in advance of contact with an obstacle or the like by predicting the route of the vehicle using the steering angle obtained from the steering angle detector 8.

【0054】なお、上述した図示実施例では、自動車の
軌跡を求めるために舵角検出器8によるハンドルの操舵
角の検出信号を用いているが、これに代えて、例えばジ
ャイロからなる回転角速度センサや方位センサなどを設
け、これらのセンサからの信号を処理して自動車の進行
方向を検出すると共に、その後の進路を予測するように
してもよい。
In the illustrated embodiment described above, the detection signal of the steering angle of the steering wheel by the steering angle detector 8 is used to obtain the locus of the automobile, but instead of this, a rotational angular velocity sensor such as a gyro is used. A direction sensor or the like may be provided, signals from these sensors may be processed to detect the traveling direction of the automobile, and the course thereafter may be predicted.

【0055】また、上述した実施例では、監視領域にお
ける障害物や溝等の存在を自動車の運転者に知らせる場
合について説明したが、工場などにおける無人搬送車や
組み立て工程等における産業用ロボットなどに本発明を
応用できる。
Further, in the above-mentioned embodiment, the case where the driver of the automobile is informed of the existence of the obstacle, the groove and the like in the monitoring area has been described. However, it can be applied to the automatic guided vehicle in the factory or the industrial robot in the assembly process. The present invention can be applied.

【0056】[0056]

【発明の効果】以上説明したように、本発明によれば、
撮像機のレンズに歪曲収差が有った場合、平坦路面を撮
像して得られた輝点毎に輝点探索方向データを付加する
ようにしたので、検査路面より得られる輝点を探索する
際に輝点探索方向データに基づいてスキャンすれば容易
探索することができ、短時間で容易に障害物を検出する
ことができる。
As described above, according to the present invention,
When there is distortion in the lens of the imager, the bright spot search direction data is added to each bright spot obtained by imaging the flat road surface, so when searching for a bright spot obtained from the inspection road surface. Further, if the scan is performed based on the bright spot search direction data, the search can be easily performed, and the obstacle can be easily detected in a short time.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明における車両周辺監視装置の一実施例を
示す図である。
FIG. 1 is a diagram showing an embodiment of a vehicle periphery monitoring device according to the present invention.

【図2】パターン光投光素子としてのファイバグレイテ
ィング及びマルチビームプロジェクタを示す図である。
FIG. 2 is a diagram showing a fiber grating and a multi-beam projector as pattern light projecting elements.

【図3】図1の装置の光学配置の詳細を示す図である。FIG. 3 shows details of the optical arrangement of the device of FIG.

【図4】図1の装置のパターン投光素子、レーザ光源、
CCDカメラにより構成されるセンサ部の設置例を示す
図である。
FIG. 4 is a pattern projecting device, a laser light source, of the apparatus of FIG.
It is a figure which shows the example of installation of the sensor part comprised by a CCD camera.

【図5】図1中のデータ処理部が行う一処理を示すフロ
ーチャートである。
5 is a flowchart showing one process performed by a data processing unit in FIG. 1. FIG.

【図6】図1中のデータ処理部が行う他の処理を示すフ
ローチャートである。
FIG. 6 is a flowchart showing another processing performed by the data processing unit in FIG.

【図7】監視領域内の輝点投影画像を示す図である。FIG. 7 is a diagram showing a bright spot projection image in a monitoring area.

【図8】一走査線上の輝度分布を示す図である。FIG. 8 is a diagram showing a luminance distribution on one scanning line.

【図9】輝点抽出処理によって得られる輝点の画素デー
タを示す図である。
FIG. 9 is a diagram showing pixel data of bright spots obtained by the bright spot extraction processing.

【図10】フレームメモリ内の画素データを示す図であ
る。
FIG. 10 is a diagram showing pixel data in a frame memory.

【図11】輝点重心の求め方を説明するための図であ
る。
FIG. 11 is a diagram for explaining how to obtain a bright spot centroid.

【図12】レンズに収差が有る場合の説明図である。FIG. 12 is an explanatory diagram when a lens has aberration.

【図13】輝点探索方向データ算出方法の説明図であ
る。
FIG. 13 is an explanatory diagram of a bright spot search direction data calculation method.

【図14】作成された参照データを示す図である。FIG. 14 is a diagram showing created reference data.

【図15】高さ補正の仕方を説明するための図である。FIG. 15 is a diagram for explaining a method of height correction.

【図16】高さ補正処理の具体的な処理を示すフローチ
ャートである。
FIG. 16 is a flowchart showing a specific process of a height correction process.

【図17】輝度補正の必要性を説明するための図であ
る。
FIG. 17 is a diagram for explaining the necessity of brightness correction.

【図18】輝度補正の仕方を説明するための図である。FIG. 18 is a diagram for explaining a method of brightness correction.

【図19】走査領域の設定の仕方を説明する図である。FIG. 19 is a diagram illustrating a method of setting a scanning area.

【図20】三次元座標計測時の走査領域における輝点重
心及び移動距離の求め方を説明する図ある。
FIG. 20 is a diagram illustrating a method of obtaining a bright spot centroid and a moving distance in a scanning region during three-dimensional coordinate measurement.

【図21】輝点の三次元位置検出結果の表示例を示す図
である。
FIG. 21 is a diagram showing a display example of a three-dimensional position detection result of a bright spot.

【図22】車両の周辺監視を行った結果の表示の一例を
示す図である。
FIG. 22 is a diagram showing an example of a display of a result of carrying out peripheral monitoring of a vehicle.

【符号の説明】[Explanation of symbols]

1 レーザ光源 3 パターン光投光器 4 撮像機 6 データ処理部(参照データ作成手段、検知手段、
高さ補正手段、輝度補正手段) 8 舵角検出器(進路検出手段) 9 ブザー、音声合成装置(スピーカ) 10 ディスプレイ装置
1 laser light source 3 pattern light projector 4 imager 6 data processing unit (reference data creation means, detection means,
Height correction means, brightness correction means) 8 Steering angle detector (track detection means) 9 Buzzer, voice synthesizer (speaker) 10 Display device

─────────────────────────────────────────────────────
─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年8月10日[Submission date] August 10, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0027[Name of item to be corrected] 0027

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0027】上述した図5のフローチャートの実行によ
り、データ処理部6は、平坦路面に投影された輝点パタ
ーンを撮像した前記撮像機からの画像信号による画素デ
ータから各輝点座標、各輝度しきい値、探索方向デー
タ、背景データを含む参照データを作成する。この参照
データは参照データ記憶部7に記憶される。
By executing the above-described flowchart of FIG. 5, the data processing unit 6 obtains each bright spot coordinate and each luminance from pixel data by the image signal from the image pickup device which picks up the bright spot pattern projected on the flat road surface. Create reference data including threshold, search direction data, and background data. This reference
The data is stored in the reference data storage unit 7.

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0028[Correction target item name] 0028

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0028】上記障害物検出処理においては、図6のフ
ローチャートに示すように、先ずステップS11におい
て参照データ記憶部7から参照データを取り込む処理を
行う。そして、続くステップS12においてセンサの高
さ変化に対する補正処理を行う。その後、ステップS1
3において画像を取り込む処理を行ってからステップS
14に進み、ここで取り込んだ画像に付いて背景の明る
さに対する変化の検出・補正処理を行う。更にステップ
S15に進んで前記輝点探索方向データに基づいて、移
動スポットの抽出処理を行う。続いてステップS16で
各スポットの三次元座標位置の計算処理、ステップS1
7で監視領域内についてS16で計算処理した検出結果
を表示、ステップS18で舵角値取り込み処理、ステッ
プS19で車両進路予測装置、ステップS20で障害物
との衝突予測処理、ステップS21で表示処理を行って
ステップS13に戻る。
In the obstacle detection process, as shown in the flow chart of FIG. 6, first, in step S11, a process of fetching reference data from the reference data storage unit 7 is performed. Then, in a succeeding step S12, a correction process for the height change of the sensor is performed. Then, step S1
After performing the process of capturing the image in step 3, step S
Proceeding to 14, the detection / correction processing of the change with respect to the brightness of the background is performed on the captured image. Further, the process proceeds to step S15, and the moving spot is extracted based on the bright spot search direction data. Subsequently, in step S16, calculation processing of the three-dimensional coordinate position of each spot, step S1
Detection result calculated in S16 in the monitoring area in 7
Is displayed , the steering angle value acquisition process is performed in step S18, the vehicle course prediction device is performed in step S19, the collision prediction process with an obstacle is performed in step S20, the display process is performed in step S21, and the process returns to step S13.

【手続補正3】[Procedure 3]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】0050[Correction target item name] 0050

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【0050】また、歪曲収差がある場合の輝点探索は、
輝点重心と同一ライン上を参照データ中の探索方向デー
タ分探索したら、一画素分u方向にシフトして再度v方
向に探索方向データ分探索を行い、これを繰返すことに
よって輝点の探索を行なう。なお、上記例では検出速度
を速めるために重心座標を幾何学的中心座標におきかえ
て求めているが、精度を上げるためには、上述の参照デ
ータ作成時の重心座標検出方法の方がよい。 ─────────────────────────────────────────────────────
The bright spot search when there is distortion is
After searching for the search direction data in the reference data on the same line as the center of gravity of the bright spot, the search is performed for the search direction data in the v direction again by shifting by one pixel in the u direction, and the bright spot is searched by repeating this search. To do. In the above example, the barycentric coordinate is replaced by the geometrical center coordinate in order to increase the detection speed, but in order to improve the accuracy, the barycentric coordinate detecting method at the time of creating the reference data is preferable. ─────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成5年8月10日[Submission date] August 10, 1993

【手続補正1】[Procedure Amendment 1]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図5[Name of item to be corrected] Figure 5

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図5】 [Figure 5]

【手続補正2】[Procedure Amendment 2]

【補正対象書類名】図面[Document name to be corrected] Drawing

【補正対象項目名】図6[Name of item to be corrected] Figure 6

【補正方法】変更[Correction method] Change

【補正内容】[Correction content]

【図6】 [Figure 6]

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 レーザ光入射により監視領域に輝点パタ
ーンを投影するパターン光投光器と、 該輝点パターンを撮像する撮像機と、 平坦路面に投影された輝点パターンを撮像した前記撮像
機からの画像信号による画素データから輝点パターンを
抽出して各輝点座標を含む参照データを作成する参照デ
ータ作成手段と、前記参照データの輝点毎に輝点探索方
向データを付加する輝点探索方向付加手段と、検査路面
に投影された輝点パターンを撮像した前記撮像機からの
画像信号による画素データを前記輝点探索方向データに
基づいてスキャンして抽出した輝点と前記参照データの
各輝点を対比して障害物や溝あるいは人等の存在を検知
する検知手段とを有するデータ処理部とを備えることを
特徴とする車両周辺監視装置。
1. A pattern light projector for projecting a bright spot pattern on a monitoring area by laser light incidence, an image pickup device for picking up the bright spot pattern, and an image pickup device for picking up the bright spot pattern projected on a flat road surface. Reference data creating means for creating a reference data including each bright spot coordinate by extracting a bright spot pattern from pixel data based on the image signal of the above, and a bright spot search for adding bright spot search direction data for each bright spot of the reference data. Direction adding means and each of the bright spots and the reference data extracted by scanning the pixel data based on the image signal from the image pickup device that picks up the bright spot pattern projected on the inspection road surface based on the bright spot search direction data. A vehicle periphery monitoring device comprising: a data processing unit having a detection unit that detects the presence of an obstacle, a groove, or a person by comparing bright spots.
JP5111683A 1993-05-13 1993-05-13 Device for monitoring vehicle periphery Withdrawn JPH06325298A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5111683A JPH06325298A (en) 1993-05-13 1993-05-13 Device for monitoring vehicle periphery

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5111683A JPH06325298A (en) 1993-05-13 1993-05-13 Device for monitoring vehicle periphery

Publications (1)

Publication Number Publication Date
JPH06325298A true JPH06325298A (en) 1994-11-25

Family

ID=14567538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5111683A Withdrawn JPH06325298A (en) 1993-05-13 1993-05-13 Device for monitoring vehicle periphery

Country Status (1)

Country Link
JP (1) JPH06325298A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US8744693B2 (en) 2010-11-22 2014-06-03 Caterpillar Inc. Object detection system having adjustable focus
US8751103B2 (en) 2010-11-22 2014-06-10 Caterpillar Inc. Object detection system having interference avoidance strategy
CN104742830A (en) * 2015-04-20 2015-07-01 吉林大学 Laser grid based road surface monitoring system
WO2015125299A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125300A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125296A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125301A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125298A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method
WO2018101455A1 (en) * 2016-12-02 2018-06-07 東日本旅客鉄道株式会社 Facility patrol system and facility patrol method
CN108663687A (en) * 2017-03-27 2018-10-16 苏州优函信息科技有限公司 Smooth surface imaging laser radar and detection method based on linear light source and area array cameras

Cited By (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7526104B2 (en) 2004-11-30 2009-04-28 Honda Motor Co., Ltd. Vehicle surroundings monitoring apparatus
US8744693B2 (en) 2010-11-22 2014-06-03 Caterpillar Inc. Object detection system having adjustable focus
US8751103B2 (en) 2010-11-22 2014-06-10 Caterpillar Inc. Object detection system having interference avoidance strategy
JPWO2015125298A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2015125296A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
JPWO2015125296A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
JPWO2015125297A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2015125301A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125297A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
WO2015125298A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
US10043080B2 (en) 2014-02-24 2018-08-07 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
US10026196B2 (en) 2014-02-24 2018-07-17 Nissan Motor Co., Ltd. Apparatuses and methods for self-position calculation of a vehicle using a light projector and a camera
CN105981086A (en) * 2014-02-24 2016-09-28 日产自动车株式会社 Local location computation device and local location computation method
CN105993042A (en) * 2014-02-24 2016-10-05 日产自动车株式会社 Local location computation device and local location computation method
CN105993041A (en) * 2014-02-24 2016-10-05 日产自动车株式会社 Local location computation device and local location computation method
CN106030680A (en) * 2014-02-24 2016-10-12 日产自动车株式会社 Local location computation device and local location computation method
CN106030681A (en) * 2014-02-24 2016-10-12 日产自动车株式会社 Local location computation device and local location computation method
JPWO2015125301A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
CN105993041B (en) * 2014-02-24 2017-10-31 日产自动车株式会社 Self-position computing device and self-position computational methods
WO2015125300A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
JPWO2015125300A1 (en) * 2014-02-24 2017-03-30 日産自動車株式会社 Self-position calculation device and self-position calculation method
WO2015125299A1 (en) * 2014-02-24 2015-08-27 日産自動車株式会社 Local location computation device and local location computation method
CN105993042B (en) * 2014-02-24 2017-10-20 日产自动车株式会社 Self-position computing device and self-position computational methods
US9684837B2 (en) 2014-02-24 2017-06-20 Nissan Motor Co., Ltd. Self-location calculating device and self-location calculating method
US9721170B2 (en) 2014-02-24 2017-08-01 Nissan Motor Co., Ltd. Self-location calculating device and self-location calculating method
CN106030681B (en) * 2014-02-24 2017-09-05 日产自动车株式会社 Self-position computing device and self-position computational methods
CN106030680B (en) * 2014-02-24 2017-09-19 日产自动车株式会社 Self-position computing device and self-position computational methods
US9772627B2 (en) 2014-02-24 2017-09-26 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
US9778029B2 (en) 2014-02-24 2017-10-03 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
JPWO2016020970A1 (en) * 2014-08-04 2017-05-25 日産自動車株式会社 Self-position calculation device and self-position calculation method
US9933252B2 (en) 2014-08-04 2018-04-03 Nissan Motor Co., Ltd. Self-position calculating apparatus and self-position calculating method
WO2016020970A1 (en) * 2014-08-04 2016-02-11 日産自動車株式会社 Position self-calculation device and position self-calculation method
CN104742830A (en) * 2015-04-20 2015-07-01 吉林大学 Laser grid based road surface monitoring system
CN104742830B (en) * 2015-04-20 2016-09-28 吉林大学 Roadway monitoring system based on laser network
WO2018101455A1 (en) * 2016-12-02 2018-06-07 東日本旅客鉄道株式会社 Facility patrol system and facility patrol method
JP2018090099A (en) * 2016-12-02 2018-06-14 東日本旅客鉄道株式会社 System to patrol facility and method to patrol facility
US11113543B2 (en) 2016-12-02 2021-09-07 Hitachi High-Tech Fine Systems Corporation Facility inspection system and facility inspection method
CN108663687A (en) * 2017-03-27 2018-10-16 苏州优函信息科技有限公司 Smooth surface imaging laser radar and detection method based on linear light source and area array cameras
CN108663687B (en) * 2017-03-27 2024-03-29 苏州优函信息科技有限公司 Smooth surface imaging laser radar based on linear light source and area array camera and detection method

Similar Documents

Publication Publication Date Title
JP2901112B2 (en) Vehicle periphery monitoring device
JP5421072B2 (en) Approaching object detection system
US7492964B2 (en) System and method for detecting obstacle
US20030007074A1 (en) Vehicle zone monitoring apparatus
JP2002197469A (en) Device for detecting traffic lane
JPH06325298A (en) Device for monitoring vehicle periphery
JPH05265547A (en) On-vehicle outside monitoring device
JPWO2008139529A1 (en) Vehicle periphery monitoring device, vehicle periphery monitoring program, and vehicle periphery monitoring method
JP2000504418A (en) Distance and / or position measuring device
JP2003329439A (en) Distance detecting device
JP2001169310A (en) Distance detector
JPH0687377A (en) Monitor for vehicle periphery
JP4397573B2 (en) Image processing device
JPH0827188B2 (en) Inter-vehicle distance detector
JP3808287B2 (en) Position detection device
JPH07250268A (en) Vehicle periphery monitoring device
JP2021110630A (en) Posture/position detection system of detector and posture/position detection method of detector
JP2593520Y2 (en) Vehicle periphery monitoring device
JP4567072B2 (en) Vehicle periphery monitoring device
JPH0681182U (en) Vehicle surroundings monitoring device
JPH1038562A (en) Obstacle detector for vehicle
JP2000081322A (en) Slip angle measuring method and apparatus
JPH06335004A (en) Equipment supervising vehicle surrounding
JP3517999B2 (en) Vehicle recognition device
JP2662583B2 (en) On-vehicle distance detection device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20000801