JPH11108632A - Road shape detecting device - Google Patents
Road shape detecting deviceInfo
- Publication number
- JPH11108632A JPH11108632A JP9270152A JP27015297A JPH11108632A JP H11108632 A JPH11108632 A JP H11108632A JP 9270152 A JP9270152 A JP 9270152A JP 27015297 A JP27015297 A JP 27015297A JP H11108632 A JPH11108632 A JP H11108632A
- Authority
- JP
- Japan
- Prior art keywords
- image
- road
- screen
- display
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、赤外線暗視カメ
ラ等の撮像手段を用いて走行車線を含む道路の輪郭、す
なわち道路端を検出する道路形状検出装置に関するもの
である。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a road shape detecting device for detecting the contour of a road including a traveling lane, that is, a road edge by using an image pickup means such as an infrared night-vision camera.
【0002】[0002]
【従来の技術】従来、この種の道路形状検出装置に用い
る技術と同様の技術を用いた特開平6−162398号
に基づいて以下に説明する。すなわち、図8において、
1は車両に搭載され車両の前方を撮影する道路画像入力
手段、2は前記道路画像入力手段1によって入力された
連続する道路画像データの道路部分を使用してフレーム
間で差分をとって移動部分と非移動部分を検出する移動
部検出手段であり、3は前記移動部検出手段2で検出し
た移動部分と非移動部分から現在走行している車線の白
線のみを抽出する白線検出手段である。2. Description of the Related Art Conventionally, the following description will be made based on Japanese Patent Application Laid-Open No. 6-162398 using the same technology as that used in this type of road shape detecting device. That is, in FIG.
Reference numeral 1 denotes a road image input unit mounted on a vehicle for photographing the front of the vehicle, and 2 denotes a moving portion which calculates a difference between frames using road portions of the continuous road image data input by the road image input unit 1. Reference numeral 3 denotes a white line detecting means for extracting only the white line of the currently traveling lane from the moving part and the non-moving part detected by the moving part detecting means 2.
【0003】次に上記構成においてその動作を説明す
る。一定時間△tごとに移動している車両の道路画像入
力手段1から車両前方の輝度画像を取り込む。△tを小
さく取れば移動車両からの道路画像では路面のアスファ
ルトや道路の周囲の構造物、草木は移動して見えるが輝
度値が場所的にほぼ一定の白線は画像上で静止している
ように見える。したがって、前記移動部検出手段2にお
いて図9に示すように連続する2枚の画像の道路部分の
輝度分布I(t0 )、I(t1 )を用いて次のように計
算すれば移動部は一定以上の値を持ち、静止している非
移動部は一定未満の値を持つ。Next, the operation of the above configuration will be described. A luminance image in front of the vehicle is fetched from the road image input means 1 of the vehicle moving every predetermined time Δt. If Δt is set to a small value, asphalt on the road surface, structures around the road, and vegetation appear to move in the road image from the moving vehicle, but a white line whose luminance value is almost constant in place seems to be stationary on the image. Looks like. Therefore, as shown in FIG. 9, the moving part can be fixed if the moving part detecting means 2 calculates as follows using the luminance distributions I (t0) and I (t1) of the road portions of two continuous images. The non-moving part having the above values and being stationary has a value less than a certain value.
【0004】 dI(t1 )=|I(t1 )−I(t0 )| 白線検出手段3において移動検出手段の結果からしきい
値Tで二値化を行い、この二値化されて“0”領域と
“0”ではない領域を抽出する。“0”の領域が移動し
ていない白線の領域であり、“1”の領域がアスファル
トや道路周辺の構造物、草木など移動している領域であ
る。DI (t 1) = | I (t 1) −I (t 0) | In the white line detecting means 3, binarization is performed based on the result of the movement detecting means with a threshold value T, and this binarization is performed to “0”. A region and a region other than “0” are extracted. The area of “0” is a white line area that is not moving, and the area of “1” is a moving area such as asphalt, a structure around a road, a vegetation.
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上記に
示す如き道路形状検出装置にあっては、道路もその周辺
も雪でおおわれてしまった場合に全体が白くなり道路の
形状を検出できないという問題点があった。However, the above-described road shape detecting device has a problem that when the road and its surroundings are covered with snow, the entire road becomes white and the road shape cannot be detected. was there.
【0006】そこで、この発明は、上記問題点に着目し
てなされたもので、赤外線暗視カメラによって雪に覆わ
れた道路の路肩(端)を検出できる装置を提供すること
を目的とする。SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide an apparatus capable of detecting a shoulder (edge) of a road covered with snow by an infrared night vision camera.
【0007】[0007]
【課題を解決するための手段】この発明に係る道路形状
検出装置は、赤外線暗視撮像手段により車両前方の走行
車線の状態を撮像し、前記撮像手段により得られた前記
走行車線の前方の画像を複数の画素に分解して表示する
ための表示信号を作成して表示手段に出力する画像処理
手段を備えた道路形状検出装置において、前記画像処理
手段は、前記赤外線暗視撮像手段からの走行車線の前方
の画像の各画素の輝度を所定の基準値で二値化し、その
二値化した走行車線の中央部の画像を前記表示手段の画
面最下位中央に一致させて表示し、その画面最下位中央
の輝度データを基準にしてその周囲の各輝度データとを
比較し、画面最下位中央の輝度データに連続して一致し
ていると判断した部分を走行車線として認識し、かつそ
の一致した部分の輪郭線を道路端として認識することを
特徴とする。A road shape detecting apparatus according to the present invention captures an image of a traveling lane ahead of a vehicle by an infrared night-vision imaging unit, and obtains an image ahead of the traveling lane obtained by the imaging unit. In a road shape detecting device provided with an image processing means for generating a display signal for decomposing the image into a plurality of pixels and outputting the display signal to a display means, the image processing means comprising: The luminance of each pixel of the image in front of the lane is binarized by a predetermined reference value, and the binarized image of the center of the traveling lane is displayed at the lowermost center of the screen of the display means, and the screen is displayed. The luminance data at the bottom center is compared with the surrounding luminance data, and the portion that is determined to be consistent with the luminance data at the bottom center on the screen is recognized as a traveling lane, and the coincidence is determined. Part of Guo line and recognizes a road edge.
【0008】[0008]
実施の形態1.この発明による実施の形態1を図1から
図7に基づいて以下に説明する。すなわち、10は赤外
線暗視カメラ(赤外線暗視撮像手段)で、車両前方の自
車走行車線及びその近傍を撮像して画像データを、図2
に示されるような状態で、かつ横方向の複数の破線がな
い状態のデータを出力する。11は画像処理手段(信号
処理手段)で、前記赤外線暗視カメラ10より得られた
図2に示される画像データを出力し、次段の表示器12
に画像データを供給し、表示する一方で、前記自車走行
車線の画像データの各画素の輝度を画像ライン(画像底
辺に平行で、かつ縦方向に幅が1画素分の成分を持つ検
索用ラインで、例えば図2においてはA〜Uまでの符号
で示される横方向のデータ列をいう)毎に所定値を基準
にして、「明」、「暗」の二種類に二値化して画像デー
タを作成し、かつその後、各画素の明暗の輝度データ
と、後述の表示器12に表示される画面最下位中央の明
暗の輝度データとを比較する。この比較は、画面最下位
の画素ライン(図2に符号A〜Uで示されている横方向
一画素分のうち符号Aで示されている画素ラインを言
う)のうち画面中央に位置する1画素の「明」を基準に
して、まず、画面左方向に隣接する画素の「明」がどこ
まで連続(途中、突発的に「暗」があってもそれはノイ
ズで「明」と扱う)して行くのかを検出して「明」から
「暗」に替わったと判断した場合には、その替わった位
置を走行車線の端(または道路の端)と判断し、その位
置の画面上の座標として記憶する。Embodiment 1 FIG. Embodiment 1 of the present invention will be described below with reference to FIGS. That is, reference numeral 10 denotes an infrared night-vision camera (infrared night-vision imaging means), which captures an image of the own vehicle traveling lane in front of the vehicle and the vicinity thereof to obtain image data,
And outputs data in a state where there are no plural horizontal broken lines. Numeral 11 denotes an image processing means (signal processing means) which outputs the image data shown in FIG.
While displaying and displaying the image data of the own vehicle traveling lane, the brightness of each pixel of the image data (for a search having a component that is parallel to the bottom of the image and has a width of one pixel in the vertical direction). Each of the lines is, for example, a horizontal data string indicated by reference numerals A to U in FIG. 2), and is binarized into two types of “bright” and “dark” based on a predetermined value. Data is created, and thereafter, the brightness data of the brightness of each pixel is compared with the brightness data of the center of the lowermost part of the screen displayed on the display 12 described later. This comparison is based on the pixel line located at the center of the screen among the pixel lines at the bottom of the screen (refer to the pixel line indicated by the symbol A in one horizontal pixel indicated by the symbols A to U in FIG. 2). First, based on the “brightness” of the pixel, first determine how far the “brightness” of the pixel adjacent to the left side of the screen continues (even if there is a sudden “darkness” in the middle, it is treated as “brightness” due to noise). If it is determined that the vehicle is going and it is determined that "light" has changed to "dark", the changed position is determined to be the end of the driving lane (or the end of the road), and the position is stored as the coordinates on the screen. I do.
【0009】またその後、前記画面中央に位置する1画
素の「明」を基準にして、画面右方向に隣接する画素の
「明」がどこまで連続(前述と同様に途中、突発的に
「暗」があってもそれはノイズで「明」と扱う)して行
くのかを検出して「明」から「暗」に替わったと判断し
た場合には、その替わった位置を走行車線の端(または
道路端)と判断し、その位置の画面上の座標として記憶
する。これを図2に符号A、B、C、・・・、Uで示す
順に他の画素ラインについても行う。その後、画像処理
手段11は、記憶した走行車線の端を示す座標、または
その近傍の座標を通るように最小自乗法等によって近似
曲線を道路の端として表示する。12は表示器(表示手
段)で、前記画像処理手段11からの画像データを自車
走行車線の中央部画像を画面最下位中央に一致させて表
示する一方で、前記画像処理手段11で求めた道路端を
示す近似曲線を表示する。この例では走行車線の中央部
画像を画面最下位中央に一致させているが、これは道路
全体で表示し、形状を把握しやすくする効果がある。他
に撮像したままの位置で表示する方法があり、これは道
路と自車との位置関係を把握しやすいという効果があ
る。[0009] Thereafter, based on the "brightness" of one pixel located at the center of the screen, how far the "brightness" of the pixel adjacent in the right direction of the screen continues (in the same way as described above, the "darkness" Even if there is, it detects whether it is going to be “bright” due to noise, and if it is determined that it has changed from “bright” to “dark”, the changed position is taken to the end of the traveling lane (or the road edge) ), And stores the coordinates of the position on the screen. This is also performed for the other pixel lines in the order indicated by reference numerals A, B, C,..., U in FIG. Thereafter, the image processing means 11 displays an approximate curve as an end of the road by the least square method or the like so as to pass through the coordinates indicating the end of the stored traveling lane or the coordinates near the end. Reference numeral 12 denotes a display (display means) which displays the image data from the image processing means 11 in such a manner that the center image of the vehicle traveling lane coincides with the lowermost center of the screen, and which is obtained by the image processing means 11. Displays an approximate curve indicating the road edge. In this example, the center image of the driving lane is aligned with the center of the lowermost part of the screen, but this is displayed on the entire road and has an effect of making it easy to grasp the shape. There is another method of displaying the image as it is captured, which has the effect that the positional relationship between the road and the vehicle can be easily grasped.
【0010】次に、前記画像処理手段11の作動の概要
を説明する。すなわち、画像処理手段11は、赤外線暗
視カメラ10から出力される画像データを表示器12に
デ−タ加工せずにそのままにせずに直接表示すると共
に、次の信号処理を実行することによって道路端を表示
器12に重ねて表示する。次に、道路端を求める方法に
ついて図3に示すフローチャートに基づいて説明する。
すなわち、ステップ100で画像処理手段11は赤外線
暗視カメラ10から画像データを示す信号を入力し、ス
テップ110に進む。ステップ110では全ての画素ラ
イン(または検索ラインともいい、図2に横方向破線に
よって示された符号A〜Uまでの画素列を示している)
毎の画素の輝度を、所定値を基準にして、「明」、
「暗」の二種類に二値化し、例えば図4に示すように
「明」と判断すれば、ローレベル信号を発生し、又
「暗」と判断すれば、ハイレベル信号を発生する。Next, the outline of the operation of the image processing means 11 will be described. That is, the image processing means 11 directly displays the image data output from the infrared night-vision camera 10 on the display 12 without data processing without processing, and executes the next signal processing to execute the following signal processing. The edge is superimposed on the display 12 and displayed. Next, a method for obtaining a road edge will be described with reference to a flowchart shown in FIG.
That is, in step 100, the image processing means 11 inputs a signal indicating image data from the infrared night vision camera 10, and proceeds to step 110. In step 110, all the pixel lines (also referred to as search lines, and the pixel columns A to U indicated by horizontal broken lines in FIG. 2 are shown).
The brightness of each pixel is defined as “bright”,
For example, as shown in FIG. 4, a low-level signal is generated when it is determined to be "bright", and a high-level signal is generated when it is determined to be "dark".
【0011】例えば図5に示すように道路13が雪によ
って薄く、かつ所々轍13aを発生させながら覆われて
いると、道路13は黒いアスファルトで形成されている
ために、その道路13からはその周囲の、例えば路肩1
4に比べて赤外線の発生量が多い。そのために、赤外線
暗視カメラ10からの出力を所定値のしきい値として二
値化すると、例えば図4に示されるように道路13の部
分にローレベル信号が発生し、又その周囲の路肩14部
分にハイレベル信号が発生する。理想的には図6に示す
ように道路13の部分が全てローレベル状態に、またそ
の周囲の路肩14部分がハイレベル状態になるが、実際
には図4に示されように道路13や路肩14部分にノイ
ズが発生し、図4においては道路13に相当する部分で
発生しているハイレベル信号(斜線が付されたパルスP
1 )がノイズとなり、また路肩14に相当する部分では
ローレベル信号(符号P2 で示されている)がノイズと
なっている。For example, as shown in FIG. 5, when the road 13 is thin with snow and covered while generating some tracks 13a, the road 13 is formed from black asphalt. Around, for example, shoulder 1
The amount of infrared rays generated is larger than that of No. 4. For this purpose, when the output from the infrared night-vision camera 10 is binarized as a predetermined threshold value, a low-level signal is generated at the road 13 as shown in FIG. A high level signal is generated in the part. Ideally, as shown in FIG. 6, all of the road 13 is at a low level and the surrounding road shoulder 14 is at a high level, but actually, as shown in FIG. In FIG. 4, high-level signals (hatched pulses P) are generated in a portion corresponding to the road 13 in FIG.
1) becomes noise, and in a portion corresponding to the shoulder 14 indicated by the low level signal (sign P 2) is a noise.
【0012】ステップ110で画像データが二値化され
ると、次のステップ120で符号Aで示される画面最下
位の画素ラインの中央位置L0 の画素を自動的にローレ
ベル、すなわち道路13の一部分と判定し、そのローレ
ベル状態の中央位置L0 をスタート点としてそのローレ
ベル状態が左X方向にどれだけ連続するか、また右Y方
向にどれだけ連続するかを判断し、連続したローレベル
状態から連続したハイレベル状態に切り換わる画素が位
置する画面上の座標X0 、Y0 を算出し、記憶する。When the image data is binarized in step 110, the pixel at the center position L0 of the pixel line at the bottom of the screen indicated by the symbol A is automatically set to the low level, that is, a part of the road 13 in the next step 120. It is determined from the center position L0 of the low level state as a start point how long the low level state continues in the left X direction and how long the low level state continues in the right Y direction. Calculate and store the coordinates X0 and Y0 on the screen where the pixel that switches to the continuous high level state from is located.
【0013】例えば図7に画素ラインAを例にとって説
明すると、画素ラインAの中央位置L0 の画素を自動的
にローレベルと判定し(ハイレベル状態であっても強制
的にローレベル状態と認識する)、そのローレベル状態
をスタート点として左X方向にどれだけ連続するかを判
断し、例えば3パルス連続すると、その最初のパルスの
発生点を道路13の左端X0 と判断する。その後、画素
ラインAの中央位置L0 から右Y方向にローレベル状態
が連続するかを判断し、同様に3パルス連続すると、そ
の最初のパルスの発生点を道路13の右端Y0 と判断す
る。For example, the pixel line A will be described with reference to FIG. 7. For example, the pixel at the center position L0 of the pixel line A is automatically determined to be at the low level (forcibly recognizing the low level state even in the high level state). The low level state is determined as a start point, and how long the pulse continues in the left X direction is determined. For example, if three pulses continue, the point where the first pulse occurs is determined as the left end X0 of the road 13. Thereafter, it is determined whether or not the low level state continues in the right Y direction from the center position L0 of the pixel line A. If three pulses continue in the same manner, the point of occurrence of the first pulse is determined to be the right end Y0 of the road 13.
【0014】次にステップ130で、ステップ120で
算出した道路13の座標X0 、Y0の中央位置に基づい
て、次段の画素ラインBの新たな中央位置L0 を(X
0 +Y0 )/2によって算出する。ステップ140で
は、上記道路13の検索が画面の上端(または所定位
置)まで行われたか否かが判断され、上端まで行われた
と判断されると次のステップ150に進み、まだ上端ま
で道路端の検索が行われていないと判断するとステップ
120に戻る。Next, at step 130, based on the center position of the coordinates X0 and Y0 of the road 13 calculated at step 120, a new center position L0 of the next pixel line B is set to (X
0 + Y0) / 2. In step 140, it is determined whether or not the search for the road 13 has been performed up to the upper end (or a predetermined position) of the screen. If it is determined that the search has not been performed, the process returns to step 120.
【0015】ステップ150は、ステップ130で求め
られた各画素ラインA〜Uまでの道路端X0 、Y0 の座
標に基づき、かつ最小自乗法を用いることによって、道
路13の端の近似曲線を求め、ステップ160で表示器
12の表示内容を更新して表示し、ステップ100に戻
る。In step 150, an approximate curve at the end of the road 13 is obtained based on the coordinates of the road ends X0 and Y0 to the pixel lines A to U obtained in step 130 and by using the least square method. At step 160, the display content of the display 12 is updated and displayed, and the process returns to step 100.
【0016】[0016]
【発明の効果】以上説明したように、この発明によれ
ば、道路端の形状が分かるので、雪道等の道路の端が分
からない場合には、道路の端が表示されるので、それを
目安にすることによって安心して雪道を走行できるとい
う効果が発揮される。As described above, according to the present invention, the shape of the road end can be known. If the end of the road such as a snowy road is not known, the end of the road is displayed. By using this as a guide, the effect of being able to travel on snowy roads with peace of mind is exhibited.
【図面の簡単な説明】[Brief description of the drawings]
【図1】本発明による道路形状検出装置の回路ブロック
説明図である。FIG. 1 is a circuit block diagram of a road shape detection device according to the present invention.
【図2】図1の赤外線暗視カメラ10から出力される画
像データを説明するための説明図である。FIG. 2 is an explanatory diagram for explaining image data output from the infrared night-vision camera 10 of FIG. 1;
【図3】図1の画像処理手段11の作動を説明するフロ
ーチャートである。FIG. 3 is a flowchart illustrating an operation of the image processing unit 11 of FIG. 1;
【図4】図1の赤外線暗視カメラ10から実際に出力さ
れる画像データを画像処理手段11で二値化したときの
説明図である。4 is an explanatory diagram when image data actually output from the infrared night-vision camera 10 of FIG. 1 is binarized by an image processing unit 11. FIG.
【図5】本発明による道路形状検出装置の作動を説明す
るための説明図である。FIG. 5 is an explanatory diagram for explaining the operation of the road shape detecting device according to the present invention.
【図6】図1の赤外線暗視カメラ10から出力される理
想画像データを画像処理手段11で二値化したときの説
明図である。FIG. 6 is an explanatory diagram when ideal image data output from the infrared night-vision camera 10 of FIG.
【図7】図1の赤外線暗視カメラ10から実際に出力さ
れる画像データからノイズを除去する方法を説明するた
めに、画素ラインAについて拡大表示した説明図であ
る。FIG. 7 is an explanatory diagram in which a pixel line A is enlarged and displayed in order to explain a method of removing noise from image data actually output from the infrared night-vision camera 10 of FIG.
【図8】従来の車線検出装置のブロック図である。FIG. 8 is a block diagram of a conventional lane detecting device.
【図9】車線領域設定の説明図である。FIG. 9 is an explanatory diagram of lane area setting.
10 赤外線暗視カメラ(赤外線暗視撮像手段) 11 画像処理手段 12 表示器(表示手段) Reference Signs List 10 infrared night-vision camera (infrared night-vision imaging means) 11 image processing means 12 display (display means)
Claims (1)
行車線の状態を撮像し、前記撮像手段により得られた前
記走行車線の前方の画像を複数の画素に分解して表示す
るための表示信号を作成して表示手段に出力する画像処
理手段を備えた道路形状検出装置において、前記画像処
理手段は、前記赤外線暗視撮像手段からの走行車線の前
方の画像の各画素の輝度を所定の基準値で二値化し、そ
の二値化した走行車線の中央部の画像を前記表示手段の
画面最下位中央に一致させて表示し、その画面最下位中
央の輝度データを基準にしてその周囲の各輝度データと
を比較し、画面最下位中央の輝度データに連続して一致
していると判断した部分を走行車線として認識し、かつ
その一致した部分の輪郭線を道路端として認識すること
を特徴とする道路形状検出装置。1. A display signal for capturing an image of a traveling lane ahead of a vehicle by infrared night-vision imaging means, and decomposing and displaying an image ahead of the traveling lane obtained by the imaging means into a plurality of pixels. A road shape detecting device provided with an image processing means for generating and outputting the image to a display means, wherein the image processing means determines a luminance of each pixel of an image ahead of a traveling lane from the infrared night vision imaging means by a predetermined reference value. The image at the center of the binned travel lane is displayed at the bottom center of the screen of the display means in accordance with the binarized value, and each of the surroundings is determined based on the luminance data at the bottom center of the screen. By comparing the luminance data with the luminance data at the bottom center of the screen, the part that is determined to be consistent with the luminance data is recognized as the driving lane, and the contour of the coincident part is recognized as the road edge. Road shape Condition detection device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9270152A JPH11108632A (en) | 1997-10-02 | 1997-10-02 | Road shape detecting device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP9270152A JPH11108632A (en) | 1997-10-02 | 1997-10-02 | Road shape detecting device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11108632A true JPH11108632A (en) | 1999-04-23 |
Family
ID=17482275
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP9270152A Pending JPH11108632A (en) | 1997-10-02 | 1997-10-02 | Road shape detecting device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11108632A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100325144B1 (en) * | 1999-12-03 | 2002-02-21 | 이계안 | Ccd camera of exclusive use of car |
EP1617371A3 (en) * | 2004-07-16 | 2006-07-19 | Audi Ag | Method for marking information in a displayed night vision image being captured by a vehicle-mounted image recording device and night vision device therefor |
JP2013011454A (en) * | 2011-06-28 | 2013-01-17 | Nissan Motor Co Ltd | Apparatus and method for detecting road surface unevenness |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0290380A (en) * | 1988-09-28 | 1990-03-29 | Honda Motor Co Ltd | Running path discriminating method |
JPH04193641A (en) * | 1990-11-28 | 1992-07-13 | Nissan Motor Co Ltd | Obstacle detection device for vehicle |
JPH05166096A (en) * | 1991-12-17 | 1993-07-02 | Matsushita Electric Ind Co Ltd | Device for recognizing road shape and device for detecting position for vehicle |
JPH06162398A (en) * | 1992-11-27 | 1994-06-10 | Matsushita Electric Ind Co Ltd | Traffic lane detecting device, traffic lane deviation warning device and collision warning device |
JPH08253059A (en) * | 1995-03-17 | 1996-10-01 | Honda Motor Co Ltd | Vehicular operation supporting system |
-
1997
- 1997-10-02 JP JP9270152A patent/JPH11108632A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0290380A (en) * | 1988-09-28 | 1990-03-29 | Honda Motor Co Ltd | Running path discriminating method |
JPH04193641A (en) * | 1990-11-28 | 1992-07-13 | Nissan Motor Co Ltd | Obstacle detection device for vehicle |
JPH05166096A (en) * | 1991-12-17 | 1993-07-02 | Matsushita Electric Ind Co Ltd | Device for recognizing road shape and device for detecting position for vehicle |
JPH06162398A (en) * | 1992-11-27 | 1994-06-10 | Matsushita Electric Ind Co Ltd | Traffic lane detecting device, traffic lane deviation warning device and collision warning device |
JPH08253059A (en) * | 1995-03-17 | 1996-10-01 | Honda Motor Co Ltd | Vehicular operation supporting system |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100325144B1 (en) * | 1999-12-03 | 2002-02-21 | 이계안 | Ccd camera of exclusive use of car |
EP1617371A3 (en) * | 2004-07-16 | 2006-07-19 | Audi Ag | Method for marking information in a displayed night vision image being captured by a vehicle-mounted image recording device and night vision device therefor |
JP2013011454A (en) * | 2011-06-28 | 2013-01-17 | Nissan Motor Co Ltd | Apparatus and method for detecting road surface unevenness |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8175806B2 (en) | Car navigation system | |
US8050459B2 (en) | System and method for detecting pedestrians | |
Snidaro et al. | Real-time thresholding with Euler numbers | |
US9965690B2 (en) | On-vehicle control device | |
JP2003134508A (en) | Information providing device for vehicle | |
KR20090018154A (en) | Pedestrian detection device and pedestrian detection method | |
JP2007288657A (en) | Display apparatus for vehicle, and display method of the display apparatus for vehicle | |
JP2015148887A (en) | Image processing device, object recognition device, moving body instrument control system and object recognition program | |
JP2005332071A (en) | System for tracking visually handicapped person and method for detecting visually handicapped person | |
JP2005318408A (en) | Vehicle surrounding monitoring apparatus and method | |
JP2004086417A (en) | Method and device for detecting pedestrian on zebra crossing | |
JP3914447B2 (en) | Image-type vehicle detection system and image-type vehicle detection method | |
US9064158B2 (en) | Vehicle surroundings monitoring device | |
JP2007124676A (en) | On-vehicle image processor | |
JPH10320559A (en) | Traveling path detector for vehicle | |
JP2001084497A (en) | Position detector | |
JP2001043383A (en) | Image monitoring system | |
JPH11108632A (en) | Road shape detecting device | |
JP2861638B2 (en) | Travel lane detection device | |
JP2007058282A (en) | Image recognition processor | |
JPH11211845A (en) | Rainfall/snowfall detecting method and its device | |
KR101865958B1 (en) | Method and apparatus for recognizing speed limit signs | |
KR101154110B1 (en) | Apparatus and method for measuring velocity of moving vehicle using image processing method | |
JP5056679B2 (en) | Night view system | |
JP4162868B2 (en) | Object extraction device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050823 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20051220 |