JP4687381B2 - Vehicle recognition method and in-vehicle device - Google Patents
Vehicle recognition method and in-vehicle device Download PDFInfo
- Publication number
- JP4687381B2 JP4687381B2 JP2005308864A JP2005308864A JP4687381B2 JP 4687381 B2 JP4687381 B2 JP 4687381B2 JP 2005308864 A JP2005308864 A JP 2005308864A JP 2005308864 A JP2005308864 A JP 2005308864A JP 4687381 B2 JP4687381 B2 JP 4687381B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- recognition
- frame
- image data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Navigation (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、車両認識方法及び車載装置に関する。 The present invention relates to a vehicle recognition method and an in-vehicle device.
近年、渋滞等の交通問題を解決し、自動車の円滑な走行を図るために、高度道路交通システム(Intelligent Transport Systems)の開発が進められている。このシステムでは
、例えば、車々間通信や路車間通信、又は自動車が具備する各種装置等により、所定距離内の各自動車の情報を収集し、各自動車に対して周辺道路状況に応じた操作支援を行う。
In recent years, intelligent transport systems have been developed in order to solve traffic problems such as traffic jams and to make vehicles run smoothly. In this system, for example, information on each vehicle within a predetermined distance is collected by inter-vehicle communication, road-to-vehicle communication, or various devices provided in the vehicle, and operation support corresponding to the surrounding road conditions is provided to each vehicle. .
自車両周辺の車両に関する情報(周辺車両データ)を取得する方法として、例えば、車々間通信又は路車間通信によって取得する方法(例えば特許文献1参照)、車両に取付けられたカメラを用いる方法が提案されている。このうち、カメラによる画像データに基づき、周辺車両データを取得する方法は、車々間通信可能な他車両の存在、路車間通信可能な環境等の条件によらない点で有利である。
ところが、カメラによって撮像された画像データを用いて周辺車両データを取得する場合には、画像処理を行うため処理量が多くなる問題がある。このため、周辺車両データを取得する処理の軽減化が要求されている。 However, when surrounding vehicle data is acquired using image data captured by a camera, there is a problem that the amount of processing increases because image processing is performed. For this reason, reduction of the process which acquires surrounding vehicle data is requested | required.
本発明は、上記問題点に鑑みてなされたものであり、その目的は、周辺の車両に関する情報を取得する処理を軽減することができる車両認識方法及び車載装置を提供することにある。 The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a vehicle recognition method and an in-vehicle device that can reduce processing for acquiring information related to surrounding vehicles.
上記問題点を解決するために、請求項1に記載の発明は、自車両の周辺の他車両を認識する車両認識方法において、前記自車両に設けられた撮像装置から、前記自車両周辺を撮像した画像データを取得し、その画像データ内の一部の領域を認識部分枠として設定するとともに、該設定された認識部分枠内の画像データに対して、路面上の物体の有無を判断する簡易認識処理を行い、該簡易認識処理において路面上に前記物体が有ると判断された際に、物体が有ると判断された前記認識部分枠を含み、該認識部分枠よりも大きい領域の詳細認識枠を設定し、該詳細認識枠内の画像データに対して、前記他車両を認識するための車両認識処理を行うことを要旨とする。
In order to solve the above problem, the invention according to
請求項2に記載の発明は、自車両に搭載され、搭載された自車両の周辺の他車両を認識する車載装置において、前記自車両に設けられた撮像装置から、前記自車両周辺を撮像した画像データを取得する画像データ取得手段と、該取得した画像データ内の一部の領域を認識部分枠として設定する第1エリア設定手段と、該第1エリア設定手段によって設定された前記認識部分枠内の画像データに対して、路面上の物体の有無を判断する簡易認識手段と、該簡易認識手段が前記路面上に物体が有ると判断した際に、物体が有ると判断された前記認識部分枠を含み、該認識部分枠よりも大きい領域の詳細認識枠を設定する第2エリア設定手段と、該第2エリア設定手段によって設定された前記詳細認識枠内の画像データに対して、前記他車両を認識するための車両認識処理を行う車両認識手段と
を備えたことを要旨とする。
The invention of claim 2 is mounted on the vehicle, the vehicle device recognize other vehicles around the vehicle mounted, from said image pickup device provided in the vehicle and imaging the subject vehicle around an image data acquisition means for acquiring image data, a first area setting means for setting a partial area of the image data the acquired as recognition part frame, wherein the recognition moiety frame set by the first area setting means the image data of the inner, and simple recognition means for determining the presence or absence of an object on the road surface, when the simple recognition means determines that an object exists on the road surface, the recognition moiety is determined that the object is present A second area setting means for setting a detailed recognition frame of an area that includes a frame and is larger than the recognition partial frame; and for the image data in the detailed recognition frame set by the second area setting means, the other Recognize vehicle And gist that a vehicle recognition means for performing vehicle recognition processing order.
請求項3に記載の発明は、請求項2に記載の車載装置において、前記第1エリア設定手段は、前記画像データ内において複数の前記認識部分枠を設定するとともに、前記各認識部分枠を間隔を介して配置することを要旨とする。
請求項4に記載の発明は、請求項3に記載の車載装置において、前記第1エリア設定手段は、前記各認識部分枠を、車線に相当する領域内に配置することを要旨とする。
The invention according to
The gist of the invention according to claim 4 is the in-vehicle device according to
請求項5に記載の発明は、請求項4に記載の車載装置において、前記第1エリア設定手段は、前記認識部分枠を、前記車線の進行方向に沿って並べることを要旨とする。
請求項6に記載の発明は、請求項2〜5のいずれか1項に記載の車載装置において、前記自車両の後方の後方画像データを取得する後方画像データ取得手段と、該後方画像データのうち、前記自車両側の一部の領域を前記路面のみを撮像したサンプル枠として設定する第3エリア設定手段とをさらに備え、前記簡易認識手段は、前記サンプル枠内の平均輝度と、前記認識部分枠内の平均輝度との差に基づき、路面上の物体の有無を判断することを要旨とする。
A fifth aspect of the present invention is the vehicle-mounted device according to the fourth aspect, wherein the first area setting means arranges the recognition partial frames along the traveling direction of the lane.
According to a sixth aspect of the present invention, in the in-vehicle device according to any one of the second to fifth aspects, a rear image data acquiring unit that acquires rear image data behind the host vehicle, and the rear image data A third area setting unit configured to set a partial area on the own vehicle side as a sample frame obtained by imaging only the road surface, wherein the simple recognition unit includes an average luminance in the sample frame, and the recognition The gist is to determine the presence or absence of an object on the road surface based on the difference from the average luminance in the partial frame .
請求項7に記載の発明は、請求項2〜6のいずれか1項に記載の車載装置において、前記車両認識手段は、路面上の物体があると判断した前記認識部分枠を含む前記詳細認識枠内の画像データに対し、エッジ検出を行って他車両を認識することを要旨とする。 According to a seventh aspect of the present invention, in the in-vehicle device according to any one of the second to sixth aspects, the vehicle recognition means includes the recognition partial frame that is determined to include an object on a road surface. The gist is to recognize the other vehicle by performing edge detection on the image data in the frame .
請求項8に記載の発明は、請求項2〜7のいずれか1項に記載の車載装置において、前記車両認識手段は、認識した他車両に関する周辺車両データを生成するとともに、前記周辺車両データに基づき、運転支援に関する案内を行う案内手段をさらに備えることを要旨とする。
The invention according to
請求項9に記載の発明は、請求項2〜8のいずれか1項に記載の車載装置において、前記画像データ取得手段は、前記車両の側方に設けられた前記撮像装置から、前記他車両を認識するための画像データを取得することを要旨とする。 Invention according to claim 9, in-vehicle apparatus according to any one of claims 2-8, wherein the image data acquisition means, from the imaging device provided on a side of the vehicle, the other vehicle The gist is to obtain image data for recognizing the image.
請求項1に記載の発明によれば、車両認識方法において、設定された認識部分枠内の画像データに対して、路面上の物体を簡易認識処理する。また、路面上に物体が有ると判断された際に、その認識部分枠を含む詳細認識枠内の画像データに対して車両認識処理を行って、他車両を認識する。このため、画像データのうち、認識部分枠を設定して、限られたエリア内の物体を認識することにより、処理量を軽減することができる。また、認識部分枠内の画像データに対して、車両に限らず路面上の物体を検出する簡易認識処理を行い、路面上の物体を認識したときのみ、その認識部分枠を含む詳細認識枠内の画像データに対して車両認識処理を行って車両の認識を行うので、他車両の認識処理を軽減するとともに、処理時間を短縮化できる。
また、物体が有ると判断された認識部分枠を含む詳細認識枠を設定し、その詳細認識枠内の他車両を認識処理する。このため、その認識部分枠及びその周辺を認識処理するので、他車両の誤検出を抑制できる。
According to the first aspect of the present invention, in the vehicle recognition method, the object on the road surface is simply recognized for the image data in the set recognition partial frame . Further, when it is determined that there is an object on the road surface , vehicle recognition processing is performed on the image data in the detailed recognition frame including the recognition partial frame to recognize another vehicle. Therefore, the processing amount can be reduced by setting a recognition partial frame in the image data and recognizing an object in a limited area. In addition, the simple recognition process that detects objects on the road surface, not only vehicles, is performed on the image data in the recognition partial frame, and only when the object on the road surface is recognized, the detailed recognition frame including the recognition partial frame is included. Since the vehicle recognition process is performed on the image data to recognize the vehicle, the recognition process of other vehicles can be reduced and the processing time can be shortened.
Further, a detailed recognition frame including a recognition partial frame determined to have an object is set, and another vehicle in the detailed recognition frame is recognized. For this reason, since the recognition partial frame and the periphery thereof are recognized, erroneous detection of other vehicles can be suppressed.
請求項2に記載の発明によれば、車載装置は、第1エリア設定手段によって設定された認識部分枠内の画像データに対して、路面上の物体を簡易認識する簡易認識手段を備える。また、路面上に物体が有ると判断された際に、その認識部分枠を含む詳細認識枠内の画像データに対して車両認識処理を行う車両認識手段を備える。このため、画像データのうち、認識部分枠を設定して、限られたエリア内の物体を認識することにより、処理量を軽減することができる。また、認識部分枠内の画像データに対して、車両に限らず路面上の物体を検出する簡易認識処理を行い、路面上の物体を認識したときのみ、その認識部分枠を含む詳細認識枠内の画像データに対して画像処理を行って車両の認識を行うので、他車両の認識処理を軽減するとともに、処理時間を短縮化できる。
また、車両認識手段は、物体が有ると判断された認識部分枠を中心とした詳細認識枠を設定し、その詳細認識枠内の他車両を認識処理する。このため、その認識部分枠及びその周辺を認識処理するので、他車両の誤検出を抑制できる。
According to the second aspect of the present invention, the in-vehicle device includes the simple recognition means for simply recognizing the object on the road surface with respect to the image data in the recognition partial frame set by the first area setting means. In addition, when it is determined that there is an object on the road surface, vehicle recognition means for performing vehicle recognition processing on the image data in the detailed recognition frame including the recognition partial frame is provided. Therefore, the processing amount can be reduced by setting a recognition partial frame in the image data and recognizing an object in a limited area. In addition, the simple recognition process that detects objects on the road surface, not only vehicles, is performed on the image data in the recognition partial frame, and only when the object on the road surface is recognized, the detailed recognition frame including the recognition partial frame is included. Since the image processing is performed on the image data to recognize the vehicle, the recognition processing of other vehicles can be reduced and the processing time can be shortened.
The vehicle recognizing unit sets a detailed recognition frame centered on the recognition partial frame that is determined to have an object, and recognizes other vehicles in the detailed recognition frame. For this reason, since the recognition partial frame and the periphery thereof are recognized, erroneous detection of other vehicles can be suppressed.
請求項3に記載の発明によれば、第1エリア設定手段は、認識部分枠を間隔を介して配置する。このため、認識を行う領域を少なくするとともに、間隔を保持して配置することで、物体の検出率を高めることができる。
According to the invention described in
請求項4に記載の発明によれば、認識部分枠は、車線に相当するエリア内に設定される。このため、他車両の検出が必要な領域のみに対して認識部分枠を設定するので、処理量をより軽減できる。 According to the invention described in claim 4, the recognition partial frame is set in an area corresponding to a lane. For this reason, since the recognition partial frame is set only for the area where the detection of the other vehicle is necessary, the processing amount can be further reduced.
請求項5に記載の発明によれば、複数の認識部分枠は、車線の進行方向に沿って並べら
れる。このため、車線内において、車両から遠い位置にある他車両も、近い位置にある他車両も検出することができる。
According to the invention described in
請求項6に記載の発明によれば、路面のみを撮像したサンプル枠内の平均輝度と、認識部分枠内の平均輝度との差に基づき、路面上の物体の有無を認識する。従って、処理の簡易性を高めることができる。 According to the sixth aspect of the present invention, the presence / absence of an object on the road surface is recognized based on the difference between the average luminance in the sample frame obtained by imaging only the road surface and the average luminance in the recognition partial frame . Therefore, the simplicity of processing can be improved.
請求項7に記載の発明によれば、車両認識手段は、路面上の物体があると判断した前記認識部分枠を含む前記詳細認識枠内の画像データに対してエッジ検出を行う。即ち、特定の領域のみに対してエッジ検出を行うので、処理量を軽減しながら、その物体が他車両であるか否かの判断を精度良く行うことができる。 According to the seventh aspect of the invention, the vehicle recognition means performs edge detection on the image data in the detailed recognition frame including the recognition partial frame that is determined to have an object on the road surface . That is, since edge detection is performed only on a specific region , it is possible to accurately determine whether or not the object is another vehicle while reducing the processing amount.
請求項8に記載の発明によれば、周辺車両データに基づき、運転支援に関する案内を行う案内手段をさらに備える。このため、周囲の他車両の有無を反映した運転支援を行うことができる。 According to the eighth aspect of the present invention, the information processing apparatus further includes guidance means for performing guidance related to driving assistance based on surrounding vehicle data. For this reason, driving assistance reflecting the presence or absence of other vehicles in the vicinity can be performed.
請求項9に記載の発明によれば、車両の側方に設けられた撮像装置から、他車両認識のための画像データを取得するので、車両の側方と、前側方又は後側方とを走行する他車両を認識できる。 According to the ninth aspect of the invention, since image data for recognition of other vehicles is acquired from the imaging device provided on the side of the vehicle, the side of the vehicle and the front side or the rear side are obtained. Recognize other vehicles traveling.
以下、本発明の駐車支援方法及び車載装置の一実施形態を図1〜図14に従って説明する。
図1に示す運転支援装置1は、主制御を行う画像データ取得手段及び案内手段としてのCPU2、各種変数を記憶するRAM3、運転支援プログラムを記憶するROM4を備えている。
Hereinafter, an embodiment of a parking assistance method and an in-vehicle device according to the present invention will be described with reference to FIGS.
The
CPU2は、GPS受信部6から入力した位置検出信号に基づいて、車両Cの絶対座標を算出する。さらに、CPU2は、車両側入力I/F部5を介して、車両Cに設けられた車速センサ22及びジャイロ23から、車速パルス及び方位検出信号を入力して、自律航法により基準位置からの相対座標を演算する。そして、GPS受信部6に基づく絶対座標と合わせて、自車位置を特定する。
The CPU 2 calculates the absolute coordinates of the vehicle C based on the position detection signal input from the GPS receiver 6. Further, the CPU 2 inputs a vehicle speed pulse and a direction detection signal from the
また、運転支援装置1は、経路データ8及び地図データ9を記憶した地理データ記憶部7を備えている。経路データ8は、全国を各区域に区画したリージョン毎のデータであって、図2に示すように、ヘッダ8a、ノードデータ8b、リンクデータ8c、リンクコスト8d、座標データ8eを有している。ヘッダ8aは、各経路データ8を管理するためのデータを有している。ノードデータ8bは、交差点、道路の端点等を示す各ノードの識別データ、隣接するノードの識別データ等を有している。リンクデータ8cは、リンク列を構成し、接続ノードを示す各リンクレコード、通行規制を示すデータ等を有している。リンクコスト8dは、各リンクレコードに対して付与されたリンクID、リンク長、平均旅行時間等から構成されるデータ群である。座標データ8eは、各ノードの絶対座標を示す。
The
CPU2は、タッチパネルであるディスプレイ11、ディスプレイ11に隣設された操作スイッチ12の入力操作により、外部入力I/F部13(図1参照)を介して、目的地を示すデータを入力する。この目的地のデータを入力すると、CPU2は、経路データ8
を用いて、目的地と現在の自車位置とを接続する推奨経路を探索する。
The CPU 2 inputs data indicating the destination via the external input I / F unit 13 (see FIG. 1) by an input operation of the display 11 which is a touch panel and the
Is used to search for a recommended route connecting the destination and the current vehicle position.
地図データ9は、全国の地図を分割したエリア毎に格納され、広域の地図から狭域の地図まで各階層毎に分かれている。図3(a)に示すように、各地図データ9は、ヘッダ9a、道路データ9b、背景データ9cを有している。ヘッダ9aは、その地図データ9の階層、エリア等を示し、管理目的のデータである。背景データ9cは、道路、市街地、河川等を描画する描画データである。道路データ9bは、道路の形状・種類を示すデータであって、図3(b)に示すように、道路属性データ9d、リンク形状データ9e、接続データ9fを有している。道路属性データ9dは、道路名称、道路の方向、道路幅、車線数を有している。接続データ9fは、各リンクと各ノードの接続状態を表わすデータである。リンク形状データ9eは、道路の形状を示すためのデータであって、図3(c)に示すように、座標データ9g、形状補間データ9hを有している。座標データ9gは、リンク及びノードの座標を示している。形状補間データ9hは、リンクの途中に設定され、道路のカーブ形状を示すために設定された形状補間点に関するデータであり、形状補間点の座標、リンクの方位等のデータである。
The map data 9 is stored for each area obtained by dividing the map of the whole country, and is divided for each layer from a wide area map to a narrow area map. As shown in FIG. 3A, each map data 9 has a header 9a, road data 9b, and
CPU2は、車両Cに設けられたイグニッションスイッチ24から、車両側入力I/F部5を介して、図示しないイグニッションシステムの起動を示す開始トリガを入力すると、エリア設定手段、簡易認識手段及び車両認識手段としての画像プロセッサ10(図1参照)を制御して、車両Cの現在位置周辺の地図データ9を読出す。そして、図1に示すように、その地図データ9に基づく地図画面30をディスプレイ11に出力する。このとき、画像プロセッサ10は、地図画面30に、その地図内での自車位置を示す指標31を重畳する。
When the CPU 2 inputs a start trigger indicating the start of an ignition system (not shown) from the ignition switch 24 provided in the vehicle C via the vehicle-side input I /
また、CPU2は、所定のタッチパネル操作、所定の操作スイッチ12の入力操作が行われると、撮像装置としての周辺監視カメラ20を起動する。周辺監視カメラ20は、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子と(いずれも図示せず)を備えている。周辺監視カメラ20は、本実施形態では、図4(a)に示すように、車両Cの右側方のサイドミラー26に取付けられ、車両Cの右側方及び右側後方を撮像領域Z1としている。CPU2は、周辺監視カメラ20を制御して、撮像領域Z1を撮像した画像データとしての周辺撮像データG1を取得すると、画像プロセッサ10の図示しないVRAMに一時記憶する。
In addition, when a predetermined touch panel operation and a
さらに、CPU2は、所定のタイミングで、車両Cに設けられた撮像装置としての後方監視カメラ21を起動する。後方監視カメラ21は、周辺監視カメラ20と同様に、広角レンズ、ミラー等から構成される光学機構と、CCD撮像素子と(いずれも図示せず)を備えている。この後方監視カメラ21は、図4(b)に示すように、車両Cの後端であって、リヤバンパー27の上方に取付けられている。後方監視カメラ21は、例えば左右140度の後方視野を有し、車両Cのリヤバンパー27の一部を含む、後方路面の約数メートルを後方撮像領域Z2としている。CPU2は、後方監視カメラ21を制御して、後方撮像領域Z2を撮像した画像データとしての後方撮像データG2を取得すると、上記した画像プロセッサ10のVRAMに一時記憶する。
Further, the CPU 2 activates the
画像プロセッサ10は、地図データ9を出力して地図画面30を描画する他、車線変更を行う場合に、VRAMに一時記憶された周辺撮像データG1、後方撮像データG2を用いて画像処理を行い、車両Cの右側方及び後方の他車両を認識する。また、他車両が認識された場合には、周辺撮像データG1を用いて、認識した他車両の位置・速度を検出し、検出した位置及び速度を周辺車両データ17としてRAM3に記憶する。また、他車両が認識されなかった場合にも、検出なしを示す周辺車両データ17をRAM3に記憶する。
The
CPU2は、RAM3に記憶された周辺車両データ17に基づき、車両Cが車線変更可能であるか否かを判断し、車線変更可能である場合には、車線変更のための案内方法を決定する。そして、図1に示す音声プロセッサ14を制御して、案内音又は案内音声をスピーカ15から出力する。CPU2が、車線変更不可能であると判断した場合には、同じく音声プロセッサ14を制御して、警告音又は警告音声をスピーカ15から出力する。
The CPU 2 determines whether or not the vehicle C can change the lane based on the surrounding vehicle data 17 stored in the
次に、本実施形態の処理手順について、図5〜8に従って説明する。運転者は、車線変更を行う際に、タッチパネル操作、又は操作スイッチ12の入力操作を行う。運転支援装置1のCPU2は、外部入力I/F部13から所定の信号を入力すると、ROM4に格納された運転支援プログラムに従って、周辺監視カメラ20及び後方監視カメラ21を使用して、周辺車両データ17の取得処理を行う(ステップS1−1)。
Next, the processing procedure of this embodiment is demonstrated according to FIGS. The driver performs touch panel operation or input operation of the
この周辺車両データを取得する処理について、図6〜図8に従って説明する。まず、図6に示すように、運転支援装置1のCPU2は、周辺監視カメラ20を制御して、周辺撮像データG1を取得する(ステップS2−1)。このとき、周辺監視カメラ20は、例えば図9に示すように、車両Cが現在走行している車線101と並行な隣接車線102の路面と、隣接車線102を走行する他車両100を撮像する。さらに、CPU2は、画像プロセッサ10を制御して、周辺撮像データG1を用いて、路面上の物体の簡易認識処理を行う(ステップS2−2)。
The process of acquiring the surrounding vehicle data will be described with reference to FIGS. First, as shown in FIG. 6, the CPU 2 of the driving
簡易認識では、画像プロセッサ10は、図7に示すように、周辺撮像データG1内の隣接車線の位置を演算する(ステップS3−1)。このとき、画像プロセッサ10は、CPU2が演算した車両Cの現在位置に基づき、現在位置周辺の地図データ9を地理データ記憶部7内で検索する。そして、検出した地図データ9のうち、道路データ9bと車両Cの走行する車線とに基づき、車両Cが走行する車線101の側方(本実施形態では右側)に追越し車線等の隣接車線102があるか否かを判断する。そして、隣接車線102を検出すると、取得した周辺撮像データG1内で隣接車線102が占有する領域を推測する。このとき、画像プロセッサ10は、道路データ9bの道路属性データ9dに基づき、隣接車線102の幅員、車線数を取得する。さらに、リンク形状データ9eに基づき、隣接車線102の形状、座標を取得し、車両Cの現在位置から後方の隣接車線102の道路形状を演算する。そして、演算した道路形状を現在の周辺監視カメラ20の視点に変換し、図10(a)の画像41aに示すように、周辺撮像データG1のうち、隣接車線102が占有する隣接車線領域40を算出する。
In the simple recognition, the
次に、画像プロセッサ10は、認識部分枠を設定する(ステップS3−2)。このとき、画像プロセッサ10は、図10(b)に示すように、ステップS3−1で設定された隣接車線領域40内で、認識対象領域としての認識部分枠42を隣接車線102の進行方向に沿って並べる。認識部分枠42は、図10(c)に示すように、路面上で、横幅2m、進行方向の長さ(奥行き幅)5mの矩形状に設定された枠に相当する。また、路面上の枠は、路面上に進行方向において5mの間隔を介して配置され、認識部分枠42はその枠を画面座標系に変換した領域である。認識部分枠42は、画面上では、略台形状をなし、隣接車線102の集束部に向って縞状に並列されている。
Next, the
各認識部分枠42を設定すると、画像プロセッサ10は、各認識部分枠42内の輝度データをそれぞれ算出する(ステップS3−3)。画像プロセッサ10は、認識部分枠42内の各画素座標の輝度値を平均して、各認識部分枠42ごとに輝度データを算出する。この輝度データの演算処理は、輝度値を平均化するのみの処理であるので、比較的処理量が少ない。
When each recognition
次に、画像プロセッサ10は、サンプル枠内の輝度データを算出する(ステップS3−
4)。具体的には、画像プロセッサ10は、CPU2に所定の信号を出力し、後方監視カメラ21を制御して、後方撮像データG2を取得する。このとき、取得された後方撮像データG2は、車両Cが走行する車線101等を撮像したデータであって、例えば図11に示す画像45に相当する撮像データである。画像45には、車両Cのリヤバンパー25を撮像した車両後端画像46が含まれている。そして、この後方撮像データG2のうち、車両Cの後端から比較的近い路面に相当する領域に、サンプル枠47を設定する。さらに、画像プロセッサ10は、後方撮像データG2のうち、サンプル枠47内の平均輝度を演算して、サンプル枠47の輝度データを算出する。
Next, the
4). Specifically, the
さらに、画像プロセッサ10は、各認識部分枠42内の輝度を平均した各輝度データと、サンプル枠47内の輝度を平均した輝度データとをそれぞれ比較し、輝度値差が予め定めた閾値以上である認識部分枠42があるか否かを判断する(ステップS3−5)。上記したように、他車両画像48を含む認識部分枠42の輝度は大きくなるので、閾値は、予め他車両100を撮像した画像と、予め路面のみを撮像した画像との輝度をそれぞれ平均化し、それらの各平均値の差とほぼ一致する値に設定すればよい。サンプル枠47の輝度データとの輝度値差が閾値以上の認識部分枠42があると判断すると(ステップS3−5においてYES)、その認識部分枠42内で検出物ありと判断し、RAM3に格納された検出フラグをオンにする。検出フラグをオンにすると(ステップS3−6)、ステップS2−3に進む。
Further, the
サンプル枠47の輝度データとの輝度値差が閾値以上の認識部分枠42がないと判断すると(ステップS3−5においてNO)、その認識部分枠42内で検出物なしと判断し、RAM3に格納された検出フラグをオフにする。検出フラグをオフにすると(ステップS3−7)、ステップS2−3に進む。図6に示すステップS2−3では、CPU2は、RAM3に格納された検出フラグに基づき、検出物が検出されたか否かを判断する。そして、検出フラグがオンにされ、検出物があると判断した場合には(ステップS2−3においてYES)、検出物の詳細認識処理(S2−4)に進む。検出フラグがオフにされ、検出物がないと判断した場合には(ステップS2−3においてNO)、検出物がないことを示す周辺車両データ17をRAM3に記憶し、ステップS1−2に戻る。
If it is determined that there is no recognition
ステップS2−3で検出物ありと判断した場合には、図8に示すステップS4−1に進む。ステップS4−1では、画像プロセッサ10は、詳細認識枠を設定する。このとき、画像プロセッサ10は、図12(a)に示すように、検出物ありと判断された認識部分枠42を中心に、認識部分枠42よりも大きい詳細認識枠50を設定する。
If it is determined in step S2-3 that there is an object to be detected, the process proceeds to step S4-1 shown in FIG. In step S4-1, the
詳細認識枠50を設定すると、画像プロセッサ10は、周辺撮像データG1のうち、詳細認識枠50内の他車両認識を行う(ステップS4−2)。本実施形態では、画像プロセッサ10は、詳細認識枠50内の画像データに対し、水平エッジを検出するエッジ検出処理を行う。このエッジ検出処理では、注目画素と隣接画素との差分をとって微分値を算出し、さらにノイズ除去処理等も行うため、認識部分枠42及びサンプル枠47内の平均輝度値を演算するよりも、処理量が多い。このため、予め路面上の物体が検出された認識部分枠42を中心とした詳細認識枠50のみに対し、エッジ検出を行うことで、処理量を軽減することができる。
When the
他車両100を撮像した周辺撮像データG1に対し水平エッジ検出を行うと、例えば、図12(b)に示すように、車両Cのバンパー、フロントガラスの端部、ルーフ等に相当する水平エッジEGが検出される。画像プロセッサ10は、検出されたエッジの中で、上下方向に並んだ、ほぼ同じ幅の複数の水平エッジEGを探索し、他車両100が検出されたか否かを判断する(ステップS4−3)。該当する水平エッジEG群が検出されると、そのエッジ群を、他車両100に相当すると判断する(ステップS4−3においてYES
)。水平エッジEGの中に、他車両100に相当する水平エッジEGが無い場合(ステップS4−3においてNO)、他車両100なしを示す周辺車両データ17をRAM3に記憶する(ステップS4−6)。
When the horizontal edge detection is performed on the peripheral imaging data G1 obtained by imaging the
). If there is no horizontal edge EG corresponding to the
他車両100が検出されると、画像プロセッサ10は、他車両100の位置及び速度を算出する(ステップS4−5)。まず、画像プロセッサ10は、他車両100に相当する水平エッジEGの画素座標に基づき、その画素座標を、路面上の座標系に座標変換し、車両Cと他車両100との相対距離を算出する。
When the
さらに、画像プロセッサ10は、CPU2を介して、周辺監視カメラ20を制御して、新たな周辺撮像データG1を取得する。そして、ステップS4−2で設定された詳細認識枠50内及びその周辺を再度エッジ検出して、既に検出した水平エッジEGとの類似度が高い水平エッジEGを検出する。そして、新たに撮像した周辺撮像データG1に基づく水平エッジEGの位置と、前に撮像した周辺撮像データG1に基づく水平エッジEGの位置との差分と、サンプリング間隔とに基づき、車両Cに対する他車両100の相対速度を算出する。そして、これらの他車両100の位置及び速度を、周辺車両データ17として、RAM3に一時格納する。
Furthermore, the
このように周辺車両データ17が取得されると、図5に示すステップS1−2に戻り、CPU2が、車両Cに関する自車両データを取得する。この自車両データは、車両Cの現在位置、方位、舵角、車速を有している。そして、CPU2は、RAM3に格納された周辺車両データ17及び自車両データと、予め定めた条件とに基づき、運転支援としての警告を実行するか否かを判断する(ステップS1−3)。 When the surrounding vehicle data 17 is acquired in this way, the process returns to step S1-2 shown in FIG. 5, and the CPU 2 acquires own vehicle data related to the vehicle C. The own vehicle data includes the current position, direction, steering angle, and vehicle speed of the vehicle C. And CPU2 judges whether the warning as a driving assistance is performed based on the surrounding vehicle data 17 and the own vehicle data stored in RAM3, and the predetermined conditions (step S1-3).
例えば、車両Cと他車両100との相対距離が予め定めた距離以上であって、車両Cに対する他車両100の相対速度が過度に大きくない場合には、警告を実行しないと判断する(ステップS1−3においてNO)。警告を実行しない場合には、CPU2は、案内方法を決定する(ステップS1−4)。このとき、相対距離が充分に大きく、車両Cの速度と他車両100の速度とがほぼ同じであった場合には、CPU2は、音声プロセッサ14を制御して、図13に示すように、車線変更を促す音声60をスピーカ15から出力する(ステップS1−5)。また、相対距離が充分に大きいが、速度差が比較的大きい場合には、例えば「速度を上げて車線変更して下さい」等の音声を出力してもよい。
For example, when the relative distance between the vehicle C and the
例えば、車両Cと他車両100との相対距離が予め定めた距離よりも小さいと判断した場合には(ステップS1−3においてYES)、CPU2は、音声プロセッサ14を制御して、図14に示すように、車線変更を警告する警告音声61をスピーカ15を介して出力する(ステップS1−6)。
For example, if it is determined that the relative distance between the vehicle C and the
案内又は警告を出力すると、CPU2は、車線変更を完了したか否かを判断する(ステップS1−7)。本実施形態では、CPU2は、車両Cの現在位置と、経路データ8又は地図データ9とに基づいて、現在走行している車線を判断する。
When outputting the guidance or warning, the CPU 2 determines whether or not the lane change is completed (step S1-7). In the present embodiment, the CPU 2 determines the currently traveling lane based on the current position of the vehicle C and the
車線変更を完了していないと判断した場合には(ステップS1−7においてNO)、終了トリガの入力の有無を判断する(ステップS1−8)。本実施形態では、終了トリガは、所定のタッチパネル操作、所定の操作スイッチ12の入力操作により出力された信号である。車線変更を途中で中止するような場合には、CPU2は、終了トリガを入力し(ステップS1−8においてYES)、そのまま処理を終了する。終了トリガを入力しない場合には(ステップS1−8においてNO)、ステップS1−1に戻り上記した処理を繰り返す。また、ステップS1−7において車線変更を完了したと判断した場合には(ステップS1−7においてYES)、車線変更のための処理を終了する。
If it is determined that the lane change has not been completed (NO in step S1-7), it is determined whether or not an end trigger is input (step S1-8). In the present embodiment, the end trigger is a signal output by a predetermined touch panel operation or a
上記実施形態によれば、以下のような効果を得ることができる。
(1)上記実施形態では、運転支援装置1のCPU2は、車両Cに設けられた周辺監視カメラ20及び後方監視カメラ21から、周辺撮像データG1及び後方撮像データG2を取得するようにした。また、運転支援装置1の画像プロセッサ10は、地図データ9に基づいて、周辺撮像データG1のうち隣接車線領域40を設定するとともに、隣接車線領域40内に、複数の認識部分枠42を設定するようにした。さらに、画像プロセッサ10は、認識部分枠42内の輝度データを算出し、その輝度データを後方撮像データG2内のサンプル枠47内の輝度データと比較することにより、各認識部分枠42に相当する路面上の物体を簡易認識するようにした。そして、検出物が検出された認識部分枠42のみに対してエッジ検出を行って、他車両100の有無を判断するようにした。即ち、周辺撮像データG1の全領域に対して、処理量が大きい車両認識処理を行うのではなく、路面上の物体を認識したときのみ、その認識部分枠42に対してエッジ検出を行うようにしたので、他車両100の認識処理の処理量を軽減するとともに、処理時間を短縮化できる。
According to the above embodiment, the following effects can be obtained.
(1) In the above embodiment, the CPU 2 of the driving
(2)上記実施形態では、画像プロセッサ10は、隣接車線領域40内に、認識部分枠42を設定するようにした。このため、限られた領域に認識部分枠42を配置するので、周辺撮像データG1全域に認識部分枠42を配置する場合等に比べて、より処理量を軽減できる。
(2) In the above embodiment, the
(3)上記実施形態では、画像プロセッサ10は、認識部分枠42を、隣接車線102の進行方向に沿って複数並べるようにした。このため、隣接車線102内で、車両Cから遠い位置にある他車両100も、比較的近い位置にある他車両100も検出することができる。
(3) In the above embodiment, the
(4)上記実施形態では、画像プロセッサ10は、後方監視カメラ21が撮像した後方撮像データG2内のサンプル枠47内の平均輝度と、周辺監視カメラ20が撮像した周辺撮像データG1の認識部分枠42内の平均輝度とを比較することにより、路面上の物体の有無を簡易検出するようにした。このため、路面上の物体に対する認識処理をより簡単にすることができる。
(4) In the above embodiment, the
(5)上記実施形態では、画像プロセッサ10は、路面上の物体が検出された認識部分枠42よりも大きい詳細認識枠50を設定し、その詳細認識枠50内に対しエッジ検出を行って、他車両100の有無を判断するようにした。このため、詳細認識枠50を若干大きめに設定することにより、まとまった複数本の水平エッジEGの検出率が高くなるので、確実に他車両100を検出することができる。
(5) In the above embodiment, the
(6)上記実施形態では、画像プロセッサ10は、他車両100の位置及び速度を有する周辺車両データ17、又は隣接車線102内に他車両100が検出されないことを示す周辺車両データ17をRAM3に格納するようにした。そして、CPU2は、その周辺車両データ17に基づき、警告又は車線変更の案内を行うようにした。このため、他車両100の接近中の車線変更等を警告し、車線変更を円滑に行うための案内を行うことができる。
(6) In the above embodiment, the
尚、本実施形態は以下のように変更してもよい。
・画像プロセッサ10は、地図データ9に基づき隣接車線領域40を算出するようにしたが、これ以外の方法で隣接車線領域40を検出するようにしてもよい。例えば、画像プロセッサ10が、周辺撮像データG1に対し、白線のエッジ又は特徴点等を検出する白線認識処理を行うようにしてもよい。
In addition, you may change this embodiment as follows.
The
・上記実施形態では、CPU2は、車両Cの現在位置と、経路データ8又は地図データ9とに基づいて、現在走行している車線を判断して、車線変更が終了したか否かを判断するようにした。これ以外に、例えば、画像プロセッサ10が、周辺撮像データG1内の他車両100の画像位置に基づき、車両Cが車線101を走行しているか、隣接車線102を走行しているかを判断してもよい。
In the above embodiment, the CPU 2 determines the lane that is currently traveling based on the current position of the vehicle C and the
・上記実施形態では、路面上の物体の簡易認識を、認識部分枠42内の平均輝度値と、サンプル枠47内の平均輝度値との比較により行うようにしたが、これ以外の方法でもよい。例えば、認識部分枠42内のエッジ検出を行い、エッジの有無を判定し、エッジが有る場合に検出物ありと判断するようにしてもよい。
In the above embodiment, simple recognition of an object on the road surface is performed by comparing the average luminance value in the recognition
・上記実施形態では、隣接車線領域40内に認識部分枠42を並べたが、フレーム全域に、所定間隔で認識部分枠42を配置するようにしてもよい。このようにすると、隣接車線領域40の演算処理を省略できる。
In the above embodiment, the recognition
・上記実施形態では、検出物ありと判断された認識部分枠42に対し、その認識部分枠42よりも大きい詳細認識枠50を設定するようにしたが、認識部分枠42の大きさに応じて、詳細認識枠50の設定を省略しても良い。そして、認識部分枠42内の水平エッジを検出するようにしても良い。
In the above embodiment, the
・上記実施形態では、他車両100の認識に、水平エッジの検出処理を行うようにしたが、他車両100の画像の色、形状等の特徴量から車両であることを判断するパターン認識、画像を2値化したデータ等を用いたテンプレートマッチング等、その他の処理方法でもよい。
In the above-described embodiment, the horizontal edge detection process is performed for the recognition of the
・上記実施形態では、画像プロセッサ10は、他車両100を認識した後、複数の周辺撮像データG1に基づき、他車両100の進行方向を判断するようにしてもよい。そして、他車両100の進行方向と、車両Cとの進行方向が同じである場合に、他車両100の位置及び速度を示す周辺車両データ17を生成するようにしても良い。このようにすると、互いに進行方向が異なる車線が隣接している場合、進行方向うが異なる他車両100を認識する誤判断を防止できる。また、車両Cの走行する車線101の右側方に、同じ進行方向の隣接車線102があるか否かの判断を省略できる。
In the above embodiment, the
・上記実施形態では、隣接車線領域40を認証対象領域としても良い。即ち、隣接車線領域40の平均輝度と、サンプル枠47内との平均輝度を比較して、路面上の物体の有無を検出するようにしても良い。そして、隣接車線領域40の平均輝度が高い場合には、隣接車線領域40内をエッジ検出するようにしても良い。又は、隣接車線領域40又は周辺撮像データG1のうち、車両Cに近い路面に相当する領域に対し、路面上の物体を検出する簡易認識を行うようにしても良い。そして、その領域内で路面上の物体が検出された際に、その領域に対してエッジ検出を行うようにしてもよい。このようにすると、車線変更の際に、車両Cとの車間距離が短い他車両100のみを検出することができる。
In the above embodiment, the adjacent lane area 40 may be the authentication target area. That is, the presence / absence of an object on the road surface may be detected by comparing the average luminance of the adjacent lane region 40 with the average luminance in the
・上記実施形態では、車線変更の案内を行う場合に、音声プロセッサ14により音声を出力するようにしたが、画像プロセッサ10により、車線変更を促す表示、警告する表示を、ディスプレイ11又はインストルメントパネルの表示部に出力するようにしても良い。
In the above-described embodiment, when the lane change guidance is performed, the
・上記実施形態では、周辺監視カメラ20をサイドミラー26に取付けるようにしたが、隣接車線102内の他車両100を撮像可能であれば、ルーフ等、その他の場所に取付けるようにしてもよい。また、2つの周辺監視カメラ20を、左右のサイドミラーに取付
ける等、周辺監視カメラ20を複数設けてもよい。そして、車両Cが右側の車線から左側の車線に車線変更する際に、左側のサイドミラーに取付けた周辺撮像データに基づいて、周辺車両データ17を生成し、車線変更の案内を行うようにしてもよい。
In the above embodiment, the
・上記実施形態では、後方監視カメラ21を用いずに路面上の物体の簡易認識を行うようにしてもよい。この場合、周辺撮像データG1内で、車両Cに近い路面に相当する位置等にサンプル枠47を設定し、そのサンプル枠47内の平均輝度値を算出するようにしてもよい。
In the above embodiment, simple recognition of an object on the road surface may be performed without using the
・上記実施形態では、車両Cの前端に取付けられたカメラを用いて、他車両認識を行うようにしてもよい。この場合には、そのカメラによる撮像データを用いて、同様に画像処理を行い、車両Cの前方を走行する他車両100との相対距離、相対速度を取得することができる。そして、その周辺車両データを、車線変更等に用いることができる。
In the above embodiment, other vehicles may be recognized using a camera attached to the front end of the vehicle C. In this case, it is possible to acquire the relative distance and relative speed with respect to the
・上記実施形態では、他車両100の認識処理により生成された周辺車両データ17を、車線変更の運転支援に用いるようにしたが、合流支援等、その他の運転支援に用いるようにしてもよい。
In the above embodiment, the surrounding vehicle data 17 generated by the recognition process of the
1…車載装置としての運転支援装置、2…画像データ取得手段及び案内手段としてのCPU、10…エリア設定手段、簡易認識手段及び車両認識手段としての画像プロセッサ、17…周辺車両データ、20…撮像装置としての周辺監視カメラ、21…撮像装置としての後方監視カメラ、42…認識対象領域としての認識部分枠、50…詳細認識枠、100…他車両、101…車線、102…隣接車線、C…車両、G1…画像データとしての周辺撮像データ、G2…画像データとしての後方撮像データ。
DESCRIPTION OF
Claims (9)
前記自車両に設けられた撮像装置から、前記自車両周辺を撮像した画像データを取得し、その画像データ内の一部の領域を認識部分枠として設定するとともに、
該設定された認識部分枠内の画像データに対して、路面上の物体の有無を判断する簡易認識処理を行い、
該簡易認識処理において路面上に前記物体が有ると判断された際に、物体が有ると判断された前記認識部分枠を含み、該認識部分枠よりも大きい領域の詳細認識枠を設定し、該詳細認識枠内の画像データに対して、前記他車両を認識するための車両認識処理を行うことを特徴とする車両認識方法。 In a vehicle recognition method for recognizing other vehicles around the host vehicle,
Obtaining image data obtained by imaging the periphery of the host vehicle from the imaging device provided in the host vehicle, setting a partial area in the image data as a recognition partial frame ,
For the image data in the set recognition partial frame, simple recognition processing is performed to determine the presence or absence of an object on the road surface,
When it is determined that the object is present on the road surface in the simple recognition process, a detailed recognition frame is set that includes the recognition partial frame that is determined to have an object and is larger than the recognition partial frame, A vehicle recognition method , comprising: performing vehicle recognition processing for recognizing the other vehicle on image data in a detailed recognition frame .
前記自車両に設けられた撮像装置から、前記自車両周辺を撮像した画像データを取得する画像データ取得手段と、
該取得した画像データ内の一部の領域を認識部分枠として設定する第1エリア設定手段と、
該第1エリア設定手段によって設定された前記認識部分枠内の画像データに対して、路面上の物体の有無を判断する簡易認識手段と、
該簡易認識手段が前記路面上に物体が有ると判断した際に、物体が有ると判断された前記認識部分枠を含み、該認識部分枠よりも大きい領域の詳細認識枠を設定する第2エリア設定手段と、
該第2エリア設定手段によって設定された前記詳細認識枠内の画像データに対して、前記他車両を認識するための車両認識処理を行う車両認識手段と
を備えたことを特徴とする車載装置。 In the in-vehicle device that is mounted on the host vehicle and recognizes other vehicles around the mounted host vehicle,
From said imaging device provided in the vehicle, an image data acquisition means for acquiring image data obtained by imaging the subject vehicle around,
First area setting means for setting a partial area in the acquired image data as a recognition partial frame ;
Simple recognition means for judging the presence or absence of an object on the road surface with respect to the image data in the recognition partial frame set by the first area setting means ;
When the simple recognition means determines that there is an object on the road surface, a second area that includes the recognition partial frame that is determined to have an object and sets a detailed recognition frame that is larger than the recognition partial frame Setting means;
An in-vehicle apparatus comprising: vehicle recognition means for performing vehicle recognition processing for recognizing the other vehicle for the image data within the detailed recognition frame set by the second area setting means .
前記第1エリア設定手段は、前記画像データ内において複数の前記認識部分枠を設定するとともに、前記各認識部分枠を間隔を介して配置することを特徴とする車載装置。 The in-vehicle device according to claim 2,
It said first area setting means, vehicle device sets the Oite plurality of said recognition moiety frame in said image data, characterized by disposed with an interval of each recognition moiety frame.
前記第1エリア設定手段は、前記各認識部分枠を、車線に相当する領域内に配置することを特徴とする車載装置。 The in-vehicle device according to claim 3,
The in-vehicle device, wherein the first area setting means arranges each recognition partial frame in an area corresponding to a lane.
前記第1エリア設定手段は、前記認識部分枠を、前記車線の進行方向に沿って並べることを特徴とする車載装置。 The in-vehicle device according to claim 4,
The in-vehicle apparatus, wherein the first area setting means arranges the recognition partial frames along a traveling direction of the lane.
前記自車両の後方の後方画像データを取得する後方画像データ取得手段と、
該後方画像データのうち、前記自車両側の一部の領域を前記路面のみを撮像したサンプル枠として設定する第3エリア設定手段とをさらに備え、
前記簡易認識手段は、前記サンプル枠内の平均輝度と、前記認識部分枠内の平均輝度との差に基づき、路面上の物体の有無を判断することを特徴とする車載装置。 The in-vehicle device according to any one of claims 2 to 5,
Rear image data acquisition means for acquiring rear image data behind the host vehicle;
A third area setting means for setting a part of the rear image data on the vehicle side as a sample frame obtained by imaging only the road surface;
The in-vehicle device, wherein the simple recognition means determines the presence / absence of an object on a road surface based on a difference between an average luminance in the sample frame and an average luminance in the recognition partial frame .
前記車両認識手段は、路面上の物体があると判断した前記認識部分枠を含む前記詳細認識枠内の画像データに対し、エッジ検出を行って他車両を認識することを特徴とする車載装置。 In the in-vehicle device according to any one of claims 2 to 6,
The in-vehicle device, wherein the vehicle recognition means recognizes another vehicle by performing edge detection on image data in the detailed recognition frame including the recognition partial frame that is determined to have an object on a road surface.
前記車両認識手段は、認識した他車両に関する周辺車両データを生成するとともに、
前記周辺車両データに基づき、運転支援に関する案内を行う案内手段をさらに備えることを特徴とする車載装置。 The in-vehicle device according to any one of claims 2 to 7 ,
The vehicle recognition means generates surrounding vehicle data related to the recognized other vehicle,
An in-vehicle device further comprising guidance means for providing guidance regarding driving assistance based on the surrounding vehicle data.
前記画像データ取得手段は、前記車両の側方に設けられた前記撮像装置から、前記他車両を認識するための画像データを取得することを特徴とする車載装置。 The in-vehicle device according to any one of claims 2 to 8 ,
The in-vehicle device, wherein the image data acquisition means acquires image data for recognizing the other vehicle from the imaging device provided on a side of the vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005308864A JP4687381B2 (en) | 2005-10-24 | 2005-10-24 | Vehicle recognition method and in-vehicle device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005308864A JP4687381B2 (en) | 2005-10-24 | 2005-10-24 | Vehicle recognition method and in-vehicle device |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010144985A Division JP4968369B2 (en) | 2010-06-25 | 2010-06-25 | In-vehicle device and vehicle recognition method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007115198A JP2007115198A (en) | 2007-05-10 |
JP4687381B2 true JP4687381B2 (en) | 2011-05-25 |
Family
ID=38097284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005308864A Expired - Fee Related JP4687381B2 (en) | 2005-10-24 | 2005-10-24 | Vehicle recognition method and in-vehicle device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4687381B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012011156A1 (en) | 2010-07-23 | 2012-01-26 | 三菱電機株式会社 | Navigation device |
US9082013B2 (en) | 2012-02-09 | 2015-07-14 | Panasonic Intellectual Property Corporation Of America | Image recognition device, image recognition method, program, and integrated circuit |
JP5653501B2 (en) * | 2013-10-17 | 2015-01-14 | 三菱電機株式会社 | Navigation device |
US9495602B2 (en) * | 2013-10-23 | 2016-11-15 | Toyota Motor Engineering & Manufacturing North America, Inc. | Image and map-based detection of vehicles at intersections |
JP5936751B2 (en) * | 2015-05-29 | 2016-06-22 | 三菱電機株式会社 | Navigation device |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1097699A (en) * | 1996-09-19 | 1998-04-14 | Toyota Motor Corp | Obstacle detecting device for vehicle |
JPH11345392A (en) * | 1998-06-02 | 1999-12-14 | Nissan Motor Co Ltd | Device and method for detecting obstacle |
JP2001307286A (en) * | 2000-04-27 | 2001-11-02 | Mitsubishi Heavy Ind Ltd | Traffic volume measuring device |
JP2002123820A (en) * | 2000-10-17 | 2002-04-26 | Meidensha Corp | Detecting method and device for obstacle being stationary on road obstacle |
JP2003187248A (en) * | 2001-12-21 | 2003-07-04 | Mitsubishi Electric Corp | System and apparatus of image processing |
JP2004251886A (en) * | 2003-01-28 | 2004-09-09 | Nissan Motor Co Ltd | Device for detecting surrounding object |
JP2005182158A (en) * | 2003-12-16 | 2005-07-07 | Toshiba Corp | Obstacle detecting device and method |
JP2005267331A (en) * | 2004-03-19 | 2005-09-29 | Nissan Motor Co Ltd | Vehicle circumference monitoring device |
-
2005
- 2005-10-24 JP JP2005308864A patent/JP4687381B2/en not_active Expired - Fee Related
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1097699A (en) * | 1996-09-19 | 1998-04-14 | Toyota Motor Corp | Obstacle detecting device for vehicle |
JPH11345392A (en) * | 1998-06-02 | 1999-12-14 | Nissan Motor Co Ltd | Device and method for detecting obstacle |
JP2001307286A (en) * | 2000-04-27 | 2001-11-02 | Mitsubishi Heavy Ind Ltd | Traffic volume measuring device |
JP2002123820A (en) * | 2000-10-17 | 2002-04-26 | Meidensha Corp | Detecting method and device for obstacle being stationary on road obstacle |
JP2003187248A (en) * | 2001-12-21 | 2003-07-04 | Mitsubishi Electric Corp | System and apparatus of image processing |
JP2004251886A (en) * | 2003-01-28 | 2004-09-09 | Nissan Motor Co Ltd | Device for detecting surrounding object |
JP2005182158A (en) * | 2003-12-16 | 2005-07-07 | Toshiba Corp | Obstacle detecting device and method |
JP2005267331A (en) * | 2004-03-19 | 2005-09-29 | Nissan Motor Co Ltd | Vehicle circumference monitoring device |
Also Published As
Publication number | Publication date |
---|---|
JP2007115198A (en) | 2007-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6658905B2 (en) | Travel support device and computer program | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
JP4985362B2 (en) | Navigation device, navigation method, and navigation program | |
US8504293B2 (en) | Travel guiding apparatus for vehicle, travel guiding method for vehicle, and computer-readable storage medium | |
US11511627B2 (en) | Display device and computer program | |
JP6926976B2 (en) | Parking assistance device and computer program | |
JP4645429B2 (en) | Vehicle position calculation method and in-vehicle device | |
JP2011118482A (en) | In-vehicle device and recognition support system | |
JP6129268B2 (en) | Vehicle driving support system and driving support method | |
JP2007226666A (en) | Driving support method and driving support device | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
JP4968369B2 (en) | In-vehicle device and vehicle recognition method | |
JP4948338B2 (en) | Inter-vehicle distance measuring device | |
JP4687381B2 (en) | Vehicle recognition method and in-vehicle device | |
JP2006236094A (en) | Obstacle recognition system | |
JP2017062706A (en) | Travel support system, travel support method, and computer program | |
JP2006344133A (en) | Road division line detector | |
JP2007140992A (en) | Method and device for supporting driving at intersection | |
JP2007233430A (en) | Driving support method and driving support device | |
JP2008249634A (en) | Object detector | |
JP2007122395A (en) | Method and device for determining change of direction | |
JP6582798B2 (en) | Driving support system, driving support method, and computer program | |
JP2023131981A (en) | Superimposed image display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080215 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20100128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100427 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110118 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4687381 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140225 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150225 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |