JP2005347945A - Apparatus and method of monitoring vehicle periphery - Google Patents
Apparatus and method of monitoring vehicle periphery Download PDFInfo
- Publication number
- JP2005347945A JP2005347945A JP2004163400A JP2004163400A JP2005347945A JP 2005347945 A JP2005347945 A JP 2005347945A JP 2004163400 A JP2004163400 A JP 2004163400A JP 2004163400 A JP2004163400 A JP 2004163400A JP 2005347945 A JP2005347945 A JP 2005347945A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- position information
- positional relationship
- periphery monitoring
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 238000012544 monitoring process Methods 0.000 title claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 56
- 238000003384 imaging method Methods 0.000 claims abstract description 38
- 238000012806 monitoring device Methods 0.000 claims description 19
- 238000012937 correction Methods 0.000 claims description 5
- 238000001514 detection method Methods 0.000 description 15
- 238000005259 measurement Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/09623—Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
Abstract
Description
本発明は、撮像画像の画像処理結果を利用して車両周辺を監視する車両周辺監視装置に関する。 The present invention relates to a vehicle periphery monitoring apparatus that monitors the periphery of a vehicle using an image processing result of a captured image.
従来から、交差点の存在を画像処理により認識し、次いで、信号機を認識するための認識枠を、当該交差点に対して所定の位置関係で設定し、撮像画像の全領域を画像処理するのではなく、設定した認識枠の範囲だけ画像処理を行うことで、信号機の認識精度を高めようとする技術が知られている(例えば、特許文献1参照)。
ところで、上述の従来技術では、交差点を認識するために撮像画像の全領域を画像処理する必要があり、処理時間の低減及び認識率の向上が図れないという問題点がある。また、交差点の認識精度等に起因して、信号機の認識精度が悪化したり、認識時点が遅れたりする場合もありうる。 By the way, in the above-described prior art, it is necessary to perform image processing on the entire region of the captured image in order to recognize the intersection, and there is a problem that the processing time cannot be reduced and the recognition rate cannot be improved. In addition, due to the recognition accuracy of the intersection, the recognition accuracy of the traffic light may deteriorate, or the recognition time may be delayed.
これに対して、信号機等の認識対象の物体を画像処理により認識した際、その物体の位置情報を記憶しておき、次回以降同一物体を認識する際に、当該記憶した位置情報を用いることで、次回以降の認識処理を効率化することも考えられる。しかしながら、画像処理により得られる位置情報は、撮像手段の視線方向(奥行き方向)の精度が良好でない場合があり、同様に、認識対象の物体の認識精度が悪化したり、遅れたりする場合がありうる。 In contrast, when an object to be recognized such as a traffic light is recognized by image processing, the position information of the object is stored, and the next time the next time the same object is recognized, the stored position information is used. It is also conceivable to improve the efficiency of recognition processing from the next time. However, the positional information obtained by the image processing may not be accurate in the line-of-sight direction (depth direction) of the imaging means, and similarly, the recognition accuracy of the object to be recognized may be deteriorated or delayed. sell.
そこで、本発明は、認識対象の物体を的確なタイミングで且つ高精度に認識できる車両周辺監視装置及び車両周辺監視方法を提供することを目的とする。 Therefore, an object of the present invention is to provide a vehicle periphery monitoring device and a vehicle periphery monitoring method that can recognize an object to be recognized at an accurate timing and with high accuracy.
上記課題を解決するため、本発明の一局面によれば、車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断する車両周辺監視装置であって、
撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視装置が提供される。
In order to solve the above-described problem, according to one aspect of the present invention, image processing is performed on an image around a vehicle captured by an imaging unit mounted at a predetermined position of the vehicle, and an object between the vehicle and the surrounding object is captured. A vehicle periphery monitoring device for determining the three-dimensional positional relationship of
The positional relationship related to the line-of-sight direction of the imaging means is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, and relates to a direction perpendicular to the line-of-sight direction of the imaging means. A vehicle periphery monitoring device is provided in which the positional relationship is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.
本局面において、前記位置関係が判断される対象となる物体は、交差点付近に存在する物体(例えば、レーン表示や一時停止線)であってよく、特には信号機であってよい。また、撮像手段の視線方向に係る前記位置関係の判断に用いる前記所与の地図データは、交差点の座標データを含み、前記物体と車両との間の3次元的な位置関係は、交差点に対する前記物体及び車両のそれぞれの3次元的な位置関係を介して判断され、前記所与の地図データに基づく物体位置情報は、交差点の位置データに基づいて導出されてよい。例えば、前記所与の地図データに基づく物体位置情報は、交差点のノードに対する相対的な位置として導出されて良い。また、前記所与の地図データに基づく物体位置情報は、交差点の位置データと、交差道路の幅員データとに基づいて導出されてよい。この場合、交差道路に対して手前側か若しくは奥側にあるかの物体位置情報は、画像処理に基づいて判断されてよい。 In this aspect, the object for which the positional relationship is determined may be an object (for example, a lane display or a temporary stop line) existing in the vicinity of an intersection, and may be a traffic light. Further, the given map data used for the determination of the positional relationship relating to the line-of-sight direction of the imaging means includes coordinate data of an intersection, and the three-dimensional positional relationship between the object and the vehicle is the above-described relationship with respect to the intersection. The object position information determined based on the three-dimensional positional relationship between the object and the vehicle and based on the given map data may be derived based on the position data of the intersection. For example, the object position information based on the given map data may be derived as a relative position with respect to an intersection node. The object position information based on the given map data may be derived based on the intersection position data and the width data of the intersection road. In this case, the object position information as to whether it is on the near side or the far side with respect to the intersection road may be determined based on image processing.
また、前記交差点付近に存在する物体を認識するための認識枠を設定し、該認識枠内で物体の存在の有無を画像認識処理により判断する車両周辺監視装置において、前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記認識枠の画像奥行き方向の大きさ及び位置が変更されてよい。また、前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記物体を認識するための画像処理の開始タイミングが決定されてよい。 Further, in the vehicle periphery monitoring device that sets a recognition frame for recognizing an object existing near the intersection and determines the presence / absence of the object in the recognition frame by image recognition processing, the determined line of sight of the imaging unit The size and position of the recognition frame in the image depth direction may be changed based on the positional relationship related to the direction. Further, a start timing of image processing for recognizing the object may be determined based on the positional relationship relating to the determined line-of-sight direction of the imaging unit.
また、効果的には、前記判断した撮像手段の視線方向に直角な方向に係る前記位置関係を、補助情報として記憶する補助情報記憶手段を備え、前記画像処理の開始時の前記認識枠の大きさ及び位置は、補助情報記憶手段内の補助情報を用いて決定される。前記撮像手段は、ステレオカメラに対してコスト面で有利な単眼カメラであってもよい。 Further, it effectively includes auxiliary information storage means for storing, as auxiliary information, the positional relationship relating to the direction perpendicular to the line-of-sight direction of the determined imaging means, and the size of the recognition frame at the start of the image processing The height and position are determined using auxiliary information in the auxiliary information storage means. The imaging unit may be a monocular camera that is advantageous in terms of cost with respect to a stereo camera.
また、本発明のその他の一局面によれば、車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像に対して画像処理を行うことで、車両周辺の物体を監視する車両周辺監視装置において、
車両周辺の物体と車両との間の3次元的な位置関係を判断する際、撮像手段の視線方向に係る前記位置関係を、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて補正することを特徴とする、車両周辺監視装置が提供される。
According to another aspect of the present invention, the vehicle periphery monitoring for monitoring an object around the vehicle by performing image processing on an image around the vehicle captured by an imaging unit mounted at a predetermined position of the vehicle. In the device
When determining the three-dimensional positional relationship between an object around the vehicle and the vehicle, the positional relationship related to the line-of-sight direction of the imaging means is based on the vehicle position information based on GPS positioning and given map data A vehicle periphery monitoring device is provided that performs correction based on object position information.
また、本発明のその他の一局面によれば、車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像を取得するステップと、
前記取得した画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断するステップとを含み、
該判断ステップにおいて、撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視方法が提供される。
According to another aspect of the present invention, the step of acquiring an image around the vehicle captured by the imaging means mounted at a predetermined position of the vehicle;
Performing image processing on the acquired image and determining a three-dimensional positional relationship between an object around the vehicle and the vehicle,
In the determination step, the positional relationship related to the line-of-sight direction of the imaging unit is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, The vehicle periphery monitoring method is characterized in that the positional relationship in the perpendicular direction is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.
本発明によれば、認識対象の物体を的確なタイミングで且つ高精度に認識できる車両周辺監視装置及び車両周辺監視方法を得ることができる。 ADVANTAGE OF THE INVENTION According to this invention, the vehicle periphery monitoring apparatus and vehicle periphery monitoring method which can recognize the object of recognition object with an exact timing and high precision can be obtained.
以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は、本発明による車両周辺監視装置の一実施形態を示すシステム構成図である。本実施例の車両周辺監視装置は、画像認識・モデル作成プロセッサ10(以下、単に「プロセッサ10」という)を中心に構成される。プロセッサ10は、CPUやROM等を含み、後述する各処理を実行する。尚、プロセッサ10は、画像処理回路を構成するFPGA(Field Programmable Gate Array)を更に含んでよい。
FIG. 1 is a system configuration diagram showing an embodiment of a vehicle periphery monitoring device according to the present invention. The vehicle periphery monitoring apparatus according to the present embodiment is configured around an image recognition / model creation processor 10 (hereinafter simply referred to as “
プロセッサ10には、車両の位置(車両の向きを含む)を計測可能な位置検出手段12が接続されている。位置検出手段12は、GPS(Global Positioning System)受信機を含む。GPS受信機は、衛星からの衛星信号や他の基準局からの情報に基づいて車両の位置及び方位を計測する。尚、車両の位置の測位手法としては、単独測位や干渉測位(キネマティック法(RTK−GPS測位アルゴリズム))に基づくものであってよい。
The
位置検出手段12は、INS(Inertial
Navigation Sensor)を含んでもよい。INSは、車両を中心に定義されるボデー座標系の3軸まわりの回転パラメータを検出するジャイロセンサ、及び、同3軸の各方向の加速度を検出する加速度センサにより構成されてよい。INSは、これらのセンサの検出値に基づいて、走行時の車両の動的な状態量を表わす運動状態量を検出する。この場合、位置検出手段12は、GPS受信機と共にINSの検出結果を考慮して、車両の位置を決定してよい。例えば、位置検出手段12は、GPS受信機の受信状態が良好でない場合(典型的には、電波遮断時)、GPS受信機の受信状態が回復するまでINSによる検出結果を利用して、車両の位置を決定してよい。
The position detection means 12 is an INS (Inertial
Navigation Sensor) may be included. The INS may be composed of a gyro sensor that detects rotation parameters around three axes of a body coordinate system defined around the vehicle, and an acceleration sensor that detects acceleration in each direction of the three axes. The INS detects a motion state quantity representing a dynamic state quantity of the vehicle during traveling based on detection values of these sensors. In this case, the
プロセッサ10には、地図データベース22が接続されている。地図データベース22には、DVD、CD−ROM等の記録媒体上に所与の地図情報が格納されている。地図情報には、交差点・高速道路の合流点/分岐点に各々対応する各ノードの座標情報、隣接するノードを接続するリンク情報、及び、各リンクに対応する道路の幅員情報が含まれており、その他、各リンクに対応する国道・県道・高速道路等の道路種別、各リンクの通行規制情報及び各リンク間の通行規制情報等が含まれていてよい。
A
プロセッサ10には、空間モデルデータベース30が接続されている。空間モデルデータベース30は、ハードディスクのような書き込み可能な記録媒体により構成される。空間モデルデータベース30には、地図データベース22内の地図情報には存在しない有用な情報(後で詳説する補助情報)が随時格納されていく。
A
プロセッサ10には、更に、レーダーセンサ19が接続されてもよい。レーダーセンサ19は、ミリ波レーダセンサであってよく、例えば車両のフロントグリル付近に配設される。レーダーセンサ19がミリ波レーダセンサの場合、例えば2周波CW(Continuous Wave)方式により、2つの周波数の位相情報から車両前方の物体の相対位置(自車に対する相対位置)が計測されてよい。尚、レーダーセンサ19は、車両前方の所定領域内に放射ビームを1次元的又は2次元的に走査するように構成されていてよい。
A
プロセッサ10には、CCDカメラのような撮像手段18が接続されている。撮像手段18は、車両周辺の風景を撮像するように車両の適切な位置に搭載され、例えば車両の室内のルームミラー付近に固定される。撮像手段18が撮像した撮像画像の画像データはプロセッサ10に供給される。尚、撮像手段18が撮像した撮像画像は、映像信号として表示装置24に供給され、液晶ディスプレイのような表示装置24上に表示される。
An imaging means 18 such as a CCD camera is connected to the
プロセッサ10は、以下詳説する如く、撮像手段18からの撮像画像に対して画像認識処理を行い、認識すべき対象物体(以下、「物標」という)の特徴点を撮像画像の所定領域内で探索し、物標の有無やその状態等を認識する。プロセッサ10は、その認識結果に応じて、所定の制御を実行させてもよい。例えば、プロセッサ10は、物標として信号機を認識し、その状態として信号機が“赤”の点灯状態である場合、信号機と車両の相対位置関係や車速等に応じて警報を出力するようにしてもよい。
As will be described in detail below, the
このような車両周辺監視装置の物標認識機能は、撮像手段18という新たな“目”として乗員の目を効果的に補助できる点で非常に有用である。このような車両周辺監視装置による物標認識機能の有用性を向上させるには、物標を的確なタイミングで認識し始め且つ高精度に認識できることが必要となる。 Such a target recognition function of the vehicle periphery monitoring device is very useful in that it can effectively assist a passenger's eyes as a new “eye” of the imaging means 18. In order to improve the usefulness of the target recognition function by such a vehicle periphery monitoring device, it is necessary to start recognizing the target at an accurate timing and to recognize it with high accuracy.
図2は、本実施例の車両周辺監視装置のプロセッサ10により実行される物標認識処理のフローチャートである。尚、以下の処理中において、プロセッサ10には、位置検出手段12から最新の車両位置情報が所定周期で入力されているものとする。
FIG. 2 is a flowchart of the target recognition process executed by the
プロセッサ10は、位置検出手段12から得た車両位置情報に基づいて、現在の車両位置を基準として車両位置周辺の地図情報を地図データベース22から読み込む(ステップ100)。
Based on the vehicle position information obtained from the position detection means 12, the
プロセッサ10は、読み込んだ地図情報及び車両位置情報に基づいて、現在の車両位置に対応する道路(リンク)を特定し(ステップ110)、進行方向前方に交差点が存在するか否かを地図データベース22内の地図情報の交差点情報に基づいて判断する(ステップ120)。進行方向前方に交差点が存在しないと判断した場合、ステップ100に戻る。
The
プロセッサ10は、進行方向前方に交差点が存在すると判断した場合、当該交差点に関連付けられた補助情報が、空間モデルデータベース30内に格納されているか否かをチェックする(ステップ130)。補助情報が空間モデルデータベース30内に存在しないと判断した場合、ステップ200以後の処理に進む。一方、補助情報が空間モデルデータベース30内に存在すると判断した場合、ステップ300以後の処理に進む。
When the
図3は、補助情報が空間モデルデータベース30内に存在しないと判断した場合に実行される処理を示すフローチャートである。この場合、プロセッサ10は、位置検出手段12からの最新の車両位置情報と、地図データベース22内の交差点の位置情報とに基づいて、交差点周辺の物標と車両との相対的な位置関係を判断する(ステップ200)。この際、プロセッサ10は、交差点周辺の物標の位置情報を、交差点の位置情報に基づいて、簡易的に導出してもよい。例えば、物標として信号機の位置情報は、交差点の位置から高さ5mだけオフセットした位置情報であってよい。また、物標として停止線やレーン表示の位置情報は、交差点の位置から車両進行方向手前に道路の幅員分(若しくは幅員+α)だけオフセットした位置情報であってよい。
FIG. 3 is a flowchart showing a process executed when it is determined that the auxiliary information does not exist in the
続くステップ210では、プロセッサ10は、ステップ200で得た相対的な位置関係に基づいて、所定のタイミング(例えば、物標との車両進行方向の距離が所定値となった時点)で物標を認識するための画像処理を開始し、以後、所定の周期毎に入力される最新の撮像画像に対して、適切な時点(例えば、交差点通過時点)まで画像処理を継続する(ステップ220)。この際、プロセッサ10は、所定の周期毎に入力される最新の撮像画像に対して、当該撮像時点での物標と車両との相対的な位置関係(位置検出手段12からの最新の車両位置情報に基づいて随時変化)に基づいて、物標を認識するための画像処理範囲(認識枠)の位置・大きさを決定する。例えば、車両が物標(又は交差点)に近づくにつれて(即ち、物標と車両との間の車両進行方向の相対距離が小さくなるにつれて)、認識枠は、画面上側に移動されつつ、画面奥行き方向の大きさが小さくされると共に画面幅方向の大きさが大きくされてよい。
In
このようして一連の撮像画像に対する画像処理が終了すると、プロセッサ10は、当該画像処理結果に基づいて、物標の位置情報を生成する(ステップ230)。この物標の位置情報は、交差点の位置(交差点ノードの座標値)のような固定点に対する相対的な位置情報、若しくは、絶対座標系(例えば、緯度、経度、高度)に基づく位置情報である。例えば、前者の例として、物標(信号機)の位置情報は、図4に示すように、交差点ノードの座標値に対する相対座標値(Δx、Δy、Δz)として管理されてもよい。以下、説明の都合上、物標の位置情報は、相対座標値(Δx、Δy、Δz)で管理されるものとし、この相対座標系のY軸は、車両の進行方向(即ち走行道路の延在方向)に対応しているものとする。尚、本例では、撮像手段18の視線方向が車両進行方向に略一致するとして説明を続ける。
When the image processing on the series of captured images is completed in this way, the
続くステップ240では、プロセッサ10は、上記ステップ230で生成した物標の位置情報の信頼性を判断する。この際、プロセッサ10は、特に、物標の位置情報のうち車両進行方向に係る位置情報(即ち、Δy)の信頼性を判断する。これは、撮像手段18として単眼カメラを用いた場合、物標の3次元位置測定には運動視差(motion
stereo)が利用されるが、この場合、(空間的・時間的な)視差が確保され難く、奥行き方向(撮像手段18の視線ベクトル方向)の測定誤差が大きいことに基づく。また、撮像手段18としてステレオカメラを用いた場合であっても、車両に搭載される関係上、十分な視差を確保し難く、依然として奥行き方向(撮像手段18の視線ベクトル方向)の測定誤差が大きいことに基づく。
In
stereo) is used. In this case, it is difficult to ensure parallax (in terms of space and time) and the measurement error in the depth direction (the direction of the line of sight of the imaging unit 18) is large. Even when a stereo camera is used as the image pickup means 18, it is difficult to secure a sufficient parallax because of being mounted on a vehicle, and the measurement error in the depth direction (the line-of-sight vector direction of the image pickup means 18) is still large. Based on that.
尚、ステップ240において、プロセッサ10は、車両進行方向に直角な方向に係る位置情報(即ち、Δx、Δz)についても信頼性を判断してよい。但し、通常的には、撮像手段18の視線ベクトル方向に直角な方向での測定誤差は小さいので、異常値で無い限りそのまま採用されてよい。
In
プロセッサ10は、車両進行方向に係る位置情報に大きな誤差が含まれていると判断した場合(|Δy|>TH、THは所定の閾値)、当該車両進行方向に係る位置情報に補正を施し(ステップ250)、補正後の物標の位置情報(Δx、Δy、Δz)を補助情報として空間モデルデータベース30に格納する(ステップ260)。一方、車両進行方向に係る位置情報が適切である判断した場合(|Δy|≦TH)、補正を行うことなく、物標の位置情報(Δx、Δy、Δz)を補助情報として空間モデルデータベース30に格納する(ステップ260)。尚、ステップ260において、補助情報は、好ましくは、物標の種類と共に、対応する交差点に関連付けて空間モデルデータベース30内に格納される。
When the
ここで、上記ステップ250の補正処理に関して、車両進行方向に係る位置情報は、交差点の位置から車両進行方向手前に交差道路の幅員分(若しくは幅員+α)だけオフセットした値にされてよい。この際、画像認識により得られる車両進行方向に係る位置情報(Δy)は、その正負の符号のみが利用されてよい(即ち、交差点の手前か奥かに関する物標の位置情報のみが採用されてよい)。例えば、Δy=−40[m]に対しては、Δy=−D(若しくはΔy=−D−α、Dは交差道路の幅員[m])と補正されてよい。或いは、上記ステップ250において、物標の車両進行方向に係る位置情報は、画像処理により得られる他の物標の車両進行方向に係る大きさや位置と他の検出手段による当該他の物標の車両進行方向に係る大きさや位置(若しくは既知の大きさや位置)との比較結果や、レーダーセンサ19による同物標の検出結果を利用して補正されてよい。
Here, with regard to the correction processing in
次に、上述の如く作成された補助情報の利用態様について、図5を参照して説明する。図5は、図2のステップ130において補助情報が空間モデルデータベース30内に存在しないと判断された場合に実行されるフローチャートである。この場合、プロセッサ10は、位置検出手段12からの最新の車両位置情報と、空間モデルデータベース30内の補助情報とに基づいて、交差点周辺の物標と車両との相対的な位置関係を判断する(ステップ300)。
Next, a usage mode of the auxiliary information created as described above will be described with reference to FIG. FIG. 5 is a flowchart executed when it is determined in
同様に、続くステップ310では、プロセッサ10は、ステップ300で得た相対的な位置関係に基づいて、所定のタイミング(例えば、物標との車両進行方向の距離が所定値となった時点)で物標を認識するための画像処理を開始し、以後、所定の周期毎に入力される最新の撮像画像に対して、適切な時点(例えば、交差点通過時点)まで画像処理を継続する(ステップ320)。
Similarly, in the following
この際、プロセッサ10は、所定の周期毎に入力される最新の撮像画像に対して、当該撮像時点での物標と車両との相対的な位置関係(位置検出手段12からの最新の車両位置情報に基づいて随時変化)に基づいて、物標を認識するための画像処理範囲(認識枠)の位置・大きさを決定する。この際、認識枠の画像奥行き方向の大きさ及び位置は、主に、物標の車両進行方向に係る位置情報に基づいて決定される。
At this time, the
このように本実施例では、一旦補助情報が作成・記憶されると、以降の認識処理において、物標と車両との相対的な位置関係(即ち物標の位置情報)は、空間モデルデータベース30内の補助情報を利用して導出される。これにより、図3の判断(上記ステップ210)に比して、車両と物標との間の3次元的な相対位置関係を正確に判断することが可能である。また、本実施例では、補助情報は、上述の如く、撮像手段18の視線ベクトル方向の測定誤差が大きいことを考慮して、撮像手段18の視線ベクトル方向の成分が補正されているので、車両と物標との間の3次元的な相対位置関係を正確に判断することが可能である。
As described above, in the present embodiment, once the auxiliary information is created and stored, in the subsequent recognition processing, the relative positional relationship between the target and the vehicle (that is, the position information of the target) is the
従って、本実施例によれば、物標を適切なタイミングで認識し始めることが可能となり、また、当該認識のための画像処理範囲(認識枠)も適切に設定することが可能となり(特に、認識枠の画像奥行き方向の大きさ及び位置を適切に設定することが可能となる)、その結果、物標を的確なタイミングで且つ高精度に認識できる。 Therefore, according to the present embodiment, it is possible to start recognizing a target at an appropriate timing, and it is also possible to appropriately set an image processing range (recognition frame) for the recognition (in particular, It is possible to appropriately set the size and position of the recognition frame in the image depth direction), and as a result, the target can be recognized with high accuracy and with accurate timing.
次に、図6を参照して、本願発明者によって実行された実施例について説明する。時速60km/hで走行する車両から撮像した画像に対して画像処理を実施した。先ず、空間モデルデータベース30内に補助情報が無い場合を想定して(図3参照)、図6(A)に示すように、縦130ピクセル×横400ピクセルの範囲を画像処理範囲として設定して画像処理を実行した。この場合、車両前方70mに位置する信号機を認識するのに要した計算時間は20msであった。この信号機認識の結果を用いて、信号機の位置を計算したところ、交差点ノードに対する相対座標値(Δx、Δy、Δz)=(7.3,67.4,5.2)が得られた。この場合、Δy=67.4が異常に大きいため、Δyの値を交差道路の幅員5.5[m]に補正した。 Next, with reference to FIG. 6, the Example performed by this inventor is demonstrated. Image processing was performed on an image captured from a vehicle traveling at a speed of 60 km / h. First, assuming that there is no auxiliary information in the spatial model database 30 (see FIG. 3), as shown in FIG. 6A, a range of 130 pixels long × 400 pixels wide is set as an image processing range. Image processing was executed. In this case, the calculation time required to recognize the traffic light located 70 m ahead of the vehicle was 20 ms. When the traffic signal position was calculated using the result of the traffic signal recognition, relative coordinate values (Δx, Δy, Δz) = (7.3, 67.4, 5.2) with respect to the intersection node were obtained. In this case, since Δy = 67.4 is abnormally large, the value of Δy was corrected to the width of the crossing road 5.5 [m].
次に、空間モデルデータベース30内に補助情報(Δx、Δy、Δz)=(7.3,5.5,5.2)を格納し、同様の処理を行ったところ(図5参照)、図6(B)に示すように、縦70ピクセル×横130ピクセルの範囲を画像処理範囲として限定することができ、同一の信号機を認識するのに要した計算時間は7msまで短縮できた。
Next, auxiliary information (Δx, Δy, Δz) = (7.3, 5.5, 5.2) is stored in the
一方、空間モデルデータベース30内に補助情報(Δx、Δy、Δz)=(7.3,67.4,5.2)を格納し、同様の処理を行ったところ、画像処理の開始タイミングが極端に遅くなり、車両前方70mに位置する信号機を認識することが不能となった。
On the other hand, when auxiliary information (Δx, Δy, Δz) = (7.3, 67.4, 5.2) is stored in the
以上から、信号機の車両進行方向の位置情報の精度を高めることで、信号機を認識するのに要する画像処理範囲及び計算時間を大幅に低減できることがわかる。 From the above, it can be seen that the image processing range and calculation time required for recognizing the traffic light can be greatly reduced by increasing the accuracy of the position information of the traffic light in the vehicle traveling direction.
以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。 The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.
例えば、上述の実施例において、画像処理結果から得られる物標の車両進行方向に係る位置情報に大きな誤差があると判断した場合に、当該車両進行方向に係る位置情報として、単に所定の値(例えばゼロ)を採用することとしてもよい。 For example, in the above-described embodiment, when it is determined that there is a large error in the position information related to the vehicle traveling direction of the target obtained from the image processing result, the position information related to the vehicle traveling direction is simply a predetermined value ( For example, zero) may be adopted.
また、上述の実施例では、補正された物標の位置情報は、次回以降に同一の物標を認識するために(同一道路を同一方向に走行する2回目以降の走行の際に)利用されているが、数フレームの画像に対する画像処理結果から得た同様の補助情報(車両進行方向に係る位置情報が同様に補正される)を利用して、以後のフレームの画像に対する画像処理方法が修正されてもよい(例えば、画像処理範囲(認識枠)の大きさ・位置が修正されてよい)。 Further, in the above-described embodiment, the corrected position information of the target is used for the same target after the next time (during the second and subsequent runs on the same road in the same direction). However, using the same auxiliary information (position information related to the vehicle traveling direction is corrected in the same way) obtained from the image processing results for several frames of images, the image processing method for subsequent frames of images is modified. (For example, the size and position of the image processing range (recognition frame) may be corrected).
また、上述では、物標の位置情報(補助情報)は、主に画像処理の開始タイミングや画像処理範囲(認識枠)の大きさ・位置を決定するために使用されているが、物標の位置情報(補助情報)は、物標と車両との相対的な位置関係に基づいて実行される如何なる制御に利用されてよい。特に、物標の車両進行方向に係る位置情報は、警報や介入制動等の制御において重要なパラメータとなりうる。 In the above description, the target position information (auxiliary information) is mainly used for determining the start timing of image processing and the size and position of the image processing range (recognition frame). The position information (auxiliary information) may be used for any control executed based on the relative positional relationship between the target and the vehicle. In particular, the position information related to the vehicle traveling direction of the target can be an important parameter in control such as warning and intervention braking.
また、本発明は、図示したような車両用の信号機のみならず歩行者用の信号機に対しても適用可能である。 Further, the present invention is applicable not only to a vehicle traffic signal as shown in the figure but also to a pedestrian traffic signal.
10 画像認識・モデル作成プロセッサ
12 位置検出手段
18 撮像手段
19 レーダーセンサ
22 地図データベース
24 表示装置
30 空間モデルデータベース
DESCRIPTION OF
Claims (12)
撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視装置。 A vehicle periphery monitoring device that performs image processing on an image around a vehicle imaged by an imaging unit mounted at a predetermined position of the vehicle and determines a three-dimensional positional relationship between an object around the vehicle and the vehicle. And
The positional relationship related to the line-of-sight direction of the imaging means is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, and relates to a direction perpendicular to the line-of-sight direction of the imaging means. The vehicle periphery monitoring device, wherein the positional relationship is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.
前記物体と車両との間の3次元的な位置関係は、交差点に対する前記物体及び車両のそれぞれの3次元的な位置関係を介して判断され、
前記所与の地図データに基づく物体位置情報は、交差点の位置データに基づいて導出される、請求項2記載の車両周辺監視装置。 The given map data includes intersection coordinate data;
The three-dimensional positional relationship between the object and the vehicle is determined via the respective three-dimensional positional relationship between the object and the vehicle with respect to an intersection,
The vehicle periphery monitoring device according to claim 2, wherein the object position information based on the given map data is derived based on intersection position data.
前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記認識枠の画像奥行き方向の大きさ及び位置を変更する、車両周辺監視装置。 The vehicle periphery monitoring apparatus according to claim 2, wherein a recognition frame for recognizing an object existing near the intersection is set, and the presence or absence of the object is determined by image recognition processing in the recognition frame.
A vehicle periphery monitoring device that changes the size and position of the recognition frame in the image depth direction based on the determined positional relationship related to the line-of-sight direction of the imaging means.
前記画像処理の開始時の前記認識枠の大きさ及び位置は、補助情報記憶手段内の補助情報を用いて決定される、請求項7記載の車両周辺監視装置。 Auxiliary information storage means for storing the positional relationship in the direction perpendicular to the line-of-sight direction of the determined imaging means as auxiliary information,
The vehicle periphery monitoring device according to claim 7, wherein the size and position of the recognition frame at the start of the image processing are determined using auxiliary information in auxiliary information storage means.
車両周辺の物体と車両との間の3次元的な位置関係を判断する際、撮像手段の視線方向に係る前記位置関係を、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて補正することを特徴とする、車両周辺監視装置。 In a vehicle periphery monitoring device that monitors an object around a vehicle by performing image processing on an image around the vehicle imaged by an imaging unit mounted at a predetermined position of the vehicle,
When determining the three-dimensional positional relationship between an object around the vehicle and the vehicle, the positional relationship related to the line-of-sight direction of the imaging means is based on the vehicle position information based on GPS positioning and given map data A vehicle periphery monitoring device, wherein correction is performed based on object position information.
前記取得した画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断するステップとを含み、
該判断ステップにおいて、撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視方法。 Acquiring an image around the vehicle imaged by an imaging means mounted at a predetermined position of the vehicle;
Performing image processing on the acquired image and determining a three-dimensional positional relationship between an object around the vehicle and the vehicle,
In the determination step, the positional relationship related to the line-of-sight direction of the imaging unit is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, The vehicle periphery monitoring method according to claim 1, wherein the positional relationship related to the perpendicular direction is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004163400A JP4475015B2 (en) | 2004-06-01 | 2004-06-01 | Vehicle periphery monitoring device and vehicle periphery monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004163400A JP4475015B2 (en) | 2004-06-01 | 2004-06-01 | Vehicle periphery monitoring device and vehicle periphery monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005347945A true JP2005347945A (en) | 2005-12-15 |
JP4475015B2 JP4475015B2 (en) | 2010-06-09 |
Family
ID=35499932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004163400A Expired - Fee Related JP4475015B2 (en) | 2004-06-01 | 2004-06-01 | Vehicle periphery monitoring device and vehicle periphery monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4475015B2 (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241469A (en) * | 2006-03-06 | 2007-09-20 | Toyota Motor Corp | Image processing system |
JP2007309670A (en) * | 2006-05-16 | 2007-11-29 | Toyota Motor Corp | Vehicle position detector |
JP2008009870A (en) * | 2006-06-30 | 2008-01-17 | Denso Corp | Information storage device and program for control |
JP2009059208A (en) * | 2007-08-31 | 2009-03-19 | Aisin Aw Co Ltd | Driving support device, driving support method, and computer program |
JP2012064153A (en) * | 2010-09-17 | 2012-03-29 | Denso Corp | Moving object detector and program |
JP2015518600A (en) * | 2012-03-26 | 2015-07-02 | グーグル・インク | A robust method for detecting traffic signals and their associated conditions |
US9216684B2 (en) | 2012-10-05 | 2015-12-22 | Denso Corporation | Display apparatus |
JP2016143324A (en) * | 2015-02-04 | 2016-08-08 | 株式会社デンソー | Object detection device |
US9489584B2 (en) | 2012-05-25 | 2016-11-08 | Denso Corporation | Intersection recognition device and road type recognition device |
WO2016199225A1 (en) * | 2015-06-09 | 2016-12-15 | 日産自動車株式会社 | Signaler detection device and signaler detection method |
CN110648539A (en) * | 2018-06-27 | 2020-01-03 | 丰田自动车株式会社 | In-vehicle device and control method |
KR102454599B1 (en) * | 2021-05-26 | 2022-10-17 | 포티투닷 주식회사 | Method and apparatus for determining the position of an object on a lane map |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7261090B2 (en) * | 2019-05-30 | 2023-04-19 | フォルシアクラリオン・エレクトロニクス株式会社 | In-vehicle device, driving assistance method, and driving assistance system |
-
2004
- 2004-06-01 JP JP2004163400A patent/JP4475015B2/en not_active Expired - Fee Related
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007241469A (en) * | 2006-03-06 | 2007-09-20 | Toyota Motor Corp | Image processing system |
JP4631750B2 (en) * | 2006-03-06 | 2011-02-16 | トヨタ自動車株式会社 | Image processing system |
US8134480B2 (en) | 2006-03-06 | 2012-03-13 | Toyota Jidosha Kabushiki Kaisha | Image processing system and method |
JP2007309670A (en) * | 2006-05-16 | 2007-11-29 | Toyota Motor Corp | Vehicle position detector |
JP2008009870A (en) * | 2006-06-30 | 2008-01-17 | Denso Corp | Information storage device and program for control |
JP2009059208A (en) * | 2007-08-31 | 2009-03-19 | Aisin Aw Co Ltd | Driving support device, driving support method, and computer program |
JP2012064153A (en) * | 2010-09-17 | 2012-03-29 | Denso Corp | Moving object detector and program |
US10906548B2 (en) | 2012-03-26 | 2021-02-02 | Waymo Llc | Robust method for detecting traffic signals and their associated states |
US11731629B2 (en) | 2012-03-26 | 2023-08-22 | Waymo Llc | Robust method for detecting traffic signals and their associated states |
US9796386B2 (en) | 2012-03-26 | 2017-10-24 | Waymo Llc | Robust method for detecting traffic signals and their associated states |
JP2015518600A (en) * | 2012-03-26 | 2015-07-02 | グーグル・インク | A robust method for detecting traffic signals and their associated conditions |
US9489584B2 (en) | 2012-05-25 | 2016-11-08 | Denso Corporation | Intersection recognition device and road type recognition device |
US9216684B2 (en) | 2012-10-05 | 2015-12-22 | Denso Corporation | Display apparatus |
US9475420B2 (en) | 2012-10-05 | 2016-10-25 | Denso Corporation | Display apparatus |
US9771022B2 (en) | 2012-10-05 | 2017-09-26 | Denso Corporation | Display apparatus |
JP2016143324A (en) * | 2015-02-04 | 2016-08-08 | 株式会社デンソー | Object detection device |
US10210407B2 (en) | 2015-06-09 | 2019-02-19 | Nissan Motor Co., Ltd. | Traffic signal detection device and traffic signal detection method |
JPWO2016199225A1 (en) * | 2015-06-09 | 2018-05-10 | 日産自動車株式会社 | Signal detection device and signal detection method |
WO2016199225A1 (en) * | 2015-06-09 | 2016-12-15 | 日産自動車株式会社 | Signaler detection device and signaler detection method |
CN110648539A (en) * | 2018-06-27 | 2020-01-03 | 丰田自动车株式会社 | In-vehicle device and control method |
CN110648539B (en) * | 2018-06-27 | 2022-09-23 | 丰田自动车株式会社 | In-vehicle device and control method |
KR102454599B1 (en) * | 2021-05-26 | 2022-10-17 | 포티투닷 주식회사 | Method and apparatus for determining the position of an object on a lane map |
KR20220159868A (en) * | 2021-05-26 | 2022-12-05 | 포티투닷 주식회사 | Method and apparatus for performing lane fitting |
KR102491524B1 (en) | 2021-05-26 | 2023-01-27 | 포티투닷 주식회사 | Method and apparatus for performing lane fitting |
Also Published As
Publication number | Publication date |
---|---|
JP4475015B2 (en) | 2010-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7082545B2 (en) | Information processing methods, information processing equipment and programs | |
US8461976B2 (en) | On-vehicle device and recognition support system | |
CN115668182A (en) | Autonomous vehicle context aware software architecture | |
US9126533B2 (en) | Driving support method and driving support device | |
JP4483305B2 (en) | Vehicle periphery monitoring device | |
JP4981566B2 (en) | Driving support device and driving support method | |
US20210278221A1 (en) | Lane marking localization and fusion | |
US20190347808A1 (en) | Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera | |
JP4475015B2 (en) | Vehicle periphery monitoring device and vehicle periphery monitoring method | |
CN111674389B (en) | Parking support device and parking support method | |
JP5028662B2 (en) | Road white line detection method, road white line detection program, and road white line detection device | |
JP2008309529A (en) | Navigation system, navigation method and program for navigation | |
KR20020033817A (en) | Device for assisting automobile driver | |
JP2008034966A (en) | Image display apparatus | |
JP2009211624A (en) | Driving support device, driving support method, and computer program | |
KR102037129B1 (en) | Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same | |
JP2020016541A (en) | Display controller for vehicles, display control method for vehicles, and control program | |
JP2007240422A (en) | Depression angle calculator, depression angle calculation method, depression angle calculation program, and image processor | |
US11677931B2 (en) | Automated real-time calibration | |
JP6989284B2 (en) | Vehicle position estimation device and program | |
JP6715205B2 (en) | Work machine surrounding image display device | |
JP4249037B2 (en) | Peripheral vehicle display device, navigation device, and vehicle display method | |
AU2020257038A1 (en) | Camera orientation estimation | |
JP4506299B2 (en) | Vehicle periphery monitoring device | |
JP4857159B2 (en) | Vehicle driving support device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060913 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090812 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090818 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100301 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4475015 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130319 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140319 Year of fee payment: 4 |
|
LAPS | Cancellation because of no payment of annual fees |