JP2005347945A - Apparatus and method of monitoring vehicle periphery - Google Patents

Apparatus and method of monitoring vehicle periphery Download PDF

Info

Publication number
JP2005347945A
JP2005347945A JP2004163400A JP2004163400A JP2005347945A JP 2005347945 A JP2005347945 A JP 2005347945A JP 2004163400 A JP2004163400 A JP 2004163400A JP 2004163400 A JP2004163400 A JP 2004163400A JP 2005347945 A JP2005347945 A JP 2005347945A
Authority
JP
Japan
Prior art keywords
vehicle
position information
positional relationship
periphery monitoring
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004163400A
Other languages
Japanese (ja)
Other versions
JP4475015B2 (en
Inventor
Hirohisa Onome
寛久 小野目
Kazunori Kagawa
和則 香川
Yasuhiro Tajima
靖裕 田島
Katsuji Yamashita
勝司 山下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2004163400A priority Critical patent/JP4475015B2/en
Publication of JP2005347945A publication Critical patent/JP2005347945A/en
Application granted granted Critical
Publication of JP4475015B2 publication Critical patent/JP4475015B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle

Abstract

<P>PROBLEM TO BE SOLVED: To provide an apparatus and a method of monitoring a vehicle periphery capable of highly accurately recognizing an object of interest with appropriate timing. <P>SOLUTION: The apparatus for monitoring the vehicle periphery applies image processing on images around a vehicle recorded by an imaging means mounted on the predetermined position of the vehicle for determining a three-dimensional positional relation between the vehicle and objects around the vehicle. The positional relation in the vehicle traveling direction is determined based on own vehicle position information obtained by GPS positioning and object position information obtained from given map data. The positional relation in the direction orthogonal to the vehicle traveling direction is determined based on the own vehicle position information obtained by GPS positioning and object position information obtained by the image processing. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、撮像画像の画像処理結果を利用して車両周辺を監視する車両周辺監視装置に関する。   The present invention relates to a vehicle periphery monitoring apparatus that monitors the periphery of a vehicle using an image processing result of a captured image.

従来から、交差点の存在を画像処理により認識し、次いで、信号機を認識するための認識枠を、当該交差点に対して所定の位置関係で設定し、撮像画像の全領域を画像処理するのではなく、設定した認識枠の範囲だけ画像処理を行うことで、信号機の認識精度を高めようとする技術が知られている(例えば、特許文献1参照)。
特開平1−265400号公報
Conventionally, instead of recognizing the existence of an intersection by image processing, and then setting a recognition frame for recognizing a traffic light with a predetermined positional relationship with respect to the intersection, image processing is not performed on the entire area of the captured image. A technique is known in which image processing is performed only within a set recognition frame range to improve the recognition accuracy of a traffic light (see, for example, Patent Document 1).
JP-A-1-265400

ところで、上述の従来技術では、交差点を認識するために撮像画像の全領域を画像処理する必要があり、処理時間の低減及び認識率の向上が図れないという問題点がある。また、交差点の認識精度等に起因して、信号機の認識精度が悪化したり、認識時点が遅れたりする場合もありうる。   By the way, in the above-described prior art, it is necessary to perform image processing on the entire region of the captured image in order to recognize the intersection, and there is a problem that the processing time cannot be reduced and the recognition rate cannot be improved. In addition, due to the recognition accuracy of the intersection, the recognition accuracy of the traffic light may deteriorate, or the recognition time may be delayed.

これに対して、信号機等の認識対象の物体を画像処理により認識した際、その物体の位置情報を記憶しておき、次回以降同一物体を認識する際に、当該記憶した位置情報を用いることで、次回以降の認識処理を効率化することも考えられる。しかしながら、画像処理により得られる位置情報は、撮像手段の視線方向(奥行き方向)の精度が良好でない場合があり、同様に、認識対象の物体の認識精度が悪化したり、遅れたりする場合がありうる。   In contrast, when an object to be recognized such as a traffic light is recognized by image processing, the position information of the object is stored, and the next time the next time the same object is recognized, the stored position information is used. It is also conceivable to improve the efficiency of recognition processing from the next time. However, the positional information obtained by the image processing may not be accurate in the line-of-sight direction (depth direction) of the imaging means, and similarly, the recognition accuracy of the object to be recognized may be deteriorated or delayed. sell.

そこで、本発明は、認識対象の物体を的確なタイミングで且つ高精度に認識できる車両周辺監視装置及び車両周辺監視方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a vehicle periphery monitoring device and a vehicle periphery monitoring method that can recognize an object to be recognized at an accurate timing and with high accuracy.

上記課題を解決するため、本発明の一局面によれば、車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断する車両周辺監視装置であって、
撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視装置が提供される。
In order to solve the above-described problem, according to one aspect of the present invention, image processing is performed on an image around a vehicle captured by an imaging unit mounted at a predetermined position of the vehicle, and an object between the vehicle and the surrounding object is captured. A vehicle periphery monitoring device for determining the three-dimensional positional relationship of
The positional relationship related to the line-of-sight direction of the imaging means is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, and relates to a direction perpendicular to the line-of-sight direction of the imaging means. A vehicle periphery monitoring device is provided in which the positional relationship is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.

本局面において、前記位置関係が判断される対象となる物体は、交差点付近に存在する物体(例えば、レーン表示や一時停止線)であってよく、特には信号機であってよい。また、撮像手段の視線方向に係る前記位置関係の判断に用いる前記所与の地図データは、交差点の座標データを含み、前記物体と車両との間の3次元的な位置関係は、交差点に対する前記物体及び車両のそれぞれの3次元的な位置関係を介して判断され、前記所与の地図データに基づく物体位置情報は、交差点の位置データに基づいて導出されてよい。例えば、前記所与の地図データに基づく物体位置情報は、交差点のノードに対する相対的な位置として導出されて良い。また、前記所与の地図データに基づく物体位置情報は、交差点の位置データと、交差道路の幅員データとに基づいて導出されてよい。この場合、交差道路に対して手前側か若しくは奥側にあるかの物体位置情報は、画像処理に基づいて判断されてよい。   In this aspect, the object for which the positional relationship is determined may be an object (for example, a lane display or a temporary stop line) existing in the vicinity of an intersection, and may be a traffic light. Further, the given map data used for the determination of the positional relationship relating to the line-of-sight direction of the imaging means includes coordinate data of an intersection, and the three-dimensional positional relationship between the object and the vehicle is the above-described relationship with respect to the intersection. The object position information determined based on the three-dimensional positional relationship between the object and the vehicle and based on the given map data may be derived based on the position data of the intersection. For example, the object position information based on the given map data may be derived as a relative position with respect to an intersection node. The object position information based on the given map data may be derived based on the intersection position data and the width data of the intersection road. In this case, the object position information as to whether it is on the near side or the far side with respect to the intersection road may be determined based on image processing.

また、前記交差点付近に存在する物体を認識するための認識枠を設定し、該認識枠内で物体の存在の有無を画像認識処理により判断する車両周辺監視装置において、前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記認識枠の画像奥行き方向の大きさ及び位置が変更されてよい。また、前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記物体を認識するための画像処理の開始タイミングが決定されてよい。   Further, in the vehicle periphery monitoring device that sets a recognition frame for recognizing an object existing near the intersection and determines the presence / absence of the object in the recognition frame by image recognition processing, the determined line of sight of the imaging unit The size and position of the recognition frame in the image depth direction may be changed based on the positional relationship related to the direction. Further, a start timing of image processing for recognizing the object may be determined based on the positional relationship relating to the determined line-of-sight direction of the imaging unit.

また、効果的には、前記判断した撮像手段の視線方向に直角な方向に係る前記位置関係を、補助情報として記憶する補助情報記憶手段を備え、前記画像処理の開始時の前記認識枠の大きさ及び位置は、補助情報記憶手段内の補助情報を用いて決定される。前記撮像手段は、ステレオカメラに対してコスト面で有利な単眼カメラであってもよい。   Further, it effectively includes auxiliary information storage means for storing, as auxiliary information, the positional relationship relating to the direction perpendicular to the line-of-sight direction of the determined imaging means, and the size of the recognition frame at the start of the image processing The height and position are determined using auxiliary information in the auxiliary information storage means. The imaging unit may be a monocular camera that is advantageous in terms of cost with respect to a stereo camera.

また、本発明のその他の一局面によれば、車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像に対して画像処理を行うことで、車両周辺の物体を監視する車両周辺監視装置において、
車両周辺の物体と車両との間の3次元的な位置関係を判断する際、撮像手段の視線方向に係る前記位置関係を、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて補正することを特徴とする、車両周辺監視装置が提供される。
According to another aspect of the present invention, the vehicle periphery monitoring for monitoring an object around the vehicle by performing image processing on an image around the vehicle captured by an imaging unit mounted at a predetermined position of the vehicle. In the device
When determining the three-dimensional positional relationship between an object around the vehicle and the vehicle, the positional relationship related to the line-of-sight direction of the imaging means is based on the vehicle position information based on GPS positioning and given map data A vehicle periphery monitoring device is provided that performs correction based on object position information.

また、本発明のその他の一局面によれば、車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像を取得するステップと、
前記取得した画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断するステップとを含み、
該判断ステップにおいて、撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視方法が提供される。
According to another aspect of the present invention, the step of acquiring an image around the vehicle captured by the imaging means mounted at a predetermined position of the vehicle;
Performing image processing on the acquired image and determining a three-dimensional positional relationship between an object around the vehicle and the vehicle,
In the determination step, the positional relationship related to the line-of-sight direction of the imaging unit is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, The vehicle periphery monitoring method is characterized in that the positional relationship in the perpendicular direction is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.

本発明によれば、認識対象の物体を的確なタイミングで且つ高精度に認識できる車両周辺監視装置及び車両周辺監視方法を得ることができる。   ADVANTAGE OF THE INVENTION According to this invention, the vehicle periphery monitoring apparatus and vehicle periphery monitoring method which can recognize the object of recognition object with an exact timing and high precision can be obtained.

以下、図面を参照して、本発明を実施するための最良の形態の説明を行う。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明による車両周辺監視装置の一実施形態を示すシステム構成図である。本実施例の車両周辺監視装置は、画像認識・モデル作成プロセッサ10(以下、単に「プロセッサ10」という)を中心に構成される。プロセッサ10は、CPUやROM等を含み、後述する各処理を実行する。尚、プロセッサ10は、画像処理回路を構成するFPGA(Field Programmable Gate Array)を更に含んでよい。   FIG. 1 is a system configuration diagram showing an embodiment of a vehicle periphery monitoring device according to the present invention. The vehicle periphery monitoring apparatus according to the present embodiment is configured around an image recognition / model creation processor 10 (hereinafter simply referred to as “processor 10”). The processor 10 includes a CPU, a ROM, and the like, and executes each process described later. The processor 10 may further include an FPGA (Field Programmable Gate Array) constituting the image processing circuit.

プロセッサ10には、車両の位置(車両の向きを含む)を計測可能な位置検出手段12が接続されている。位置検出手段12は、GPS(Global Positioning System)受信機を含む。GPS受信機は、衛星からの衛星信号や他の基準局からの情報に基づいて車両の位置及び方位を計測する。尚、車両の位置の測位手法としては、単独測位や干渉測位(キネマティック法(RTK−GPS測位アルゴリズム))に基づくものであってよい。   The processor 10 is connected to position detecting means 12 capable of measuring the position of the vehicle (including the direction of the vehicle). The position detection means 12 includes a GPS (Global Positioning System) receiver. The GPS receiver measures the position and direction of the vehicle based on satellite signals from satellites and information from other reference stations. In addition, as a positioning method of the position of the vehicle, it may be based on independent positioning or interference positioning (kinematic method (RTK-GPS positioning algorithm)).

位置検出手段12は、INS(Inertial
Navigation Sensor)を含んでもよい。INSは、車両を中心に定義されるボデー座標系の3軸まわりの回転パラメータを検出するジャイロセンサ、及び、同3軸の各方向の加速度を検出する加速度センサにより構成されてよい。INSは、これらのセンサの検出値に基づいて、走行時の車両の動的な状態量を表わす運動状態量を検出する。この場合、位置検出手段12は、GPS受信機と共にINSの検出結果を考慮して、車両の位置を決定してよい。例えば、位置検出手段12は、GPS受信機の受信状態が良好でない場合(典型的には、電波遮断時)、GPS受信機の受信状態が回復するまでINSによる検出結果を利用して、車両の位置を決定してよい。
The position detection means 12 is an INS (Inertial
Navigation Sensor) may be included. The INS may be composed of a gyro sensor that detects rotation parameters around three axes of a body coordinate system defined around the vehicle, and an acceleration sensor that detects acceleration in each direction of the three axes. The INS detects a motion state quantity representing a dynamic state quantity of the vehicle during traveling based on detection values of these sensors. In this case, the position detector 12 may determine the position of the vehicle in consideration of the INS detection result together with the GPS receiver. For example, the position detection unit 12 uses the detection result by the INS until the reception state of the GPS receiver recovers when the reception state of the GPS receiver is not good (typically, when the radio wave is interrupted). The position may be determined.

プロセッサ10には、地図データベース22が接続されている。地図データベース22には、DVD、CD−ROM等の記録媒体上に所与の地図情報が格納されている。地図情報には、交差点・高速道路の合流点/分岐点に各々対応する各ノードの座標情報、隣接するノードを接続するリンク情報、及び、各リンクに対応する道路の幅員情報が含まれており、その他、各リンクに対応する国道・県道・高速道路等の道路種別、各リンクの通行規制情報及び各リンク間の通行規制情報等が含まれていてよい。   A map database 22 is connected to the processor 10. The map database 22 stores given map information on a recording medium such as a DVD or a CD-ROM. The map information includes the coordinate information of each node corresponding to the junction / branch point of the intersection / highway, link information connecting adjacent nodes, and road width information corresponding to each link. In addition, road types such as national roads, prefectural roads, and highways corresponding to each link, traffic regulation information of each link, traffic regulation information between each link, and the like may be included.

プロセッサ10には、空間モデルデータベース30が接続されている。空間モデルデータベース30は、ハードディスクのような書き込み可能な記録媒体により構成される。空間モデルデータベース30には、地図データベース22内の地図情報には存在しない有用な情報(後で詳説する補助情報)が随時格納されていく。   A spatial model database 30 is connected to the processor 10. The space model database 30 is configured by a writable recording medium such as a hard disk. The spatial model database 30 stores useful information (auxiliary information described in detail later) that does not exist in the map information in the map database 22 as needed.

プロセッサ10には、更に、レーダーセンサ19が接続されてもよい。レーダーセンサ19は、ミリ波レーダセンサであってよく、例えば車両のフロントグリル付近に配設される。レーダーセンサ19がミリ波レーダセンサの場合、例えば2周波CW(Continuous Wave)方式により、2つの周波数の位相情報から車両前方の物体の相対位置(自車に対する相対位置)が計測されてよい。尚、レーダーセンサ19は、車両前方の所定領域内に放射ビームを1次元的又は2次元的に走査するように構成されていてよい。   A radar sensor 19 may be further connected to the processor 10. The radar sensor 19 may be a millimeter wave radar sensor, and is disposed, for example, near the front grill of the vehicle. When the radar sensor 19 is a millimeter wave radar sensor, the relative position of the object ahead of the vehicle (relative position with respect to the host vehicle) may be measured from the phase information of the two frequencies by, for example, a two-frequency CW (Continuous Wave) method. The radar sensor 19 may be configured to scan the radiation beam one-dimensionally or two-dimensionally within a predetermined area in front of the vehicle.

プロセッサ10には、CCDカメラのような撮像手段18が接続されている。撮像手段18は、車両周辺の風景を撮像するように車両の適切な位置に搭載され、例えば車両の室内のルームミラー付近に固定される。撮像手段18が撮像した撮像画像の画像データはプロセッサ10に供給される。尚、撮像手段18が撮像した撮像画像は、映像信号として表示装置24に供給され、液晶ディスプレイのような表示装置24上に表示される。   An imaging means 18 such as a CCD camera is connected to the processor 10. The imaging means 18 is mounted at an appropriate position of the vehicle so as to capture the scenery around the vehicle, and is fixed, for example, near a room mirror in the interior of the vehicle. Image data of a captured image captured by the imaging unit 18 is supplied to the processor 10. The captured image captured by the imaging unit 18 is supplied as a video signal to the display device 24 and displayed on the display device 24 such as a liquid crystal display.

プロセッサ10は、以下詳説する如く、撮像手段18からの撮像画像に対して画像認識処理を行い、認識すべき対象物体(以下、「物標」という)の特徴点を撮像画像の所定領域内で探索し、物標の有無やその状態等を認識する。プロセッサ10は、その認識結果に応じて、所定の制御を実行させてもよい。例えば、プロセッサ10は、物標として信号機を認識し、その状態として信号機が“赤”の点灯状態である場合、信号機と車両の相対位置関係や車速等に応じて警報を出力するようにしてもよい。   As will be described in detail below, the processor 10 performs image recognition processing on the captured image from the imaging unit 18 and sets the feature points of a target object to be recognized (hereinafter referred to as “target”) within a predetermined region of the captured image. Search and recognize the presence and state of the target. The processor 10 may execute predetermined control according to the recognition result. For example, the processor 10 recognizes a traffic light as a target, and when the traffic light is in a “red” lighting state, the processor 10 may output an alarm according to the relative positional relationship between the traffic light and the vehicle, the vehicle speed, or the like. Good.

このような車両周辺監視装置の物標認識機能は、撮像手段18という新たな“目”として乗員の目を効果的に補助できる点で非常に有用である。このような車両周辺監視装置による物標認識機能の有用性を向上させるには、物標を的確なタイミングで認識し始め且つ高精度に認識できることが必要となる。   Such a target recognition function of the vehicle periphery monitoring device is very useful in that it can effectively assist a passenger's eyes as a new “eye” of the imaging means 18. In order to improve the usefulness of the target recognition function by such a vehicle periphery monitoring device, it is necessary to start recognizing the target at an accurate timing and to recognize it with high accuracy.

図2は、本実施例の車両周辺監視装置のプロセッサ10により実行される物標認識処理のフローチャートである。尚、以下の処理中において、プロセッサ10には、位置検出手段12から最新の車両位置情報が所定周期で入力されているものとする。   FIG. 2 is a flowchart of the target recognition process executed by the processor 10 of the vehicle periphery monitoring device of the present embodiment. In the following processing, it is assumed that the latest vehicle position information is input to the processor 10 from the position detection means 12 at a predetermined cycle.

プロセッサ10は、位置検出手段12から得た車両位置情報に基づいて、現在の車両位置を基準として車両位置周辺の地図情報を地図データベース22から読み込む(ステップ100)。   Based on the vehicle position information obtained from the position detection means 12, the processor 10 reads map information around the vehicle position from the map database 22 based on the current vehicle position (step 100).

プロセッサ10は、読み込んだ地図情報及び車両位置情報に基づいて、現在の車両位置に対応する道路(リンク)を特定し(ステップ110)、進行方向前方に交差点が存在するか否かを地図データベース22内の地図情報の交差点情報に基づいて判断する(ステップ120)。進行方向前方に交差点が存在しないと判断した場合、ステップ100に戻る。   The processor 10 identifies a road (link) corresponding to the current vehicle position based on the read map information and vehicle position information (step 110), and determines whether or not an intersection exists ahead in the traveling direction. Judgment is made based on the intersection information of the map information (step 120). If it is determined that there is no intersection ahead of the traveling direction, the process returns to step 100.

プロセッサ10は、進行方向前方に交差点が存在すると判断した場合、当該交差点に関連付けられた補助情報が、空間モデルデータベース30内に格納されているか否かをチェックする(ステップ130)。補助情報が空間モデルデータベース30内に存在しないと判断した場合、ステップ200以後の処理に進む。一方、補助情報が空間モデルデータベース30内に存在すると判断した場合、ステップ300以後の処理に進む。   When the processor 10 determines that there is an intersection ahead of the traveling direction, the processor 10 checks whether or not auxiliary information associated with the intersection is stored in the spatial model database 30 (step 130). If it is determined that the auxiliary information does not exist in the space model database 30, the process proceeds to step 200 and subsequent steps. On the other hand, if it is determined that the auxiliary information exists in the space model database 30, the process proceeds to step 300 and subsequent steps.

図3は、補助情報が空間モデルデータベース30内に存在しないと判断した場合に実行される処理を示すフローチャートである。この場合、プロセッサ10は、位置検出手段12からの最新の車両位置情報と、地図データベース22内の交差点の位置情報とに基づいて、交差点周辺の物標と車両との相対的な位置関係を判断する(ステップ200)。この際、プロセッサ10は、交差点周辺の物標の位置情報を、交差点の位置情報に基づいて、簡易的に導出してもよい。例えば、物標として信号機の位置情報は、交差点の位置から高さ5mだけオフセットした位置情報であってよい。また、物標として停止線やレーン表示の位置情報は、交差点の位置から車両進行方向手前に道路の幅員分(若しくは幅員+α)だけオフセットした位置情報であってよい。   FIG. 3 is a flowchart showing a process executed when it is determined that the auxiliary information does not exist in the space model database 30. In this case, the processor 10 determines the relative positional relationship between the target around the intersection and the vehicle based on the latest vehicle position information from the position detection unit 12 and the position information of the intersection in the map database 22. (Step 200). At this time, the processor 10 may simply derive the position information of the target around the intersection based on the position information of the intersection. For example, the position information of a traffic light as a target may be position information offset by a height of 5 m from the position of an intersection. Further, the position information of the stop line or the lane display as the target may be position information offset by the width of the road (or width + α) in front of the vehicle traveling direction from the position of the intersection.

続くステップ210では、プロセッサ10は、ステップ200で得た相対的な位置関係に基づいて、所定のタイミング(例えば、物標との車両進行方向の距離が所定値となった時点)で物標を認識するための画像処理を開始し、以後、所定の周期毎に入力される最新の撮像画像に対して、適切な時点(例えば、交差点通過時点)まで画像処理を継続する(ステップ220)。この際、プロセッサ10は、所定の周期毎に入力される最新の撮像画像に対して、当該撮像時点での物標と車両との相対的な位置関係(位置検出手段12からの最新の車両位置情報に基づいて随時変化)に基づいて、物標を認識するための画像処理範囲(認識枠)の位置・大きさを決定する。例えば、車両が物標(又は交差点)に近づくにつれて(即ち、物標と車両との間の車両進行方向の相対距離が小さくなるにつれて)、認識枠は、画面上側に移動されつつ、画面奥行き方向の大きさが小さくされると共に画面幅方向の大きさが大きくされてよい。   In subsequent step 210, the processor 10 selects the target at a predetermined timing (for example, when the distance in the vehicle traveling direction from the target becomes a predetermined value) based on the relative positional relationship obtained in step 200. Image processing for recognition is started, and thereafter, image processing is continued until an appropriate time point (for example, an intersection passing time point) with respect to the latest captured image input every predetermined cycle (step 220). At this time, the processor 10 determines the relative positional relationship between the target and the vehicle at the time of the imaging (the latest vehicle position from the position detection unit 12) with respect to the latest captured image input every predetermined cycle. Based on the information, the position / size of the image processing range (recognition frame) for recognizing the target is determined. For example, as the vehicle approaches the target (or intersection) (that is, as the relative distance in the vehicle traveling direction between the target and the vehicle becomes smaller), the recognition frame moves in the screen depth direction while being moved to the upper side of the screen. And the size in the screen width direction may be increased.

このようして一連の撮像画像に対する画像処理が終了すると、プロセッサ10は、当該画像処理結果に基づいて、物標の位置情報を生成する(ステップ230)。この物標の位置情報は、交差点の位置(交差点ノードの座標値)のような固定点に対する相対的な位置情報、若しくは、絶対座標系(例えば、緯度、経度、高度)に基づく位置情報である。例えば、前者の例として、物標(信号機)の位置情報は、図4に示すように、交差点ノードの座標値に対する相対座標値(Δx、Δy、Δz)として管理されてもよい。以下、説明の都合上、物標の位置情報は、相対座標値(Δx、Δy、Δz)で管理されるものとし、この相対座標系のY軸は、車両の進行方向(即ち走行道路の延在方向)に対応しているものとする。尚、本例では、撮像手段18の視線方向が車両進行方向に略一致するとして説明を続ける。   When the image processing on the series of captured images is completed in this way, the processor 10 generates position information of the target based on the image processing result (Step 230). The position information of the target is position information relative to a fixed point such as the position of the intersection (coordinate value of the intersection node) or position information based on an absolute coordinate system (for example, latitude, longitude, altitude). . For example, as an example of the former, the position information of the target (traffic light) may be managed as relative coordinate values (Δx, Δy, Δz) with respect to the coordinate values of the intersection node as shown in FIG. Hereinafter, for convenience of explanation, it is assumed that the position information of the target is managed by relative coordinate values (Δx, Δy, Δz), and the Y axis of this relative coordinate system is the traveling direction of the vehicle (that is, the extension of the traveling road). It corresponds to the current direction). In this example, the description will be continued assuming that the line-of-sight direction of the imaging means 18 substantially matches the vehicle traveling direction.

続くステップ240では、プロセッサ10は、上記ステップ230で生成した物標の位置情報の信頼性を判断する。この際、プロセッサ10は、特に、物標の位置情報のうち車両進行方向に係る位置情報(即ち、Δy)の信頼性を判断する。これは、撮像手段18として単眼カメラを用いた場合、物標の3次元位置測定には運動視差(motion
stereo)が利用されるが、この場合、(空間的・時間的な)視差が確保され難く、奥行き方向(撮像手段18の視線ベクトル方向)の測定誤差が大きいことに基づく。また、撮像手段18としてステレオカメラを用いた場合であっても、車両に搭載される関係上、十分な視差を確保し難く、依然として奥行き方向(撮像手段18の視線ベクトル方向)の測定誤差が大きいことに基づく。
In subsequent step 240, the processor 10 determines the reliability of the position information of the target generated in step 230. At this time, the processor 10 particularly determines the reliability of the position information (that is, Δy) related to the vehicle traveling direction among the position information of the target. This is because, when a monocular camera is used as the imaging means 18, motion parallax (motion parallax) is used for measuring the three-dimensional position of the target.
stereo) is used. In this case, it is difficult to ensure parallax (in terms of space and time) and the measurement error in the depth direction (the direction of the line of sight of the imaging unit 18) is large. Even when a stereo camera is used as the image pickup means 18, it is difficult to secure a sufficient parallax because of being mounted on a vehicle, and the measurement error in the depth direction (the line-of-sight vector direction of the image pickup means 18) is still large. Based on that.

尚、ステップ240において、プロセッサ10は、車両進行方向に直角な方向に係る位置情報(即ち、Δx、Δz)についても信頼性を判断してよい。但し、通常的には、撮像手段18の視線ベクトル方向に直角な方向での測定誤差は小さいので、異常値で無い限りそのまま採用されてよい。   In step 240, the processor 10 may determine the reliability of position information (that is, Δx, Δz) in a direction perpendicular to the vehicle traveling direction. However, since the measurement error in the direction perpendicular to the line-of-sight vector direction of the image pickup means 18 is usually small, it may be employed as long as it is not an abnormal value.

プロセッサ10は、車両進行方向に係る位置情報に大きな誤差が含まれていると判断した場合(|Δy|>TH、THは所定の閾値)、当該車両進行方向に係る位置情報に補正を施し(ステップ250)、補正後の物標の位置情報(Δx、Δy、Δz)を補助情報として空間モデルデータベース30に格納する(ステップ260)。一方、車両進行方向に係る位置情報が適切である判断した場合(|Δy|≦TH)、補正を行うことなく、物標の位置情報(Δx、Δy、Δz)を補助情報として空間モデルデータベース30に格納する(ステップ260)。尚、ステップ260において、補助情報は、好ましくは、物標の種類と共に、対応する交差点に関連付けて空間モデルデータベース30内に格納される。   When the processor 10 determines that the position information related to the vehicle traveling direction includes a large error (| Δy |> TH, TH is a predetermined threshold), the processor 10 corrects the position information related to the vehicle traveling direction ( Step 250), the corrected target position information (Δx, Δy, Δz) is stored in the space model database 30 as auxiliary information (step 260). On the other hand, when it is determined that the position information related to the vehicle traveling direction is appropriate (| Δy | ≦ TH), the position information (Δx, Δy, Δz) of the target is used as auxiliary information without correction, and the spatial model database 30 is used. (Step 260). In step 260, the auxiliary information is preferably stored in the spatial model database 30 in association with the corresponding intersection along with the type of the target.

ここで、上記ステップ250の補正処理に関して、車両進行方向に係る位置情報は、交差点の位置から車両進行方向手前に交差道路の幅員分(若しくは幅員+α)だけオフセットした値にされてよい。この際、画像認識により得られる車両進行方向に係る位置情報(Δy)は、その正負の符号のみが利用されてよい(即ち、交差点の手前か奥かに関する物標の位置情報のみが採用されてよい)。例えば、Δy=−40[m]に対しては、Δy=−D(若しくはΔy=−D−α、Dは交差道路の幅員[m])と補正されてよい。或いは、上記ステップ250において、物標の車両進行方向に係る位置情報は、画像処理により得られる他の物標の車両進行方向に係る大きさや位置と他の検出手段による当該他の物標の車両進行方向に係る大きさや位置(若しくは既知の大きさや位置)との比較結果や、レーダーセンサ19による同物標の検出結果を利用して補正されてよい。   Here, with regard to the correction processing in step 250, the position information related to the vehicle traveling direction may be set to a value offset from the position of the intersection by the width of the intersecting road (or width + α) before the vehicle traveling direction. At this time, as the position information (Δy) related to the vehicle traveling direction obtained by the image recognition, only the sign of the sign may be used (that is, only the position information of the target regarding whether it is before or behind the intersection is employed). Good). For example, Δy = −40 [m] may be corrected as Δy = −D (or Δy = −D−α, where D is the width of the crossing road [m]). Alternatively, in the step 250, the position information related to the vehicle traveling direction of the target is the size and position of the other target obtained by image processing in the vehicle traveling direction and the vehicle of the other target by other detection means. The correction may be performed by using a comparison result with a size or position (or a known size or position) in the traveling direction, or a detection result of the same target by the radar sensor 19.

次に、上述の如く作成された補助情報の利用態様について、図5を参照して説明する。図5は、図2のステップ130において補助情報が空間モデルデータベース30内に存在しないと判断された場合に実行されるフローチャートである。この場合、プロセッサ10は、位置検出手段12からの最新の車両位置情報と、空間モデルデータベース30内の補助情報とに基づいて、交差点周辺の物標と車両との相対的な位置関係を判断する(ステップ300)。   Next, a usage mode of the auxiliary information created as described above will be described with reference to FIG. FIG. 5 is a flowchart executed when it is determined in step 130 of FIG. 2 that the auxiliary information does not exist in the space model database 30. In this case, the processor 10 determines the relative positional relationship between the target around the intersection and the vehicle based on the latest vehicle position information from the position detection unit 12 and the auxiliary information in the space model database 30. (Step 300).

同様に、続くステップ310では、プロセッサ10は、ステップ300で得た相対的な位置関係に基づいて、所定のタイミング(例えば、物標との車両進行方向の距離が所定値となった時点)で物標を認識するための画像処理を開始し、以後、所定の周期毎に入力される最新の撮像画像に対して、適切な時点(例えば、交差点通過時点)まで画像処理を継続する(ステップ320)。   Similarly, in the following step 310, the processor 10 is based on the relative positional relationship obtained in step 300 at a predetermined timing (for example, when the distance in the vehicle traveling direction from the target becomes a predetermined value). Image processing for recognizing a target is started, and thereafter, image processing is continued until an appropriate time point (for example, an intersection passing time point) for the latest captured image input every predetermined period (step 320). ).

この際、プロセッサ10は、所定の周期毎に入力される最新の撮像画像に対して、当該撮像時点での物標と車両との相対的な位置関係(位置検出手段12からの最新の車両位置情報に基づいて随時変化)に基づいて、物標を認識するための画像処理範囲(認識枠)の位置・大きさを決定する。この際、認識枠の画像奥行き方向の大きさ及び位置は、主に、物標の車両進行方向に係る位置情報に基づいて決定される。   At this time, the processor 10 determines the relative positional relationship between the target and the vehicle at the time of the imaging (the latest vehicle position from the position detection unit 12) with respect to the latest captured image input every predetermined cycle. Based on the information, the position / size of the image processing range (recognition frame) for recognizing the target is determined. At this time, the size and position of the recognition frame in the image depth direction are mainly determined based on position information related to the vehicle traveling direction of the target.

このように本実施例では、一旦補助情報が作成・記憶されると、以降の認識処理において、物標と車両との相対的な位置関係(即ち物標の位置情報)は、空間モデルデータベース30内の補助情報を利用して導出される。これにより、図3の判断(上記ステップ210)に比して、車両と物標との間の3次元的な相対位置関係を正確に判断することが可能である。また、本実施例では、補助情報は、上述の如く、撮像手段18の視線ベクトル方向の測定誤差が大きいことを考慮して、撮像手段18の視線ベクトル方向の成分が補正されているので、車両と物標との間の3次元的な相対位置関係を正確に判断することが可能である。   As described above, in the present embodiment, once the auxiliary information is created and stored, in the subsequent recognition processing, the relative positional relationship between the target and the vehicle (that is, the position information of the target) is the spatial model database 30. Derived using auxiliary information in Thereby, it is possible to accurately determine the three-dimensional relative positional relationship between the vehicle and the target as compared with the determination in FIG. 3 (step 210). In the present embodiment, the auxiliary information is corrected for the component in the line-of-sight vector direction of the image pickup means 18 in consideration of the large measurement error in the line-of-sight vector direction of the image pickup means 18 as described above. It is possible to accurately determine the three-dimensional relative positional relationship between the object and the target.

従って、本実施例によれば、物標を適切なタイミングで認識し始めることが可能となり、また、当該認識のための画像処理範囲(認識枠)も適切に設定することが可能となり(特に、認識枠の画像奥行き方向の大きさ及び位置を適切に設定することが可能となる)、その結果、物標を的確なタイミングで且つ高精度に認識できる。   Therefore, according to the present embodiment, it is possible to start recognizing a target at an appropriate timing, and it is also possible to appropriately set an image processing range (recognition frame) for the recognition (in particular, It is possible to appropriately set the size and position of the recognition frame in the image depth direction), and as a result, the target can be recognized with high accuracy and with accurate timing.

次に、図6を参照して、本願発明者によって実行された実施例について説明する。時速60km/hで走行する車両から撮像した画像に対して画像処理を実施した。先ず、空間モデルデータベース30内に補助情報が無い場合を想定して(図3参照)、図6(A)に示すように、縦130ピクセル×横400ピクセルの範囲を画像処理範囲として設定して画像処理を実行した。この場合、車両前方70mに位置する信号機を認識するのに要した計算時間は20msであった。この信号機認識の結果を用いて、信号機の位置を計算したところ、交差点ノードに対する相対座標値(Δx、Δy、Δz)=(7.3,67.4,5.2)が得られた。この場合、Δy=67.4が異常に大きいため、Δyの値を交差道路の幅員5.5[m]に補正した。   Next, with reference to FIG. 6, the Example performed by this inventor is demonstrated. Image processing was performed on an image captured from a vehicle traveling at a speed of 60 km / h. First, assuming that there is no auxiliary information in the spatial model database 30 (see FIG. 3), as shown in FIG. 6A, a range of 130 pixels long × 400 pixels wide is set as an image processing range. Image processing was executed. In this case, the calculation time required to recognize the traffic light located 70 m ahead of the vehicle was 20 ms. When the traffic signal position was calculated using the result of the traffic signal recognition, relative coordinate values (Δx, Δy, Δz) = (7.3, 67.4, 5.2) with respect to the intersection node were obtained. In this case, since Δy = 67.4 is abnormally large, the value of Δy was corrected to the width of the crossing road 5.5 [m].

次に、空間モデルデータベース30内に補助情報(Δx、Δy、Δz)=(7.3,5.5,5.2)を格納し、同様の処理を行ったところ(図5参照)、図6(B)に示すように、縦70ピクセル×横130ピクセルの範囲を画像処理範囲として限定することができ、同一の信号機を認識するのに要した計算時間は7msまで短縮できた。   Next, auxiliary information (Δx, Δy, Δz) = (7.3, 5.5, 5.2) is stored in the space model database 30 and the same processing is performed (see FIG. 5). As shown in FIG. 6 (B), the range of 70 pixels long × 130 pixels wide can be limited as the image processing range, and the calculation time required to recognize the same traffic light can be reduced to 7 ms.

一方、空間モデルデータベース30内に補助情報(Δx、Δy、Δz)=(7.3,67.4,5.2)を格納し、同様の処理を行ったところ、画像処理の開始タイミングが極端に遅くなり、車両前方70mに位置する信号機を認識することが不能となった。   On the other hand, when auxiliary information (Δx, Δy, Δz) = (7.3, 67.4, 5.2) is stored in the space model database 30 and the same processing is performed, the start timing of image processing is extremely high. As a result, it became impossible to recognize a traffic light located 70 m ahead of the vehicle.

以上から、信号機の車両進行方向の位置情報の精度を高めることで、信号機を認識するのに要する画像処理範囲及び計算時間を大幅に低減できることがわかる。   From the above, it can be seen that the image processing range and calculation time required for recognizing the traffic light can be greatly reduced by increasing the accuracy of the position information of the traffic light in the vehicle traveling direction.

以上、本発明の好ましい実施例について詳説したが、本発明は、上述した実施例に制限されることはなく、本発明の範囲を逸脱することなく、上述した実施例に種々の変形及び置換を加えることができる。   The preferred embodiments of the present invention have been described in detail above. However, the present invention is not limited to the above-described embodiments, and various modifications and substitutions can be made to the above-described embodiments without departing from the scope of the present invention. Can be added.

例えば、上述の実施例において、画像処理結果から得られる物標の車両進行方向に係る位置情報に大きな誤差があると判断した場合に、当該車両進行方向に係る位置情報として、単に所定の値(例えばゼロ)を採用することとしてもよい。   For example, in the above-described embodiment, when it is determined that there is a large error in the position information related to the vehicle traveling direction of the target obtained from the image processing result, the position information related to the vehicle traveling direction is simply a predetermined value ( For example, zero) may be adopted.

また、上述の実施例では、補正された物標の位置情報は、次回以降に同一の物標を認識するために(同一道路を同一方向に走行する2回目以降の走行の際に)利用されているが、数フレームの画像に対する画像処理結果から得た同様の補助情報(車両進行方向に係る位置情報が同様に補正される)を利用して、以後のフレームの画像に対する画像処理方法が修正されてもよい(例えば、画像処理範囲(認識枠)の大きさ・位置が修正されてよい)。   Further, in the above-described embodiment, the corrected position information of the target is used for the same target after the next time (during the second and subsequent runs on the same road in the same direction). However, using the same auxiliary information (position information related to the vehicle traveling direction is corrected in the same way) obtained from the image processing results for several frames of images, the image processing method for subsequent frames of images is modified. (For example, the size and position of the image processing range (recognition frame) may be corrected).

また、上述では、物標の位置情報(補助情報)は、主に画像処理の開始タイミングや画像処理範囲(認識枠)の大きさ・位置を決定するために使用されているが、物標の位置情報(補助情報)は、物標と車両との相対的な位置関係に基づいて実行される如何なる制御に利用されてよい。特に、物標の車両進行方向に係る位置情報は、警報や介入制動等の制御において重要なパラメータとなりうる。   In the above description, the target position information (auxiliary information) is mainly used for determining the start timing of image processing and the size and position of the image processing range (recognition frame). The position information (auxiliary information) may be used for any control executed based on the relative positional relationship between the target and the vehicle. In particular, the position information related to the vehicle traveling direction of the target can be an important parameter in control such as warning and intervention braking.

また、本発明は、図示したような車両用の信号機のみならず歩行者用の信号機に対しても適用可能である。   Further, the present invention is applicable not only to a vehicle traffic signal as shown in the figure but also to a pedestrian traffic signal.

本発明による車両周辺監視装置の一実施形態を示すシステム構成図である。1 is a system configuration diagram showing an embodiment of a vehicle periphery monitoring device according to the present invention. 本実施例の車両周辺監視装置のプロセッサ10により実行される物標認識処理のフローチャートである。It is a flowchart of the target recognition process performed by the processor 10 of the vehicle periphery monitoring apparatus of a present Example. 本実施例の車両周辺監視装置のプロセッサ10により実行される物標認識処理のフローチャートである(その2)。It is a flowchart of the target recognition process performed by the processor 10 of the vehicle periphery monitoring apparatus of a present Example (the 2). 物標の位置情報の一例を示す説明図である。It is explanatory drawing which shows an example of the positional information on a target. 本実施例の車両周辺監視装置のプロセッサ10により実行される物標認識処理のフローチャートである(その3)。It is a flowchart of the target recognition process performed by the processor 10 of the vehicle periphery monitoring apparatus of a present Example (the 3). 画像認識処理の一実施例が適用された撮像画像を示す図である。It is a figure which shows the captured image to which one Example of the image recognition process was applied.

符号の説明Explanation of symbols

10 画像認識・モデル作成プロセッサ
12 位置検出手段
18 撮像手段
19 レーダーセンサ
22 地図データベース
24 表示装置
30 空間モデルデータベース
DESCRIPTION OF SYMBOLS 10 Image recognition and model creation processor 12 Position detection means 18 Imaging means 19 Radar sensor 22 Map database 24 Display apparatus 30 Spatial model database

Claims (12)

車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断する車両周辺監視装置であって、
撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視装置。
A vehicle periphery monitoring device that performs image processing on an image around a vehicle imaged by an imaging unit mounted at a predetermined position of the vehicle and determines a three-dimensional positional relationship between an object around the vehicle and the vehicle. And
The positional relationship related to the line-of-sight direction of the imaging means is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, and relates to a direction perpendicular to the line-of-sight direction of the imaging means. The vehicle periphery monitoring device, wherein the positional relationship is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.
前記位置関係が判断される対象となる物体は、交差点付近に存在する物体である、請求項1記載の車両周辺監視装置。   The vehicle periphery monitoring apparatus according to claim 1, wherein the object for which the positional relationship is determined is an object existing near an intersection. 前記位置関係が判断される対象となる物体は、信号機である、請求項2記載の車両周辺監視装置。   The vehicle periphery monitoring device according to claim 2, wherein the object for which the positional relationship is determined is a traffic light. 前記所与の地図データは、交差点の座標データを含み、
前記物体と車両との間の3次元的な位置関係は、交差点に対する前記物体及び車両のそれぞれの3次元的な位置関係を介して判断され、
前記所与の地図データに基づく物体位置情報は、交差点の位置データに基づいて導出される、請求項2記載の車両周辺監視装置。
The given map data includes intersection coordinate data;
The three-dimensional positional relationship between the object and the vehicle is determined via the respective three-dimensional positional relationship between the object and the vehicle with respect to an intersection,
The vehicle periphery monitoring device according to claim 2, wherein the object position information based on the given map data is derived based on intersection position data.
前記所与の地図データに基づく物体位置情報は、交差点の位置データと、該交差点における撮像手段の視線方向に対して交差する道路の幅員データとに基づいて導出される、請求項4記載の車両周辺監視装置。   5. The vehicle according to claim 4, wherein the object position information based on the given map data is derived based on intersection position data and width data of a road that intersects the line-of-sight direction of the imaging unit at the intersection. Perimeter monitoring device. 前記交差点付近に存在する物体を認識するための認識枠を設定し、該認識枠内で物体の存在の有無を画像認識処理により判断する請求項2記載の車両周辺監視装置において、
前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記認識枠の画像奥行き方向の大きさ及び位置を変更する、車両周辺監視装置。
The vehicle periphery monitoring apparatus according to claim 2, wherein a recognition frame for recognizing an object existing near the intersection is set, and the presence or absence of the object is determined by image recognition processing in the recognition frame.
A vehicle periphery monitoring device that changes the size and position of the recognition frame in the image depth direction based on the determined positional relationship related to the line-of-sight direction of the imaging means.
前記判断した撮像手段の視線方向に係る前記位置関係に基づいて、前記物体を認識するための画像処理の開始タイミングを決定する、請求項6記載の車両周辺監視装置。   The vehicle periphery monitoring apparatus according to claim 6, wherein a start timing of image processing for recognizing the object is determined based on the determined positional relationship related to the line-of-sight direction of the imaging unit. 前記判断した撮像手段の視線方向に直角な方向に係る前記位置関係を、補助情報として記憶する補助情報記憶手段を備え、
前記画像処理の開始時の前記認識枠の大きさ及び位置は、補助情報記憶手段内の補助情報を用いて決定される、請求項7記載の車両周辺監視装置。
Auxiliary information storage means for storing the positional relationship in the direction perpendicular to the line-of-sight direction of the determined imaging means as auxiliary information,
The vehicle periphery monitoring device according to claim 7, wherein the size and position of the recognition frame at the start of the image processing are determined using auxiliary information in auxiliary information storage means.
前記撮像手段は、単眼カメラである、請求項1記載の車両周辺監視装置。   The vehicle periphery monitoring apparatus according to claim 1, wherein the imaging unit is a monocular camera. 車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像に対して画像処理を行うことで、車両周辺の物体を監視する車両周辺監視装置において、
車両周辺の物体と車両との間の3次元的な位置関係を判断する際、撮像手段の視線方向に係る前記位置関係を、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて補正することを特徴とする、車両周辺監視装置。
In a vehicle periphery monitoring device that monitors an object around a vehicle by performing image processing on an image around the vehicle imaged by an imaging unit mounted at a predetermined position of the vehicle,
When determining the three-dimensional positional relationship between an object around the vehicle and the vehicle, the positional relationship related to the line-of-sight direction of the imaging means is based on the vehicle position information based on GPS positioning and given map data A vehicle periphery monitoring device, wherein correction is performed based on object position information.
車両の所定位置に搭載された撮像手段が撮影した車両周辺の画像を取得するステップと、
前記取得した画像に対して画像処理を行い、車両周辺の物体と車両との間の3次元的な位置関係を判断するステップとを含み、
該判断ステップにおいて、撮像手段の視線方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、所与の地図データに基づく物体位置情報とに基づいて判断し、撮像手段の視線方向に直角な方向に係る前記位置関係は、GPS測位に基づく自車位置情報と、画像処理に基づく物体位置情報とに基づいて判断することを特徴とする、車両周辺監視方法。
Acquiring an image around the vehicle imaged by an imaging means mounted at a predetermined position of the vehicle;
Performing image processing on the acquired image and determining a three-dimensional positional relationship between an object around the vehicle and the vehicle,
In the determination step, the positional relationship related to the line-of-sight direction of the imaging unit is determined based on the vehicle position information based on GPS positioning and the object position information based on given map data, The vehicle periphery monitoring method according to claim 1, wherein the positional relationship related to the perpendicular direction is determined based on own vehicle position information based on GPS positioning and object position information based on image processing.
請求項11記載の車両周辺監視方法を実現するコンピューター読取り可能なプログラム。   A computer-readable program for realizing the vehicle periphery monitoring method according to claim 11.
JP2004163400A 2004-06-01 2004-06-01 Vehicle periphery monitoring device and vehicle periphery monitoring method Expired - Fee Related JP4475015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004163400A JP4475015B2 (en) 2004-06-01 2004-06-01 Vehicle periphery monitoring device and vehicle periphery monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004163400A JP4475015B2 (en) 2004-06-01 2004-06-01 Vehicle periphery monitoring device and vehicle periphery monitoring method

Publications (2)

Publication Number Publication Date
JP2005347945A true JP2005347945A (en) 2005-12-15
JP4475015B2 JP4475015B2 (en) 2010-06-09

Family

ID=35499932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004163400A Expired - Fee Related JP4475015B2 (en) 2004-06-01 2004-06-01 Vehicle periphery monitoring device and vehicle periphery monitoring method

Country Status (1)

Country Link
JP (1) JP4475015B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241469A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Image processing system
JP2007309670A (en) * 2006-05-16 2007-11-29 Toyota Motor Corp Vehicle position detector
JP2008009870A (en) * 2006-06-30 2008-01-17 Denso Corp Information storage device and program for control
JP2009059208A (en) * 2007-08-31 2009-03-19 Aisin Aw Co Ltd Driving support device, driving support method, and computer program
JP2012064153A (en) * 2010-09-17 2012-03-29 Denso Corp Moving object detector and program
JP2015518600A (en) * 2012-03-26 2015-07-02 グーグル・インク A robust method for detecting traffic signals and their associated conditions
US9216684B2 (en) 2012-10-05 2015-12-22 Denso Corporation Display apparatus
JP2016143324A (en) * 2015-02-04 2016-08-08 株式会社デンソー Object detection device
US9489584B2 (en) 2012-05-25 2016-11-08 Denso Corporation Intersection recognition device and road type recognition device
WO2016199225A1 (en) * 2015-06-09 2016-12-15 日産自動車株式会社 Signaler detection device and signaler detection method
CN110648539A (en) * 2018-06-27 2020-01-03 丰田自动车株式会社 In-vehicle device and control method
KR102454599B1 (en) * 2021-05-26 2022-10-17 포티투닷 주식회사 Method and apparatus for determining the position of an object on a lane map

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7261090B2 (en) * 2019-05-30 2023-04-19 フォルシアクラリオン・エレクトロニクス株式会社 In-vehicle device, driving assistance method, and driving assistance system

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007241469A (en) * 2006-03-06 2007-09-20 Toyota Motor Corp Image processing system
JP4631750B2 (en) * 2006-03-06 2011-02-16 トヨタ自動車株式会社 Image processing system
US8134480B2 (en) 2006-03-06 2012-03-13 Toyota Jidosha Kabushiki Kaisha Image processing system and method
JP2007309670A (en) * 2006-05-16 2007-11-29 Toyota Motor Corp Vehicle position detector
JP2008009870A (en) * 2006-06-30 2008-01-17 Denso Corp Information storage device and program for control
JP2009059208A (en) * 2007-08-31 2009-03-19 Aisin Aw Co Ltd Driving support device, driving support method, and computer program
JP2012064153A (en) * 2010-09-17 2012-03-29 Denso Corp Moving object detector and program
US10906548B2 (en) 2012-03-26 2021-02-02 Waymo Llc Robust method for detecting traffic signals and their associated states
US11731629B2 (en) 2012-03-26 2023-08-22 Waymo Llc Robust method for detecting traffic signals and their associated states
US9796386B2 (en) 2012-03-26 2017-10-24 Waymo Llc Robust method for detecting traffic signals and their associated states
JP2015518600A (en) * 2012-03-26 2015-07-02 グーグル・インク A robust method for detecting traffic signals and their associated conditions
US9489584B2 (en) 2012-05-25 2016-11-08 Denso Corporation Intersection recognition device and road type recognition device
US9216684B2 (en) 2012-10-05 2015-12-22 Denso Corporation Display apparatus
US9475420B2 (en) 2012-10-05 2016-10-25 Denso Corporation Display apparatus
US9771022B2 (en) 2012-10-05 2017-09-26 Denso Corporation Display apparatus
JP2016143324A (en) * 2015-02-04 2016-08-08 株式会社デンソー Object detection device
US10210407B2 (en) 2015-06-09 2019-02-19 Nissan Motor Co., Ltd. Traffic signal detection device and traffic signal detection method
JPWO2016199225A1 (en) * 2015-06-09 2018-05-10 日産自動車株式会社 Signal detection device and signal detection method
WO2016199225A1 (en) * 2015-06-09 2016-12-15 日産自動車株式会社 Signaler detection device and signaler detection method
CN110648539A (en) * 2018-06-27 2020-01-03 丰田自动车株式会社 In-vehicle device and control method
CN110648539B (en) * 2018-06-27 2022-09-23 丰田自动车株式会社 In-vehicle device and control method
KR102454599B1 (en) * 2021-05-26 2022-10-17 포티투닷 주식회사 Method and apparatus for determining the position of an object on a lane map
KR20220159868A (en) * 2021-05-26 2022-12-05 포티투닷 주식회사 Method and apparatus for performing lane fitting
KR102491524B1 (en) 2021-05-26 2023-01-27 포티투닷 주식회사 Method and apparatus for performing lane fitting

Also Published As

Publication number Publication date
JP4475015B2 (en) 2010-06-09

Similar Documents

Publication Publication Date Title
JP7082545B2 (en) Information processing methods, information processing equipment and programs
US8461976B2 (en) On-vehicle device and recognition support system
CN115668182A (en) Autonomous vehicle context aware software architecture
US9126533B2 (en) Driving support method and driving support device
JP4483305B2 (en) Vehicle periphery monitoring device
JP4981566B2 (en) Driving support device and driving support method
US20210278221A1 (en) Lane marking localization and fusion
US20190347808A1 (en) Monocular Visual Odometry: Speed And Yaw Rate Of Vehicle From Rear-View Camera
JP4475015B2 (en) Vehicle periphery monitoring device and vehicle periphery monitoring method
CN111674389B (en) Parking support device and parking support method
JP5028662B2 (en) Road white line detection method, road white line detection program, and road white line detection device
JP2008309529A (en) Navigation system, navigation method and program for navigation
KR20020033817A (en) Device for assisting automobile driver
JP2008034966A (en) Image display apparatus
JP2009211624A (en) Driving support device, driving support method, and computer program
KR102037129B1 (en) Apparatus and Method for Compensating Position of Vehicle, System for Compensating Position of Vehicle and Unmanned Vehicle Using the Same
JP2020016541A (en) Display controller for vehicles, display control method for vehicles, and control program
JP2007240422A (en) Depression angle calculator, depression angle calculation method, depression angle calculation program, and image processor
US11677931B2 (en) Automated real-time calibration
JP6989284B2 (en) Vehicle position estimation device and program
JP6715205B2 (en) Work machine surrounding image display device
JP4249037B2 (en) Peripheral vehicle display device, navigation device, and vehicle display method
AU2020257038A1 (en) Camera orientation estimation
JP4506299B2 (en) Vehicle periphery monitoring device
JP4857159B2 (en) Vehicle driving support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090812

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090818

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100301

R151 Written notification of patent or utility model registration

Ref document number: 4475015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130319

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140319

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees