JP2008070206A - Object recognizizing apparatus - Google Patents

Object recognizizing apparatus Download PDF

Info

Publication number
JP2008070206A
JP2008070206A JP2006248503A JP2006248503A JP2008070206A JP 2008070206 A JP2008070206 A JP 2008070206A JP 2006248503 A JP2006248503 A JP 2006248503A JP 2006248503 A JP2006248503 A JP 2006248503A JP 2008070206 A JP2008070206 A JP 2008070206A
Authority
JP
Japan
Prior art keywords
vehicle
road
recognition
recognized
recognition range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006248503A
Other languages
Japanese (ja)
Other versions
JP4724079B2 (en
Inventor
Kiyokazu Okada
清和 岡田
Masaki Nakamura
正樹 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Toyota Motor Corp
Original Assignee
Aisin AW Co Ltd
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd, Toyota Motor Corp filed Critical Aisin AW Co Ltd
Priority to JP2006248503A priority Critical patent/JP4724079B2/en
Publication of JP2008070206A publication Critical patent/JP2008070206A/en
Application granted granted Critical
Publication of JP4724079B2 publication Critical patent/JP4724079B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To allow an object recognizing apparatus for determining that an object does not exist on a road in the recognition range, if an object whose recognition makes it possible to consider the object conditions on a road for its recognition as being proper cannot be recognized in the recognition range. <P>SOLUTION: In the recognition range of the road to be set based on a position determined, by positioning of own vehicle, the position of the object on the road stored in a map database and supposed to be recognized by the vehicle, and the accuracy of positioning for the vehicle position, a processing for recognizing the object is performed. Information representing mark blurring on roads of the object is stored in the map database; and if the extent of mark blurring of the object by the map database is proper for recognizing the object, when the object is not recognized in the set recognition range, it is determined that the object did not exist in the set recognition range. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、対象物認識装置に係り、特に、自車位置と道路上の対象物位置と測位精度とに基づいた道路の認識範囲において対象物を認識するうえで好適な対象物認識装置に関する。   The present invention relates to an object recognition apparatus, and more particularly, to an object recognition apparatus suitable for recognizing an object in a road recognition range based on a vehicle position, an object position on a road, and positioning accuracy.

従来、移動体である車両において道路標識等の静止対象物を認識する対象物認識装置が知られている(例えば、特許文献1参照)。この対象物認識装置は、車両周囲の道路を撮影するカメラを備えており、かかるカメラの撮影した撮像画像を処理することにより、道路上の静止対象物を認識することとしている。
特開2000−346653号公報
2. Description of the Related Art Conventionally, an object recognition apparatus that recognizes a stationary object such as a road sign in a vehicle that is a moving body is known (see, for example, Patent Document 1). This object recognition apparatus includes a camera that captures a road around a vehicle, and recognizes a stationary object on the road by processing a captured image captured by the camera.
JP 2000-346653 A

一般に、上記の如くカメラ撮像画像から認識される静止対象物は、道路上に設置され或いは描かれる道路標識や路面標示であって、道路上に点在する。また、その静止対象物の位置は、絶対的に或いは交差点などの地図上固定物に対して相対的に定められることが多い。この点、車両の認識すべき静止対象物の位置情報を予め格納したデータベースを有する車両側において、道路上の対象物を認識する際に、常にカメラにより車両周囲の道路を撮影しかつその撮像画像を処理するものとすると、その認識処理負荷が増大することとなり、その結果、対象物の認識に時間がかかり、或いは、高速処理可能な高価な装置が必要となる不都合が生じてしまう。   In general, stationary objects recognized from camera-captured images as described above are road signs and road markings that are installed or drawn on a road, and are scattered on the road. In addition, the position of the stationary object is often determined absolutely or relative to a fixed object on a map such as an intersection. In this respect, on the vehicle side having a database that stores in advance the position information of the stationary object to be recognized by the vehicle, when the object on the road is recognized, the road around the vehicle is always photographed and the captured image thereof As a result, the recognition processing load increases. As a result, it takes time to recognize an object, or an inconvenience is required in which an expensive device capable of high-speed processing is required.

かかる不都合を回避するために、予め撮像画像から対象物を認識すべき認識範囲を設定し、その認識範囲内においてのみ対象物を認識する処理を行うことが考えられる。かかる手法によれば、道路上の対象物の認識をその処理負荷を軽減させつつ行うことが可能となる。   In order to avoid such inconvenience, it is conceivable to set a recognition range in which the object is to be recognized from the captured image in advance, and to perform processing for recognizing the object only within the recognition range. According to this method, it is possible to recognize an object on the road while reducing its processing load.

ところで、対象物を認識すべき認識範囲は車両の有するデータベースに格納される対象物の位置等に基づいて設定されるが、データベースに格納される対象物の位置情報が道路改修等に起因して現実のものと異なること、すなわち、データベースに位置情報が格納されている対象物が現実の道路から消去されて描かれなくなることがあり、このときは、設定認識範囲に対象物が存在するものとしてその対象物の認識処理を行っても、カメラの撮像画像から対象物を認識することは不可能である。一方、対象物が道路上に描かれる路面標示である場合は、その対象物の標示がかすれることがある。このような標示かすれが生じたときは、カメラの撮像画像から対象物を認識することができなくなることがある。この点、上記の如く認識範囲内において対象物の認識処理を行った際にその認識ができないときには、その認識不能が、対象物自体が道路上に描かれていないことに起因したものであるのか、或いは、道路上に対象物は描かれているがその対象物の標示かすれに起因したものであるのかを区別することができないおそれがある。   By the way, the recognition range for recognizing the object is set based on the position of the object stored in the database of the vehicle, but the position information of the object stored in the database is caused by road repair or the like. It is different from the real thing, that is, the object whose position information is stored in the database may be erased from the real road and may not be drawn. In this case, it is assumed that the object exists in the setting recognition range Even if the object recognition process is performed, it is impossible to recognize the object from the captured image of the camera. On the other hand, if the object is a road marking drawn on a road, the marking of the object may be faded. When such fading has occurred, it may not be possible to recognize the object from the captured image of the camera. In this regard, if the object cannot be recognized when the object is recognized within the recognition range as described above, is the recognition failure caused by the object itself not being drawn on the road? Alternatively, although the object is drawn on the road, there is a possibility that it cannot be distinguished whether the object is caused by the marking blur of the object.

本発明は、上述の点に鑑みてなされたものであり、認識範囲における対象物の不存在の判定を行うことが可能な対象物認識装置を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide an object recognition device capable of determining the absence of an object in a recognition range.

上記の目的は、測位手段により測位された自車両の位置と、格納手段に格納されている自車両の認識すべき道路上の対象物の位置と、前記測位手段による自車両位置の測位精度とに基づいて設定される道路の認識範囲において前記対象物を認識する処理を実行する対象物認識手段を備える対象物認識装置であって、前記対象物の道路上での状態を示す情報を格納する対象物情報格納手段と、前記対象物認識手段により前記認識範囲において前記対象物が認識されなかった場合に、前記対象物情報格納手段に格納された該対象物の状態情報に基づいて、該認識範囲における前記対象物の存在有無の判定を行う対象物有無判定手段と、を備える対象物認識装置により達成される。   The above-mentioned purpose is that the position of the own vehicle measured by the positioning means, the position of the object on the road to be recognized by the own vehicle stored in the storage means, and the positioning accuracy of the own vehicle position by the positioning means, An object recognition device comprising object recognition means for executing processing for recognizing the object in a road recognition range set based on the information, and stores information indicating a state of the object on the road When the object is not recognized in the recognition range by the object information storage means and the object recognition means, the recognition is performed based on the state information of the object stored in the object information storage means. It is achieved by an object recognition device comprising: an object presence / absence determination unit that determines whether or not the object exists in a range.

この態様の発明においては、自車両の位置と対象物の位置と自車位置の測位精度とに基づいた道路の認識範囲において対象物が認識されなかった場合に、対象物情報格納手段に格納された対象物の道路上での状態を示す情報に基づいて、その認識範囲における対象物の存在有無の判定が行われる。対象物の道路上での状態がその認識を行ううえで良好なものであるときにその認識がされなかった場合は、その対象物が現実の道路上から消去されていると判断できる。従って、本発明によれば、認識範囲においてその認識を行うのに道路上での状態が良好であるとする対象物を認識できなかったときは、その認識範囲の道路上にその対象物が存在していなかったと判定することができる。   In the invention of this aspect, when the object is not recognized in the road recognition range based on the position of the own vehicle, the position of the object, and the positioning accuracy of the own vehicle position, the object is stored in the object information storage means. Based on the information indicating the state of the target object on the road, the presence / absence of the target object in the recognition range is determined. If the recognition is not performed when the state of the object on the road is good for recognition, it can be determined that the object has been erased from the actual road. Therefore, according to the present invention, when an object that is in good condition on the road is recognized in the recognition range, the object exists on the road in the recognition range. It can be determined that it was not.

この点、上記した対象物認識装置において、前記対象物有無判定手段は、前記対象物認識手段により前記認識範囲において前記対象物が認識されなかった場合に、前記対象物情報格納手段に格納された該対象物の状態が良好なものであるときは、該認識範囲において前記対象物が存在しなかったと判定することとすればよい。   In this regard, in the above-described object recognition device, the object presence / absence determination unit is stored in the object information storage unit when the object recognition unit does not recognize the object in the recognition range. When the state of the object is good, it may be determined that the object does not exist in the recognition range.

一方、対象物の道路上での状態がその認識を行うのに良好なものでないときにその認識がされなかった場合は、その対象物が現実の道路上から消去されたのか或いはその対象物が現実の道路上に存在する状況で認識不良が生じたのかを区別することができない。   On the other hand, if the object is not recognized when the condition on the road is not good for recognition, the object has been deleted from the actual road or the object is It is impossible to distinguish whether a recognition failure has occurred in a situation that exists on an actual road.

従って、上記した対象物認識装置において、前記対象物有無判定手段は、前記対象物認識手段により前記認識範囲において前記対象物が認識されなかった場合に、前記対象物情報格納手段に格納された該対象物の状態が良好なものでないときは、該認識範囲における前記対象物の存在有無が不明であると判定することとすればよい。   Therefore, in the above-described object recognition device, the object presence / absence determination means is stored in the object information storage means when the object recognition means does not recognize the object in the recognition range. When the state of the object is not good, it may be determined that the presence or absence of the object in the recognition range is unknown.

尚、上記した対象物認識装置において、前記対象物情報格納手段は、道路上に描かれた前記対象物の道路上での標示かすれ状態を示す情報を格納することとしてもよい。   In the above-described object recognition device, the object information storage means may store information indicating a blurring state on the road of the object drawn on the road.

また、上記した対象物認識装置において、前記対象物認識手段は、自車両に搭載された道路を撮影するカメラの撮像画像を処理することにより、前記認識範囲において前記対象物を認識することとしてもよい。   In the above-described object recognition device, the object recognition means may recognize the object in the recognition range by processing a captured image of a camera that captures a road mounted on the host vehicle. Good.

本発明によれば、認識範囲においてその認識を行うのに道路上での状態が良好であるとする対象物を認識できなかったときは、その認識範囲においてその対象物が道路上に存在していなかったと判定することができる。   According to the present invention, when an object that is in good condition on the road is not recognized in the recognition range, the object exists on the road in the recognition range. It can be determined that there was not.

図1は、本発明の一実施例である車両に搭載されるシステムの構成図を示す。図1に示す如く、本実施例のシステムは、自車両の位置を測位するための測位部12と、自車両の走行等を制御するための支援制御部14と、を備えており、自車両の位置を測位部12で測位すると共に、その測位される自車両の位置に応じて自車両を走行させるうえでの所定の支援制御を支援制御部14で実行するシステムである。   FIG. 1 shows a configuration diagram of a system mounted on a vehicle according to an embodiment of the present invention. As shown in FIG. 1, the system of the present embodiment includes a positioning unit 12 for positioning the position of the host vehicle, and a support control unit 14 for controlling the traveling of the host vehicle. Is determined by the positioning unit 12, and the support control unit 14 executes predetermined support control for driving the host vehicle according to the position of the host vehicle.

測位部12は、GPS(Global Positioning System)衛星から送信されるGPS信号を受信して自車両の存在する位置の緯度及び経度を検知するGPS受信機16、旋回角や地磁気を用いて自車両のヨー角(方位)を検知する方位センサ18、加減速度を検知するGセンサ20、車速を検知する車速センサ22、並びに、それら各受信機やセンサ16〜22の出力が接続されている主にマイクロコンピュータにより構成された推測航法部24を有している。各受信機やセンサ16〜22の出力信号はそれぞれ、推測航法部24に供給される。推測航法部24は、GPS受信機16からの情報に基づいて自車両の位置の緯度及び経度(初期座標)を検出すると共に、センサ18〜22からの情報に基づいて自車両の進行方位、車速、及び加減速度の走行状態を検出して、自車両位置の初期座標からの車両の走行軌跡(推測軌跡)を作成する。   The positioning unit 12 receives a GPS signal transmitted from a GPS (Global Positioning System) satellite and detects the latitude and longitude of the position where the host vehicle exists, and uses the turning angle and the geomagnetism of the host vehicle. An azimuth sensor 18 for detecting the yaw angle (azimuth), a G sensor 20 for detecting acceleration / deceleration, a vehicle speed sensor 22 for detecting vehicle speed, and outputs of these receivers and sensors 16 to 22 are mainly connected. It has the dead reckoning part 24 comprised with the computer. Output signals from the receivers and the sensors 16 to 22 are respectively supplied to the dead reckoning navigation unit 24. The dead reckoning navigation unit 24 detects the latitude and longitude (initial coordinates) of the position of the host vehicle based on information from the GPS receiver 16, and the traveling direction and vehicle speed of the host vehicle based on information from the sensors 18 to 22. And a traveling state of acceleration / deceleration is detected, and a traveling locus (estimated locus) of the vehicle from the initial coordinates of the own vehicle position is created.

測位部12は、また、上記した推測航法部24に接続されている主にマイクロコンピュータにより構成されたマップマッチング部28を有している。マップマッチング部28には、また、地図データベース30が接続されている。地図データベース30は、車両に搭載され或いはセンタに設けられたハードディスク(HDD)やDVD,CDなどにより構成されており、経路案内や地図表示に必要な道路自体のリンクデータ等や道路に描かれ或いは設置される静止対象物や車線レーンの位置情報などを格納している。マップマッチング部28は、適宜地図データベース30にアクセスしてその地図データベースに格納するデータを読み出す。   The positioning unit 12 also has a map matching unit 28 mainly composed of a microcomputer connected to the dead reckoning navigation unit 24 described above. A map database 30 is also connected to the map matching unit 28. The map database 30 is composed of a hard disk (HDD), DVD, CD, or the like that is mounted on a vehicle or provided at the center, and is drawn on the road or link data of the road itself necessary for route guidance and map display. Stores information about stationary objects to be installed and lane lane position information. The map matching unit 28 appropriately accesses the map database 30 and reads data stored in the map database.

具体的には、この地図データベース30には、道路を表す緯度・経度や曲率,勾配,車線数,車線幅,コーナー有無などのレーン形状や道路種別のデータや、各交差点やノード点に関する情報、地図表示を行うための建物などに関する情報などが格納されると共に、道路路面上に描かれる横断歩道や一時停止線,進行方向矢印,「横断歩道あり」の菱形標示,最高速度標示,回転禁止標示などの静止対象物ごとに、形状データやペイントデータ,位置データ,特徴量の大きさ,前後にある他の対象物との距離データ,測定時における標示擦れ度を示すデータ,標示擦れ易さの度合いを示すデータ,車両進行方向の目標となる対象物との距離データなどが格納される。また、この地図データベース30は、ディスクの交換や更新条件の成立により格納する地図データを最新のものに更新可能である。   Specifically, the map database 30 includes data on lane shapes and road types such as latitude / longitude, curvature, gradient, number of lanes, lane width, corner presence / absence representing roads, information on intersections and node points, Stores information related to buildings for map display, etc., as well as pedestrian crossings and temporary stop lines drawn on road surfaces, direction arrows, rhombus markings with “crosswalks”, maximum speed markings, and rotation prohibition markings For each stationary object such as shape data, paint data, position data, feature size, distance data with other objects before and after, data indicating the degree of marking rubbing at the time of measurement, marking rubbing ease Data indicating the degree, distance data with a target object in the vehicle traveling direction, and the like are stored. In addition, the map database 30 can update the stored map data to the latest one by exchanging disks or establishing update conditions.

マップマッチング部28には、推測航法部24において検出・作成された自車両位置の初期座標及びその初期座標からの推測軌跡の情報が供給される。マップマッチング部28は、推測航法部24から情報供給される自車両のGPSに基づく初期座標および推測軌跡に基づいて、自車両の位置を地図データベース30に格納されている道路自体のリンク情報を利用してその道路リンク上に補正するマップマッチング(第1マップマッチング)を行うと共に、その第1マップマッチングの結果として検出された自車両の位置の精度を示す位置精度レベルを算出する機能を有している。   The map matching unit 28 is supplied with the initial coordinates of the vehicle position detected and created by the dead reckoning unit 24 and information on the estimated trajectory from the initial coordinates. The map matching unit 28 uses the link information of the road itself stored in the map database 30 based on the initial coordinates and the estimated trajectory based on the GPS of the host vehicle supplied with information from the dead reckoning unit 24. And performing a map matching (first map matching) to be corrected on the road link, and calculating a position accuracy level indicating the accuracy of the position of the host vehicle detected as a result of the first map matching. ing.

マップマッチング部28は、上記の如く第1マップマッチングの結果得られた自車両の現在位置から所定範囲内の道路路面上にある対象物データを地図データベース30から読み出すと共に、その自車位置から所定道路範囲内にある対象物を自車両において認識すべき対象物として設定する。そして、その設定後、測位検出される自車両の位置に基づいて、後述のバックカメラ32による撮像画像を用いてその設定された対象物を認識すべきか否かを判別すると共に、対象物を認識すべきときに後述の如きその認識処理を行う。   The map matching unit 28 reads the object data on the road surface within the predetermined range from the current position of the own vehicle obtained as a result of the first map matching as described above from the map database 30 and determines the predetermined data from the own vehicle position. An object within the road range is set as an object to be recognized by the host vehicle. Then, after the setting, based on the position of the host vehicle whose position is detected, it is determined whether or not the set object should be recognized using an image captured by the back camera 32 described later, and the object is recognized. When necessary, the recognition process is performed as described later.

測位部12は、また、マップマッチング部28に接続するバックカメラ32を有している。バックカメラ32は、車両後部バンパなどに配設されており、その配設位置から車両後方の道路路面を含む所定領域の外界を撮影することができる。バックカメラ32の撮像画像は、マップマッチング部28に供給される。   The positioning unit 12 also has a back camera 32 connected to the map matching unit 28. The back camera 32 is disposed in a vehicle rear bumper or the like, and can capture the outside of a predetermined area including the road surface behind the vehicle from the disposed position. The captured image of the back camera 32 is supplied to the map matching unit 28.

マップマッチング部28は、バックカメラ32による撮像画像から対象物の認識を行うべきと判別する場合において、バックカメラ32から撮像画像が供給されると、その撮像画像についてエッジ抽出などの画像処理を行うことにより、道路路面に描かれる上記の対象物や走行レーンを検出すると共に、それら対象物や走行レーンと自車両との相対位置関係を把握する。   When it is determined that the object should be recognized from the image captured by the back camera 32, the map matching unit 28 performs image processing such as edge extraction on the captured image when the captured image is supplied from the back camera 32. Thus, the object and the traveling lane drawn on the road surface are detected, and the relative positional relationship between the object and the traveling lane and the host vehicle is grasped.

マップマッチング部28は、バックカメラ32の撮像画像からの走行レーンの検出結果に基づいて、自車両が現に走行する道路上における自車両に対する自レーンの位置を算出する。また、対象物の検出結果に基づいて、自車両と自車両の道路後方に存在する認識した対象物との相対関係(具体的には、自車両から認識対象物までの距離)を測定すると共に、その測定結果と地図データベース30に格納されているその認識対象物の位置データとに基づいて、自車両の位置(特に車両前後方向の位置)を認識対象物に対してその相対位置関係にある位置に補正するマップマッチング(第2マップマッチング)を行う。   The map matching unit 28 calculates the position of the own lane relative to the own vehicle on the road on which the own vehicle actually travels based on the detection result of the travel lane from the captured image of the back camera 32. In addition, based on the detection result of the object, while measuring the relative relationship between the own vehicle and the recognized object existing behind the road of the own vehicle (specifically, the distance from the own vehicle to the recognized object) Based on the measurement result and the position data of the recognition object stored in the map database 30, the position of the host vehicle (particularly the position in the vehicle front-rear direction) is in a relative positional relationship with the recognition object. Map matching (second map matching) for correcting the position is performed.

このように、マップマッチング部28は、上記の如く、推測航法部24から推測軌跡の情報が供給されるごとに自車両の現在位置を地図データベース30に格納されている道路リンク上に補正する第1マップマッチングを行うと共に、バックカメラ32の撮像画像から認識すべき対象物が認識された際にその認識結果による認識対象物に基づく位置へ自車両の位置を補正する第2マップマッチングを行う。マップマッチング部28は、マップマッチングの結果として測位される自車両の現在位置の精度を示す正確性を算出する。   As described above, the map matching unit 28 corrects the current position of the host vehicle on the road link stored in the map database 30 every time information on the estimated trajectory is supplied from the dead reckoning unit 24 as described above. While performing 1 map matching, when the target object which should be recognized is recognized from the captured image of the back camera 32, the 2nd map matching which corrects the position of the own vehicle to the position based on the recognition target object by the recognition result is performed. The map matching unit 28 calculates the accuracy indicating the accuracy of the current position of the host vehicle measured as a result of the map matching.

マップマッチング部28は、また、マップマッチングにより測位した自車両の位置を地図データベース30に格納されている地図データと照合した結果、自車両の進行方向の所定範囲前方に支援制御を実行するのに必要な制御対象である目標の対象物(例えば、停止線や交差点,カーブ進入口等)が存在することとなるときは、以後、測位ごとに、その測位した自車両の位置と地図データベース30に格納されているその目標対象物の位置との関係に基づいて、自車両から進行方向前方の目標対象物までの走行レーンの中心線に沿った距離(以下、道なり残距離と称す)を算出する。   In addition, the map matching unit 28 executes the support control ahead of a predetermined range in the traveling direction of the own vehicle as a result of collating the position of the own vehicle measured by the map matching with the map data stored in the map database 30. When there is a target object (for example, a stop line, an intersection, a curve entrance, etc.) that is a necessary control target, thereafter, the position of the subject vehicle and the map database 30 are stored for each positioning. The distance along the center line of the driving lane from the host vehicle to the target object ahead in the direction of travel (hereinafter referred to as the road remaining distance) is calculated based on the relationship with the stored position of the target object. To do.

測位部12と支援制御部14とは、互いに接続されている。測位部12で測位検知された自車両の位置や道なり残距離の情報は、例えば車内に設けられた乗員の視認可能な表示ディスプレイに供給されて、画面上に映し出されている道路地図に模式的に重畳表示されると共に、支援制御部14に供給される。   The positioning unit 12 and the support control unit 14 are connected to each other. Information on the position of the host vehicle and the remaining road distance detected by the positioning unit 12 is supplied to, for example, a display that can be seen by an occupant provided in the vehicle, and is schematically shown on a road map displayed on the screen. Are superimposed and displayed, and supplied to the support control unit 14.

支援制御部14は、マイクロコンピュータを主体に構成された電子制御ユニット(以下、支援ECUと称す)40を備えており、支援ECU40により自車両を道路上で走行させるうえでの運転者の操作を支援するための支援制御を実行する。この支援制御は、自車両の位置に応じて具体的には上記した自車両から目標対象物までの道なり残距離に応じて実行される例えば、特に運転者によるブレーキ操作が行われていないときや遅れているときなどに自車両を道路上の目標対象物である一時停止線や踏み切り線などの手前で停車させるための運転支援制御である一時停止制御、自車両を道路上の目標対象物となる交差点で交差すると予測される他車両と交錯させないための運転支援制御である交差点制御、自車両を対象物であるカーブコーナーに対して適切な速度で走行させるための速度制御、目標対象物までの相対距離について音声による経路案内を行うための案内制御などである。   The support control unit 14 includes an electronic control unit (hereinafter referred to as a support ECU) 40 mainly composed of a microcomputer. The support ECU 40 controls the operation of the driver when the host vehicle travels on the road. Execute support control to support. This assistance control is executed according to the position of the host vehicle, specifically according to the remaining distance along the road from the host vehicle to the target object. For example, when the driver does not perform a brake operation in particular. When the vehicle is behind or behind the road, the target object on the road is paused control, which is driving support control for stopping the vehicle in front of the target line on the road, such as the stop line or railroad crossing line. Intersection control, which is driving support control to prevent crossing with other vehicles that are predicted to cross at the intersection, speed control for driving the vehicle at an appropriate speed with respect to the target curve corner, target object Guidance control for performing voice route guidance on the relative distance to

支援ECU40には、自車両に適当な制動力を発生させるためのブレーキアクチュエータ42、自車両に適当な駆動力を付与するためのスロットルアクチュエータ44、自車両の自動変速機の変速段を切り替えるためのシフトアクチュエータ46、自車両に適当な操舵角を付与するためのステアアクチュエータ48、及び車室内に向けてブザー吹鳴や警報出力,スピーカ出力を行うためのブザー警報器50が接続されている。支援ECU40は、上記した支援制御を実行すべく、測位部12で測位された自車両の位置や自車両と目標対象物との相対関係に基づいて、各アクチュエータ42〜50に対して適当な駆動指令を行う。各アクチュエータ42〜50は、支援ECU40から供給される駆動指令に従って駆動される。   The assist ECU 40 includes a brake actuator 42 for generating an appropriate braking force for the host vehicle, a throttle actuator 44 for applying an appropriate driving force to the host vehicle, and a gear stage for switching the automatic transmission of the host vehicle. A shift actuator 46, a steer actuator 48 for imparting an appropriate steering angle to the host vehicle, and a buzzer alarm 50 for buzzer sounding, alarm output, and speaker output toward the vehicle interior are connected. The support ECU 40 appropriately drives the actuators 42 to 50 based on the position of the host vehicle measured by the positioning unit 12 and the relative relationship between the host vehicle and the target object in order to execute the above-described support control. Make a command. Each actuator 42-50 is driven according to the drive command supplied from support ECU40.

次に、本実施例のシステムにおける具体的な動作について説明する。車両運転者は、自車位置のディスプレイへの表示や支援制御部14による支援制御の実行を希望する場合、所定のスイッチ操作により本実施例のシステムを作動可能な状態に起動させる。   Next, a specific operation in the system of this embodiment will be described. When the vehicle driver desires to display the vehicle position on the display or to execute the assist control by the assist control unit 14, the vehicle driver activates the system according to the present embodiment to an operable state by operating a predetermined switch.

本実施例のシステムにおいて、起動後、測位部12は、推測航法部24において、所定時間ごとに、各受信機やセンサ16〜22の出力信号に基づいて、自車両の初期座標からの走行軌跡を作成する。そして、マップマッチング部28において、推測航法部24による自車両の初期座標位置および推測軌跡を、地図データベース30に地図データとして格納されている道路のリンク情報と照らし合わせることにより、自車両の位置をその道路リンク上に補正する第1マップマッチングを行う。   In the system of the present embodiment, after starting, the positioning unit 12 causes the dead reckoning unit 24 to run from the initial coordinates of the own vehicle based on the output signals of the receivers and the sensors 16 to 22 every predetermined time. Create Then, the map matching unit 28 compares the initial coordinate position and the estimated trajectory of the host vehicle by the dead reckoning unit 24 with the link information of the road stored as map data in the map database 30, thereby determining the position of the host vehicle. First map matching to be corrected on the road link is performed.

マップマッチング部28は、自車位置を検出した場合、その自車位置を乗員の視認可能な表示ディスプレイの表示画面上に道路地図に重ねて表示させる。また、その自車位置から自車両が今後所定時間若しくは所定距離だけ走行したときの位置まで又は支援制御の制御対象である目標対象物の位置までの道路範囲(複数レーンのときはすべてのレーン)内の対象物の位置や形状などのデータを地図データベース30から読み出し、その所定道路範囲内に位置する対象物からバックカメラ32により認識すべき対象物を抽出する。そして、その抽出した認識すべき対象物の位置と常時更新される自車両の位置とに基づいて、自車位置がその認識すべき対象物の位置近傍に達したか否かを判別することにより、バックカメラ32の撮像画像を処理してその設定された認識すべき対象物の認識を行うべきタイミングか否かを判別する。   When the map matching unit 28 detects the position of the host vehicle, the map matching unit 28 displays the position of the host vehicle over the road map on the display screen of a display display that can be viewed by the occupant. Also, the road range from the vehicle position to the position when the vehicle travels for a predetermined time or a predetermined distance in the future or to the position of the target object that is the control target of the support control (all lanes when there are multiple lanes) Data such as the position and shape of the target object is read from the map database 30 and the target object to be recognized by the back camera 32 is extracted from the target object located within the predetermined road range. Then, based on the extracted position of the object to be recognized and the position of the vehicle that is constantly updated, it is determined whether or not the vehicle position has reached the vicinity of the position of the object to be recognized. Then, the captured image of the back camera 32 is processed to determine whether or not it is time to recognize the set object to be recognized.

マップマッチング部28は、上記タイミングの判別の結果、認識すべき対象物の認識を行うべきときは、バックカメラ32により撮像される車両後方の撮像画像の供給を受けて、その撮像画像についてエッジ抽出などの画像処理を行う。そして、その画像処理の結果と認識すべき対象物の形状データや位置データなどの特徴データとを比較して、その認識すべき対象物が認識されるかを判定する。   When the object to be recognized is to be recognized as a result of the determination of the timing, the map matching unit 28 receives the captured image of the rear of the vehicle imaged by the back camera 32 and extracts the edge of the captured image. Perform image processing. Then, the result of the image processing is compared with feature data such as shape data and position data of the object to be recognized to determine whether the object to be recognized is recognized.

マップマッチング部28は、上記の判定の結果として認識すべき対象物を認識したときは、その画像処理により特定される自車両と認識対象物との相対関係に基づいて、自車両からその車両後方に存在する認識対象物までの相対位置及び距離を検出すると共に、地図データベース30に格納されたその認識対象物の位置データを読み出す。そして、認識対象物までの相対距離とその認識対象物の位置データとに基づいて、自車両の位置(特に車両前後方向の位置)を認識対象物の位置と検出相対関係にある位置へ補正する第2マップマッチングを行う。   When the map matching unit 28 recognizes an object to be recognized as a result of the above determination, the map matching unit 28 determines from the own vehicle to the rear of the vehicle based on the relative relationship between the own vehicle specified by the image processing and the recognition object. The relative position and the distance to the recognition target existing in the map are detected, and the position data of the recognition target stored in the map database 30 is read out. Then, based on the relative distance to the recognition object and the position data of the recognition object, the position of the host vehicle (especially the position in the vehicle front-rear direction) is corrected to a position having a detection relative relationship with the position of the recognition object. Second map matching is performed.

ところで、第2マップマッチングにより自車位置を補正すべくバックカメラ32の撮像画像の処理によって認識すべき道路上の対象物は、停止線や横断歩道,矢印,回転禁止,菱形標示,文字列,減速帯などであって道路上に点在するものであるので、常にその対象物認識処理を行う必要はない。また、認識すべき対象物の位置情報は予め地図データベース30に格納されており、その位置はある程度の正確性を有する一方、自車両の位置は上記の如き手法に従って測位されるため、測位精度に応じた誤差を有するものとなる。自車位置の測位誤差が生じなければ、測位された自車位置が地図データベース30に格納されている対象物の位置に一致した或いはその位置近傍に至った時点でカメラ撮像画像を用いた対象物の認識処理を行うこととすれば十分であるが、実際は上記の如く自車位置に測位誤差が生ずるため、上記した時点でのみ対象物の認識処理を行うこととすると、その認識処理時には自車両が未だその対象物を通過していない或いは既にその対象物を通過していることもあり、対象物を認識できない事態が起こり得る。   By the way, the object on the road to be recognized by processing the captured image of the back camera 32 to correct the vehicle position by the second map matching is a stop line, a pedestrian crossing, an arrow, a rotation prohibition, a rhombus sign, a character string, Since it is a deceleration zone or the like and is scattered on the road, it is not always necessary to perform the object recognition processing. Further, the position information of the object to be recognized is stored in advance in the map database 30 and the position thereof has a certain degree of accuracy. On the other hand, the position of the host vehicle is measured according to the method as described above. It has a corresponding error. If there is no positioning error in the vehicle position, the object using the camera-captured image when the measured vehicle position coincides with or near the position of the object stored in the map database 30. However, in reality, a positioning error occurs at the vehicle position as described above. Therefore, if the object recognition process is performed only at the time point described above, the vehicle Has not yet passed through the object or has already passed through the object, and a situation in which the object cannot be recognized may occur.

かかる事態に対処すべく、自車位置と認識すべき対象物の位置との相対関係及び自車位置の測位精度に基づいて、対象物を認識すべく認識処理を行うべき道路の延在方向についての範囲(以下、認識範囲と称す)を設定することが考えられる。しかし、自車位置の測位は、GPS受信機や各種センサ16〜22の出力を用いた推測軌跡に基づいて行われるため、この測位計算にはそれらセンサ等16〜22やカメラ32の検出パラメータの誤差(例えばタイミングの丸め込み誤差)などが重畳されて測位結果に誤差が発生する。この測位誤差には車両の移動に伴って積算されるものが含まれているので、車両の移動距離が長くなるほど自車位置を測位するうえでの測位誤差が大きくなり、測位精度が低下する。このため、自車位置の測位精度を考慮することなく対象物の認識処理を行うべき認識範囲を一律に設定するものとすると、その設定後、位置測位された自車両がその認識範囲に入ったと判断されるときにも、実際は車両移動に伴って増大した測位誤差に起因してその認識範囲に入っていない事態も起こり得、その結果、対象物が認識されないおそれもある。   In order to cope with this situation, based on the relative relationship between the vehicle position and the position of the object to be recognized and the positioning accuracy of the vehicle position, the extension direction of the road to be recognized to recognize the object It is conceivable to set a range (hereinafter referred to as a recognition range). However, since the positioning of the vehicle position is performed based on the estimated trajectory using the output of the GPS receiver and the various sensors 16 to 22, detection parameters of the sensors 16 to 22 and the camera 32 are used for this positioning calculation. An error (for example, a timing rounding error) or the like is superimposed, and an error occurs in the positioning result. Since this positioning error includes what is integrated with the movement of the vehicle, the positioning error in positioning the vehicle position increases as the moving distance of the vehicle increases, and the positioning accuracy decreases. For this reason, assuming that the recognition range in which the recognition processing of the object should be performed without considering the positioning accuracy of the own vehicle position is set uniformly, after the setting, the own vehicle whose position is positioned has entered the recognition range. Even when the determination is made, there may be a situation where the actual position is not within the recognition range due to a positioning error that increases as the vehicle moves. As a result, the object may not be recognized.

一般に、自車位置の測位精度が極めて高いときは、測位される自車位置が正確性を有するため、その測位位置と地図データベース30に格納されている認識すべき対象物の位置との関係から、実道路上で自車両が認識すべき対象物を認識できるまでのタイミングを正確に把握することができ、この点で、バックカメラ32の撮像画像を用いて認識すべき対象物を認識するうえでは、その認識のための認識範囲が比較的狭く(距離的に短く)ても十分である。一方、自車位置の測位精度が低いほど、測位される自車位置の誤差は大きくなるため、その測位位置からでは、実道路上で自車両が認識すべき対象物を認識できるまでのタイミングを正確に把握することができず、この点で、バックカメラ32の撮像画像を用いて認識すべき対象物を認識するうえでは、その認識のための認識範囲を比較的広く(距離的に長く)することが必要となる。   In general, when the positioning accuracy of the own vehicle position is extremely high, the position of the own vehicle to be positioned has accuracy, and therefore, from the relationship between the positioning position and the position of the object to be recognized stored in the map database 30. In addition, it is possible to accurately grasp the timing until the target object can be recognized by the host vehicle on the real road. In this respect, the target object to be recognized can be recognized using the captured image of the back camera 32. Then, it is enough even if the recognition range for the recognition is relatively narrow (distance is short). On the other hand, the lower the positioning accuracy of the vehicle position, the larger the error in the position of the vehicle that is positioned. Therefore, from that position, the timing until the object that the vehicle should recognize can be recognized on the actual road. In this respect, when recognizing an object to be recognized using the captured image of the back camera 32, the recognition range for recognition is relatively wide (longer in distance). It is necessary to do.

また、自車位置の測位誤差が車両の移動距離が長くなるほど大きくなるので、ある時点での自車位置の測位精度が同じであっても、その時点での自車位置から走行レーン上における次の対象物の位置までの距離が長いほど、自車両がその対象物に接近するまでの測位誤差は大きくなる。この点で、バックカメラ32の撮像画像を用いて認識すべき対象物を認識するうえでは、その認識のための道路認識範囲を、自車位置と対象物位置との走行レーン上での相対距離(道なりの走行距離)が短いほど狭くし、その相対距離が長いほど広くすることが適切である。   In addition, since the positioning error of the own vehicle position becomes larger as the moving distance of the vehicle becomes longer, even if the positioning accuracy of the own vehicle position at a certain time is the same, the next position on the traveling lane from the current vehicle position at that time is the same. The longer the distance to the position of the target object, the larger the positioning error until the host vehicle approaches the target object. In this regard, when recognizing an object to be recognized using the captured image of the back camera 32, a road recognition range for the recognition is defined as a relative distance on the traveling lane between the vehicle position and the object position. It is appropriate to make it narrower as the (traveling distance along the road) is shorter and wider as the relative distance is longer.

図2は、本実施例のシステムにおいて自車位置の測位精度に応じて対象物を認識すべき道路の認識範囲を設定する手法を説明するための図を示す。また、図3は、本実施例のシステムにおいてマップマッチング部28が実行する制御ルーチンの一例のフローチャートを示す。   FIG. 2 is a diagram for explaining a method for setting a road recognition range in which the object should be recognized according to the positioning accuracy of the vehicle position in the system of the present embodiment. FIG. 3 shows a flowchart of an example of a control routine executed by the map matching unit 28 in the system of this embodiment.

本実施例において、マップマッチング部28は、GPSやセンサ出力を用いた車両の推測軌跡に基づいて或いはカメラ撮像画像を用いた対象物の認識結果に基づいて自車位置を測位して取得する(ステップ100)と、まず、上記の如く、測位した自車位置から自車両が今後所定時間若しくは所定距離だけ走行したときの位置まで又は自車両において実行可能な支援制御の制御対象である直近の目標対象物の位置までの道路範囲上のすべての対象物候補のデータを地図データベース30から読み出して、その道路範囲内における対象物からバックカメラ32により認識すべき対象物を抽出・設定する(ステップ102)。   In the present embodiment, the map matching unit 28 determines and acquires the position of the vehicle based on the estimated trajectory of the vehicle using GPS or sensor output or based on the recognition result of the object using the camera captured image ( Step 100) and first, as described above, from the measured own vehicle position to the position where the own vehicle will travel for a predetermined time or a predetermined distance in the future, or the nearest target that is the target of the support control that can be executed in the own vehicle Data of all object candidates on the road range up to the position of the object is read from the map database 30, and an object to be recognized by the back camera 32 is extracted from the objects in the road area and set (step 102). ).

尚、この際、道路範囲内の対象物候補の中から抽出されるバックカメラ32を用いて認識すべき対象物は、地図データベース30に位置データが格納されているその道路範囲内のすべての対象物である必要はなく、例えば、支援制御の目標対象物からその手前所定距離(例えば1kmや700m)の範囲内にあるものに限定することとしてもよく、カメラ撮像画像から形状が特定し易いものや標示擦れが生じ難いもの、自車位置から支援制御の目標対象物までの走行道路の種類に応じた配置パターンに従ったものだけでもよいし、或いは、その対象物をカメラ撮像画像により認識して自車位置の補正を行えば自車両において実行され得る支援制御に要求される測位精度を維持しつつその支援制御の実行により自車両をその目標対象物に到達させることができるものだけでもよい。この場合には、例えば、一時停止制御により自車両を目標対象物である一時停止線に停車させるうえで要求される一時停止線到達時における測位精度を満足させるのに、自車位置の補正を実施すべき、その一時停止線手前の走行レーン上に存在する対象物を、その支援制御を適切に実行するのに要求される測位精度、並びに現状の測位精度、自車両との相対距離、及び目標対象物との相対距離に基づいて抽出する。   At this time, the objects to be recognized using the back camera 32 extracted from the object candidates in the road range are all objects in the road range whose position data is stored in the map database 30. It is not necessary to be a thing, for example, it is good also as limiting to the thing within the range of the predetermined distance (for example, 1 km or 700 m) before that from the target object of support control, and it is easy to specify a shape from a camera image Or those that are less likely to cause rubbing, those that follow an arrangement pattern according to the type of road that runs from the vehicle position to the target object for assistance control, or that the object is recognized by a camera image. If the position of the host vehicle is corrected, the positioning accuracy required for the support control that can be executed in the host vehicle is maintained, and the host vehicle reaches the target object by executing the support control. It may be only those that can Rukoto. In this case, for example, in order to satisfy the positioning accuracy when reaching the temporary stop line required for stopping the own vehicle on the temporary stop line as the target object by the temporary stop control, the correction of the own vehicle position is performed. The positioning accuracy required to properly execute the support control for the object existing on the traveling lane before the temporary stop line to be implemented, the current positioning accuracy, the relative distance from the own vehicle, and Extraction is based on the relative distance to the target object.

マップマッチング部28は、上記の如くバックカメラ32により認識すべき対象物を所定の道路範囲から抽出すると、その認識すべき対象物の位置(尚、認識すべき対象物が複数あるときは、少なくとも自車位置に直近の対象物の位置)のデータを地図データベース30から取得して(ステップ104)、その取得した認識すべき対象物の位置と測位した自車位置との走行レーンに沿った道なりの相対距離を算出する(ステップ106)。   When the map matching unit 28 extracts the object to be recognized by the back camera 32 from the predetermined road range as described above, the position of the object to be recognized (when there are a plurality of objects to be recognized, at least The data of the position of the object closest to the own vehicle position is acquired from the map database 30 (step 104), and the road along the travel lane between the acquired position of the object to be recognized and the measured own vehicle position The relative distance is calculated (step 106).

また、マップマッチング部28は、自車位置を測位するうえでの現時点での測位精度を算出する(ステップ108)。この算出は、予め実験的に定められた所定の式にパラメータを代入するものであればよく、例えば、車両の移動距離に応じて累積されないGPSの精度誤差などに対応したものを初期値としたうえで、カメラ撮像画像での対象物認識に基づいた自車位置補正(第2マップマッチング)が行われるごとに最も高い精度が得られ、その第2マップマッチング後の車両移動距離に応じて予め定められた所定勾配で低下してその移動距離が長くなるほど低くなる精度が得られるものとすればよい。   Further, the map matching unit 28 calculates the current positioning accuracy for positioning the vehicle position (step 108). This calculation may be performed by substituting parameters into predetermined formulas experimentally determined in advance. For example, an initial value corresponding to a GPS accuracy error that is not accumulated according to the moving distance of the vehicle is used. In addition, the highest accuracy is obtained each time the vehicle position correction (second map matching) based on the object recognition in the camera captured image is performed, and in advance according to the vehicle movement distance after the second map matching. What is necessary is just to acquire the precision which becomes low, so that it falls with the predetermined | prescribed predetermined gradient and the movement distance becomes long.

そして、マップマッチング部28は、上記の如く算出された自車両と認識すべき対象物との相対距離及び自車位置の測位精度に基づいて、バックカメラ32を用いて道路上の対象物を認識すべき道路の認識範囲(すなわち、測位される自車位置に最大限許容される測位誤差が生じてもその範囲内で認識処理を行えば確実に対象物を認識できる領域範囲)を設定する(ステップ110)。   Then, the map matching unit 28 recognizes the object on the road using the back camera 32 based on the relative distance between the vehicle and the object to be recognized and the positioning accuracy of the vehicle position calculated as described above. A road recognition range (that is, a region range in which an object can be reliably recognized if recognition processing is performed within that range even if a positioning error that is allowed to the maximum in the vehicle position to be measured occurs) is set ( Step 110).

具体的には、マップマッチング部28は、予め、自車両と認識すべき対象物との相対距離及び測位精度に基づいて上記の認識範囲を設定するうえで用いるべきマップを記憶している。このマップは、図2に示す如く自車位置の測位誤差が小さいほどすなわち測位精度が高いほど認識範囲が狭く、その測位誤差が大きいほどすなわち測位精度が低いほど認識範囲が広くなるように、かつ、自車両と認識すべき対象物との走行レーン上の相対距離が短いほど認識範囲が狭く、その相対距離が長いほど認識範囲が広くなるように規定されている。尚、この設定される道路の認識範囲は、自車両が認識すべき対象物との相対距離を走行した際に生じ得る最大の測位誤差に対応したものであればよい。マップマッチング部28は、このマップを参照して上記の如く道路の認識範囲の設定を行う。   Specifically, the map matching unit 28 stores in advance a map to be used for setting the recognition range based on the relative distance between the host vehicle and the object to be recognized and the positioning accuracy. As shown in FIG. 2, this map is such that the smaller the positioning error of the vehicle position, that is, the higher the positioning accuracy, the narrower the recognition range, and the larger the positioning error, ie, the lower the positioning accuracy, the wider the recognition range. The recognition range is narrowed as the relative distance on the travel lane between the subject vehicle and the object to be recognized is shorter, and the recognition range is wider as the relative distance is longer. Note that the road recognition range that is set may correspond to the maximum positioning error that may occur when the vehicle travels a relative distance from the object to be recognized. The map matching unit 28 sets the road recognition range as described above with reference to this map.

マップマッチング部28は、上記の如く対象物を認識すべき道路の認識範囲を設定すると、その後は、更新される自車位置とその設定認識範囲とを比較して、自車両がその認識範囲に進入したか否かを判別し、肯定判定がなされるまでその判別を繰り返す。そして、自車両が設定道路認識範囲に進入したと判別した場合は、認識すべき対象物をバックカメラ32の撮像画像の処理によって認識すべき状況にあると判断し、以後、バックカメラ32から撮像される車両後方の撮像画像の供給を受けて、その撮像画像についてエッジ抽出などの画像処理を行い(ステップ112)、その画像処理結果と認識すべき対象物の特徴データとを比較してその認識すべき対象物を認識する処理を行う(ステップ114)。   When the map matching unit 28 sets the recognition range of the road on which the object is to be recognized as described above, thereafter, the map matching unit 28 compares the own vehicle position to be updated with the set recognition range, and the own vehicle becomes the recognition range. It is determined whether or not the vehicle has entered, and the determination is repeated until an affirmative determination is made. If it is determined that the host vehicle has entered the set road recognition range, it is determined that the object to be recognized is in a situation to be recognized by processing the captured image of the back camera 32, and thereafter the image is captured from the back camera 32. In response to the supply of the captured image behind the vehicle, image processing such as edge extraction is performed on the captured image (step 112), and the image processing result is compared with the feature data of the object to be recognized. A process for recognizing an object to be performed is performed (step 114).

その処理の結果、自車両が設定道路認識範囲内に位置する状況において認識すべき対象物を認識したときは、道路の認識範囲内に認識すべき対象物が存在したと判断して(ステップ116)、その画像処理により特定される自車両と認識対象物との相対関係を把握し、その認識対象物の位置に対してその相対関係にある位置へ自車位置を補正する第2マップマッチングを実施する。一方、自車両が設定道路認識範囲内に位置する状況において認識すべき対象物を認識しなかったとき、すなわち、認識すべき対象物を認識することなく、更新される自車位置とその設定された道路の認識範囲との比較結果に基づいて自車両がその設定道路認識範囲から進出したときは、上記の第2マップマッチングを実施することなく処理を終了する。   As a result of the processing, when an object to be recognized is recognized in a situation where the host vehicle is located within the set road recognition range, it is determined that there is an object to be recognized within the road recognition range (step 116). ), Second map matching for grasping the relative relationship between the vehicle identified by the image processing and the recognition object, and correcting the vehicle position to a position having the relative relationship with respect to the position of the recognition object. carry out. On the other hand, when the subject vehicle is not recognized in the situation where the subject vehicle is located within the set road recognition range, that is, the subject vehicle position to be updated and its set are recognized without recognizing the subject matter to be recognized. When the own vehicle has advanced from the set road recognition range based on the comparison result with the road recognition range, the process is terminated without performing the second map matching.

以後、マップマッチング部28は、自車両が支援制御の目標対象物又はその近傍に到達するまで、認識すべき対象物ごとに位置データを取得して、その認識処理を行うべき道路の認識範囲を設定し、上記した処理と同様の処理を実行する。   Thereafter, the map matching unit 28 acquires position data for each object to be recognized until the host vehicle reaches the target object for assist control or the vicinity thereof, and determines the recognition range of the road on which the recognition process is to be performed. Set and execute the same process as described above.

マップマッチング部28は、上記の第2マップマッチングを行って自車位置を補正すると、地図データベース30にアクセスしてその認識対象物から支援制御の対象である目標対象物までの道路走行上の距離を取得し、自車両の位置と認識対象物から目標対象物までの距離とに基づいて、自車両から目標対象物までの道なり残距離の初期値を算出する。   When the map matching unit 28 performs the second map matching and corrects the position of the vehicle, the map matching unit 28 accesses the map database 30 and travels the road from the recognition target object to the target target object for support control. And the initial value of the road remaining distance from the vehicle to the target object is calculated based on the position of the vehicle and the distance from the recognition object to the target object.

また、マップマッチング部28は、所定道路範囲内の認識すべき対象物を認識したときは、バックカメラ32からの撮像画像の画像処理を行うことで道路上の走行レーンの情報を取得・認識して、その走行レーンの自車両に対する相対関係を把握する。そして、地図データベース30にアクセスして自車位置近傍での走行レーンのレーン幅やレーン数,形状等を取得して、自車両に対する走行レーンの相対関係や地図データベース30から取得したレーン数等に基づいて、自車両が現時点で走行する道路での自レーンの位置を特定する。目標対象物は走行レーンごとに異なることがあるが、上記の如く自レーンの位置が特定されると、自レーン上に存在する自車両が通過すべき進行方向前方の目標対象物が具体的に特定されるので、自レーン上の目標対象物を基準にした上記の道なり算距離を算出することが可能となる。   Further, when the map matching unit 28 recognizes an object to be recognized within a predetermined road range, the map matching unit 28 acquires and recognizes information on a driving lane on the road by performing image processing of a captured image from the back camera 32. To grasp the relative relationship of the lane to the host vehicle. Then, the lane width, the number of lanes, the shape, etc. of the traveling lane in the vicinity of the own vehicle position are acquired by accessing the map database 30, and the relative relationship of the traveling lane with respect to the own vehicle, the number of lanes acquired from the map database 30, etc. Based on this, the position of the own lane on the road on which the own vehicle is traveling at the present time is specified. The target object may be different for each driving lane, but when the position of the own lane is specified as described above, the target object ahead of the traveling direction to which the host vehicle existing on the own lane should pass is specifically Since it is specified, it is possible to calculate the above-mentioned road calculation distance based on the target object on the own lane.

推測航法部24は、所定時間ごとに、GPS受信機16並びに各種センサ18〜22を用いて自車位置の推測軌跡を作成し、その軌跡情報をマップマッチング部28に対して送信する。マップマッチング部28は、上記の如く対象物認識に伴う第2マップマッチングを行うと、以後、推測航法部24からの推測軌跡情報を受信するごとに、まず、その第2マップマッチング時点からの推測軌跡と自レーンの位置とに基づいて自レーンの中心線上での認識対象物の位置座標に対する自車両の位置(特に前後方向の距離)を算出する。そして、その前後方向距離、及び、自レーン上での上記した認識対象物と目標対象物との距離に基づいて、自車両の現在位置からその目標対象物までの道なり残距離を算出する。   The dead reckoning unit 24 creates an estimated trajectory of the vehicle position using the GPS receiver 16 and the various sensors 18 to 22 every predetermined time, and transmits the trajectory information to the map matching unit 28. When the map matching unit 28 performs the second map matching accompanying the object recognition as described above, each time it receives the estimated trajectory information from the dead reckoning navigation unit 24, first, the map matching unit 28 first estimates from the second map matching time point. Based on the locus and the position of the own lane, the position of the own vehicle (particularly the distance in the front-rear direction) with respect to the position coordinates of the recognition target on the center line of the own lane is calculated. Based on the distance in the front-rear direction and the distance between the recognition object and the target object on the own lane, the road remaining distance from the current position of the own vehicle to the target object is calculated.

測位部12において検知された自車位置の情報および道なり残距離の情報は、表示ディスプレイに供給されると共に、支援制御部14に供給される。表示ディスプレイは、測位部12からの情報に従って、表示画面上に映し出された道路地図に重畳してその自車位置や道なり残距離を模式的に表示する。   The information on the own vehicle position and the information on the remaining road distance detected by the positioning unit 12 is supplied to the display display and to the support control unit 14. In accordance with the information from the positioning unit 12, the display display schematically displays the vehicle position and the remaining distance along the road superimposed on the road map displayed on the display screen.

支援制御部14の支援ECU40は、測位部12から供給される支援制御の制御対象である一時停止線や交差点などの目標対象物までの道路走行上の距離に基づいて、支援制御ごとに、その制御に定められている制御開始条件が成立するか否かをそれぞれ判別する。そして、制御開始条件が成立した場合はその支援制御を開始する。   The assistance ECU 40 of the assistance control unit 14 determines, for each assistance control, on the basis of the distance on the road traveling to the target object such as a stop line or an intersection that is the control object of the assistance control supplied from the positioning unit 12. It is determined whether or not a control start condition defined for the control is satisfied. When the control start condition is satisfied, the support control is started.

例えば一時停止制御においては、測位される自車両から目標対象物である一時停止線までの距離が例えば30メートル(自車速に応じて変化する距離であってもよい。)になった時点でブレーキアクチュエータ42による自動ブレーキを開始して、自車両をその一時停止線で停車させる。尚、この際、ブレーキアクチュエータ42による自動的な制動ブレーキを開始する前に、運転者に対してその自動的な制動ブレーキが行われることを知らせる音声案内などを行うこととしてもよい。また、音声による経路案内制御においては、測位される自車両から交差点などの目標対象物までの距離が例えば100メートルになった時点でブザー警報器50によるスピーカ出力によって、運転者に車両前方に目標対象物が存在することを知らせる案内を行う。   For example, in the pause control, the brake is applied when the distance from the measured vehicle to the pause line that is the target object is, for example, 30 meters (may be a distance that changes according to the vehicle speed). Automatic braking by the actuator 42 is started, and the host vehicle is stopped at the temporary stop line. At this time, before starting the automatic braking brake by the brake actuator 42, voice guidance for notifying the driver that the automatic braking brake is performed may be performed. In the route guidance control by voice, when the distance from the vehicle to be measured to the target object such as an intersection reaches 100 meters, for example, the speaker outputs the buzzer alarm 50 to the driver in front of the vehicle. Guidance that the object exists is given.

このように、本実施例のシステムにおいては、GPS受信機16に受信されるGPS信号や各種センサ18〜22の出力を用いた推測軌跡に基づいて自車両の位置を地図データベース30に格納されている地図データの道路リンク上に測位する第1マップマッチングを行うことができる。また、バックカメラ32の撮影する画像の処理により道路に描かれ或いは設置される対象物を認識すると共に、その認識対象物の地図データベース30に予め情報格納されている位置および認識時点での自車両とその認識対象物との相対関係に基づいて自車両の位置を測位する第2マップマッチングを行うことができる。   Thus, in the system of the present embodiment, the position of the host vehicle is stored in the map database 30 based on the GPS signal received by the GPS receiver 16 and the estimated trajectory using the outputs of the various sensors 18-22. The first map matching for positioning on the road link of the existing map data can be performed. Further, an object drawn or installed on a road is recognized by processing of an image captured by the back camera 32, and the position of the recognition object stored in advance in the map database 30 and the vehicle at the time of recognition. The second map matching for measuring the position of the host vehicle can be performed based on the relative relationship between the vehicle and its recognition object.

上記の如く車両の移動距離が長くなるほど自車位置の測位誤差は大きくなり、その測位精度は低下する。一方、地図データベース30に格納されている対象物の位置情報は一般に実測されたものであって高い精度を有するので、かかる対象物の位置データを用いれば、自車位置を測位するうえでの測位誤差は小さくなり、その測位精度は高くなる。従って、本実施例のシステムによれば、通常はGPSやセンサ出力を用いた車両の推測軌跡に基づいて第1マップマッチングを行い、一方、カメラ撮像画像を用いた対象物の認識時はその認識結果に基づいて第2マップマッチングを行うことで、道路に描かれ或いは設置される対象物をバックカメラ32による撮像画像により認識する前においては自車両の移動距離が長くなるほど自車位置の測位精度は低下するが、その対象物を認識するごとにその自車位置の測位精度を向上させることができる。   As described above, as the moving distance of the vehicle increases, the positioning error of the own vehicle position increases, and the positioning accuracy decreases. On the other hand, the position information of the object stored in the map database 30 is generally measured and has high accuracy. Therefore, if the position data of the object is used, the position information for positioning the vehicle is determined. The error becomes smaller and the positioning accuracy becomes higher. Therefore, according to the system of the present embodiment, the first map matching is normally performed based on the estimated trajectory of the vehicle using GPS or sensor output, while the recognition is performed when the object is recognized using the camera captured image. By performing the second map matching based on the result, the positioning accuracy of the own vehicle position becomes longer as the moving distance of the own vehicle becomes longer before the object drawn or installed on the road is recognized by the captured image by the back camera 32. However, every time the object is recognized, the positioning accuracy of the vehicle position can be improved.

また、本実施例のシステムにおいては、測位部12で測位された自車位置(具体的には自車両から支援制御の対象である目標対象物までの距離)に応じて支援制御を実行することができる。測位結果として自車両が目標対象物に対して所定の相対位置関係に至る前は支援制御を行わないが、その相対位置関係に至った場合は支援制御を実行することができる。このため、本実施例のシステムによれば、自車両の測位結果に応じて一時停止制御や交差点制御,速度制御,案内制御を実施して、自車両を道路上で走行させるうえでの運転者の操作を支援することで、自車両を安全かつ適切に走行させることが可能である。   Further, in the system of the present embodiment, the support control is executed according to the own vehicle position measured by the positioning unit 12 (specifically, the distance from the own vehicle to the target object that is the target of the support control). Can do. Although the assist control is not performed before the vehicle reaches a predetermined relative positional relationship with the target object as a positioning result, the assist control can be performed when the relative positional relationship is reached. For this reason, according to the system of the present embodiment, the driver who runs the vehicle on the road by performing the pause control, the intersection control, the speed control, and the guidance control according to the positioning result of the vehicle. It is possible to drive the host vehicle safely and appropriately by supporting the operation.

尚、本実施例のシステムにおいては、バックカメラ32の撮像画像を用いて認識すべき道路上の対象物を認識するのに、自車位置の測位精度、並びに、実際に測位される自車位置及び予め地図データベース30に格納されている認識すべき対象物の位置(具体的には、自車両と認識すべき対象物との走行レーン上での相対距離)に基づいて、その認識処理を行うべき道路の認識範囲を設定する。具体的には、測位精度が高いほどより狭い道路の認識範囲を設定し、測位精度が低いほどより広い道路の認識範囲を設定する。また、自車両と認識すべき対象物との走行レーン上の相対距離が短いほどより狭い道路の認識範囲を設定し、その相対距離が長いほどより広い道路の認識範囲を設定する。そして、その道路認識範囲においてバックカメラ32の撮像画像を用いた対象物の認識処理を行う。   In the system of the present embodiment, in order to recognize an object on the road to be recognized using the captured image of the back camera 32, the positioning accuracy of the own vehicle position and the actual vehicle position to be actually measured are determined. And the recognition process is performed based on the position of the object to be recognized that is stored in advance in the map database 30 (specifically, the relative distance on the travel lane between the subject vehicle and the object to be recognized). Set the road recognition range. Specifically, the narrower road recognition range is set as the positioning accuracy is higher, and the wider road recognition range is set as the positioning accuracy is lower. Also, the narrower road recognition range is set as the relative distance on the travel lane between the subject vehicle and the object to be recognized is shorter, and the wider road recognition range is set as the relative distance is longer. And the recognition process of the target object using the captured image of the back camera 32 is performed in the road recognition range.

すなわち、バックカメラ32の撮像画像を用いて対象物の認識処理を行うのは、自車両と認識すべき対象物との相対距離及び自車位置の測位精度に基づいて設定される所定の道路認識範囲内を車両が走行する際に限られ、その範囲外においてはかかる対象物の認識処理は行われない。従って、本実施例のシステムによれば、自車両の認識すべき対象物が認識不可となるのを防止しつつ、カメラ撮像画像を用いた対象物の認識処理を常に行うシステムに比べてその対象物の認識に要する処理負荷を軽減することが可能である。   That is, the object recognition process using the captured image of the back camera 32 is performed based on a predetermined road recognition set based on the relative distance between the vehicle and the object to be recognized and the positioning accuracy of the vehicle position. This is limited to the case where the vehicle travels within the range, and the object recognition process is not performed outside the range. Therefore, according to the system of the present embodiment, the object to be recognized by the host vehicle is prevented from becoming unrecognizable, and the object is compared with the system that always performs the object recognition process using the camera captured image. It is possible to reduce the processing load required for object recognition.

ところで、設定された道路の認識範囲内におけるカメラ撮像画像の画像処理の結果として対象物を認識することができないのは、その認識範囲の道路上に対象物自体が描かれていないときだけでなく、その認識範囲の道路上には対象物は描かれているがその対象物の標示がかすれているときやその対象物の形状などが認識し難いものであるときにも起こる。このため、認識範囲内における対象物の認識不能が、対象物自体が道路上に描かれていないことに起因したものであるのか、或いは、道路上に対象物は描かれているがその対象物の標示かすれ等に起因したものであるのかを区別することができないおそれがある。   By the way, it is not only when the object itself is not drawn on the road in the recognition range that the object cannot be recognized as a result of the image processing of the camera captured image within the set road recognition range. This also occurs when an object is drawn on the road in the recognition range, but the sign of the object is faint or the shape of the object is difficult to recognize. For this reason, the recognition of the object within the recognition range is caused by the fact that the object itself is not drawn on the road, or the object is drawn on the road, but the object There is a possibility that it cannot be distinguished whether it is caused by fading or the like.

そこで、本実施例のシステムにおいては、まず、各種の地図データを格納する地図データベース30に、道路路面上に描かれる静止対象物ごとに、その直近の道路測定時における標示擦れ度を示すデータが格納されている。尚、標示擦れ度とは、道路上の対象物を写したカメラ撮像画像からその対象物を認識することができない程度を示した数値であって、その数値が大きいほど対象物を認識し難いものとし、その数値が小さいほど対象物を認識し易いものとすればよい。   Therefore, in the system of the present embodiment, first, in the map database 30 storing various types of map data, for each stationary object drawn on the road surface, data indicating the degree of rubbing at the time of the latest road measurement is displayed. Stored. The rubbing degree is a numerical value indicating the degree to which an object cannot be recognized from a camera-captured image obtained by copying the object on the road, and the larger the numerical value, the more difficult the object is recognized. The smaller the numerical value, the easier it is to recognize the object.

一般に、認識すべき対象物の標示擦れ度が大きくてその状態がその対象物をカメラ撮像画像から認識するのに良好なものでないと認められる場合において、認識範囲内において対象物の認識ができなかったときは、その認識不能が、対象物自体が道路上に描かれていないことに起因したものであるのか、或いは、道路上に対象物は描かれているがその対象物の標示かすれ等に起因したものであるのかを区別することは依然として困難である。しかし、認識すべき対象物の標示擦れ度が小さくてその状態がその対象物をカメラ撮像画像から認識するのに良好なものであると認められる場合においては、認識範囲内に対象物が存在すれば、その認識範囲内において認識処理を行うことで必ずその対象物を認識することができる筈であり、従って逆に、認識範囲内における認識処理によっても対象物の認識ができなかったときは、その対象物が現実の道路上から消去されることによって認識範囲内に存在していなかった可能性が極めて高いと判断できる。   In general, when the degree of rubbing of an object to be recognized is large and it is recognized that the state is not good for recognizing the object from a camera image, the object cannot be recognized within the recognition range. If the object is unrecognizable due to the fact that the object itself is not drawn on the road, or the object is drawn on the road but the sign of the object is faint, etc. It is still difficult to distinguish whether it is due. However, if the degree of rubbing of the target object to be recognized is small and it is recognized that the state is good for recognizing the target object from the camera captured image, the target object exists within the recognition range. For example, if the recognition process is performed within the recognition range, the object must be recognized, and conversely, if the recognition process within the recognition range fails to recognize the object, It can be determined that there is a very high possibility that the object was not present within the recognition range by being erased from the actual road.

本実施例のシステムにおいて、マップマッチング部28は、上記したステップ114において自車両が設定道路認識範囲内に位置する状況において認識すべき対象物を認識しなかったと判別したときは、次に、地図データベース30にアクセスしてその地図データベース30に格納されているその認識すべき対象物の道路上の標示擦れ度状態を示す情報を取得し(ステップ118)、そして、その擦れ度を所定のしきい値と比較することによりその対象物の状態がカメラ撮像画像から認識するのに良好なものであるか否かを判別する(ステップ120)。尚、この所定のしきい値は、対象物を写したカメラ撮像画像からその対象物を認識できるか否かの境界を表した擦れ度であり、予め実験的に与えられた値である。また、この所定のしきい値は、対象物の種類ごとに異なるものでもよい。   In the system of the present embodiment, when the map matching unit 28 determines in step 114 above that the subject vehicle should not be recognized in the situation where the host vehicle is located within the set road recognition range, The database 30 is accessed, information indicating the rubbing degree state on the road of the object to be recognized stored in the map database 30 is acquired (step 118), and the rubbing degree is set to a predetermined threshold. By comparing with the value, it is determined whether or not the state of the object is favorable for recognition from the camera-captured image (step 120). The predetermined threshold is a rubbing degree that represents a boundary indicating whether or not the object can be recognized from a camera-captured image obtained by copying the object, and is a value experimentally given in advance. The predetermined threshold value may be different for each type of object.

その判別の結果、認識すべきであった対象物の標示擦れ度が良好なものであるときは、設定された道路の認識範囲内には現実にはその認識すべき対象物が存在しなかったと判断して(ステップ122)、上記の第2マップマッチングを実施することなく処理を終了する。一方、認識すべきであった対象物の標示擦れ度が良好なものでないときは、認識範囲内における対象物の存在有無が不明であると判断して、上記の第2マップマッチングを実施することなく処理を終了する。   As a result of the determination, if the rubbing degree of the object that should have been recognized is good, it is assumed that the object to be recognized actually did not exist within the set road recognition range. Judgment is made (step 122), and the process is terminated without performing the second map matching. On the other hand, if the marking rubbing degree of the object that should have been recognized is not good, it is determined that the presence or absence of the object within the recognition range is unknown, and the second map matching is performed. The process is finished without.

認識範囲内において認識すべき対象物の標示擦れ度の状態がその対象物をカメラ撮像画像から認識するのに良好なものであると認められるにもかかわらず、認識処理によってその対象物の認識ができなかったときは、地図データベース30に格納されている対象物のデータが現実と異なるものとなった、すなわち、地図データベース30に直近のデータが格納された後にそのデータが保持されたままその対象物が現実の道路上から消去されたと判断できる。従って、本実施例のシステムによれば、認識範囲においてその認識を行うのに道路上での状態が良好であるとする対象物を認識できなかったときは、その認識範囲の道路上にその対象物が存在していなかったと判定することが可能となっており、所定の状況で認識範囲における対象物の不存在を精度よく判定することが可能となっている。   Even though it is recognized that the marking rubbing state of the object to be recognized within the recognition range is good for recognizing the object from the camera image, the recognition process recognizes the object. When it was not possible, the data of the object stored in the map database 30 became different from the actual data, that is, the data was retained after the most recent data was stored in the map database 30. It can be determined that the object has been erased from the actual road. Therefore, according to the system of the present embodiment, when an object that is in good condition on the road is not recognized in the recognition range, the object is displayed on the road in the recognition range. It is possible to determine that an object did not exist, and it is possible to accurately determine the absence of an object in the recognition range in a predetermined situation.

この点、本実施例によれば、認識範囲の道路上にその対象物が存在していなかったと判定したときに、地図データベース30に格納されているその対象物のデータが現時点で正確でないとしてその更新を行うことができるので、地図データベース30に格納する対象物データの正確性を適宜向上させることが可能である。また、認識範囲の道路上にその対象物が存在していなかったと判定したときは、マッチングにより測位した自車位置が現実の自車両の位置とは異なり、例えば2つの道路が並行するときには自車両の走行道路が現在マッチングしている道路ではなく、その道路に並行する道路であると判断することができ、その道路へ自車位置をマッチングし直すことができるので、測位の正確性を向上させることが可能である。   In this regard, according to the present embodiment, when it is determined that the object does not exist on the road in the recognition range, it is determined that the data of the object stored in the map database 30 is not accurate at the present time. Since the update can be performed, the accuracy of the object data stored in the map database 30 can be improved as appropriate. Further, when it is determined that the object does not exist on the road in the recognition range, the own vehicle position determined by matching is different from the actual own vehicle position. For example, when two roads are parallel, the own vehicle It is possible to determine that the driving road is not a currently matching road but a road parallel to that road, and the vehicle position can be re-matched to that road, thus improving the positioning accuracy. It is possible.

尚、上記の実施例においては、測位部12が特許請求の範囲に記載した「対象物認識装置」に、対象物の位置データを格納する地図データベース30が特許請求の範囲に記載した「格納手段」及び「対象物情報格納手段」に、バックカメラ32が特許請求の範囲に記載した「カメラ」に、それぞれ相当していると共に、マップマッチング部28が、図3に示すルーチン中ステップ100の処理を実行することにより特許請求の範囲に記載した「測位手段」が、設定された道路の認識範囲において認識すべき対象物を認識する処理を実行することにより特許請求の範囲に記載した「対象物認識手段」が、ステップ118から124の処理を実行することにより特許請求の範囲に記載した「対象物有無判定手段」が、それぞれ実現されている。   In the above-described embodiment, the map database 30 for storing the position data of the object is stored in the “object recognition device” described in the claims by the positioning unit 12. "And" object information storage means ", the back camera 32 corresponds to the" camera "described in the claims, and the map matching unit 28 performs the process of step 100 in the routine shown in FIG. The “positioning means” described in the claims by executing the process of recognizing the object to be recognized in the set road recognition range causes the “object” described in the claims. The “recognition means” executes the processing of steps 118 to 124, thereby realizing the “object presence / absence determination means” recited in the claims.

ところで、上記の実施例においては、車両の後部に配設されたバックカメラ32の撮像画像を用いて道路上の対象物を認識することとしているが、本発明はこれに限定されるものではなく、かかる対象物の認識を、車両の前部に配設されたカメラの撮像画像や外部インフラから送られてくる情報に基づいて行うこととしてもよい。   By the way, in the above embodiment, the object on the road is recognized using the captured image of the back camera 32 disposed in the rear part of the vehicle, but the present invention is not limited to this. Such recognition of the object may be performed based on a captured image of a camera disposed in the front portion of the vehicle or information sent from an external infrastructure.

また、上記の実施例においては、カメラ撮像画像を用いて認識した道路上の対象物を、自車位置をGPSや車速,舵角などによる走行軌跡に基づいたものから補正する第2マップマッチングに必要なものとして利用することとしているが、本発明はこれに限定されるものではなく、例えばその対象物が車両の進入を禁止する区域を表す道路標示として設けられている場合において車両がその区域に進入したら車両警報を発するシステムなど、マップマッチング以外の他の用途に利用するものであってもよい。   Further, in the above-described embodiment, the second map matching for correcting the object on the road recognized using the camera captured image from the vehicle position based on the traveling locus by the GPS, the vehicle speed, the steering angle, or the like. However, the present invention is not limited to this. For example, when the object is provided as a road sign indicating an area where entry of the vehicle is prohibited, the vehicle is in the area. It may be used for purposes other than map matching, such as a system that issues a vehicle warning when entering the vehicle.

更に、上記の実施例においては、対象物の状態がカメラ撮像画像から認識するのに良好なものであるか否かを判別するのに用いる標示擦れ度を、地図データベース30に格納されている直近の道路測定時における標示擦れ度そのものとしたが、本発明はこれに限定されるものではなく、その直近の道路測定時における標示擦れ度を基準にしてその測定時からの経過時間や車両走行頻度,擦れ易さの度合いなどを考慮して計算される現時点での標示擦れ度としてもよい。   Further, in the above embodiment, the sign rubbing degree used to determine whether or not the state of the object is good for recognition from the camera-captured image is the latest stored in the map database 30. However, the present invention is not limited to this, and the present invention is not limited to this. The elapsed time from the measurement and the vehicle running frequency based on the degree of rubbing at the time of the most recent road measurement. , It may be the current rubbing degree calculated in consideration of the degree of ease of rubbing.

本発明の一実施例である車両に搭載されるシステムの構成図である。It is a block diagram of the system mounted in the vehicle which is one Example of this invention. 本実施例のシステムにおいて自車位置の測位精度に応じて対象物を認識すべき道路の認識範囲を設定する手法を説明するための図である。It is a figure for demonstrating the method of setting the recognition range of the road which should recognize a target object according to the positioning accuracy of the own vehicle position in the system of a present Example. 本実施例のシステムにおいて実行される制御ルーチンの一例のフローチャートである。It is a flowchart of an example of the control routine performed in the system of a present Example.

符号の説明Explanation of symbols

12 測位部
16 GPS受信機
18 方位センサ
20 Gセンサ
22 車速センサ
24 推測航法部
28 マップマッチング部
30 地図データベース
32 バックカメラ
12 Positioning unit 16 GPS receiver 18 Direction sensor 20 G sensor 22 Vehicle speed sensor 24 Dead reckoning unit 28 Map matching unit 30 Map database 32 Back camera

Claims (5)

測位手段により測位された自車両の位置と、格納手段に格納されている自車両の認識すべき道路上の対象物の位置と、前記測位手段による自車両位置の測位精度とに基づいて設定される道路の認識範囲において前記対象物を認識する処理を実行する対象物認識手段を備える対象物認識装置であって、
前記対象物の道路上での状態を示す情報を格納する対象物情報格納手段と、
前記対象物認識手段により前記認識範囲において前記対象物が認識されなかった場合に、前記対象物情報格納手段に格納された該対象物の状態情報に基づいて、該認識範囲における前記対象物の存在有無の判定を行う対象物有無判定手段と、
を備えることを特徴とする対象物認識装置。
It is set based on the position of the own vehicle measured by the positioning means, the position of the object on the road to be recognized by the own vehicle stored in the storage means, and the positioning accuracy of the own vehicle position by the positioning means. An object recognition device comprising object recognition means for executing processing for recognizing the object in a road recognition range,
Object information storage means for storing information indicating the state of the object on the road;
When the object is not recognized in the recognition range by the object recognition means, the presence of the object in the recognition range based on the state information of the object stored in the object information storage means An object presence / absence determining means for determining presence / absence;
An object recognition apparatus comprising:
前記対象物有無判定手段は、前記対象物認識手段により前記認識範囲において前記対象物が認識されなかった場合に、前記対象物情報格納手段に格納された該対象物の状態が良好なものであるときは、該認識範囲において前記対象物が存在しなかったと判定することを特徴とする請求項1記載の対象物認識装置。   The object presence / absence determination means has a good state of the object stored in the object information storage means when the object recognition means does not recognize the object in the recognition range. 2. The object recognition apparatus according to claim 1, wherein it is determined that the object does not exist in the recognition range. 前記対象物有無判定手段は、前記対象物認識手段により前記認識範囲において前記対象物が認識されなかった場合に、前記対象物情報格納手段に格納された該対象物の状態が良好なものでないときは、該認識範囲における前記対象物の存在有無が不明であると判定することを特徴とする請求項1又は2記載の対象物認識装置。   The object presence / absence determining means is in a case where the state of the object stored in the object information storing means is not good when the object is not recognized in the recognition range by the object recognizing means. The object recognition apparatus according to claim 1 or 2, wherein it is determined that the presence or absence of the object in the recognition range is unknown. 前記対象物情報格納手段は、道路上に描かれた前記対象物の道路上での標示かすれ状態を示す情報を格納することを特徴とする請求項1乃至3の何れか一項記載の対象物認識装置。   4. The object according to claim 1, wherein the object information storage unit stores information indicating a blurring state on the road of the object drawn on the road. 5. Recognition device. 前記対象物認識手段は、自車両に搭載された道路を撮影するカメラの撮像画像を処理することにより、前記認識範囲において前記対象物を認識することを特徴とする請求項1乃至4の何れか一項記載の対象物認識装置。   5. The object recognition unit according to claim 1, wherein the object recognition unit recognizes the object in the recognition range by processing a captured image of a camera that captures a road mounted on the host vehicle. The object recognition apparatus according to one item.
JP2006248503A 2006-09-13 2006-09-13 Object recognition device Active JP4724079B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006248503A JP4724079B2 (en) 2006-09-13 2006-09-13 Object recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006248503A JP4724079B2 (en) 2006-09-13 2006-09-13 Object recognition device

Publications (2)

Publication Number Publication Date
JP2008070206A true JP2008070206A (en) 2008-03-27
JP4724079B2 JP4724079B2 (en) 2011-07-13

Family

ID=39291918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006248503A Active JP4724079B2 (en) 2006-09-13 2006-09-13 Object recognition device

Country Status (1)

Country Link
JP (1) JP4724079B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP2010164345A (en) * 2009-01-13 2010-07-29 Pioneer Electronic Corp Route search device, route search method, route search program, and recording medium
JP2010237799A (en) * 2009-03-30 2010-10-21 Nec Corp Road surface marking recognition device, method, program, and computer-readable storage medium
JP2011215974A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system
JP2017072422A (en) * 2015-10-05 2017-04-13 パイオニア株式会社 Information processing device, control method, program, and storage medium
WO2022255033A1 (en) * 2021-06-03 2022-12-08 株式会社デンソー Map updating system, map updating device, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137776A (en) * 1997-07-24 1999-02-12 Denso Corp Navigation apparatus for vehicle
JP2005265494A (en) * 2004-03-17 2005-09-29 Hitachi Ltd Car location estimation system and drive support device using car location estimation system and drive support device using this
JP2007309757A (en) * 2006-05-17 2007-11-29 Toyota Motor Corp Object recognizer

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1137776A (en) * 1997-07-24 1999-02-12 Denso Corp Navigation apparatus for vehicle
JP2005265494A (en) * 2004-03-17 2005-09-29 Hitachi Ltd Car location estimation system and drive support device using car location estimation system and drive support device using this
JP2007309757A (en) * 2006-05-17 2007-11-29 Toyota Motor Corp Object recognizer

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009113265A1 (en) * 2008-03-11 2009-09-17 パナソニック株式会社 Tag sensor system and sensor device, and object position estimating device and object position estimating method
US8243136B2 (en) 2008-03-11 2012-08-14 Panasonic Corporation Tag sensor system and sensor device, and object position estimating device and object position estimating method
JP5385893B2 (en) * 2008-03-11 2014-01-08 パナソニック株式会社 POSITIONING SYSTEM AND SENSOR DEVICE
JP2010164345A (en) * 2009-01-13 2010-07-29 Pioneer Electronic Corp Route search device, route search method, route search program, and recording medium
JP2010237799A (en) * 2009-03-30 2010-10-21 Nec Corp Road surface marking recognition device, method, program, and computer-readable storage medium
JP2011215974A (en) * 2010-03-31 2011-10-27 Aisin Aw Co Ltd Image processing system
JP2017072422A (en) * 2015-10-05 2017-04-13 パイオニア株式会社 Information processing device, control method, program, and storage medium
WO2022255033A1 (en) * 2021-06-03 2022-12-08 株式会社デンソー Map updating system, map updating device, and storage medium

Also Published As

Publication number Publication date
JP4724079B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
JP4724043B2 (en) Object recognition device
JP4680131B2 (en) Own vehicle position measuring device
JP4938351B2 (en) Positioning information update device for vehicles
JP5162103B2 (en) Support control device
JP4977218B2 (en) Self-vehicle position measurement device
JP4446204B2 (en) Vehicle navigation apparatus and vehicle navigation program
JP6036371B2 (en) Vehicle driving support system and driving support method
JP4370869B2 (en) Map data updating method and map data updating apparatus
JP2007309670A (en) Vehicle position detector
WO2015129175A1 (en) Automated driving device
JP2008083816A (en) Travelling control system for automobile and vehicle controller
JP4724079B2 (en) Object recognition device
JP6941178B2 (en) Automatic operation control device and method
JP2010128637A (en) Device for facilitating braking preparation
JP2019066445A (en) Position correction method, vehicle control method, and position correction device
JP4703544B2 (en) Driving assistance device
JP2008201393A (en) Vehicle speed controller
JP7136050B2 (en) Vehicle position estimation device
JP2023133773A (en) Stop line detection device
JP2024025040A (en) Own vehicle position estimation device and own vehicle position estimation method
JP2022071741A (en) Self position estimation device
JP2023123036A (en) Driving support method and driving support system
CN117068197A (en) Vehicle control device, vehicle control method, and computer program for vehicle control

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090304

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110408

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140415

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250