JP2007271515A - Vehicle navigation apparatus - Google Patents

Vehicle navigation apparatus Download PDF

Info

Publication number
JP2007271515A
JP2007271515A JP2006099179A JP2006099179A JP2007271515A JP 2007271515 A JP2007271515 A JP 2007271515A JP 2006099179 A JP2006099179 A JP 2006099179A JP 2006099179 A JP2006099179 A JP 2006099179A JP 2007271515 A JP2007271515 A JP 2007271515A
Authority
JP
Japan
Prior art keywords
intersection
vehicle
road
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006099179A
Other languages
Japanese (ja)
Other versions
JP4975350B2 (en
Inventor
Takashi Nakagawa
隆志 中川
Yoshihisa Yamaguchi
喜久 山口
Hiroichi Kato
博一 加藤
Mitsushi Honda
充知 本多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Osaka University NUC
Original Assignee
Mitsubishi Electric Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp, Osaka University NUC filed Critical Mitsubishi Electric Corp
Priority to JP2006099179A priority Critical patent/JP4975350B2/en
Publication of JP2007271515A publication Critical patent/JP2007271515A/en
Application granted granted Critical
Publication of JP4975350B2 publication Critical patent/JP4975350B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a vehicle navigation apparatus for stably and inexpensively modifying the position of a vehicle. <P>SOLUTION: The vehicle navigation apparatus is provided with a vehicle position/orientation calculating section 4 for calculating the position and an orientation of the vehicle; a map database 6 for storing a map data; a camera 10 for capturing the image of road surface; a cross-point ingression/egression recognizing section 12 for recognizing an ingression position and an egression position to/from a cross-point, based on a road sign, before and after a cross-point contained in the image of the road surface, from the camera; a cross-point road comparing section 13 for calculating forward/backward displacement of the vehicle from a geometric calculation by the recognized ingression position, the egression position and a road link intersecting the forward direction of the vehicle at the cross-point indicated on the map data from the map database; a vehicle position/orientation modifying section 5 for modifying the position and the orientation of the vehicle from the map data and the calculated displacement; and a navigation control section 7 for implementing a navigation from the position and the orientation modified by the vehicle position/orientation modifying section. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

この発明は、経路探索や経路案内を行う車載用ナビゲーション装置に関し、特に、車載のカメラを用いて自車位置を修正する技術に関する。   The present invention relates to a vehicle-mounted navigation device that performs route search and route guidance, and more particularly, to a technique for correcting the position of a vehicle using a vehicle-mounted camera.

車載用ナビゲーション装置は、GPS(Global Positioning System)を利用する方法、自車の速度を計測する車速センサと自車の進行方向を計測するジャイロセンサとを使用した自律航法、または、これらを組み合わせて、自車の位置および進行方向を取得し、さらに自車は道路上を走行しているという前提の下に、地図データベースに格納されている地図データによって示される道路の近傍へ自車位置を修正するマップマッチング機能を備えている。マップマッチング機能においては、道路形状と走行軌跡の形状とのマッチングや、道路方向と車両進行方向とのマッチングなどによって修正が行われるが、いずれの方法であっても、長い直線道路を走り続けた場合には、車両の前後方向のずれを修正することができないという問題がある。   The vehicle-mounted navigation device uses a GPS (Global Positioning System) method, autonomous navigation using a vehicle speed sensor that measures the speed of the vehicle and a gyro sensor that measures the traveling direction of the vehicle, or a combination of these. The vehicle position and direction of travel are obtained, and the vehicle position is corrected to the vicinity of the road indicated by the map data stored in the map database on the assumption that the vehicle is traveling on the road. It has a map matching function. In the map matching function, correction is performed by matching the shape of the road with the shape of the running locus, matching the road direction and the vehicle traveling direction, etc., but it continued running on a long straight road with either method In such a case, there is a problem in that it is impossible to correct the deviation in the front-rear direction of the vehicle.

このような問題に対して、たとえば、特許文献1は、長い直線道路のように特徴のない道路上を走行している場合において、走行方向の前後にずれた位置にマップマッチングしても、正しく車両位置を修正することができる車載用ナビゲーション装置を開示している。この車載用ナビゲーション装置は、車両前方の風景を撮影する車載カメラを備え、この車載カメラから得られる映像から交差点の特徴物としての信号機、横断歩道、中央分離帯用白線を画像認識処理により認識し、自車と前方の交差点との距離を計算して自車位置を修正する。また、画像認識処理により道路のエッジの途切れる点を検出し、これを交差点とみなして、自車と前方交差点との距離を計算して自車位置を修正する。さらに、自車の側方を撮影する車載カメラから得られる映像から、画像認識処理により交差する道路のエッジが構成する消失点を求め、その消失点の位置によって自車位置を修正する。   For example, Japanese Patent Application Laid-Open No. 2004-268531 correctly corrects a problem even when map matching is performed at a position shifted forward or backward in the traveling direction when the vehicle travels on a characteristic road such as a long straight road. An in-vehicle navigation device capable of correcting a vehicle position is disclosed. This in-vehicle navigation device includes an in-vehicle camera that captures a landscape in front of the vehicle, and recognizes traffic lights, pedestrian crossings, and white lines for median strips as features of intersections from images obtained from the in-vehicle camera by image recognition processing. The vehicle position is corrected by calculating the distance between the vehicle and the intersection ahead. Further, a point where the road edge is interrupted is detected by the image recognition process, and this is regarded as an intersection, and the distance between the vehicle and the front intersection is calculated to correct the vehicle position. Further, the vanishing point formed by the edge of the intersecting road is obtained from the video obtained from the in-vehicle camera that captures the side of the vehicle, and the vehicle position is corrected by the position of the vanishing point.

特開平9−243389号公報JP-A-9-243389

しかしながら、上述した特許文献1に開示された車載用ナビゲーション装置において行われる自車位置の修正方法では、以下のような問題がある。すなわち、道路上に存在する他の走行車、駐車車両、歩行者などが、車載カメラの映像に頻繁に入って認識対象の全部や一部が隠蔽されるため、正確な画像認識処理を行うことができる機会は極めて少ない。また、認識対象の形状を認識する画像認識処理には多大な計算量が必要であり、夜間や雨天などといった撮影条件が計算結果に大きく影響する。   However, the vehicle position correction method performed in the in-vehicle navigation device disclosed in Patent Document 1 described above has the following problems. That is, other traveling vehicles, parked vehicles, pedestrians, etc. existing on the road frequently enter the video of the in-vehicle camera, and all or part of the recognition target is hidden, so accurate image recognition processing is performed There are very few opportunities to do this. In addition, a large amount of calculation is required for the image recognition processing for recognizing the shape of the recognition target, and photographing conditions such as nighttime and rainy weather greatly affect the calculation result.

また、横断歩道や信号機、道路エッジの途切れる点は、交差点の入口の近傍ではあるが、交差点の入口は1つの交差点に複数存在し、大きな道路が交差する交差点では、1つの入口と他の入口との間は大きく離れている。一般に、地図データベースに保持されている情報には、道路を直線で近似した際の終端点の位置と数段階に区別された道路幅の情報が含まれるだけであり、交差点の入口や交差点の大きさに関する正確な情報は含まれていない。したがって、交差点の入口の位置から前後方向の補正を行うためには、交差点の入口の正確な位置を記述した地図データを、新たに地図データベースに追加する必要があり費用がかかる。   In addition, the intersections of pedestrian crossings, traffic lights, and road edges are near the intersection entrance, but there are multiple intersection entrances at one intersection. At intersections where large roads intersect, one entrance and another entrance Is far away from In general, the information stored in the map database only includes information on the position of the end point when approximating the road with a straight line and the road width distinguished in several stages. It does not contain accurate information about the length. Therefore, in order to perform the correction in the front-rear direction from the position of the entrance of the intersection, it is necessary to newly add map data describing the exact position of the entrance of the intersection to the map database, which is expensive.

この発明は、上述した問題点を解決するためになされたものであり、その課題は、安定的に、しかも安価な方法で自車位置を修正できる車載用ナビゲーション装置を提供することにある。   The present invention has been made to solve the above-described problems, and an object thereof is to provide an in-vehicle navigation device capable of correcting the position of the own vehicle in a stable and inexpensive manner.

この発明に係る車載用ナビゲーション装置は、上記課題を解決するために、自車の位置および方位を計算する自車位置方位計算部と、地図データを格納した地図データベースと、路面を撮影するカメラと、カメラから送られてくる路面の映像に含まれる交差点前後の道路標示に基づき交差点への進入位置および交差点からの離脱位置を認識する交差点進入離脱認識部と、交差点進入離脱認識部で認識された交差点への進入位置および交差点からの離脱位置と、地図データベースから取得した地図データによって示される道路リンクであって、該交差点において自車の直進方向に交差する道路リンクとの幾何学的計算により、自車位置の前後方向のずれを計算する交差点道路比較部と、地図データベースから取得した地図データと交差点道路比較部で計算されたずれとに基づき、自車位置方位計算部で計算された自車の位置および方位を修正する自車位置方位修正部と、自車位置方位修正部で修正された自車の位置および方位に基づきナビゲーションを行うナビゲーション制御部とを備えている。   In order to solve the above problems, an in-vehicle navigation device according to the present invention includes a host vehicle position / orientation calculation unit that calculates the position and direction of the host vehicle, a map database that stores map data, and a camera that photographs a road surface. Recognized by the intersection approach / leaving recognition unit and the intersection approach / leaving recognition unit for recognizing the approach position to and exit from the intersection based on the road markings before and after the intersection included in the road image sent from the camera. By geometric calculation of the approach position to the intersection and the departure position from the intersection, and the road link indicated by the map data acquired from the map database and intersecting in the straight direction of the vehicle at the intersection, Intersection road comparison unit that calculates the deviation of the vehicle position in the front-rear direction, and the map data obtained from the map database and the intersection road ratio Based on the deviation calculated by the vehicle, the vehicle position and direction correction unit that corrects the position and direction of the vehicle calculated by the vehicle position and direction calculation unit, and the vehicle position and direction correction unit corrected by the vehicle position and direction correction unit A navigation control unit that performs navigation based on the position and orientation.

この発明に係る車載用ナビゲーション装置によれば、路面を撮影するように設置されたカメラから送られてくる映像に含まれる交差点前後の道路標示に基づき交差点への進入位置および交差点からの離脱位置を認識するように構成したので、他車や歩行者の影響を受けにくい。また、すでに地図データベースに保持されている地図データによって示される道路リンクと、交差点への進入位置および交差点からの離脱位置との幾何学的計算によって前後方向のずれを補正するように構成したので、新たな地図データを地図データベースに追加する必要がない。これらによって、安定的に、かつ安価な方法で自車位置の修正を行うことができる。   According to the vehicle-mounted navigation device according to the present invention, the approach position to the intersection and the departure position from the intersection are determined based on the road markings before and after the intersection included in the video sent from the camera installed to photograph the road surface. Since it is configured to recognize, it is difficult to be influenced by other vehicles and pedestrians. In addition, since it is configured to correct the deviation in the front-rear direction by geometric calculation of the road link indicated by the map data already stored in the map database and the approach position to the intersection and the departure position from the intersection, There is no need to add new map data to the map database. Thus, the vehicle position can be corrected in a stable and inexpensive manner.

以下、この発明の実施の形態を、図面を参照しながら詳細に説明する。
実施の形態1.
図1は、この発明の実施の形態1に係る車載用ナビゲーション装置の構成を示すブロック図である。この車載用ナビゲーション装置は、GPS受信器1、車速センサ2、方位センサ3、自車位置方位計算部4、自車位置方位修正部5、地図データベース6、ナビゲーション制御部7、入力操作部8、表示部9、カメラ10、映像取得部11、交差点進入離脱認識部12および交差点道路比較部13から構成されている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of an in-vehicle navigation device according to Embodiment 1 of the present invention. This in-vehicle navigation device includes a GPS receiver 1, a vehicle speed sensor 2, a direction sensor 3, a vehicle position / direction calculation unit 4, a vehicle position / direction correction unit 5, a map database 6, a navigation control unit 7, an input operation unit 8, It comprises a display unit 9, a camera 10, a video acquisition unit 11, an intersection approaching / leaving recognition unit 12, and an intersection road comparison unit 13.

GPS受信機1は、複数のGPS衛星からの電波を受信することにより自車位置を計測することができるGPS信号を生成する。このGPS受信機1で生成されたGPS信号は、自車位置方位計算部4に送られる。車速センサ2は、自車の移動速度を逐次計測する。この車速センサ2で計測された自車の移動速度は、速度信号として自車位置方位計算部4に送られる。車速センサ2は、一般的に、タイヤの回転数を計測するセンサから構成されており、このセンサで計測された回転数に基づき自車の移動速度を算出する。方位センサ3は、自車の進行方向を逐次計測する。この方位センサ3で計測された自車の進行方位は、方位信号として自車位置方位計算部4に送られる。   The GPS receiver 1 generates a GPS signal that can measure its own vehicle position by receiving radio waves from a plurality of GPS satellites. The GPS signal generated by the GPS receiver 1 is sent to the vehicle position / azimuth calculation unit 4. The vehicle speed sensor 2 sequentially measures the moving speed of the own vehicle. The moving speed of the own vehicle measured by the vehicle speed sensor 2 is sent to the own vehicle position / direction calculating unit 4 as a speed signal. The vehicle speed sensor 2 is generally composed of a sensor that measures the rotation speed of a tire, and calculates the moving speed of the vehicle based on the rotation speed measured by the sensor. The direction sensor 3 sequentially measures the traveling direction of the own vehicle. The traveling direction of the host vehicle measured by the direction sensor 3 is sent to the host vehicle position / direction calculation unit 4 as a direction signal.

自車位置方位計算部4は、GPS受信機1から送られてくるGPS信号から自車位置を計算する。なお、トンネルの中や周囲の建造物によって自車の上空が遮られている場合は、電波を受信できるGPS衛星の数がゼロに、または少なくなり、GPS信号だけでは自車位置を計算できなくなったり、計算できても精度が悪化する。そこで、自車位置方位計算部4は、車速センサ2からの車速信号および方位センサ3からの方位信号を使用した自律航法を利用して自車位置および方位を計算し、GPS信号から計算された自車位置を補う処理を行っている。この自車位置方位計算部4で計算された自車位置および方位は、自車位置方位修正部5に送られる。   The own vehicle position and direction calculation unit 4 calculates the own vehicle position from the GPS signal sent from the GPS receiver 1. If the sky above your vehicle is blocked by buildings in or around the tunnel, the number of GPS satellites that can receive radio waves will be zero or less, and you will not be able to calculate your vehicle position using only GPS signals. Even if it can be calculated, the accuracy deteriorates. Therefore, the own vehicle position and direction calculation unit 4 calculates the own vehicle position and direction using autonomous navigation using the vehicle speed signal from the vehicle speed sensor 2 and the direction signal from the direction sensor 3, and is calculated from the GPS signal. Processing to compensate for the vehicle position. The own vehicle position and direction calculated by the own vehicle position and direction calculation unit 4 are sent to the own vehicle position and direction correction unit 5.

自車位置方位計算部4で計算された自車位置および方位は、上述したように、GPS衛星からの電波の受信状態に起因する計測精度の悪化や、タイヤの摩耗や温度変化によるタイヤ直径の変動に起因する車速の誤差、GPS受信機1、車速センサ2または方位センサ3自体の精度に起因する誤差などの様々な要因の誤差を含んでいる。そこで、自車位置方位修正部5は、自車位置方位計算部4からの誤差を含んだ自車位置および方位を、地図データベース6から取得した地図データに含まれる道路データを用いたマップマッチングによって修正するとともに、後述するように、交差点道路比較部13によって前後方向のずれが検出された場合には、この検出されたずれの情報を使用して、マップマッチングによって修正したデータを再修正する。これにより、より正確な自車位置および方位が求められる。この自車位置方位修正部5で修正された自車位置および方位は、ナビゲーション制御部7に送られる。   As described above, the vehicle position and direction calculated by the vehicle position / orientation calculation unit 4 are the deterioration of the measurement accuracy due to the reception state of the radio wave from the GPS satellite, and the tire diameter due to tire wear or temperature change. It includes errors due to various factors such as errors in the vehicle speed due to fluctuations, errors due to the accuracy of the GPS receiver 1, the vehicle speed sensor 2 or the direction sensor 3 itself. Accordingly, the vehicle position / orientation correction unit 5 performs map matching using the road data included in the map data acquired from the map database 6, including the vehicle position and direction including the error from the vehicle position / direction calculation unit 4. In addition to the correction, as described later, when a deviation in the front-rear direction is detected by the intersection road comparison unit 13, the information corrected by the map matching is re-corrected using the information of the detected deviation. Thereby, a more accurate own vehicle position and direction are calculated | required. The vehicle position and direction corrected by the vehicle position / orientation correction unit 5 are sent to the navigation control unit 7.

地図データベース6は、道路の位置、道路の種別(高速道路、有料道路、一般道路、細街路等)、道路に関する規制(速度制限、一方通行等)、交差点の近傍のレーン情報、道路周辺の施設等を含む地図データを保持している。道路の位置については、道路をノードとノードとの間を直線で結ぶリンク(「道路リンク」という)で表現し、このノードの緯度および経度を記録することにより道路の位置を表現している。あるノードに3つ以上の道路リンクが接続されている場合には、そのノードの位置で複数の道路が交わっていることを表現している。   The map database 6 includes road locations, road types (highways, toll roads, general roads, narrow streets, etc.), road regulations (speed limits, one-way streets, etc.), lane information near intersections, and facilities around the roads The map data including etc. is held. As for the position of the road, the road is expressed by a link (referred to as “road link”) that connects the nodes with a straight line, and the latitude and longitude of the node are recorded to express the position of the road. When three or more road links are connected to a certain node, it represents that a plurality of roads intersect at the position of the node.

ナビゲーション制御部7は、ユーザが入力操作部8を操作して入力した目的地までの誘導経路の計算、誘導経路および自車位置方位修正部5から得られた自車位置および方位に応じたユーザへの案内情報の生成、自車位置の周辺の地図と自車位置を示すマークを合成した映像の生成といった、運転者を目的地に誘導するための基本的な機能を提供するために必要なデータ処理を行う。また、ナビゲーション制御部7は、自車位置、目的地または誘導経路に関連する交通情報や、観光地、飲食店または物販店等の情報の検索、ユーザが入力した条件にマッチした施設の検索といったデータ処理を行う。ナビゲーション制御部7で生成されたユーザ向けの情報や映像は表示部9に送られる。   The navigation control unit 7 calculates the guidance route to the destination inputted by the user by operating the input operation unit 8, and the user according to the vehicle position and direction obtained from the guidance route and the vehicle position / direction correction unit 5. Necessary to provide basic functions to guide the driver to the destination, such as generation of guidance information to the vehicle and generation of a video that combines the map around the vehicle position and the mark indicating the vehicle position Perform data processing. The navigation control unit 7 also searches for traffic information related to the vehicle position, destination, or guidance route, information on sightseeing spots, restaurants, merchandise stores, etc., and searches for facilities that match the conditions entered by the user. Perform data processing. Information and video for the user generated by the navigation control unit 7 are sent to the display unit 9.

入力操作部8は、たとえばリモートコントローラ(リモコン)、タッチパネル、音声認識装置などから構成されており、ユーザである運転者または同乗者が、操作によって、目的地を入力したり、車載用ナビゲーション装置によって提供される情報を選択したりするために使用される。表示部9は、たとえば液晶ディスプレイ装置から構成されており、ナビゲーション制御部7から送られてくるユーザ向けの情報や映像を表示し、ユーザに提供する。   The input operation unit 8 includes, for example, a remote controller (remote controller), a touch panel, a voice recognition device, and the like. A driver or a passenger who is a user inputs a destination by an operation, or by a vehicle-mounted navigation device. Used to select the information provided. The display unit 9 is composed of, for example, a liquid crystal display device, displays information and video for the user sent from the navigation control unit 7 and provides them to the user.

カメラ10は、車両の所定部に設置されており、車両の前方、後方または側方のいずれかの路面を撮影する。なお、カメラ10として、周囲全体を含む幅広い方向の路面を一度に撮影できるカメラを用いることもできる。また、これらを組合せて複数のカメラで路面を撮影するように構成することもできる。   The camera 10 is installed in a predetermined part of the vehicle, and images any road surface in front of, behind, or on the side of the vehicle. In addition, as the camera 10, a camera that can photograph a road surface in a wide direction including the entire periphery at a time can be used. Moreover, it can also comprise so that a road surface may be image | photographed with a some camera combining these.

カメラ10で前方を撮影する場合は、たとえば、図2に示すような映像が得られる。図2において、映像の下部の「ボディ」で示される部分は自車のボンネット部分である。車載用ナビゲーション装置の設計者は、走行中には車間距離が保たれることによって他車が映り込みにくく、しかも歩行者が映り込まない領域であって、かつ、後述する交差点進入離脱認識部12で認識処理を行うために必要最小限の領域を、図2に示すように、認識対象の範囲を規定する「スキャンエリア」として設ける。なお、カメラ10は、路面上に描かれた道路標示がスキャンエリアに含まれるような角度で設置すればよく、必ずしも遠方を撮影できる必要はない。   In the case of photographing the front with the camera 10, for example, an image as shown in FIG. 2 is obtained. In FIG. 2, the portion indicated by “body” at the bottom of the video is the hood portion of the vehicle. The designer of the in-vehicle navigation apparatus is an area where other vehicles are not reflected by maintaining a distance between the vehicles while traveling and the pedestrian is not reflected, and an intersection approaching / leaving recognition unit 12 described later. As shown in FIG. 2, the minimum area necessary for performing the recognition process is provided as a “scan area” that defines the range of the recognition target. Note that the camera 10 may be installed at an angle such that the road marking drawn on the road surface is included in the scan area, and it is not always necessary to be able to photograph far away.

たとえば、一般道路では、車両は、信号機の点灯状態などによって制限されることにより、20〜30km/時程度で走行することが多い。また、安全に走行するには、「速度−15m」以上の車間距離をとる必要があると言われている。これらを勘案すると、自車から5m以内は、他車などに隠蔽されない領域であると言うことができる。スキャンエリアを適切に設けることができれば、カメラ10は、自車から5m以内の自車の近傍のみを撮影するものであってもよい。このように、自車の近傍にスキャンエリアを設けた場合は、走行中においては他車との車間距離がある程度確保されることから、認識対象となる路面の映像に他車や歩行者が映り難くなる。その結果、後述する交差点へ進入する地点である進入位置および交差点から離脱する地点である離脱位置を安定して認識することができる。   For example, on a general road, a vehicle often travels at about 20 to 30 km / hour by being restricted by a lighting state of a traffic light. In addition, it is said that it is necessary to take a vehicle-to-vehicle distance of “speed −15 m” or more in order to travel safely. Considering these, it can be said that the area within 5 m from the own vehicle is an area that is not concealed by other vehicles. If the scan area can be appropriately provided, the camera 10 may capture only the vicinity of the own vehicle within 5 m from the own vehicle. In this way, when a scan area is provided in the vicinity of the host vehicle, the distance between the other vehicle and the other vehicle is ensured to some extent while the vehicle is traveling, so other vehicles and pedestrians appear on the image of the road surface to be recognized. It becomes difficult. As a result, it is possible to stably recognize an approach position that is a point that enters an intersection, which will be described later, and a departure position that is a point that leaves the intersection.

また、カメラ10は、必ずしも新たに設ける必要はなく、たとえばサイドミラーに既に設けられている、ドライバにとって死角となる側方の領域を監視するためのカメラや、後部の死角を監視するために既に設けられているカメラを利用することもできる。図3は、サイドミラーに設けられたカメラからの映像の例を示す。図3において、映像の右側の「ボディ」で示される部分は自車の車体やタイヤに相当する部分である。この場合も、前方を撮影する場合と同様に、認識対象となる路面の映像に他車や歩行者が映り難くなるので、後述する交差点進入離脱認識部12で認識処理を行うために必要最小限の領域として図3に示すようなスキャンエリアを設定できれば、カメラ10として、サイドミラーに設けられたカメラを利用することができる。   In addition, the camera 10 does not necessarily need to be newly provided. For example, a camera for monitoring a side area that is already provided in the side mirror and is a blind spot for the driver, or a rear blind spot has already been provided. It is also possible to use the camera provided. FIG. 3 shows an example of an image from a camera provided on the side mirror. In FIG. 3, a portion indicated by “body” on the right side of the image is a portion corresponding to the vehicle body or tire of the own vehicle. Also in this case, as in the case of photographing the front, other vehicles and pedestrians are not easily reflected in the image of the road surface to be recognized. Therefore, the minimum necessary for performing recognition processing at the intersection approaching / leaving recognition unit 12 described later. If a scan area as shown in FIG. 3 can be set as this area, a camera provided on the side mirror can be used as the camera 10.

このカメラ10で撮影することにより得られた映像信号は、映像取得部11に送られる。映像取得部11は、カメラ10から送られてくるアナログの映像信号を計算機で処理可能なデジタルの映像信号に変換し、交差点進入離脱認識部12に送る。   A video signal obtained by photographing with the camera 10 is sent to the video acquisition unit 11. The video acquisition unit 11 converts an analog video signal sent from the camera 10 into a digital video signal that can be processed by a computer, and sends the digital video signal to the intersection approaching / leaving recognition unit 12.

交差点進入離脱認識部12は、映像取得部11から送られてくる映像信号によって表される路面の映像から自車が交差点に進入したことを認識し、自車位置方位修正部5から得られる自車位置を用いて、交差点への進入位置および交差点からの離脱位置を計算する。この交差点進入離脱認識部12で計算された交差点への進入位置および交差点からの離脱位置は、交差点道路比較部13に送られる。   The intersection approaching / leaving recognition unit 12 recognizes that the own vehicle has entered the intersection from the image of the road surface represented by the video signal sent from the image acquisition unit 11, and obtains the vehicle information obtained from the vehicle position / direction correction unit 5. Using the vehicle position, an approach position to the intersection and a departure position from the intersection are calculated. The approach position to the intersection and the departure position from the intersection calculated by the intersection approach and departure recognition unit 12 are sent to the intersection road comparison unit 13.

ここで、交差点進入離脱認識部12において行われる交差点進入離脱認識処理を、図4に示すフローチャートを参照しながら説明する。なお、交差点進入離脱認識処理に先立って、カメラ10から取得される映像上の、他車や歩行者が映り込みにくい領域に、図2および図3に示すようなスキャンエリアが設定される。スキャンエリアは、交差点前後の道路上に描かれた横断歩道、停止線、横断歩道有りの菱形マークまたは前方優先道路を表す三角マークなどといった道路標示に自車が差し掛かったこと、そして、その装置標示から走り抜けたことを認識可能にするために必要な最小限の領域である。このスキャンエリアの設定方法については、後に、認識対象の種類毎に例を挙げて詳細に説明する。   Here, the intersection approaching / leaving recognition process performed in the intersection approaching / leaving recognition unit 12 will be described with reference to the flowchart shown in FIG. Prior to the intersection approaching / leaving recognition process, a scan area as shown in FIGS. 2 and 3 is set in an area on the video acquired from the camera 10 where other vehicles and pedestrians are not easily reflected. In the scan area, the vehicle has reached a road marking such as a pedestrian crossing, stop line, rhombus mark with a pedestrian crossing or a triangle mark indicating a priority road ahead on the road before and after the intersection, and the device marking This is the minimum area necessary for recognizing that you have run through. The method for setting the scan area will be described in detail later by giving an example for each type of recognition target.

なお、交差点は必ずしも道路と道路の交点とは限らず、道路と鉄道の交点である踏切についても、道路標示を認識する代わりに道路と交差するレールを認識すれば、交差点として取り扱うことができる。この明細書で記述している交差点は、道路と鉄道の交点である踏切を含む。   An intersection is not necessarily an intersection between a road and a road, and a railroad crossing that is an intersection between a road and a railroad can be handled as an intersection if a rail that intersects the road is recognized instead of a road marking. The intersection described in this specification includes a railroad crossing that is an intersection of a road and a railroad.

交差点進入離脱認識処理においては、まず、交差点進入検出処理が行われる(ステップST1)。この交差点進入検出処理においては、交差点への進入位置および方位が検出され、交差点離脱検出処理(ステップST2)に渡される。この交差点進入検出処理については、後に詳細に説明する。次いで、交差点離脱検出処理が行われる(ステップST2)。この交差点離脱検出処理においては、交差点進入検出処理(ステップST1)から受け取った交差点への進入位置および方位を用いて、交差点からの離脱位置および方位が検出され、交差点進入検出処理から受け取った交差点への進入位置および方位とともに、ステップST3の処理に渡される。この交差点離脱検出処理については、後に詳細に説明する。   In the intersection approach / leaving recognition process, first, an intersection approach detection process is performed (step ST1). In this intersection approach detection process, the approach position and direction to the intersection are detected and passed to the intersection departure detection process (step ST2). This intersection approach detection process will be described in detail later. Next, intersection departure detection processing is performed (step ST2). In this intersection departure detection process, the departure position and direction from the intersection are detected using the approach position and direction to the intersection received from the intersection entry detection process (step ST1), and the intersection is received from the intersection entry detection process. Together with the approach position and direction of the vehicle, it is passed to the process of step ST3. This intersection departure detection process will be described later in detail.

次いで、交差点が検出されたかどうかが調べられる(ステップST3)。具体的には、交差点離脱検出処理(ステップST2)から交差点への進入位置および交差点からの離脱位置が得られたかどうかが調べられる。このステップST3において、交差点が検出されなかったことが判断されると、シーケンスはステップST1に戻り、上述した処理が繰り返される。一方、交差点が検出されたことが判断されると、進入位置および離脱位置の出力処理が行われる(ステップST4)。すなわち、交差点進入離脱認識部12は、交差点への進入位置と交差点からの離脱位置とを交差点道路比較部13に渡す。その後、シーケンスはステップST1に戻り、上述した処理が繰り返される。   Next, it is examined whether or not an intersection is detected (step ST3). Specifically, it is checked whether the approach position to the intersection and the departure position from the intersection are obtained from the intersection departure detection process (step ST2). If it is determined in step ST3 that no intersection has been detected, the sequence returns to step ST1 and the above-described processing is repeated. On the other hand, if it is determined that an intersection has been detected, an entry position and a departure position output process is performed (step ST4). That is, the intersection approaching / leaving recognition unit 12 passes the approaching position to the intersection and the leaving position from the intersection to the intersection road comparison unit 13. Thereafter, the sequence returns to step ST1, and the above-described processing is repeated.

次に、図4に示した交差点進入離脱認識処理のステップST1で行われる交差点進入検出処理の詳細を、認識対象として横断歩道が用いられる場合を例に挙げて、図5に示すフローチャートを参照しながら説明する。   Next, the details of the intersection approach detection process performed in step ST1 of the intersection approach / leaving recognition process shown in FIG. 4 will be described with reference to the flowchart shown in FIG. 5, taking as an example the case where a pedestrian crossing is used as a recognition target. While explaining.

この交差点進入検出処理においては、非検出状態と検出中状態といった2つの値をとるフラグが用意されており、初期状態では非検出状態にセットされている。また、自車の位置と方位を保存するための検出開始位置および方位と検出終了位置および方位といった2つの値を記録する領域が用意される。また、スキャンエリアは、横断歩道の白黒の縞を複数捉えることができるように、たとえば図2および図3に示すように、自車の進行方向に直交する方向を長手方向とする矩形に設定されている。   In this intersection approach detection process, a flag having two values, a non-detection state and a detection-in-progress state, is prepared, and is set to a non-detection state in the initial state. In addition, an area for recording two values such as a detection start position and direction, a detection end position, and a direction for storing the position and direction of the vehicle is prepared. Also, the scan area is set to a rectangle whose longitudinal direction is the direction orthogonal to the traveling direction of the host vehicle, as shown in FIGS. 2 and 3, for example, so that a plurality of black and white stripes on the pedestrian crossing can be captured. ing.

交差点進入検出処理においては、まず、次フレーム取得処理が行われる(ステップST101)。すなわち、交差点進入離脱認識部12は、映像取得部11から送られてくる映像の、ある時点の静止画の画像データを取り出す。ある時点の静止画の画像データを「フレーム」と言い、処理が繰り返される度に、次の時点におけるフレームが取得される。   In the intersection approach detection process, first, a next frame acquisition process is performed (step ST101). That is, the intersection approaching / leaving recognition unit 12 extracts image data of a still image at a certain point in time from the video sent from the video acquisition unit 11. Image data of a still image at a certain time is called a “frame”, and a frame at the next time is acquired each time the process is repeated.

次いで、2値化処理が行われる(ステップST102)。すなわち、交差点進入離脱認識部12は、ステップST101で取得した画面データのスキャンエリアに含まれる各画素の輝度を所定のしきい値と比較することにより、各画素を白の画素または黒の画素に分けて2値画像を生成する。ここで使用される所定のしきい値は、あらかじめ適宜に決定するように構成できる。また、所定のしきい値は、画像の平均的な明るさを使用して動的に変更するように構成することもできる。   Next, binarization processing is performed (step ST102). That is, the intersection approaching / leaving recognition unit 12 compares each pixel included in the scan area of the screen data acquired in step ST101 with a predetermined threshold value, thereby converting each pixel into a white pixel or a black pixel. Separately, a binary image is generated. The predetermined threshold value used here can be configured to be appropriately determined in advance. The predetermined threshold can also be configured to change dynamically using the average brightness of the image.

次いで、領域比計算が行われる(ステップST103)。すなわち、交差点進入離脱認識部12は、ステップST102で生成したスキャンエリア内の2値画像の面積のうち、白の画素によって形成される領域の面積と黒の画素によって形成される領域の面積との比を計算する。次いで、フラグが非検出状態または検出中状態のいずれに設定されているかが調べられる(ステップST104)。   Subsequently, area ratio calculation is performed (step ST103). That is, the intersection approaching / leaving recognition unit 12 calculates the difference between the area of the region formed by white pixels and the area of the region formed by black pixels among the areas of the binary image in the scan area generated in step ST102. Calculate the ratio. Next, it is checked whether the flag is set to a non-detection state or a detection state (step ST104).

このステップST104において、フラグが非検出状態に設定されていることが判断されると、次いで、面積比は「おおよそ1対1」であるかどうかが調べられる(ステップST105)。すなわち、交差点進入離脱認識部12は、ステップST103で計算された白の画素によって形成される領域の面積と黒の画素によって形成される領域の面積との比が「おおよそ1対1」であるかどうかを調べる。ここで、「おおよそ1対1」と判断する条件については、設計者が適宜に決めることができる。このステップST105において、面積比が「おおよそ1対1」でないことが判断されると、スキャンエリア内の画像は横断歩道ではないことが認識され、シーケンスはステップST101に戻って上述した処理が繰り返される。   If it is determined in step ST104 that the flag is set to the non-detection state, it is then checked whether or not the area ratio is “approximately 1 to 1” (step ST105). That is, the intersection approaching / leaving recognition unit 12 determines whether the ratio of the area of the area formed by the white pixels and the area of the area formed by the black pixels calculated in Step ST103 is “approximately 1: 1”. Find out. Here, the condition for determining “approximately one-to-one” can be determined appropriately by the designer. If it is determined in step ST105 that the area ratio is not “approximately 1 to 1”, it is recognized that the image in the scan area is not a pedestrian crossing, and the sequence returns to step ST101 to repeat the above-described processing. .

上記ステップST105において、面積比が「おおよそ1対1」であることが判断されると、次いで、フラグが検出中状態に変更される(ステップST106)。すなわち、交差点進入離脱認識部12は、横断歩道へ進入したことを認識し、フラグを非検出状態から検出中状態に変更する。次いで、検出開始位置および方向が取得される(ステップST107)。すなわち、交差点進入離脱認識部12は、その時点の自車位置および方位を自車位置方位修正部5から取得して、検出開始位置および方位として記録する。その後、シーケンスはステップST101に戻り、上述した処理が繰り返される。   If it is determined in step ST105 that the area ratio is “approximately one to one”, then the flag is changed to the detecting state (step ST106). That is, the intersection approaching / leaving recognition unit 12 recognizes that the vehicle has entered the pedestrian crossing, and changes the flag from the non-detected state to the detecting state. Next, the detection start position and direction are acquired (step ST107). That is, the intersection approaching / leaving recognition unit 12 acquires the vehicle position and direction at that time from the vehicle position / direction correction unit 5 and records them as the detection start position and direction. Thereafter, the sequence returns to step ST101, and the above-described processing is repeated.

上記ステップST104において、フラグが検出中状態に設定されていることが判断されると、ステップST108以下に示す、横断歩道に差し掛かった状態に対応する処理が行われる。この処理においては、まず、現在位置および方位が取得される(ステップST108)。すなわち、交差点進入離脱認識部12は、自車位置方位修正部5から自車位置および方位を取得する。次いで、方向および位置が不正であるかどうかが調べられる(ステップST109)。すなわち、交差点進入離脱認識部12は、ステップST107で取得して記録されている検出開始位置および方位と、ステップST108で取得した現在の自車位置および方位とを比較し、方位の変動が一定値以上である場合には、横断歩道を通過中に直線的に走行していないものとして不正と判断する。また、交差点進入離脱認識部12は、検出開始位置と現在の位置との差が、現実に存在する横断歩道の大きさと比べ明らかに大きい場合にも不正と判断する。   If it is determined in step ST104 that the flag is set to the detecting state, the processing corresponding to the state of reaching the pedestrian crossing shown in step ST108 and subsequent steps is performed. In this process, first, the current position and direction are acquired (step ST108). That is, the intersection approaching / leaving recognition unit 12 acquires the vehicle position and direction from the vehicle position / direction correction unit 5. Next, it is checked whether the direction and position are incorrect (step ST109). That is, the intersection approaching / leaving recognition unit 12 compares the detection start position and direction acquired and recorded in step ST107 with the current vehicle position and direction acquired in step ST108, and the direction change is a constant value. In the case above, it is determined that the vehicle is not traveling linearly while passing through the pedestrian crossing. The intersection approaching / leaving recognition unit 12 also determines that the difference between the detection start position and the current position is illegal even when the difference between the actual position and the actual position of the pedestrian crossing is clearly larger.

このステップST109において、方向および位置が不正であると判断されると、不正とみなされた道路標示の検出を改めてやり直すために、フラグが検出中状態から非検出状態に変更される(ステップST110)。その後、シーケンスはステップST101に戻り、上述した処理が繰り返される。一方、ステップST109において、方向および位置が適正であると判断されると、次いで、面積比は「おおよそ1対1」であるかどうかが調べられる(ステップST111)。このステップST111の処理は、上述したステップST105の処理と同じである。   If it is determined in step ST109 that the direction and position are incorrect, the flag is changed from the detecting state to the non-detected state in order to redo the detection of the road marking that is regarded as incorrect (step ST110). . Thereafter, the sequence returns to step ST101, and the above-described processing is repeated. On the other hand, if it is determined in step ST109 that the direction and position are appropriate, it is then checked whether or not the area ratio is “approximately one to one” (step ST111). The process in step ST111 is the same as the process in step ST105 described above.

このステップST111において、面積比が「おおよそ1対1」であることが判断されると、横断歩道の終わりが未だ検出されていないと認識され、シーケンスはステップST101に戻って上述した処理が繰り返される。一方、ステップST111において、面積比が「おおよそ1対1」でないことが判断されると、次いで、フラグが非検出状態に変更される(ステップST112)。すなわち、交差点進入離脱認識部12は、横断歩道の終わりを検出したことを認識し、フラグを検出中状態から非検出状態に変更する。次いで、検出終了位置が取得される(ステップST113)。すなわち、交差点進入離脱認識部12は、自車位置方位修正部5から取得した自車位置および方位を、検出終了位置および方位として記録する。   If it is determined in step ST111 that the area ratio is “approximately 1 to 1”, it is recognized that the end of the pedestrian crossing has not yet been detected, and the sequence returns to step ST101 to repeat the above-described processing. . On the other hand, if it is determined in step ST111 that the area ratio is not “approximately 1: 1”, then the flag is changed to a non-detection state (step ST112). That is, the intersection approaching / leaving recognition unit 12 recognizes that the end of the pedestrian crossing has been detected, and changes the flag from the detecting state to the non-detecting state. Next, the detection end position is acquired (step ST113). That is, the intersection approaching / leaving recognition unit 12 records the vehicle position and direction acquired from the vehicle position / orientation correction unit 5 as the detection end position and direction.

次いで、検出結果が妥当であるかどうかが調べられる(ステップST114)。すなわち、交差点進入離脱認識部12は、検出開始位置と検出終了位置の差から検出距離を算出し、この距離が横断歩道の幅としてあり得る一定範囲(小さ過ぎずかつ大き過ぎない)であるかどうかを調べる。このステップST114において、検出結果が妥当でないことが判断されると、横断歩道の検出に失敗したと認識されて、シーケンスはステップST101に戻り、再度、上述した処理がやり直される。一方、ステップST114において、検出結果が妥当であると判断されると、検出終了位置および方位が交差点への進入位置および方位として交差点離脱検出処理(ステップST2)に渡され、交差点進入検出処理は終了する。   Next, it is checked whether or not the detection result is valid (step ST114). That is, the intersection approaching / leaving recognition unit 12 calculates the detection distance from the difference between the detection start position and the detection end position, and whether this distance is within a certain range (not too small and not too large) as the width of the pedestrian crossing. Find out. If it is determined in step ST114 that the detection result is not valid, it is recognized that the detection of the pedestrian crossing has failed, the sequence returns to step ST101, and the above-described processing is performed again. On the other hand, if it is determined in step ST114 that the detection result is valid, the detection end position and direction are passed to the intersection departure detection process (step ST2) as the approach position and direction to the intersection, and the intersection entry detection process ends. To do.

次に、図4に示した交差点進入離脱認識処理のステップST2で行われる交差点離脱検出処理の詳細を、認識対象として横断歩道が用いられる場合を例に挙げて、図6に示すフローチャートを参照しながら説明する。   Next, referring to the flowchart shown in FIG. 6, the details of the intersection departure detection process performed in step ST2 of the intersection approach / leave recognition process shown in FIG. 4 will be described as an example where a pedestrian crossing is used as a recognition target. While explaining.

この交差点離脱検出処理においては、非検出状態と検出中状態といった2つの値をとるフラグが用意されており、このフラグは、初期状態では非検出状態にセットされている。また、自車の位置を保存するための検出開始位置および検出終了位置を記録する領域が用意されている。   In this intersection departure detection process, a flag having two values, a non-detection state and a detection-in-progress state, is prepared. This flag is set to a non-detection state in the initial state. In addition, an area for recording the detection start position and the detection end position for storing the position of the host vehicle is prepared.

交差点離脱検出処理においては、まず、次フレーム取得処理が行われる(ステップST201)。このステップST201の処理は、図5のステップST101の処理と同じである。次いで、現在位置および方位が取得される(ステップST202)。すなわち、交差点進入離脱認識部12は、自車位置方位修正部5から自車位置および方位を取得する。   In the intersection departure detection process, first, the next frame acquisition process is performed (step ST201). The process in step ST201 is the same as the process in step ST101 in FIG. Next, the current position and direction are acquired (step ST202). That is, the intersection approaching / leaving recognition unit 12 acquires the vehicle position and direction from the vehicle position / direction correction unit 5.

次いで、位置および方位は妥当であるか否かが調べられる(ステップST203)。すなわち、交差点進入離脱認識部12は、交差点進入検出処理(ステップST1)から受け取った交差点への進入位置および方位とステップST202で取得した自車位置および方位とを比較する。具体的には、まず、交差点へ進入時の方位と現在の方位とを比較し、その方位差が一定値以上になった場合は、交差点に進入してから離脱するまでに直線的な走行をせず、右左折や車線変更などを行った旨が認識される。この場合は、前後方向の補正を行うことは不適切であるので、位置および方位は妥当でないと判断される。また、現在の自車位置と交差点への進入位置との距離が、現実的な交差点の長さと考えられる最大値を上回る場合も、交差点を検出できないので、位置および方位は妥当でないと判断される。上述した方位差の一定値や、現実的な交差点の長さの最大値は、設計者が適宜に設定するように構成できる。   Next, it is checked whether the position and orientation are valid (step ST203). That is, the intersection approaching / leaving recognition unit 12 compares the approach position and direction to the intersection received from the intersection approach detection process (step ST1) with the own vehicle position and direction acquired in step ST202. Specifically, first, compare the azimuth at the time of entering the intersection with the current azimuth, and if the difference between the azimuths exceeds a certain value, the vehicle will run straight before entering the intersection and leaving. Instead, it is recognized that a right or left turn or lane change has been made. In this case, since it is inappropriate to perform the correction in the front-rear direction, it is determined that the position and orientation are not appropriate. In addition, when the distance between the current vehicle position and the approach position to the intersection exceeds the maximum value that is considered to be the actual length of the intersection, the intersection and the direction cannot be detected, so the position and direction are determined to be invalid. . The constant value of the above-mentioned azimuth difference and the maximum value of the actual length of the intersection can be configured to be set appropriately by the designer.

上記ステップST203において、位置および方位が妥当でないことが判断されると、交差点離脱検出処理は終了する。一方、ステップST203において、位置および方位が妥当であることが判断されると、次いで、2値化処理が行われる(ステップST204)。このステップST204の処理は、図5のステップST102の処理と同じである。次いで、領域比計算処理が行われる(ステップST205)。このステップST205の処理は、図5のステップST103の処理と同じである。次いで、フラグが非検出状態または検出中状態のいずれに設定されているかが調べられる(ステップST206)。このステップST206の処理は、図5のステップST104の処理と同じである。   If it is determined in step ST203 that the position and direction are not valid, the intersection departure detection process ends. On the other hand, if it is determined in step ST203 that the position and orientation are valid, then binarization processing is performed (step ST204). The process in step ST204 is the same as the process in step ST102 in FIG. Next, a region ratio calculation process is performed (step ST205). The process in step ST205 is the same as the process in step ST103 in FIG. Next, it is checked whether the flag is set to a non-detection state or a detection state (step ST206). The process in step ST206 is the same as the process in step ST104 in FIG.

このステップST206において、フラグが非検出状態に設定されていることが判断されると、次いで、面積比は「おおよそ1対1」であるかどうかが調べられる(ステップST207)。このステップST207の処理は、図5のステップST105の処理と同じである。このステップST207において、面積比が「おおよそ1対1」でないことが判断されると、スキャンエリア内の画像は横断歩道ではないことが認識され、シーケンスはステップST201に戻って上述した処理が繰り返される。   If it is determined in step ST206 that the flag is set to the non-detection state, it is then checked whether or not the area ratio is “approximately 1 to 1” (step ST207). The process in step ST207 is the same as the process in step ST105 in FIG. If it is determined in step ST207 that the area ratio is not “approximately one to one”, it is recognized that the image in the scan area is not a pedestrian crossing, and the sequence returns to step ST201 to repeat the above-described processing. .

上記ステップST207において、面積比が「おおよそ1対1」であることが判断されると、次いで、フラグが検出中状態に変更される(ステップST208)。このステップST208の処理は、図5のステップST106の処理と同じである。次いで、検出開始位置および方向が取得される(ステップST209)。このステップST209の処理は、図5のステップST107の処理と同じである。その後、シーケンスはステップST201に戻り、上述した処理が繰り返される。   If it is determined in step ST207 that the area ratio is “approximately one to one”, then the flag is changed to the detecting state (step ST208). The process in step ST208 is the same as the process in step ST106 in FIG. Next, the detection start position and direction are acquired (step ST209). The process in step ST209 is the same as the process in step ST107 in FIG. Thereafter, the sequence returns to step ST201, and the above-described processing is repeated.

上記ステップST206において、フラグが検出中状態に設定されていることが判断されると、次いで、面積比は「おおよそ1対1」であるかどうかが調べられる(ステップST210)。このステップST210の処理は、上述したステップST207の処理と同じである。このステップST210において、面積比が「おおよそ1対1」であることが判断されると、横断歩道の終わりが未だ検出されていないと認識され、シーケンスはステップST201に戻って上述した処理が繰り返される。   If it is determined in step ST206 that the flag is set to the detecting state, it is then checked whether or not the area ratio is "approximately 1 to 1" (step ST210). The process in step ST210 is the same as the process in step ST207 described above. If it is determined in step ST210 that the area ratio is “approximately 1 to 1”, it is recognized that the end of the pedestrian crossing has not yet been detected, and the sequence returns to step ST201 to repeat the above-described processing. .

一方、ステップST210において、面積比が「おおよそ1対1」であることが判断されると、次いで、フラグが非検出状態に変更される(ステップST211)。このステップST211の処理は、図5のステップST112の処理と同じである。次いで、検出終了位置が取得される(ステップST212)。すなわち、交差点進入離脱認識部12は、ステップST202において自車位置方位修正部5から取得した自車位置を、検出終了位置として記録する。   On the other hand, if it is determined in step ST210 that the area ratio is “approximately one to one”, then the flag is changed to a non-detection state (step ST211). The process in step ST211 is the same as the process in step ST112 in FIG. Next, the detection end position is acquired (step ST212). That is, the intersection approaching / leaving recognition unit 12 records the own vehicle position acquired from the own vehicle position / direction correction unit 5 in step ST202 as the detection end position.

次いで、検出判断が行われる(ステップST213)。すなわち、交差点進入離脱認識部12は、検出開始位置と検出終了位置の差から検出距離を算出し、この距離が横断歩道の幅としてあり得る一定範囲(小さ過ぎずかつ大き過ぎない)であれば、検出開始位置を交差点からの離脱位置とする。そして、交差点進入検出処理(ステップST1)から受け取った交差点への進入位置と、この交差点離脱検出処理で算出した交差点からの離脱位置とをステップST3の処理に渡し、交差点離脱検出処理を終了する。なお、検出開始位置と検出終了位置の差が一定範囲外であれば、ステップST3の処理に何も渡さずに交差点離脱検出処理を終了する。   Next, detection determination is performed (step ST213). That is, the intersection approaching / leaving recognition unit 12 calculates the detection distance from the difference between the detection start position and the detection end position, and if this distance is within a certain range (not too small and not too large) as the width of the pedestrian crossing. The detection start position is set as a departure position from the intersection. Then, the approach position to the intersection received from the intersection approach detection process (step ST1) and the departure position from the intersection calculated by the intersection departure detection process are passed to the process of step ST3, and the intersection departure detection process is terminated. If the difference between the detection start position and the detection end position is outside a certain range, the intersection departure detection process is terminated without passing anything to the process of step ST3.

以上説明した交差点進入検出処理(ステップST1)および交差点離脱検出処理(ステップST2)においては、認識対象として横断歩道を用いた場合の例であるが、以下では、認識対象として停止線を用いる場合について説明する。   In the intersection approach detection process (step ST1) and the intersection departure detection process (step ST2) described above, an example is a case where a pedestrian crossing is used as a recognition target, but in the following, a case where a stop line is used as a recognition target. explain.

停止線を認識対象とする場合は、スキャンエリアは、停止線に向かって自車が垂直に進行した場合に、スキャンエリアが完全に停止線の白色領域で満たされるように、自車の進行方向に直交する方向(図2および図3にスキャンエリアとして示す矩形の横方向)は長く、かつ縦方向は映像上の停止線の幅より短く設定するのが望ましい。また、撮影により得られる停止線の映像は、透視変換の影響やひずみなどによって長方形にはならないので、映像上の停止線の形状に合致させるように、スキャンエリアを台形とすることもできる。   When the stop line is to be recognized, the scan area indicates the direction of travel of the vehicle so that the scan area is completely filled with the white area of the stop line when the vehicle travels vertically toward the stop line. It is desirable to set the direction perpendicular to (the horizontal direction of the rectangle shown as the scan area in FIGS. 2 and 3) to be long and the vertical direction to be shorter than the width of the stop line on the video. In addition, since the video of the stop line obtained by photographing does not become rectangular due to the influence of perspective transformation or distortion, the scan area can be trapezoidal so as to match the shape of the stop line on the video.

スキャンエリアを上記のように設定することにより、停止線に進入してから離脱するまでの間だけスキャンエリアの映像はおおむね白色になる。それゆえ、停止線を認識対象とする交差点進入検出処理(ステップST1)は、図5に示すフローチャートのステップST105およびステップST111において「面積比はおおよそ1対1か?」と判断している部分を、「おおむね白色のみか?」と判断するように置き換えることによって実現することができる。   By setting the scan area as described above, the image in the scan area is generally white only after entering the stop line and leaving. Therefore, in the intersection approach detection process (step ST1) for which the stop line is a recognition target, a part for which “area ratio is approximately 1: 1” is determined in step ST105 and step ST111 of the flowchart shown in FIG. , It can be realized by substituting it so that it is judged to be “substantially white only?”.

同様に、停止線を認識対象とする交差点離脱検出処理(ステップST2)は、図6に示すフローチャートのステップST207およびステップST210において「面積比はおおよそ1対1か?」と判断している部分を、「おおむね白色のみか?」と判断するように置き換えることによって実現することができる。なお、上述した「おおむね白色のみか?」と判断する場合の判断基準は、設計者が望ましい結果が得られるように調整して設定するように構成できる。   Similarly, in the intersection departure detection process (step ST2) in which the stop line is a recognition target, a part for which “the area ratio is approximately 1: 1” is determined in step ST207 and step ST210 of the flowchart shown in FIG. , It can be realized by substituting it so that it is judged to be “substantially white only?”. It should be noted that the above-described determination criteria for determining whether “substantially white is only?” Can be configured to be adjusted and set so that a designer can obtain a desired result.

また、交差点進入離脱認識部12は、認識対象を横断歩道または停止線として処理するように構成したが、この発明では必ずしも認識対象として横断歩道または停止線のいずれか一つを選択する必要はなく、交差点進入検出処理(ステップST1)および交差点離脱検出処理(ステップST2)の各々において、横断歩道および停止線の双方を認識対象とする処理を行い、交差点進入検出処理においては、いずれかの処理結果を用いて交差点への進入を検出し、交差点離脱検出処理においては、いずれかの処理結果を用いて交差点からの離脱を検出するように構成することができる。この構成によれば、交差点の前には停止線しかなく、交差点の後には横断歩道しかない場合であっても、交差点への進入および交差点からの離脱を検出することができる。   In addition, the intersection approaching / leaving recognition unit 12 is configured to process the recognition target as a pedestrian crossing or a stop line. However, in the present invention, it is not always necessary to select any one of the pedestrian crossing or the stop line as the recognition target. In each of the intersection approach detection process (step ST1) and the intersection departure detection process (step ST2), a process for recognizing both the pedestrian crossing and the stop line is performed. In the intersection approach detection process, one of the processing results The approach to the intersection can be detected using, and the intersection departure detection process can be configured to detect the departure from the intersection using any processing result. According to this configuration, even when there is only a stop line before the intersection and there is only a pedestrian crossing after the intersection, it is possible to detect entry into and departure from the intersection.

さらに、横断歩道、停止線などの道路標示は、交差点前後で配置される順番が決められている。たとえば、交差点の手前に横断歩道および停止線のいずれもある場合には、手前に停止線、その後に横断歩道がある。このような順番を考慮して、交差点進入検出処理(ステップST1)および交差点離脱検出処理(ステップST2)を行うように構成できる。この構成によれば、複数の道路標示が交差点前後にある場合にも正確に交差点への進入および交差点からの離脱を検出することが可能になる。   Furthermore, the order in which road markings such as pedestrian crossings and stop lines are arranged before and after the intersection is determined. For example, when there are both a pedestrian crossing and a stop line before the intersection, there is a stop line before the intersection and a pedestrian crossing after the stop line. Considering such an order, the intersection approach detection process (step ST1) and the intersection departure detection process (step ST2) can be performed. According to this configuration, even when there are a plurality of road markings before and after the intersection, it is possible to accurately detect the approach to the intersection and the departure from the intersection.

図1に示す交差点道路比較部13は、交差点進入離脱認識部12から、自車の交差点への進入位置および交差点からの離脱位置が送られてきた場合は、進入位置と離脱位置とを結ぶ直線と、地図データベース6を検索することによって得られる、その交差点で交差する道路の道路リンクとの幾何学的計算によって前後方向のずれを計算し、この計算結果を自車位置方位修正部5に送る。なお、交差点進入離脱認識部12が、自車の交差点への進入位置とおよび交差点からの離脱位置を出力するのは、進入位置と離脱位置とを結ぶ直線が、おおむね自車の走行軌跡に一致している場合に限られる。   The intersection road comparing unit 13 shown in FIG. 1 is a straight line connecting the approach position and the leaving position when the approach position to the intersection and the leaving position from the intersection are sent from the intersection approaching / leaving recognition unit 12. And the geometrical calculation with the road link of the road that intersects at the intersection obtained by searching the map database 6, and the deviation in the front-rear direction is calculated, and this calculation result is sent to the vehicle position / direction correction unit 5. . Note that the intersection approaching / leaving recognition unit 12 outputs the approach position of the own vehicle to the intersection and the leaving position from the intersection because the straight line connecting the approach position and the leaving position is generally on the traveling locus of the own vehicle. Only if you are doing.

交差点道路比較部13において行われる処理を説明するために、まず、自車位置方位修正部5から得られるマップマッチング後の自車の位置にずれがない場合の交差点への進入位置および交差点からの離脱位置と、地図データベース6から得られるノードおよび道路リンクとの関係を、図7を参照しながら説明する。図7において、一点鎖線は道路リンクを、丸印はノードをそれぞれ表している。図7に示すような、ほぼ直角に交差する交差点の場合は、自車位置方位修正部5から得られるマップマッチング後の自車位置が正確であれば、交差点への進入位置と交差点からの離脱位置とを結ぶ直線と、交差する道路の道路リンクとの交点は、進入位置と離脱位置のほぼ中央になる。   In order to explain the processing performed in the intersection road comparison unit 13, first, the approach position to the intersection when there is no deviation in the position of the vehicle after the map matching obtained from the vehicle position / azimuth correction unit 5, and from the intersection The relationship between the leaving position and the nodes and road links obtained from the map database 6 will be described with reference to FIG. In FIG. 7, an alternate long and short dash line represents a road link, and a circle represents a node. In the case of an intersection that intersects at a substantially right angle as shown in FIG. 7, if the vehicle position after map matching obtained from the vehicle position / orientation correction unit 5 is accurate, the approach position to the intersection and the departure from the intersection The intersection of the straight line connecting the position and the road link of the intersecting road is approximately the center of the entry position and the departure position.

しかしながら、自車位置方位修正部5から得られるマップマッチング後の自車の位置が実際の位置に比べ前後方向にずれている場合は、交差点進入離脱認識部12から出力される交差点への進入位置および交差点からの離脱位置は、このずれを含んでいる。たとえば、実際の自車位置よりも進行方向で後ろにずれている場合の例を図8に示す。交差点進入離脱認識部12において交差点への進入が検出された位置は、実際の位置よりもずれの大きさ分だけ後ろになる。同様に、交差点から離脱した位置も、実際よりもずれの大きさ分だけ後ろになる。それゆえ、交差点道路比較部13は、このずれを計算して自車位置方位修正部5へ送る。   However, when the position of the host vehicle after map matching obtained from the host vehicle position / azimuth correcting unit 5 is shifted in the front-rear direction compared to the actual position, the approach position to the intersection output from the intersection approach / leaving recognition unit 12 And the departure position from the intersection includes this deviation. For example, FIG. 8 shows an example in which the actual vehicle position is shifted backward in the traveling direction from the actual vehicle position. The position at which the approach to the intersection is detected by the intersection approaching / leaving recognition unit 12 is behind the actual position by the amount of deviation. Similarly, the position away from the intersection is behind the actual amount of deviation. Therefore, the intersection road comparison unit 13 calculates this deviation and sends it to the own vehicle position / direction correction unit 5.

ずれの計算は以下のようにして行われる。図8に示す例の場合は、検出された交差点への進入位置と交差点からの離脱位置を通る直線と交差する道路リンクとの交点と、交差点への進入位置と交差点からの離脱位置の中央点との差が「ずれ」として計算される。詳細は以下のとおりである。
交差する道路リンクが接する2つのノードの位置をN1およびN2、交差点への進入位置および交差点からの離脱位置をそれぞれPentryおよびPexitとすると、進入位置Pentryと離脱位置Pexitとの中央点Pcenterは「Pcenter=(Pentry+Pexit)/2」によって求められる。また、ノードN1とノードN2とを結ぶ道路リンク(直線)をN12で表し、進入位置Pentryと離脱位置Pexitとを結ぶ直線をPentryexitで表し、直線N12と直線Pentryexitとの交点をPcpとすると、ずれErrは「Pcenter−Pcp」となる。
The shift is calculated as follows. In the case of the example shown in FIG. 8, the intersection point between the detected entry position to the intersection and the road link intersecting with the straight line passing the departure position from the intersection, and the center point of the entry position to the intersection and the departure position from the intersection Is calculated as “deviation”. Details are as follows.
Assuming that the positions of the two nodes that contact the intersecting road links are N 1 and N 2 , and the entry position to the intersection and the departure position from the intersection are P entry and P exit , respectively, the entry position P entry and the departure position P exit The center point P center is obtained by “P center = (P entry + P exit ) / 2”. Further, the road link (straight line) connecting the node N 1 and the node N 2 is represented by N 1 N 2 , the straight line connecting the entry position P entry and the leaving position P exit is represented by P entry P exit , and the straight line N 1 N If the intersection of 2 and the straight line P entry P exit is P cp , the deviation E rr is “P center −P cp ”.

また、図9に示すように、交差する道路に中央分離帯が存在し、交差する道路リンクが2つ存在する場合のずれの計算方法を図10に示す。交差点進入離脱認識部12から出力される交差点への進入位置と交差点からの離脱位置の中央を中点1とする。次に、交差点への進入位置と交差点からの離脱位置を通過する直線と交差する道路リンク1および道路リンク2との2つの交点を交点1および交点2とし、これら交点1と交点2の中央を中点2とする。これら中点1と中点2の差がずれとして計算される。3以上の道路リンクと交差する場合にも上記と同様の方法で計算を行うことにより、ずれを算出することができる。   Further, as shown in FIG. 9, FIG. 10 shows a deviation calculation method when a median strip exists on intersecting roads and two intersecting road links exist. The center of the approach position to the intersection output from the intersection approaching / leaving recognition unit 12 and the leaving position from the intersection is defined as a midpoint 1. Next, the two intersections of the road link 1 and the road link 2 that intersect the straight line passing the entry position and the departure position from the intersection are defined as an intersection 1 and an intersection 2, and the center of the intersection 1 and the intersection 2 is defined as the intersection. The midpoint is 2. The difference between these midpoint 1 and midpoint 2 is calculated as a deviation. Even when intersecting with three or more road links, the deviation can be calculated by calculating in the same manner as described above.

なお、交差する道路リンクを地図データベース6から検索する場合には、交差点への進入位置および交差点からの離脱位置に近接するという条件だけでなく、交差する道路リンクが道路幅の情報を有する場合は、この道路幅と交差点への進入位置と交差点からの離脱位置の差がおおむね一致するものを選択するように構成できる。   In addition, when searching for a crossing road link from the map database 6, not only the condition that it is close to the entry position to the intersection and the departure position from the intersection, but also if the intersecting road link has road width information The road width, the approach position to the intersection, and the difference between the departure position from the intersection can be selected.

以上説明したように、この発明の実施の形態1に係る車載用ナビゲーション装置によれば、スキャンエリアを設けて路面の限られた領域を認識対象としているので、他車や歩行者が映り込みにくく、安定的な認識処理を行うことができる。また、認識対象とする領域をスキャンエリアに限定したので、認識に必要な計算量を削減することができる。また、スキャンエリア内の映像を2値化し、白の画素によって形成される領域の面積と黒の画素によって形成される領域の面積との割合に基づき交差点への進入位置および交差点からの離脱位置を認識するように構成したので、認識に必要な計算量を削減するとともに、安定的な認識が可能になる。   As described above, according to the vehicle-mounted navigation device according to the first embodiment of the present invention, the scan area is provided and the limited area on the road surface is recognized, so that other vehicles and pedestrians are not easily reflected. , Stable recognition processing can be performed. In addition, since the region to be recognized is limited to the scan area, the amount of calculation required for recognition can be reduced. Also, the image in the scan area is binarized, and the approach position to the intersection and the departure position from the intersection are determined based on the ratio of the area of the area formed by white pixels and the area of the area formed by black pixels. Since it is configured to recognize, it reduces the amount of calculation required for recognition and enables stable recognition.

また、カメラ10で撮影する領域は、車両に既設の側方カメラや後方カメラの撮影領域と一致していることから、そのカメラをそのまま利用することが可能である。また、路面の限られた領域を対象に交差点の前後に設置されている道路標示に差し掛かったり、走り抜けたことを認識する処理を行うことにより、特許文献1に開示されているような前方にある認識対象そのものの形状を認識する方法に比べ、遙かに少ない計算量で安定的に交差点に対する進入および離脱を検出することができる。そして、交差する道路リンクとの幾何学的計算によりずれ量を計算できるので、既存の地図データベースをそのまま利用できる。   Moreover, since the area | region image | photographed with the camera 10 corresponds with the imaging | photography area | region of the existing side camera and back camera in a vehicle, it is possible to use the camera as it is. Moreover, it is ahead as disclosed in Patent Document 1 by performing processing for reaching a road marking installed before and after an intersection for a limited area of the road surface or recognizing that it has run through. Compared with the method for recognizing the shape of the recognition object itself, it is possible to stably detect entry and exit from an intersection with a much smaller calculation amount. And since the deviation | shift amount can be calculated by geometric calculation with the road link which cross | intersects, the existing map database can be utilized as it is.

実施の形態2.
上述した実施の形態1に係る車載用ナビゲーション装置では、図2および図3に示すスキャンエリアを設け、交差点進入離脱認識部12は、そのスキャンエリア内の画像を認識対象として、道路標示への差し掛かりや走り抜けを認識している。これに対し、この発明の実施の形態2に係る車載用ナビゲーション装置においては、図11および図12に示すようなスキャンラインを設け、このスキャンライン上の領域のみを認識対象にしている。なお、スキャンラインとしては、直線に限らず、カメラのレンズの特性を考慮して、曲線を用いることができる。
Embodiment 2. FIG.
In the in-vehicle navigation device according to the first embodiment described above, the scan areas shown in FIGS. 2 and 3 are provided, and the intersection approaching / leaving recognition unit 12 uses the image in the scan area as a recognition target and approaches the road marking. Recognize and run through. On the other hand, in the in-vehicle navigation device according to the second embodiment of the present invention, scan lines as shown in FIGS. 11 and 12 are provided, and only regions on the scan lines are set as recognition targets. The scan line is not limited to a straight line, and a curve can be used in consideration of the characteristics of the camera lens.

この発明の実施の形態2に係る車載用ナビゲーション装置の構成は、図1に示した実施の形態1に係る車載用ナビゲーション装置の構成と同じである。   The configuration of the in-vehicle navigation device according to Embodiment 2 of the present invention is the same as the configuration of the in-vehicle navigation device according to Embodiment 1 shown in FIG.

交差点進入離脱認識部12において行われる、スキャンラインを用いた交差点進入離脱認識処理は、交差点進入検出処理(ステップST1)および交差点離脱検出処理(ステップST2)の各々の処理内容が異なることを除けば、図4のフローチャートを参照して説明した実施の形態1に係る車載用ナビゲーション装置における交差点進入離脱認識処理と同じである。したがって、以下では、交差点進入検出処理および交差点離脱検出処理のみを説明する。   The intersection approach / leave recognition process using the scan line performed in the intersection approach / leave recognition unit 12 is different except that the contents of the intersection approach detection process (step ST1) and the intersection leave detection process (step ST2) are different. This is the same as the intersection approaching / leaving recognition process in the in-vehicle navigation device according to Embodiment 1 described with reference to the flowchart of FIG. Accordingly, only the intersection approach detection process and the intersection departure detection process will be described below.

図4に示した交差点進入離脱認識処理のステップST1において、スキャンエリアの代わりにスキャンラインを用いて行われる交差点進入検出処理の詳細を、認識対象として横断歩道が用いられる場合を例に挙げて、図13に示すフローチャートを参照しながら説明する。   In the step ST1 of the intersection approach / leaving recognition process shown in FIG. 4, details of the intersection approach detection process performed using a scan line instead of a scan area are given as an example when a pedestrian crossing is used as a recognition target. This will be described with reference to the flowchart shown in FIG.

交差点進入検出処理においては、まず、次フレーム取得処理が行われる(ステップST301)。このステップST301の処理は、図5のステップST101の処理と同じである。次いで、2値化処理が行われる(ステップST302)。このステップST302の処理は、図5のステップST102の処理と同じであるが、この2値化処理の対象は、スキャンライン上の画素である。   In the intersection approach detection process, first, a next frame acquisition process is performed (step ST301). The process in step ST301 is the same as the process in step ST101 in FIG. Next, binarization processing is performed (step ST302). The process of step ST302 is the same as the process of step ST102 of FIG. 5, but the target of this binarization process is a pixel on the scan line.

次いで、パターン解析が行われる(ステップST303)。すなわち、交差点進入離脱認識部12は、ステップST302で生成した2値画像に基づき、スキャンライン上の白の画素と黒の画素の出現パターンを解析し、一定数以上連続した白の画素と一定数以上連続した黒の画素が、交互に何度か出現するかどうかを調べる。そして、連続した白の画素と連続した黒の画素が交互に何度か出現した場合は、横断歩道パターンを認識できたと判断し、それ以外の場合は何も認識できなかったと判断する。白の画素または黒の画素が連続する数は、カメラ10の取り付け位置や横断歩道の白線の幅などを考慮して、最適な認識結果が得られるように、設計者が設定するように構成することができる。また、連続した白の画素と連続した黒の画素とが交互に出現する回数も、設計者が適宜に設定するように構成することができる。   Next, pattern analysis is performed (step ST303). That is, the intersection approaching / leaving recognition unit 12 analyzes the appearance pattern of white pixels and black pixels on the scan line based on the binary image generated in step ST302, and continues with a certain number of consecutive white pixels and a certain number. It is examined whether or not the continuous black pixels appear alternately several times. If a continuous white pixel and a continuous black pixel appear alternately several times, it is determined that the pedestrian crossing pattern has been recognized, and otherwise, it is determined that nothing has been recognized. The number of consecutive white pixels or black pixels is configured to be set by the designer so that an optimum recognition result can be obtained in consideration of the mounting position of the camera 10 and the width of the white line of the pedestrian crossing. be able to. In addition, the number of times that the continuous white pixels and the continuous black pixels appear alternately can be configured so that the designer appropriately sets.

次いで、フラグが非検出状態または検出中状態のいずれに設定されているかが調べられる(ステップST304)。このステップST304の処理は、図5のステップST104の処理と同じである。このステップST304において、フラグが非検出状態に設定されていることが判断されると、次いで、横断歩道パターンであるかどうかが調べられる(ステップST305)。すなわち、交差点進入離脱認識部12は、ステップST303で解析された結果が、横断歩道パターンを示しているかどうかを調べる。このステップST305において、横断歩道パターンでないことが判断されると、シーケンスはステップST301に戻り、上述した処理が繰り返される。   Next, it is checked whether the flag is set to a non-detection state or a detection state (step ST304). The process in step ST304 is the same as the process in step ST104 in FIG. If it is determined in step ST304 that the flag is set to the non-detection state, it is then checked whether the flag is a pedestrian crossing pattern (step ST305). That is, the intersection approaching / leaving recognition unit 12 checks whether or not the result analyzed in step ST303 indicates a pedestrian crossing pattern. If it is determined in step ST305 that the pattern is not a pedestrian crossing pattern, the sequence returns to step ST301, and the above-described processing is repeated.

一方、ステップST305において、横断歩道パターンであることが判断されると、次いで、フラグが検出中状態に変更される(ステップST306)。このステップST306の処理は、図5のステップST106の処理と同じである。次いで、検出開始位置および方向が取得される(ステップST307)。このステップST307の処理は、図5のステップST107の処理と同じである。その後、シーケンスはステップST301に戻り、上述した処理が繰り返される。   On the other hand, if it is determined in step ST305 that it is a pedestrian crossing pattern, the flag is then changed to a detecting state (step ST306). The process in step ST306 is the same as the process in step ST106 in FIG. Next, the detection start position and direction are acquired (step ST307). The process in step ST307 is the same as the process in step ST107 in FIG. Thereafter, the sequence returns to step ST301, and the above-described processing is repeated.

上記ステップST304において、フラグが検出中状態に設定されていることが判断されると、ステップST308以下に示す、横断歩道に差し掛かった状態に対する処理が行われる。この処理においては、まず、現在位置および方位が取得される(ステップST308)。このステップST308の処理は、図5のステップST108の処理と同じである。次いで、方向および位置が不正であるかどうかが調べられる(ステップST309)。このステップST309の処理は、図5のステップST109の処理と同じである。   If it is determined in step ST304 that the flag is set to the detecting state, the process for the state of reaching the pedestrian crossing shown in step ST308 and the subsequent steps is performed. In this process, first, the current position and direction are acquired (step ST308). The process in step ST308 is the same as the process in step ST108 in FIG. Next, it is checked whether the direction and position are incorrect (step ST309). The process in step ST309 is the same as the process in step ST109 in FIG.

このステップST309において、方向および位置が不正であると判断されると、不正とみなされた道路標示の検出を改めてやり直すために、フラグが検出中状態から非検出状態に変更される(ステップST310)。このステップST310の処理は、図5のステップST110の処理と同じである。その後、シーケンスはステップST301に戻り、上述した処理が繰り返される。   If it is determined in step ST309 that the direction and position are incorrect, the flag is changed from the detecting state to the non-detected state in order to redo the detection of the road marking regarded as illegal (step ST310). . The process in step ST310 is the same as the process in step ST110 in FIG. Thereafter, the sequence returns to step ST301, and the above-described processing is repeated.

一方、ステップST309において、方向および位置が適正であると判断されると、次いで、横断歩道パターンであるかどうかが調べられる(ステップST311)。すなわち、交差点進入離脱認識部12は、ステップST302で解析された結果が、横断歩道パターンを示しているかどうかを調べる。このステップST311において、横断歩道パターンであることが判断されると、横断歩道を横切っている最中であると認識され、シーケンスはステップST301に戻って上述した処理が繰り返される。   On the other hand, if it is determined in step ST309 that the direction and position are appropriate, it is then checked whether the pattern is a pedestrian crossing pattern (step ST311). That is, the intersection approaching / leaving recognition unit 12 checks whether or not the result analyzed in step ST302 indicates a pedestrian crossing pattern. If it is determined in step ST311 that the pattern is a pedestrian crossing pattern, it is recognized that the pedestrian crossing is being crossed, the sequence returns to step ST301, and the above-described processing is repeated.

一方、ステップST311において、横断歩道パターンでないことが判断されると、フラグが非検出状態に変更される(ステップST312)。このステップST312の処理は、図5のステップST112の処理と同じである。次いで、検出終了位置が取得される(ステップST313)。このステップST313の処理は、図5のステップST113の処理と同じである。   On the other hand, if it is determined in step ST311 that the pattern is not a pedestrian crossing pattern, the flag is changed to a non-detection state (step ST312). The process in step ST312 is the same as the process in step ST112 in FIG. Next, the detection end position is acquired (step ST313). The process in step ST313 is the same as the process in step ST113 in FIG.

次いで、検出結果が妥当であるかどうかが調べられる(ステップST314)。このステップST314の処理は、図5のステップST114の処理と同じである。このステップST314において、検出結果が妥当でない、つまり検出距離が一定範囲外であることが判断されると、横断歩道の検出に失敗したと認識されて、シーケンスはステップST301に戻り、再度、上述した処理がやり直される。一方、ステップST314において、検出結果が妥当である、つまり検出距離が一定範囲内であると判断されると、検出終了位置および方位が交差点への進入位置および方位として交差点離脱検出処理(ステップST2)に渡され、交差点進入検出処理は終了する。   Next, it is checked whether or not the detection result is valid (step ST314). The process in step ST314 is the same as the process in step ST114 in FIG. If it is determined in step ST314 that the detection result is not valid, that is, the detection distance is out of a certain range, it is recognized that the detection of the pedestrian crossing has failed, and the sequence returns to step ST301, and again as described above. Processing is redone. On the other hand, when it is determined in step ST314 that the detection result is valid, that is, the detection distance is within a certain range, the intersection end detection process (step ST2) is performed with the detection end position and direction as the approach position and direction to the intersection. And the intersection approach detection process ends.

次に、図4に示した交差点進入離脱認識処理のステップST2において、スキャンエリアの代わりにスキャンラインを用いて行われる交差点離脱検出処理の詳細を、認識対象として横断歩道が用いられる場合を例に挙げて、図14に示すフローチャートを参照しながら説明する。   Next, in step ST2 of the intersection approaching / leaving recognition process shown in FIG. 4, the details of the intersection leaving detection process performed using the scan line instead of the scan area is exemplified as a case where a pedestrian crossing is used as a recognition target. This will be described with reference to the flowchart shown in FIG.

交差点離脱検出処理においては、まず、次フレーム取得処理が行われる(ステップST401)。このステップST401の処理は、図6のステップST201の処理と同じである。次いで、現在位置および方位が取得される(ステップST402)。このステップST402の処理は、図6のステップST202の処理と同じである。次いで、位置および方位は妥当であるか否かが調べられる(ステップST403)。このステップST403の処理は、図6のステップST203の処理と同じである。このステップST403において、位置および方位が妥当でないことが判断されると、交差点離脱検出処理は終了する。   In the intersection departure detection process, first, a next frame acquisition process is performed (step ST401). The process in step ST401 is the same as the process in step ST201 in FIG. Next, the current position and direction are acquired (step ST402). The process in step ST402 is the same as the process in step ST202 in FIG. Next, it is checked whether the position and orientation are valid (step ST403). The process in step ST403 is the same as the process in step ST203 in FIG. If it is determined in step ST403 that the position and direction are not valid, the intersection departure detection process ends.

一方、ステップST403において、位置および方位が妥当であることが判断されると、次いで、2値化処理が行われる(ステップST404)。このステップST404の処理は、図6のステップST204の処理と同じであるが、この2値化処理の対象は、スキャンライン上の画素である。次いで、パターン解析が行われる(ステップST405)。このステップST405の処理は、図13のステップST303の処理と同じである。次いで、フラグが非検出状態または検出中状態のいずれに設定されているかが調べられる(ステップST406)。このステップST406の処理は、図6のステップST206の処理と同じである。   On the other hand, if it is determined in step ST403 that the position and orientation are valid, then binarization processing is performed (step ST404). The process of step ST404 is the same as the process of step ST204 of FIG. 6, but the target of this binarization process is a pixel on the scan line. Next, pattern analysis is performed (step ST405). The process in step ST405 is the same as the process in step ST303 in FIG. Next, it is checked whether the flag is set to a non-detection state or a detection state (step ST406). The process in step ST406 is the same as the process in step ST206 in FIG.

このステップST406において、フラグが非検出状態に設定されていることが判断されると、次いで、横断歩道パターンであるかどうかが調べられる(ステップST407)。このステップST407の処理は、図13のステップST305の処理と同じである。このステップST407において、横断歩道パターンでないことが判断されると、シーケンスはステップST401に戻り、上述した処理が繰り返される。   If it is determined in step ST406 that the flag is set to the non-detection state, it is then checked whether the flag is a pedestrian crossing pattern (step ST407). The processing in step ST407 is the same as the processing in step ST305 in FIG. If it is determined in step ST407 that the pattern is not a pedestrian crossing pattern, the sequence returns to step ST401, and the above-described processing is repeated.

一方、ステップST407において、横断歩道パターンであることが判断されると、次いで、フラグが検出中状態に変更される(ステップST408)。このステップST408の処理は、図6のステップST208の処理と同じである。次いで、検出開始位置および方向が取得される(ステップST409)。このステップST409の処理は、図6のステップST209の処理と同じである。その後、シーケンスはステップST401に戻り、上述した処理が繰り返される。   On the other hand, if it is determined in step ST407 that the pattern is a pedestrian crossing pattern, the flag is then changed to a detecting state (step ST408). The process in step ST408 is the same as the process in step ST208 in FIG. Next, the detection start position and direction are acquired (step ST409). The process in step ST409 is the same as the process in step ST209 in FIG. Thereafter, the sequence returns to step ST401, and the above-described processing is repeated.

上記ステップST406において、フラグが検出中状態に設定されていることが判断されると、次いで、横断歩道パターンであるかどうかが調べられる(ステップST410)。このステップST410の処理は、ステップST407の処理と同じである。このステップST410において、横断歩道パターンであることが判断されると、シーケンスはステップST401に戻り、上述した処理が繰り返される。   If it is determined in step ST406 that the flag is set to the detecting state, it is then checked whether the flag is a pedestrian crossing pattern (step ST410). The process in step ST410 is the same as the process in step ST407. If it is determined in step ST410 that the pattern is a pedestrian crossing pattern, the sequence returns to step ST401, and the above-described processing is repeated.

一方、ステップST410において、横断歩道パターンでないことが判断されると、フラグが非検出状態に変更される(ステップST411)。このステップST411の処理は、図6のステップST211の処理と同じである。次いで、検出終了位置が取得される(ステップST412)。このステップST412の処理は、図6のステップST212の処理と同じである。   On the other hand, if it is determined in step ST410 that the pattern is not a pedestrian crossing pattern, the flag is changed to a non-detection state (step ST411). The process in step ST411 is the same as the process in step ST211 in FIG. Next, the detection end position is acquired (step ST412). The process in step ST412 is the same as the process in step ST212 in FIG.

次いで、検出判断が行われる(ステップST413)。すなわち、交差点進入離脱認識部12は、検出開始位置と検出終了位置の差から検出距離を算出し、この距離が横断歩道の幅としてあり得る一定範囲(小さ過ぎずかつ大き過ぎない)であれば、検出開始位置を交差点からの離脱位置とする。そして、交差点進入検出処理(ステップST1)から受け取った交差点への進入位置と、この交差点離脱検出処理で算出した交差点からの離脱位置とをステップST3の処理に渡し、交差点離脱検出処理を終了する。なお、検出開始位置と検出終了位置の差が一定範囲外であれば、ステップST3の処理に何も渡さずに交差点離脱検出処理を終了する。   Next, detection determination is performed (step ST413). That is, the intersection approaching / leaving recognition unit 12 calculates the detection distance from the difference between the detection start position and the detection end position, and if this distance is within a certain range (not too small and not too large) as the width of the pedestrian crossing. The detection start position is set as a departure position from the intersection. Then, the approach position to the intersection received from the intersection approach detection process (step ST1) and the departure position from the intersection calculated by the intersection departure detection process are passed to the process of step ST3, and the intersection departure detection process is terminated. If the difference between the detection start position and the detection end position is outside a certain range, the intersection departure detection process is terminated without passing anything to the process of step ST3.

以上説明した交差点進入検出処理(ステップST1)および交差点離脱検出処理(ステップST2)においては、認識対象が存在する領域としてスキャンラインを用い、認識対象として横断歩道を用いた場合の例であるが、以下では、認識対象が存在する領域としてスキャンラインを用い、認識対象として停止線を用いた場合について説明する。   In the intersection approach detection process (step ST1) and the intersection departure detection process (step ST2) described above, the scanline is used as the area where the recognition target exists, and the pedestrian crossing is used as the recognition target. Hereinafter, a case where a scan line is used as a region where a recognition target exists and a stop line is used as the recognition target will be described.

スキャンラインが停止線上に存在する場合は、スキャンライン上の2値化画像に、白い画素が一定数以上連続して存在するかどうかが調べられる。このとき、しきい値となる白の画素数は、スキャンライン上において、映像上の停止線の全長より短くなり、横断歩道の白線の幅よりも長くなるように設定される。カメラ10が車両の側方に取り付けられており、映像上に停止線が映らない場合は、設計者が白の画素数のしきい値を適宜に調整するように構成できる。   When the scan line exists on the stop line, it is checked whether or not a certain number of white pixels continuously exist in the binarized image on the scan line. At this time, the number of white pixels serving as the threshold is set to be shorter than the total length of the stop line on the video and longer than the width of the white line of the pedestrian crossing on the scan line. When the camera 10 is attached to the side of the vehicle and no stop line appears on the video, the designer can adjust the white pixel count threshold appropriately.

スキャンラインを上記のように設定し、白の画素数が一定数以上連続するかどうかが調べられ、白の画素数が一定数以上連続する場合に停止線パターンであると判断される。具体的には、交差点進入検出処理(ステップST1)は、図13に示すフローチャートのステップST305およびステップST311において「横断歩道パターンであるか?」と判断している部分を、「停止線パターンであるか?」と判断するように置き換えることによって実現することができる。   The scan line is set as described above, and it is checked whether or not the number of white pixels continues for a certain number or more. If the number of white pixels continues for a certain number or more, it is determined as a stop line pattern. Specifically, in the intersection approach detection process (step ST1), the portion determined as “is it a pedestrian crossing pattern” in step ST305 and step ST311 of the flowchart shown in FIG. It can be realized by replacing it so that it is judged.

同様に、停止線を認識対象とした交差点離脱検出処理(ステップST2)は、図14に示すフローチャートのステップST407およびステップST410において「横断歩道パターンであるか?」と判断している部分を、「停止線パターンであるか?」と判断するように置き換えることによって実現することができる。   Similarly, in the intersection departure detection process (step ST2) with the stop line as the recognition target, the part determined as “is it a pedestrian crossing pattern?” In step ST407 and step ST410 of the flowchart shown in FIG. It can be realized by replacing it so as to determine whether it is a stop line pattern?

以上説明したように、この発明の実施の形態2に係る車載用ナビゲーション装置によれば、道路標示を認識する際に、スキャンエリアの代わりにスキャンラインを用いることにより、画像認識を行う範囲が狭くなるので、計算量が減少させることができる。また、限定された領域のみで道路標示の認識が可能となるため、雨天や夜間といった撮影条件であっても安定した計算結果が得られる。   As described above, according to the vehicle-mounted navigation device according to the second embodiment of the present invention, when recognizing a road marking, a scan line is used instead of a scan area, thereby narrowing a range for performing image recognition. As a result, the amount of calculation can be reduced. In addition, since road markings can be recognized only in a limited area, stable calculation results can be obtained even under shooting conditions such as rainy weather or nighttime.

実施の形態3.
上述した実施の形態1および実施の形態2に係る車載用ナビゲーション装置においては、図15に示すように、カメラ10の取り付け位置によっては、スキャンエリアを設定した路面と自車位置との間に、オフセットが存在することがある。カメラ10が自車の側方に取り付けられており、真下の映像を取得する場合は、オフセットは0mであるが、カメラ10が前方に取り付けられており、ボンネットが大きい場合は、オフセットは大きくなる。上述した実施の形態1および実施の形態2に係る車載用ナビゲーション装置では、このオフセットは考慮されていないが、この発明の実施の形態3に係る車載用ナビゲーション装置は、交差点進入離脱認識部12において、オフセットを考慮して自車位置を決定するようにしたものである。
Embodiment 3 FIG.
In the in-vehicle navigation device according to Embodiment 1 and Embodiment 2 described above, as shown in FIG. 15, depending on the mounting position of the camera 10, between the road surface where the scan area is set and the vehicle position, There may be an offset. When the camera 10 is attached to the side of the host vehicle and an image directly below is acquired, the offset is 0 m. However, when the camera 10 is attached forward and the bonnet is large, the offset is large. . In the in-vehicle navigation device according to Embodiment 1 and Embodiment 2 described above, this offset is not taken into consideration, but the in-vehicle navigation device according to Embodiment 3 of the present invention is in the intersection approaching / leaving recognition unit 12. The vehicle position is determined in consideration of the offset.

図16は、この発明の実施の形態3に係る車載用ナビゲーション装置の構成を示すブロック図である。この車載用ナビゲーション装置は、実施の形態1に係る車載用ナビゲーション装置に、オフセット設定部14が追加されて構成されている。オフセット設定部14は、映像取得部11から得られる映像および入力操作部8から入力された操作データから、オフセットを決定する。   FIG. 16 is a block diagram showing a configuration of an in-vehicle navigation device according to Embodiment 3 of the present invention. This in-vehicle navigation device is configured by adding an offset setting unit 14 to the in-vehicle navigation device according to the first embodiment. The offset setting unit 14 determines an offset from the video obtained from the video acquisition unit 11 and the operation data input from the input operation unit 8.

たとえば、車両の購入時からカメラ10が備え付けられている場合は、車両の製造者があらかじめ画角やひずみ等といったカメラパラメータを取得しておけばよいが、車両の購入後にカメラを取り付ける場合は、ユーザが、自分でオフセットの値を設定することになる。ユーザが自分でオフセットの値を設定する方法を、図17に示すフローチャートを参照しながら説明する。   For example, if the camera 10 has been provided since the purchase of the vehicle, the vehicle manufacturer may obtain camera parameters such as angle of view and distortion in advance, but if the camera is to be attached after purchase of the vehicle, The user sets the offset value by himself. A method for the user to set the offset value himself will be described with reference to the flowchart shown in FIG.

まず、ユーザは、映像取得部11から得られた映像上に、スキャンエリアの位置を示す基準線を重畳表示させる(ステップST501)。基準線は、設計者があらかじめ用意しておく。ユーザがスキャンエリアを自由に変更できるように、スキャンエリアが固定されていない場合は、現在設定されているスキャンエリアの画面の縦方向の中心位置を基準線として表示することができる。   First, the user superimposes and displays a reference line indicating the position of the scan area on the video obtained from the video acquisition unit 11 (step ST501). The reference line is prepared in advance by the designer. If the scan area is not fixed so that the user can freely change the scan area, the center position in the vertical direction of the screen of the currently set scan area can be displayed as a reference line.

次いで、ユーザは、基準線と、路面上の特徴物とが一致する位置に車両を停止させる(ステップST502)。特徴物は、白線や石などといった路面に存在するものであれば何であってもよいが、厚みが少ないものが望ましい。次いで、ステップST502において基準線と一致させた特徴物と、自車の中心との間の、自車の進行方向に沿った距離を計測する(ステップST503)。次いで、ステップST503で計測された距離を、入力操作部8を操作して入力する(ステップST504)。   Next, the user stops the vehicle at a position where the reference line matches the feature on the road surface (step ST502). The characteristic object may be anything as long as it exists on the road surface such as a white line or a stone, but a characteristic object with a small thickness is desirable. Next, the distance along the traveling direction of the host vehicle between the feature matched with the reference line in step ST502 and the center of the host vehicle is measured (step ST503). Next, the distance measured in step ST503 is input by operating the input operation unit 8 (step ST504).

交差点進入離脱認識部12は、映像取得部11から得られる路面の映像から自車が交差点に進入したと認識し、自車位置方位修正部5から得られる自車位置と、オフセット設定部14から得られるオフセットとを使用して、交差点へ進入した地点の位置を計算する。同様に、交差点から離脱した地点の位置も計算する。   The intersection approaching / leaving recognition unit 12 recognizes that the vehicle has entered the intersection from the road image obtained from the image acquisition unit 11, and the vehicle position obtained from the vehicle position / direction correction unit 5 and the offset setting unit 14 The resulting offset is used to calculate the location of the point that entered the intersection. Similarly, the position of the point that has left the intersection is calculated.

交差点進入離脱認識部12では、基本的には、実施の形態1において図4〜図6を用いて説明した処理と同じ処理が行われる。ただし、図5に示すフローチャートのステップST108および図6に示すフローチャートのステップST202で行う現在位置および方位を取得する処理においては、交差点進入離脱認識部12は、自車位置方位修正部5から得られた自車位置および方位を、オフセット設定部14から得られたオフセットで補正して現在の自車位置および方位を計測する。   The intersection approaching / leaving recognition unit 12 basically performs the same processing as that described with reference to FIGS. 4 to 6 in the first embodiment. However, in the process of acquiring the current position and direction performed in step ST108 of the flowchart shown in FIG. 5 and step ST202 of the flowchart shown in FIG. 6, the intersection approaching / leaving recognition unit 12 is obtained from the vehicle position / direction correction unit 5. The current vehicle position and direction are measured by correcting the own vehicle position and direction with the offset obtained from the offset setting unit 14.

以上説明したように、この発明の実施の形態3に係る車載用ナビゲーション装置によれば、オフセット設定部14を設けて、カメラ10で撮影できる路面と、自車位置とのオフセットを設定し、交差点への進入位置および交差点からの離脱位置を取得する際に、オフセットを考慮するように構成したので、前後方向のずれを、より正確に修正できる。   As described above, according to the vehicle-mounted navigation device according to Embodiment 3 of the present invention, the offset setting unit 14 is provided to set the offset between the road surface that can be photographed by the camera 10 and the vehicle position, and the intersection. Since the offset is taken into account when acquiring the entry position and the departure position from the intersection, the deviation in the front-rear direction can be corrected more accurately.

実施の形態4.
上述した実施の形態1〜3に係る車載用ナビゲーション装置においては、横断歩道などの道路標示を認識する際に、2値化画像を用いて交差点への進入および交差点からの離脱を認識するように構成したが、この発明の実施の形態4に係る車載用ナビゲーション装置においては、カメラ10で撮影する範囲に光を投射して画像認識を行いやすくしたものである。
Embodiment 4 FIG.
In the in-vehicle navigation device according to Embodiments 1 to 3 described above, when recognizing a road marking such as a pedestrian crossing, the entry into the intersection and the departure from the intersection are recognized using the binarized image. Although configured, in the vehicle-mounted navigation device according to Embodiment 4 of the present invention, light is projected onto a range captured by the camera 10 to facilitate image recognition.

図18は、この発明の実施の形態4に係る車載用ナビゲーション装置の構成を示すブロック図である。この車載用ナビゲーション装置は、実施の形態1に係る車載用ナビゲーション装置に投射機15が追加されて構成されている。投射機15は、光線をカメラ10で撮影する範囲に投射する。これにより、交差点進入離脱認識部12において行われる画像認識処理が行いやすくなる。投射機15としては、たとえばヘッドライトなどの車に既設されているライトを用いることができる。また、投射機15として、小型の投光機などを新しく設置することもできる。また、カメラ10が赤外線の反射を検知できる機能を有する場合は、投射機15として赤外線投射機を用い、可視光線以外の光線を投射するように構成することもできる。   FIG. 18 is a block diagram showing a configuration of an in-vehicle navigation device according to Embodiment 4 of the present invention. This in-vehicle navigation device is configured by adding a projector 15 to the in-vehicle navigation device according to the first embodiment. The projector 15 projects light rays into a range where the camera 10 captures images. Thereby, the image recognition process performed in the intersection approaching / leaving recognition unit 12 can be easily performed. As the projector 15, for example, a light such as a headlight that is already installed in a vehicle can be used. In addition, a small projector or the like can be newly installed as the projector 15. When the camera 10 has a function capable of detecting infrared reflection, an infrared projector can be used as the projector 15 to project light rays other than visible light rays.

映像取得部11は、実施の形態1のそれと同じであるが、投射機15が赤外線以外の可視光線を投射する場合には、カメラ10から可視光線の反射映像を取得し、投射機15が赤外線を投射する場合には、カメラ10から赤外線の反射映像を取得するといったように、投射機15が投射する光の種類に応じた映像を取得する。   The image acquisition unit 11 is the same as that of the first embodiment, but when the projector 15 projects visible light other than infrared light, the image acquisition unit 11 acquires a reflected image of visible light from the camera 10 and the projector 15 receives infrared light. When an image is projected, an image corresponding to the type of light projected by the projector 15 is acquired, for example, an infrared reflected image is acquired from the camera 10.

以上説明したように、この発明の実施の形態4に係る車載用ナビゲーション装置によれば、投射機15を設けることにより、交差点進入離脱認識部12は、カメラ10から画像認識を行いやすい映像を取得することができるので、夜間や雨天といった環境の変化に強い車載用ナビゲーション装置が得られる。   As described above, according to the vehicle-mounted navigation device according to the fourth embodiment of the present invention, by providing the projector 15, the intersection approaching / leaving recognition unit 12 acquires a video that can easily perform image recognition from the camera 10. Therefore, an in-vehicle navigation device that is resistant to environmental changes such as nighttime and rainy weather can be obtained.

なお、実施の形態4に係る車載用ナビゲーション装置は、実施の形態1に係る車載用ナビゲーション装置に投射機15を追加するように構成したが、実施の形態2または実施の形態3に係る車載用ナビゲーション装置に投射機15を追加するように構成することができ、この場合も上記と同様の作用および効果を奏する。   The in-vehicle navigation device according to the fourth embodiment is configured to add the projector 15 to the in-vehicle navigation device according to the first embodiment. However, the in-vehicle navigation device according to the second or third embodiment. The projector 15 can be configured to be added to the navigation device, and in this case, the same operation and effect as described above can be achieved.

この発明の実施の形態1に係る車載用ナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載用ナビゲーション装置のカメラで前方を撮影することにより得られる映像とスキャンエリアの設定例を示す図である。It is a figure which shows the example of a setting of the image | video obtained by image | photographing the front with the camera of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention, and a scan area. この発明の実施の形態1に係る車載用ナビゲーション装置のカメラで側方を撮影することにより得られる映像とスキャンエリアの設定例を示す図である。It is a figure which shows the example of a setting of the image | video obtained by image | photographing a side with the camera of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention, and a scan area. この発明の実施の形態1に係る車載用ナビゲーション装置の交差点進入離脱認識部で行われる交差点進入離脱認識処理を示すフローチャートである。It is a flowchart which shows the intersection approaching / leaving recognition process performed in the intersection approaching / leaving recognition part of the vehicle-mounted navigation device according to Embodiment 1 of the present invention. 図4に示す交差点進入検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the intersection approach detection process shown in FIG. 図4に示す交差点離脱検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the intersection leaving detection process shown in FIG. この発明の実施の形態1に係る車載用ナビゲーション装置の進行方向にずれがない場合の交差点進入・離脱位置と道路リンクとの関係を示す図である。It is a figure which shows the relationship between the intersection approaching / leaving position and road link when there is no deviation in the traveling direction of the in-vehicle navigation device according to Embodiment 1 of the present invention. この発明の実施の形態1に係る車載用ナビゲーション装置の進行方向にずれがある場合の交差点進入・離脱位置と道路リンクとずれとの関係を示す図である。It is a figure which shows the relationship between an intersection approaching / leaving position, a road link, and deviation | shift when there exists deviation | shift in the advancing direction of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention. この発明の実施の形態1に係る車載用ナビゲーション装置の進行方向が複数の道路リンクと交差する場合を説明するための図である。It is a figure for demonstrating the case where the advancing direction of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention crosses a some road link. この発明の実施の形態1に係る車載用ナビゲーション装置の進行方向が複数の道路リンクと交差する場合の交差点進入・離脱位置と道路リンクとずれとの関係を示す図である。It is a figure which shows the relationship between the intersection approaching / leaving position, road link, and deviation | shift when the advancing direction of the vehicle-mounted navigation apparatus which concerns on Embodiment 1 of this invention crosses a plurality of road links. この発明の実施の形態2に係る車載用ナビゲーション装置のカメラで前方を撮影することにより得られる映像とスキャンラインの設定例を示す図である。It is a figure which shows the example of a setting of the image | video and scanning line which are obtained by image | photographing the front with the camera of the vehicle-mounted navigation apparatus concerning Embodiment 2 of this invention. この発明の実施の形態2に係る車載用ナビゲーション装置のカメラで側方を撮影することにより得られる映像とスキャンラインの設定例を示す図である。It is a figure which shows the example of a setting of the image | video and scanning line which are obtained by image | photographing a side with the camera of the vehicle-mounted navigation apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係る車載用ナビゲーション装置において行われる交差点進入検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the intersection approach detection process performed in the vehicle-mounted navigation apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態2に係る車載用ナビゲーション装置において行われる交差点離脱検出処理の詳細を示すフローチャートである。It is a flowchart which shows the detail of the intersection leaving detection process performed in the vehicle-mounted navigation apparatus which concerns on Embodiment 2 of this invention. この発明の実施の形態3に係る車載用ナビゲーション装置によるスキャンエリアが示す位置と自車位置のオフセットとの関係を示す図である。It is a figure which shows the relationship between the position which the scan area by the vehicle-mounted navigation apparatus concerning Embodiment 3 of this invention shows, and the offset of the own vehicle position. この発明の実施の形態3に係る車載用ナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted navigation apparatus which concerns on Embodiment 3 of this invention. この発明の実施の形態3に係る車載用ナビゲーション装置におけるオフセットの設定方法を示すフローチャートである。It is a flowchart which shows the setting method of the offset in the vehicle-mounted navigation apparatus which concerns on Embodiment 3 of this invention. この発明の実施の形態4に係る車載用ナビゲーション装置の構成を示すブロック図である。It is a block diagram which shows the structure of the vehicle-mounted navigation apparatus concerning Embodiment 4 of this invention.

符号の説明Explanation of symbols

1 GPS受信機、2 車速センサ、3 方位センサ、4 自車位置方位計算部、5 自車位置方位修正部、6 地図データベース、7 ナビゲーション制御部、8 入力操作部、9 表示部、10 カメラ、11 映像取得部、12 交差点進入離脱認識部、13 交差点道路比較部、14 オフセット設定部、15 投射機。   DESCRIPTION OF SYMBOLS 1 GPS receiver, 2 vehicle speed sensor, 3 direction sensor, 4 vehicle position direction calculation part, 5 vehicle position direction correction part, 6 map database, 7 navigation control part, 8 input operation part, 9 display part, 10 camera, DESCRIPTION OF SYMBOLS 11 Image | video acquisition part, 12 Intersection approaching / leaving recognition part, 13 Intersection road comparison part, 14 Offset setting part, 15 Projector.

Claims (7)

自車の位置および方位を計算する自車位置方位計算部と、
地図データを格納した地図データベースと、
路面を撮影するカメラと、
前記カメラから送られてくる路面の映像に含まれる交差点前後の道路標示に基づき交差点への進入位置および交差点からの離脱位置を認識する交差点進入離脱認識部と、
前記交差点進入離脱認識部で認識された交差点への進入位置および交差点からの離脱位置と、前記地図データベースから取得した地図データによって示される道路リンクであって、該交差点において自車の直進方向に交差する道路リンクとの幾何学的計算により、自車位置の前後方向のずれを計算する交差点道路比較部と、
前記地図データベースから取得した地図データと前記交差点道路比較部で計算されたずれとに基づき、前記自車位置方位計算部で計算された自車の位置および方位を修正する自車位置方位修正部と、
前記自車位置方位修正部で修正された自車の位置および方位に基づきナビゲーションを行うナビゲーション制御部
とを備えた車載用ナビゲーション装置。
A vehicle position and direction calculation unit for calculating the position and direction of the vehicle;
A map database storing map data;
A camera that shoots the road surface,
An intersection approaching and leaving recognition unit for recognizing the approaching position to the intersection and the leaving position from the intersection based on the road markings before and after the intersection included in the video of the road surface sent from the camera;
A road link indicated by the entry position to and intersection from the intersection recognized by the intersection approach and departure recognition unit, and the map data acquired from the map database, and intersects the vehicle in the straight direction at the intersection. An intersection road comparison unit that calculates the longitudinal displacement of the vehicle position by geometric calculation with the road link
Based on the map data acquired from the map database and the deviation calculated by the intersection road comparison unit, the vehicle position and direction correction unit for correcting the position and direction of the vehicle calculated by the vehicle position and direction calculation unit; ,
A vehicle-mounted navigation device comprising: a navigation control unit that performs navigation based on the position and direction of the host vehicle corrected by the host vehicle position and direction correcting unit.
交差点進入離脱認識部は、カメラから送られてくる路面の映像上に認識対象の範囲を規定するスキャンエリアを設け、該スキャンエリア内の映像に基づき交差点への進入位置および交差点からの離脱位置を認識する
ことを特徴とする請求項1記載の車載用ナビゲーション装置。
The intersection approaching / leaving recognition unit provides a scan area that defines the recognition target range on the road image sent from the camera, and determines the approach position to the intersection and the departure position from the intersection based on the image in the scan area. The in-vehicle navigation device according to claim 1, wherein the in-vehicle navigation device is recognized.
交差点進入離脱認識部は、スキャンエリア内の映像をフレーム毎に2値化して白の画素と黒の画素から成る2値画像を生成し、該2値画像中の白の画素によって形成される領域の面積と黒の画素によって形成される領域の面積との割合のフレーム間における変動に基づき交差点への進入位置および交差点からの離脱位置を認識する
ことを特徴とする請求項2記載の車載用ナビゲーション装置。
The intersection approaching / leaving recognition unit binarizes the video in the scan area for each frame to generate a binary image composed of white pixels and black pixels, and an area formed by white pixels in the binary image 3. The in-vehicle navigation system according to claim 2, wherein an approach position to the intersection and a departure position from the intersection are recognized based on a change between frames in a ratio between the area of the area and the area of the area formed by the black pixels. apparatus.
交差点進入離脱認識部は、カメラから送られてくる路面の映像上に認識用のスキャンラインを設け、該スキャンライン上の映像に基づき交差点への進入位置および交差点からの離脱位置を認識する
ことを特徴とする請求項1記載の車載用ナビゲーション装置。
The intersection approach / leaving recognition unit provides a recognition scan line on the road image sent from the camera, and recognizes the approach position to the intersection and the departure position from the intersection based on the image on the scan line. The in-vehicle navigation device according to claim 1, wherein
交差点進入離脱認識部は、スキャンライン上の映像をフレーム毎に2値化して白の画素と黒の画素から成る2値画像を生成し、該2値画像上のスキャンライン上の白の画素と黒の画素の分布のフレーム間における変動に基づき交差点への進入位置および交差点からの離脱位置を認識する
ことを特徴とする請求項4記載の車載用ナビゲーション装置。
The intersection approaching / leaving recognition unit binarizes the video on the scan line for each frame to generate a binary image composed of white pixels and black pixels, and detects white pixels on the scan line on the binary image. 5. The vehicle-mounted navigation device according to claim 4, wherein an approach position to the intersection and a departure position from the intersection are recognized based on a variation in black pixel distribution between frames.
カメラから送られてくる路面の映像上の認識対象の位置と自車位置との距離の差を設定するオフセット設定部を備え、
交差点進入離脱認識部は、前記オフセット設定部で設定された距離の差を用いて自車位置方位修正部から送られてくる現在の位置を補正する
ことを特徴とする請求項1から請求項5のうちのいずれか1項記載の車載用ナビゲーション装置。
It has an offset setting unit that sets the difference in the distance between the position of the recognition target on the road image sent from the camera and the vehicle position,
The intersection approaching / leaving recognition unit corrects the current position sent from the own vehicle position / orientation correction unit using a difference in distance set by the offset setting unit. The vehicle-mounted navigation device according to any one of the above.
光を投射する投射機を備え、
カメラは、前記投射機によって光が投射された路面を撮影する
ことを特徴とする請求項1から請求項6のうちのいずれか1項記載の車載用ナビゲーション装置。
Equipped with a projector that projects light,
The in-vehicle navigation device according to any one of claims 1 to 6, wherein the camera captures a road surface on which light is projected by the projector.
JP2006099179A 2006-03-31 2006-03-31 Car navigation system Active JP4975350B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006099179A JP4975350B2 (en) 2006-03-31 2006-03-31 Car navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006099179A JP4975350B2 (en) 2006-03-31 2006-03-31 Car navigation system

Publications (2)

Publication Number Publication Date
JP2007271515A true JP2007271515A (en) 2007-10-18
JP4975350B2 JP4975350B2 (en) 2012-07-11

Family

ID=38674458

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006099179A Active JP4975350B2 (en) 2006-03-31 2006-03-31 Car navigation system

Country Status (1)

Country Link
JP (1) JP4975350B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109341A (en) * 2007-10-30 2009-05-21 Aisin Aw Co Ltd Own-vehicle position recognizer, own-vehicle position recognition program, and navigation apparatus using the same
JP2011118509A (en) * 2009-12-01 2011-06-16 Fuji Heavy Ind Ltd Road recognition device
US20130162824A1 (en) * 2011-12-22 2013-06-27 Electronics And Telecommunications Research Institute Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor
US9081383B1 (en) * 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
JP2015175690A (en) * 2014-03-14 2015-10-05 パイオニア株式会社 Position determining device, position determining method, and position determining program
JP2018132532A (en) * 2018-05-17 2018-08-23 パイオニア株式会社 Position determination device, position determination method, and position determination program
JP2018197744A (en) * 2017-05-22 2018-12-13 本田技研工業株式会社 Position specification in urban environment using road-surface sign
JP2019066445A (en) * 2017-10-05 2019-04-25 日産自動車株式会社 Position correction method, vehicle control method, and position correction device
JP2020060597A (en) * 2020-01-07 2020-04-16 パイオニア株式会社 Position determination device, position determination method, and position determination program
JP2022061336A (en) * 2020-10-06 2022-04-18 トヨタ自動車株式会社 Map generation device, map generation method, and map generation computer program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0674778A (en) * 1992-08-26 1994-03-18 Mitsubishi Electric Corp Navigation system for mobile
JPH0777433A (en) * 1993-06-30 1995-03-20 Mazda Motor Corp Traveling zone recognizing device for automobile
JPH10188198A (en) * 1996-12-19 1998-07-21 Honda Motor Co Ltd White line detector for vehicle
JP2004045227A (en) * 2002-07-12 2004-02-12 Alpine Electronics Inc Instrument and method for measuring position of vehicle

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0674778A (en) * 1992-08-26 1994-03-18 Mitsubishi Electric Corp Navigation system for mobile
JPH0777433A (en) * 1993-06-30 1995-03-20 Mazda Motor Corp Traveling zone recognizing device for automobile
JPH10188198A (en) * 1996-12-19 1998-07-21 Honda Motor Co Ltd White line detector for vehicle
JP2004045227A (en) * 2002-07-12 2004-02-12 Alpine Electronics Inc Instrument and method for measuring position of vehicle

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009109341A (en) * 2007-10-30 2009-05-21 Aisin Aw Co Ltd Own-vehicle position recognizer, own-vehicle position recognition program, and navigation apparatus using the same
JP2011118509A (en) * 2009-12-01 2011-06-16 Fuji Heavy Ind Ltd Road recognition device
US9208389B2 (en) * 2011-12-22 2015-12-08 Electronics And Telecommunications Research Institute Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor
US20130162824A1 (en) * 2011-12-22 2013-06-27 Electronics And Telecommunications Research Institute Apparatus and method for recognizing current position of vehicle using internal network of the vehicle and image sensor
US9494942B1 (en) 2014-01-22 2016-11-15 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
US9081383B1 (en) * 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
JP2015175690A (en) * 2014-03-14 2015-10-05 パイオニア株式会社 Position determining device, position determining method, and position determining program
JP2018197744A (en) * 2017-05-22 2018-12-13 本田技研工業株式会社 Position specification in urban environment using road-surface sign
JP7025276B2 (en) 2017-05-22 2022-02-24 本田技研工業株式会社 Positioning in urban environment using road markings
JP2019066445A (en) * 2017-10-05 2019-04-25 日産自動車株式会社 Position correction method, vehicle control method, and position correction device
JP2018132532A (en) * 2018-05-17 2018-08-23 パイオニア株式会社 Position determination device, position determination method, and position determination program
JP2020060597A (en) * 2020-01-07 2020-04-16 パイオニア株式会社 Position determination device, position determination method, and position determination program
JP2022061336A (en) * 2020-10-06 2022-04-18 トヨタ自動車株式会社 Map generation device, map generation method, and map generation computer program
JP7287373B2 (en) 2020-10-06 2023-06-06 トヨタ自動車株式会社 MAP GENERATION DEVICE, MAP GENERATION METHOD AND MAP GENERATION COMPUTER PROGRAM

Also Published As

Publication number Publication date
JP4975350B2 (en) 2012-07-11

Similar Documents

Publication Publication Date Title
JP4953903B2 (en) Car navigation system
JP4975350B2 (en) Car navigation system
US20220067209A1 (en) Systems and methods for anonymizing navigation information
US8239131B2 (en) Navigation device, navigation method, and navigation program
Cui et al. Real-time global localization of robotic cars in lane level via lane marking detection and shape registration
JP4506790B2 (en) Road information generation apparatus, road information generation method, and road information generation program
US8103442B2 (en) Navigation device and its method
JP3958133B2 (en) Vehicle position measuring apparatus and method
US10677597B2 (en) Method and system for creating a digital map
JP2017161501A (en) Travelling location detection device and travelling location detection method
US20060228000A1 (en) Image recognition apparatus and image recognition method
US20100259609A1 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
JP2016014647A (en) Own vehicle position recognition device and own vehicle position recognition method
JPH10341458A (en) Method for correcting on-vehicle stereo camera and onvehicle stereo camera applied with the method
US10846546B2 (en) Traffic signal recognition device
WO2017047365A1 (en) Demarcation line recognition device
JP2008157636A (en) Vehicle self-localization method and vehicle self-localizing apparatus
US20200364470A1 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP2007240380A (en) Intra-tunnel position detector
JP2017009554A (en) Vehicle location determination device and vehicle location determination method
JP5134608B2 (en) Vehicle periphery display device, vehicle periphery display method and program
JP4968369B2 (en) In-vehicle device and vehicle recognition method
JP4953015B2 (en) Own vehicle position recognition device, own vehicle position recognition program, and navigation device using the same
JP4687381B2 (en) Vehicle recognition method and in-vehicle device
JP2010139478A (en) Navigation device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20060410

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060420

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070926

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20080821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090317

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20100408

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120403

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120411

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4975350

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150420

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350