JP2014153192A - Travel guide system, travel guide method, and computer program - Google Patents

Travel guide system, travel guide method, and computer program Download PDF

Info

Publication number
JP2014153192A
JP2014153192A JP2013023065A JP2013023065A JP2014153192A JP 2014153192 A JP2014153192 A JP 2014153192A JP 2013023065 A JP2013023065 A JP 2013023065A JP 2013023065 A JP2013023065 A JP 2013023065A JP 2014153192 A JP2014153192 A JP 2014153192A
Authority
JP
Japan
Prior art keywords
guidance
intersection
vehicle
landmark
landmark object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013023065A
Other languages
Japanese (ja)
Inventor
Koichi Nakao
功一 中尾
Yusuke Kita
勇介 喜多
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2013023065A priority Critical patent/JP2014153192A/en
Publication of JP2014153192A publication Critical patent/JP2014153192A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a travel guide system, a travel guide method, and a computer program which reduce the processing load as well as the processing time of image processing when detecting a marker object from a captured image.SOLUTION: When a guide intersection exists in the front of a vehicle in the traveling direction, a periphery of the guide intersection included in a guide route is imaged by a front camera 19 mounted in the vehicle to acquire information which specifies a state around the guide intersection. A detection exclusion area is set to the captured image captured by the front camera 19 on the basis of the acquired information, and an area except the detection exclusion area in the captured image captured by the front camera 19 is preferentially subjected to image processing to detect a marker object which is taken as a marker for guiding the vehicle about the guide intersection in the captured image. When the marker object is detected, the marker object is used to guide the vehicle about the guide intersection.

Description

本発明は、目印を用いて車両の走行を案内する走行案内システム、走行案内方法及びコンピュータプログラムに関する。   The present invention relates to a travel guidance system, a travel guidance method, and a computer program that guide a vehicle using a mark.

近年、車両の走行案内を行い、運転者が所望の目的地に容易に到着できるようにしたナビゲーション装置が車両に搭載されていることが多い。ここで、ナビゲーション装置とは、GPS受信機などにより自車の現在位置を検出し、その現在位置に対応する地図データをDVD−ROMやHDDなどの記録媒体またはネットワークを通じて取得して液晶モニタに表示することが可能な装置である。更に、かかるナビゲーション装置には、所望する目的地を入力すると、出発地から目的地までの最適経路を探索する経路探索機能を備えている。そして、探索結果に基づいて設定された案内経路をディスプレイ画面に表示するとともに、右左折等の案内の対象となる交差点(以下、案内交差点という)に接近した場合には音声やディスプレイ画面を用いた案内を行うことによって、ユーザを所望の目的地まで確実に案内するようになっている。また、近年は携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、パーソナルコンピュータ等においても上記ナビゲーション装置と同様の機能を有するものがある。更に、車両以外にも歩行者や二輪車を対象として上記案内を行うことも可能である。   2. Description of the Related Art In recent years, a navigation device is often mounted on a vehicle that provides vehicle travel guidance so that a driver can easily arrive at a desired destination. Here, the navigation device detects the current position of the vehicle by a GPS receiver or the like, acquires map data corresponding to the current position through a recording medium such as a DVD-ROM or HDD or a network, and displays it on a liquid crystal monitor. It is a device that can do. Further, such a navigation device has a route search function for searching for an optimum route from the departure place to the destination when a desired destination is input. Then, the guidance route set based on the search result is displayed on the display screen, and when approaching an intersection (hereinafter referred to as a guidance intersection) for guidance such as a right or left turn, a voice or a display screen is used. By performing the guidance, the user is surely guided to a desired destination. In recent years, some mobile phones, smartphones, PDAs (Personal Digital Assistants), personal computers, and the like have functions similar to those of the navigation device. Furthermore, it is also possible to perform the above guidance for pedestrians and two-wheeled vehicles as well as vehicles.

ここで、案内交差点において右左折等の案内を行う際には、案内交差点をユーザに正確に特定させることが重要である。そこで、従来では案内交差点の目印となる目印対象物(例えば、店舗の看板等)を用いて案内を行うことが行われていた。また、目印対象物を用いて案内を行う場合には、案内を行う際にユーザから目印対象物が視認できていることが重要である。そこで、例えば特許第3399506号には、案内交差点に車両が接近した場合に、車両に搭載されたカメラによって案内交差点方向を撮像し、撮像した画像に対して画像処理を行うことによってユーザから視認できる目印対象物を検出し、検出した目印対象物を用いて案内交差点の案内を行う技術について記載されている。   Here, when performing guidance such as turning left or right at the guidance intersection, it is important to allow the user to accurately identify the guidance intersection. Therefore, conventionally, guidance has been performed using landmark objects (for example, store signboards) that serve as landmarks of guidance intersections. Further, when performing guidance using a landmark object, it is important that the landmark object is visible to the user when performing guidance. Therefore, for example, in Japanese Patent No. 3399506, when a vehicle approaches a guidance intersection, the direction of the guidance intersection is captured by a camera mounted on the vehicle, and image processing is performed on the captured image so that the user can visually recognize the intersection. A technique for detecting a landmark object and guiding a guidance intersection using the detected landmark object is described.

特許第3399506号(第6−7頁、図11)Japanese Patent No. 3399506 (page 6-7, FIG. 11)

しかしながら、上記特許文献1に記載の技術では、カメラで撮像した撮像画像の全ての範囲を対象として一律に画像処理を行うことにより目印対象物を検出するので、案内交差点の周辺状況から明らかに目印対象物が検出できない範囲に対しても他の範囲と同様に画像処理を行うこととなっていた。その結果、画像処理の処理負荷が増加するとともに、処理時間についても長時間化し、案内のタイミングが遅れたり、ユーザから視認可能な目印対象物が存在するにもかかわらず目印対象物を用いない案内が行われる事態が生じていた。   However, in the technique described in Patent Document 1, since the landmark object is detected by uniformly performing image processing on the entire range of the captured image captured by the camera, the landmark is clearly determined from the surrounding situation of the guidance intersection. Image processing is performed on a range in which an object cannot be detected in the same manner as other ranges. As a result, the processing load of the image processing increases, the processing time also becomes longer, the guidance timing is delayed, or the guide object that does not use the mark object despite the presence of the mark object visible to the user exists. Was happening.

本発明は前記従来における問題点を解消するためになされたものであり、撮像画像から目印対象物を検出する際に、案内交差点の周辺状況について考慮して撮像画像に対して優先的に画像処理を行うエリアを設定することにより、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮した走行案内システム、走行案内方法及びコンピュータプログラムを提供することを目的とする。   The present invention has been made to solve the above-described conventional problems, and when detecting a landmark object from a captured image, image processing is preferentially performed on the captured image in consideration of the surrounding situation of the guidance intersection. It is an object of the present invention to provide a travel guidance system, a travel guidance method, and a computer program that reduce the processing load of image processing and reduce the processing time by setting an area for performing the above.

前記目的を達成するため本願の請求項1に係る走行案内システム(1)は、案内経路を設定する案内経路設定手段(13)と、車両に搭載された撮像装置(19)により前記案内経路に含まれる案内交差点(61)の周辺を撮像する撮像手段(13)と、前記案内交差点の周辺状況を特定する情報を取得する周辺情報取得手段(13)と、前記周辺情報取得手段により取得された情報に基づいて、前記撮像手段により撮像された撮像画像に対して検出除外エリア(66〜68)を設定するエリア設定手段(13)と、前記撮像手段により撮像された撮像画像の内、前記検出除外エリアを除くエリアを優先して画像処理を行うことにより、前記撮像画像から前記案内交差点の案内を行う場合に目印とする目印対象物(63〜65)を検出する目印対象物検出手段(13)と、前記目印対象物検出手段によって前記目印対象物が検出された場合に、該目印対象物を用いて前記案内交差点の案内を行う交差点案内手段(13)と、を有することを特徴とする。
尚、「案内交差点」とは、案内経路に従って移動体の移動の案内を行う際に、右左折指示等の案内を行う対象となる交差点が該当する。
また、「目印対象物」とは、ユーザの目印となり得る地表に設置された構造物であり、例えば、店舗の看板等が該当する。
In order to achieve the above object, the travel guidance system (1) according to claim 1 of the present application includes a guide route setting means (13) for setting a guide route and an imaging device (19) mounted on a vehicle. Obtained by an imaging means (13) that images the surroundings of the included guidance intersection (61), peripheral information acquisition means (13) that acquires information specifying the surrounding situation of the guidance intersection, and the peripheral information acquisition means Based on the information, an area setting unit (13) for setting a detection exclusion area (66 to 68) for the captured image captured by the imaging unit, and the detection among the captured images captured by the imaging unit Eyes that detect landmark objects (63 to 65) that serve as landmarks when performing guidance of the guidance intersection from the captured image by performing image processing with priority on areas other than the exclusion areas. Object detection means (13), and intersection guidance means (13) for guiding the guidance intersection using the mark object when the mark object detection means detects the mark object. It is characterized by having.
Note that the “guidance intersection” corresponds to an intersection that is a target for performing guidance such as a right / left turn instruction when performing guidance of movement of the moving object according to the guidance route.
Further, the “marking object” is a structure installed on the ground surface that can serve as a user's mark, and corresponds to, for example, a store signboard.

また、請求項2に係る走行案内システム(1)は、請求項1に記載の走行案内システムであって、前記周辺情報取得手段(13)により取得された前記周辺状況は、前記案内交差点(61)の周辺の車両混雑状況であって、前記エリア設定手段(13)は、前記車両混雑状況と前記車両の走行する道路の道路形状とに基づいて前記検出除外エリア(66〜68)を設定することを特徴とする。   Further, the travel guidance system (1) according to claim 2 is the travel guidance system according to claim 1, wherein the peripheral situation acquired by the peripheral information acquisition means (13) is the guidance intersection (61). The area setting means (13) sets the detection exclusion areas (66 to 68) based on the vehicle congestion situation and the road shape of the road on which the vehicle travels. It is characterized by that.

また、請求項3に係る走行案内システム(1)は、請求項2に記載の走行案内システムであって、前記エリア設定手段(13)は、前記車両混雑状況と前記車両の走行する道路の道路形状とに基づいて、前記撮像手段により撮像された前記撮像画像中において他車両によって視界が遮られると予測されるエリアを前記検出除外エリア(66〜68)に設定することを特徴とする。   Further, the travel guidance system (1) according to claim 3 is the travel guidance system according to claim 2, wherein the area setting means (13) is a road of the road on which the vehicle is congested and the vehicle travels. Based on the shape, an area in which the field of view is predicted to be blocked by another vehicle in the captured image captured by the imaging unit is set as the detection exclusion area (66 to 68).

また、請求項4に係る走行案内システム(1)は、請求項1に記載の走行案内システムであって、前記周辺情報取得手段(13)により取得された前記周辺状況は、前記案内交差点(61)の周辺の歩行者混雑状況であって、前記エリア設定手段(13)は、前記歩行者混雑状況と前記車両の走行する道路の道路形状とに基づいて前記検出除外エリア(66〜68)を設定することを特徴とする。   Further, the travel guidance system (1) according to claim 4 is the travel guidance system according to claim 1, wherein the peripheral situation acquired by the peripheral information acquisition means (13) is the guidance intersection (61). ) Around the pedestrian, and the area setting means (13) sets the detection exclusion area (66 to 68) based on the pedestrian congestion and the road shape of the road on which the vehicle travels. It is characterized by setting.

また、請求項5に係る走行案内システム(1)は、請求項4に記載の走行案内システムであって、前記エリア設定手段(13)は、前記歩行者混雑状況と前記車両の走行する道路の道路形状とに基づいて、前記撮像手段(19)により撮像された前記撮像画像中において歩行者によって視界が遮られると予測されるエリアを前記検出除外エリア(66〜68)に設定することを特徴とする。   Further, the travel guidance system (1) according to claim 5 is the travel guidance system according to claim 4, wherein the area setting means (13) includes the pedestrian congestion situation and a road on which the vehicle travels. Based on the road shape, an area in which the field of view is predicted to be blocked by a pedestrian in the captured image captured by the imaging means (19) is set as the detection exclusion area (66 to 68). And

また、請求項6に係る走行案内システム(1)は、請求項1乃至請求項5のいずれかに記載の走行案内システムであって、前記案内交差点(61)の周辺に位置する対象物の内、前記目印対象物検出手段(13)によって検出対象となる前記目印対象物の候補である目印対象物候補が設置された高さ情報を取得する目印候補情報取得手段(13)と、前記周辺情報取得手段により取得された情報に基づいて、高さの基準値を設定する基準値設定手段(13)と、を有し、前記目印対象物検出手段は、前記目印対象物候補の内、前記基準値以上の高さを有する前記目印対象物候補を優先的に検出対象とし、検出された前記目印対象物候補の内から前記目印対象物を選択することを特徴とする。   A travel guidance system (1) according to claim 6 is the travel guidance system according to any one of claims 1 to 5, wherein the travel guidance system (1) includes an object located around the guidance intersection (61). A landmark candidate information acquisition means (13) for acquiring height information where a landmark object candidate that is a candidate for the landmark object to be detected by the landmark object detection means (13) is installed; and the peripheral information Reference value setting means (13) for setting a height reference value based on the information acquired by the acquisition means, and the mark object detection means includes the reference object among the mark object candidates. The mark object candidate having a height equal to or higher than the value is preferentially detected, and the mark object object is selected from the detected mark object candidates.

また、請求項7に係る走行案内システム(1)は、請求項6に記載の走行案内システムであって、前記周辺情報取得手段(13)により取得された前記周辺状況は、前記案内交差点(61)の周辺の車両混雑状況であって、前記基準値設定手段(13)は、前記車両混雑状況が所定の閾値以上である場合に、他車両(52、54)によって前記目印対象物候補が遮蔽されないと予測される最も低い高さを前記基準値に設定することを特徴とする。   The travel guidance system (1) according to claim 7 is the travel guidance system according to claim 6, wherein the peripheral situation acquired by the peripheral information acquisition means (13) is the guidance intersection (61). ), The reference value setting means (13) blocks the landmark object candidate by the other vehicles (52, 54) when the vehicle congestion state is equal to or greater than a predetermined threshold. The lowest height predicted not to be set is set as the reference value.

また、請求項8に係る走行案内システム(1)は、請求項6に記載の走行案内システムであって、前記周辺情報取得手段(13)により取得された前記周辺状況は、前記案内交差点の周辺の歩行者混雑状況であって、前記基準値設定手段(13)は、前記歩行者混雑状況が所定の閾値以上である場合に、歩行者(56、58)によって前記目印対象物候補が遮蔽されないと予測される最も低い高さを前記基準値に設定することを特徴とする。   Further, the travel guidance system (1) according to claim 8 is the travel guidance system according to claim 6, wherein the peripheral situation acquired by the peripheral information acquisition means (13) is the vicinity of the guidance intersection. The reference value setting means (13) does not block the landmark object candidate by the pedestrians (56, 58) when the pedestrian congestion state is a predetermined threshold value or more. The lowest predicted height is set as the reference value.

また、請求項9に係る走行案内システム(1)は、請求項1乃至請求項8のいずれかに記載の走行案内システムであって、前記目印対象物検出手段(13)によって前記目印対象物が検出されなかった場合に、前記案内交差点(61)までの距離を用いて該案内交差点の案内を行う交差点距離案内手段(13)を有することを特徴とする。   A travel guidance system (1) according to claim 9 is the travel guidance system according to any one of claims 1 to 8, wherein the landmark object detection means (13) causes the landmark object to be detected. When not detected, it has an intersection distance guidance means (13) for guiding the guidance intersection using the distance to the guidance intersection (61).

また、請求項10に係る走行案内方法は、案内経路を設定する案内経路設定ステップと、車両に搭載された撮像装置(19)により前記案内経路に含まれる案内交差点(61)の周辺を撮像する撮像ステップと、前記案内交差点の周辺状況を特定する情報を取得する周辺情報取得ステップと、前記周辺情報取得ステップにより取得された情報に基づいて、前記撮像手段により撮像された撮像画像に対して検出除外エリア(66〜68)を設定するエリア設定ステップと、前記撮像手段により撮像された撮像画像の内、前記検出除外エリアを除くエリアを優先して画像処理を行うことにより、前記撮像画像から前記案内交差点の案内を行う場合に目印とする目印対象物(63〜65)を検出する目印対象物検出ステップと、前記目印対象物検出ステップによって前記目印対象物が検出された場合に、該目印対象物を用いて前記案内交差点の案内を行う交差点案内ステップと、を有することを特徴とする。   According to a tenth aspect of the present invention, there is provided a travel guidance method for imaging a periphery of a guidance intersection (61) included in the guidance route by a guidance route setting step for setting a guidance route and an imaging device (19) mounted on the vehicle. Detecting a captured image captured by the imaging unit based on an imaging step, a peripheral information acquisition step for acquiring information specifying the surrounding situation of the guidance intersection, and information acquired by the peripheral information acquisition step An area setting step for setting an exclusion area (66 to 68), and performing image processing with priority given to an area excluding the detection exclusion area among the captured images captured by the imaging unit, thereby allowing the captured image to A mark object detection step for detecting a mark object (63 to 65) as a mark when guiding a guidance intersection, and the mark object detection When the mark object is detected by step, characterized by having a, and intersection guidance step of guiding the guidance intersection using the landmarks object.

更に、請求項11に係るコンピュータプログラムは、コンピュータに、案内経路を設定する案内経路設定機能と、車両に搭載された撮像装置(19)により前記案内経路に含まれる案内交差点(61)の周辺を撮像する撮像機能と、前記案内交差点の周辺状況を特定する情報を取得する周辺情報取得機能と、前記周辺情報取得機能により取得された情報に基づいて、前記撮像手段により撮像された撮像画像に対して検出除外エリア(66〜68)を設定するエリア設定機能と、前記撮像手段により撮像された撮像画像の内、前記検出除外エリアを除くエリアを優先して画像処理を行うことにより、前記撮像画像から前記案内交差点の案内を行う場合に目印とする目印対象物(63〜65)を検出する目印対象物検出機能と、前記目印対象物検出機能によって前記目印対象物が検出された場合に、該目印対象物を用いて前記案内交差点の案内を行う交差点案内機能と、を実行させることを特徴とする。   Furthermore, a computer program according to an eleventh aspect provides a computer with a guide route setting function for setting a guide route, and a periphery of a guide intersection (61) included in the guide route by an imaging device (19) mounted on the vehicle. Based on the information acquired by the imaging function for imaging, the peripheral information acquisition function for acquiring information for specifying the surrounding situation of the guidance intersection, and the information acquired by the peripheral information acquisition function, the captured image captured by the imaging unit An area setting function for setting detection exclusion areas (66 to 68), and performing image processing with priority given to areas other than the detection exclusion area among the captured images captured by the imaging unit, thereby obtaining the captured image. A mark object detection function for detecting a mark object (63 to 65) as a mark when performing guidance at the guidance intersection, and the mark object detection function. When the mark object is detected by the function, characterized in that to execute, and intersection guidance function for guiding the guidance intersection using the landmarks object.

前記構成を有する請求項1に記載の走行案内システムによれば、撮像画像から目印対象物を検出する際に、案内交差点の周辺状況について考慮して撮像画像に対して優先的に画像処理を行うエリアを設定することにより、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。その結果、案内のタイミングが遅れることや、ユーザから視認可能な目印対象物が存在するにもかかわらず目印対象物を用いない案内が行われる事態が生じることを防止できる。   According to the travel guidance system according to claim 1 having the above-described configuration, when detecting a landmark object from a captured image, image processing is preferentially performed on the captured image in consideration of the surrounding situation of the guidance intersection. By setting the area, it is possible to reduce the processing load of image processing and shorten the processing time. As a result, it is possible to prevent the timing of guidance from being delayed or the situation where guidance without using the landmark object is performed despite the presence of the landmark object visible to the user.

また、請求項2に記載の走行案内システムによれば、案内交差点の周辺の車両混雑状況と車両の走行する道路の道路形状とに基づいて検出除外エリアを設定するので、撮像手段により撮像された撮像画像中において、前方車両や対向車線を走行する他車両によって視界が遮られると予測されるエリアを適切に特定し、検出除外エリアに設定することが可能となる。   According to the travel guidance system of the second aspect, the detection exclusion area is set based on the vehicle congestion situation around the guidance intersection and the road shape of the road on which the vehicle travels. In the captured image, it is possible to appropriately identify an area where the field of view is predicted to be blocked by a vehicle ahead or another vehicle traveling in the oncoming lane, and set it as a detection exclusion area.

また、請求項3に記載の走行案内システムによれば、案内交差点の周辺の車両混雑状況と車両の走行する道路の道路形状とに基づいて、撮像手段により撮像された撮像画像中において他車両によって視界が遮られると予測されるエリアを検出除外エリアに設定するので、目印対象物が検出される可能性の低いエリアに対する不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。   According to the travel guidance system of the third aspect, the other vehicle in the picked-up image picked up by the image pickup means based on the vehicle congestion situation around the guidance intersection and the road shape of the road on which the vehicle travels. Since the area where the field of view is predicted to be blocked is set as the detection exclusion area, it is possible to prevent unnecessary image processing from being performed on areas where the mark target object is unlikely to be detected, and to reduce the processing load of image processing In addition, the processing time can be shortened.

また、請求項4に記載の走行案内システムによれば、案内交差点の周辺の歩行者混雑状況と車両の走行する道路の道路形状とに基づいて検出除外エリアを設定するので、撮像手段により撮像された撮像画像中において、車道の脇を歩行する歩行者によって視界が遮られると予測されるエリアを適切に特定し、検出除外エリアに設定することが可能となる。   According to the travel guidance system of the fourth aspect, the detection exclusion area is set based on the pedestrian congestion around the guidance intersection and the road shape of the road on which the vehicle travels. In the captured image, it is possible to appropriately identify an area where the field of view is predicted to be blocked by a pedestrian walking along the side of the roadway and set it as a detection exclusion area.

また、請求項5に記載の走行案内システムによれば、案内交差点の周辺の歩行者混雑状況と車両の走行する道路の道路形状とに基づいて、撮像手段により撮像された撮像画像中において歩行者によって視界が遮られると予測されるエリアを検出除外エリアに設定するので、目印対象物が検出される可能性の低いエリアに対する不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。   According to the travel guidance system according to claim 5, the pedestrian in the captured image captured by the imaging means based on the pedestrian congestion around the guidance intersection and the road shape of the road on which the vehicle travels. Since the area where the field of view is predicted to be blocked is set as the detection exclusion area, unnecessary image processing is prevented from being performed on the area where the mark target object is unlikely to be detected, and the processing load of the image processing is reduced. In addition to the reduction, the processing time can also be shortened.

また、請求項6に記載の走行案内システムによれば、案内交差点の周辺に位置する対象物の内、目印対象物の候補である目印対象物候補が設置された高さ情報を取得し、目印対象物候補の内、基準値以上の高さを有する目印対象物候補を優先的に検出対象とし、検出された目印対象物候補の内から目印対象物を選択するので、撮像画像から検出される可能性の高い目印対象物候補から順に検出対象とすることによって、不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。   In addition, according to the travel guidance system of claim 6, the height information where the landmark object candidate, which is a candidate for the landmark object, is installed among the objects located around the guidance intersection is acquired. Among the candidate objects, a candidate mark object having a height equal to or higher than the reference value is preferentially detected, and the mark object is selected from the detected mark object candidates, so that it is detected from the captured image. By selecting detection targets in order from the most probable landmark object candidates, it is possible to prevent unnecessary image processing from being performed, reduce the processing load of image processing, and shorten the processing time. .

また、請求項7に記載の走行案内システムによれば、案内交差点の周辺の車両混雑状況が閾値以上である場合に、他車両によって遮蔽されないと予測される最も低い高さ以上の高さを有する目印対象物候補を優先的に検出対象とするので、撮像画像から検出される可能性の高い目印対象物候補から順に検出対象とすることによって、不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。   Further, according to the travel guidance system of claim 7, when the vehicle congestion around the guidance intersection is equal to or greater than the threshold, the vehicle has a height equal to or higher than the lowest height that is predicted not to be shielded by other vehicles. Since the landmark object candidates are preferentially detected as targets, it is possible to prevent unnecessary image processing from being performed by sequentially selecting the landmark object candidates that are likely to be detected from the captured image. It is possible to reduce the processing load of the process and also reduce the processing time.

また、請求項8に記載の走行案内システムによれば、案内交差点の周辺の歩行者混雑状況が閾値以上である場合に、歩行者によって遮蔽されないと予測される最も低い高さ以上の高さを有する目印対象物候補を優先的に検出対象とするので、撮像画像から検出される可能性の高い目印対象物候補から順に検出対象とすることによって、不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。   According to the travel guidance system of claim 8, when the pedestrian congestion around the guidance intersection is greater than or equal to the threshold value, the height equal to or higher than the lowest height predicted not to be shielded by the pedestrian. Since the mark object candidate that has a priority is set as the detection target, unnecessary image processing is prevented from being performed by sequentially setting the detection target candidates from the mark object candidates that are likely to be detected from the captured image. It is possible to reduce the processing load of image processing and shorten the processing time.

また、請求項9に記載の走行案内システムによれば、目印対象物が検出されなかった場合に、案内交差点までの距離を用いて該案内交差点の案内を行うので、目印対象物が検出できなかった場合であっても、目印対象物を用いずに案内交差点を走行する車両を適切に案内することが可能となる。   According to the travel guidance system of claim 9, when the landmark object is not detected, the guidance intersection is guided using the distance to the guidance intersection, so the landmark object cannot be detected. Even in such a case, it is possible to appropriately guide the vehicle traveling on the guidance intersection without using the landmark object.

また、請求項10に記載の走行案内方法によれば、撮像画像から目印対象物を検出する際に、案内交差点の周辺状況について考慮して撮像画像に対して優先的に画像処理を行うエリアを設定することにより、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。その結果、案内のタイミングが遅れることや、ユーザから視認可能な目印対象物が存在するにもかかわらず目印対象物を用いない案内が行われる事態が生じることを防止できる。   Further, according to the travel guidance method of the tenth aspect, when the landmark object is detected from the captured image, the area where the image processing is preferentially performed on the captured image in consideration of the surrounding situation of the guidance intersection. By setting, it is possible to reduce the processing load of image processing and shorten the processing time. As a result, it is possible to prevent the timing of guidance from being delayed or the situation where guidance without using the landmark object is performed despite the presence of the landmark object visible to the user.

更に、請求項11に記載のコンピュータプログラムによれば、撮像画像から目印対象物を検出させる際に、案内交差点の周辺状況について考慮して撮像画像に対して優先的に画像処理を行うエリアを設定させることにより、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。その結果、案内のタイミングが遅れることや、ユーザから視認可能な目印対象物が存在するにもかかわらず目印対象物を用いない案内が行われる事態が生じることを防止できる。   Furthermore, according to the computer program according to claim 11, when the landmark object is detected from the captured image, an area for preferentially performing image processing on the captured image is set in consideration of the surrounding situation of the guidance intersection. As a result, the processing load of the image processing can be reduced and the processing time can be shortened. As a result, it is possible to prevent the timing of guidance from being delayed or the situation where guidance without using the landmark object is performed despite the presence of the landmark object visible to the user.

本実施形態に係るナビゲーション装置を示したブロック図である。It is the block diagram which showed the navigation apparatus which concerns on this embodiment. 地図情報DBに記憶される目印情報の一例を示した図である。It is the figure which showed an example of the landmark information memorize | stored in map information DB. 本実施形態に係る交差点案内処理プログラムのフローチャートである。It is a flowchart of the intersection guidance processing program concerning this embodiment. 案内交差点の周辺において車両が混雑状態にある場合の検出優先度の設定方法について説明した図である。It is a figure explaining the setting method of the detection priority in case a vehicle is in the congestion state around a guidance intersection. 案内交差点の周辺において歩行者が混雑状態にある場合の検出優先度の設定方法について説明した図である。It is a figure explaining the setting method of the detection priority in case a pedestrian is in the congestion state around a guidance intersection. フロントカメラで案内交差点の周辺を撮像した撮像画像を示した図である。It is the figure which showed the picked-up image which imaged the periphery of the guidance intersection with the front camera. 案内交差点の周辺において歩行者が混雑状態にある場合の検出除外エリアの設定方法について説明した図である。It is a figure explaining the setting method of the detection exclusion area when a pedestrian is in the congestion state around the guidance intersection. 案内交差点の周辺において車両が混雑状態にある場合の検出除外エリアの設定方法について説明した図である。It is a figure explaining the setting method of the detection exclusion area when the vehicle is in a congested state around the guidance intersection. 案内交差点の周辺において車両と歩行者が混雑状態にある場合の検出除外エリアの設定方法について説明した図である。It is a figure explaining the setting method of the detection exclusion area when a vehicle and a pedestrian are in the congestion state around the guidance intersection. 本実施形態に係る他車両による遮蔽判定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the shielding determination process by the other vehicle which concerns on this embodiment. 本実施形態に係る人による遮蔽判定処理のサブ処理プログラムのフローチャートである。It is a flowchart of the sub process program of the shielding determination process by the person concerning this embodiment.

以下、本発明に係る走行案内システムをナビゲーション装置に具体化した一実施形態に基づき図面を参照しつつ詳細に説明する。先ず、本実施形態に係るナビゲーション装置1の概略構成について図1を用いて説明する。図1は本実施形態に係るナビゲーション装置1を示したブロック図である。   DETAILED DESCRIPTION Hereinafter, a travel guidance system according to the present invention will be described in detail with reference to the drawings based on an embodiment in which the navigation apparatus is embodied. First, a schematic configuration of the navigation device 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a block diagram showing a navigation device 1 according to this embodiment.

図1に示すように本実施形態に係るナビゲーション装置1は、ナビゲーション装置1が搭載された車両の現在位置を検出する現在位置検出部11と、各種のデータが記録されたデータ記録部12と、入力された情報に基づいて、各種の演算処理を行うナビゲーションECU13と、ユーザからの操作を受け付ける操作部14と、ユーザに対して車両周辺の地図や施設の関する施設情報を表示する液晶ディスプレイ15と、経路案内に関する音声ガイダンスを出力するスピーカ16と、記憶媒体であるDVDを読み取るDVDドライブ17と、プローブセンタやVICS(登録商標:Vehicle Information and Communication System)センタ等の情報センタとの間で通信を行う通信モジュール18と、から構成されている。また、ナビゲーション装置1にはフロントカメラ19が接続されている。   As shown in FIG. 1, the navigation device 1 according to the present embodiment includes a current position detection unit 11 that detects a current position of a vehicle on which the navigation device 1 is mounted, a data recording unit 12 that records various data, A navigation ECU 13 that performs various arithmetic processes based on the input information, an operation unit 14 that receives operations from the user, and a liquid crystal display 15 that displays a map around the vehicle and facility information related to the facility to the user. Communicating between a speaker 16 that outputs voice guidance regarding route guidance, a DVD drive 17 that reads a DVD as a storage medium, and an information center such as a probe center or a VICS (registered trademark: Vehicle Information and Communication System) center And a communication module 18 for performing. In addition, a front camera 19 is connected to the navigation device 1.

以下に、ナビゲーション装置1を構成する各構成要素について順に説明する。
現在位置検出部11は、GPS21、車速センサ22、ステアリングセンサ23、ジャイロセンサ24等からなり、現在の車両の位置、方位、車両の走行速度、現在時刻等を検出することが可能となっている。ここで、特に車速センサ22は、車両の移動距離や車速を検出する為のセンサであり、車両の駆動輪の回転に応じてパルスを発生させ、パルス信号をナビゲーションECU13に出力する。そして、ナビゲーションECU13は発生するパルスを計数することにより駆動輪の回転速度や移動距離を算出する。尚、上記4種類のセンサをナビゲーション装置1が全て備える必要はなく、これらの内の1又は複数種類のセンサのみをナビゲーション装置1が備える構成としても良い。
Below, each component which comprises the navigation apparatus 1 is demonstrated in order.
The current position detection unit 11 includes a GPS 21, a vehicle speed sensor 22, a steering sensor 23, a gyro sensor 24, and the like, and can detect the current vehicle position, direction, vehicle traveling speed, current time, and the like. . Here, in particular, the vehicle speed sensor 22 is a sensor for detecting a moving distance and a vehicle speed of the vehicle, generates a pulse according to the rotation of the driving wheel of the vehicle, and outputs a pulse signal to the navigation ECU 13. And navigation ECU13 calculates the rotational speed and moving distance of a driving wheel by counting the generated pulse. Note that the navigation device 1 does not have to include all the four types of sensors, and the navigation device 1 may include only one or more types of sensors.

また、データ記録部12は、外部記憶装置及び記録媒体としてのハードディスク(図示せず)と、ハードディスクに記録された地図情報DB31や所定のプログラム等を読み出すとともにハードディスクに所定のデータを書き込む為のドライバである記録ヘッド(図示せず)とを備えている。尚、データ記録部12をハードディスクの代わりにメモリーカードやCDやDVD等の光ディスクにより構成しても良い。また、地図情報DB31は外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。   The data recording unit 12 is also a hard disk (not shown) as an external storage device and a recording medium, and a driver for reading the map information DB 31 and a predetermined program recorded on the hard disk and writing predetermined data on the hard disk And a recording head (not shown). The data recording unit 12 may be configured by a memory card, an optical disk such as a CD or a DVD, instead of the hard disk. Further, the map information DB 31 may be stored in an external server, and the navigation device 1 may be configured to acquire by communication.

ここで、地図情報DB31は、例えば、道路(リンク)に関するリンクデータ32、ノード点に関するノードデータ33、各交差点に関する交差点データ34、施設等の地点に関する地点データ、地図を表示するための地図表示データ、経路を探索するための探索データ、地点を検索するための検索データ等が記憶された記憶手段である。   Here, the map information DB 31 includes, for example, link data 32 relating to roads (links), node data 33 relating to node points, intersection data 34 relating to each intersection, point data relating to points such as facilities, and map display data for displaying a map. The storage means stores search data for searching for routes, search data for searching for points, and the like.

ここで、リンクデータ32としては、例えば、該リンクを識別するリンクID、該リンクの端部に位置するノードを特定する端部ノード情報、該リンクを構成する道路の道路種別、車線数、道路幅、車線毎の走行区分等が記憶される。また、該リンクが特に歩行者が多い区間か否かについても記憶される。また、ノードデータ33としては、該ノードを識別するノードID、該ノードの位置座標、該ノードがリンクを介して接続される接続先ノードを特定する接続先ノード情報等が記憶される。また、交差点データ34としては、該交差点を形成するノードを特定する該当ノード情報、該交差点に接続されるリンク(以下、接続リンクという)を特定する接続リンク情報、交差点の周辺に位置する目印対象物候補に関する目印情報35等が記憶される。   Here, as the link data 32, for example, a link ID for identifying the link, end node information for specifying a node located at the end of the link, the road type of the road constituting the link, the number of lanes, the road The width, travel classification for each lane, and the like are stored. It is also stored whether the link is a section with particularly many pedestrians. The node data 33 stores a node ID for identifying the node, position coordinates of the node, connection destination node information for specifying a connection destination node to which the node is connected through a link, and the like. Further, as the intersection data 34, relevant node information for identifying the node forming the intersection, connection link information for identifying a link connected to the intersection (hereinafter referred to as a connection link), and a mark object located around the intersection The landmark information 35 etc. regarding the object candidate is stored.

尚、目印対象物候補は、案内交差点の案内を行う場合に目印となり得る対象物(店舗の看板等)の候補である。ここで、目印対象物候補としては、例えば交差点から所定範囲内(例えば半径100m以内)に位置し、且つ遠方からも識別可能な看板を供える特定の施設(例えば、コンビニエンスストア、ガソリンスタンド、ファーストフード店)の看板が該当する。そして、目印情報35は、全国にある交差点毎に目印対象物候補の種類(名称)と位置座標と目印対象物候補の設置高さが記憶されている。尚、一の交差点に対して複数の目印対象物候補が存在する場合には、複数の目印対象物候補のそれぞれについて種類(名称)と位置座標と目印対象物候補の設置高さが記憶されている。尚、“目印対象物候補の設置高さ”は、図2に示すように地表から目印対象物候補の下端までの高さHとする。また、位置座標は、目印対象物候補が施設の看板である場合には、該施設の位置座標としても良い。   The landmark object candidate is a candidate for an object (such as a store signboard) that can be a landmark when guiding a guidance intersection. Here, as a landmark object candidate, for example, a specific facility (for example, a convenience store, a gas station, a fast food) that is located within a predetermined range (for example, within a radius of 100 m) from an intersection and that can provide a sign that can be identified from a distance. Corresponding to the store sign. The landmark information 35 stores the type (name) of the landmark object candidate, the position coordinates, and the installation height of the landmark object candidate for each intersection in the whole country. In addition, when there are a plurality of landmark object candidates for one intersection, the type (name), position coordinates, and installation height of the landmark object candidate are stored for each of the plurality of landmark object candidates. Yes. Note that “the installation height of the landmark object candidate” is a height H from the ground surface to the lower end of the landmark object candidate as shown in FIG. The position coordinates may be the position coordinates of the facility when the landmark object candidate is a signboard of the facility.

ここで、図2は地図情報DB31に記憶される目印情報35の一例を示した図である。図2に示すように目印情報35は、交差点を識別する交差点IDと、その交差点IDの周辺に位置する目印対象物候補の種類(名称)と位置座標と目印対象物候補の設置高さとがそれぞれ対応付けて記憶されている。
例えば、交差点ID「10001」の交差点には、目印対象物候補として4個の対象物が存在し、各目印対象物候補は(X1,Y1)において地表から高さ8mに設置された「コンビニ○○の看板」と、(X2,Y2)において地表から高さ10mに設置された「ガソリンスタンド××の看板」と、(X3,Y3)において地表から高さ6mに設置された「ファーストフード○×屋の看板」と、(X4,Y4)において地表から高さ2mに設置された「×○書店の看板」であることを示している。同様に他の交差点の目印対象物候補に関する情報も記憶されている。
Here, FIG. 2 is a diagram showing an example of the mark information 35 stored in the map information DB 31. As shown in FIG. 2, the landmark information 35 includes an intersection ID for identifying an intersection, a type (name) of a landmark object candidate located around the intersection ID, a position coordinate, and an installation height of the landmark object candidate. It is stored in association.
For example, at the intersection with the intersection ID “10001”, there are four objects as landmark object candidates, and each landmark object candidate is a “convenience store ○ installed at a height of 8 m from the ground surface at (X1, Y1). “Signboard of ○”, “Signboard of petrol station XX” installed at a height of 10m from the ground surface at (X2, Y2), and “Fast Food ○” installed at a height of 6m from the ground surface at (X3, Y3) “X signboard” and “X ○ bookstore signboard” installed at a height of 2 m from the ground surface at (X4, Y4). Similarly, information related to landmark object candidates at other intersections is also stored.

また、目印情報35には、目印対象物候補の種類毎に、案内交差点の音声案内に用いられる音声フレーズの内、目印対象物候補をユーザに特定させるための音声フレーズが記憶されている。例えば、「コンビニ○○の看板」の目印対象物候補をユーザに特定させるための音声フレーズとしては『コンビニ○○を』が記憶され、「ガソリンスタンド××の看板」の目印対象物候補をユーザに特定させるための音声フレーズとしては『ガソリンスタンド××を』が記憶される。同様にして、他の目印対象物候補についても記憶されている。尚、目印情報35は外部のサーバに格納させ、ナビゲーション装置1が通信により取得する構成としても良い。   The landmark information 35 stores, for each type of landmark object candidate, a voice phrase for allowing the user to identify the landmark object candidate among voice phrases used for voice guidance at the guidance intersection. For example, “Convenience Store XX” is stored as a speech phrase for allowing the user to identify the landmark target candidate of “Convenience Store XX Signboard”, and the landmark target candidate of “Gas Station XX Signboard” is selected by the user. “Gasoline station xx” is stored as a voice phrase to be specified. Similarly, other landmark object candidates are also stored. The mark information 35 may be stored in an external server and acquired by the navigation device 1 through communication.

一方、ナビゲーションECU(エレクトロニック・コントロール・ユニット)13は、ナビゲーション装置1の全体の制御を行う電子制御ユニットであり、演算装置及び制御装置としてのCPU41、並びにCPU41が各種の演算処理を行うにあたってワーキングメモリとして使用されるとともに、経路が探索されたときの経路データ等が記憶されるRAM42、制御用のプログラムのほか、後述の交差点案内処理プログラム(図3)等が記録されたROM43、ROM43から読み出したプログラムを記憶するフラッシュメモリ44等の内部記憶装置を備えている。尚、ナビゲーションECU13は、処理アルゴリズムとしての各種手段を構成する。例えば、案内経路設定手段は、案内経路を設定する。撮像手段は、車両に搭載されたフロントカメラ19により案内経路に含まれる案内交差点の周辺を撮像する。周辺情報取得手段は、案内交差点の周辺状況を特定する情報を取得する。エリア設定手段は、周辺情報取得手段により取得された情報に基づいて、フロントカメラ19により撮像された撮像画像に対して検出除外エリアを設定する。目印対象物検出手段は、フロントカメラ19により撮像された撮像画像の内、検出除外エリアを除くエリアを優先して画像処理を行うことにより、撮像画像から案内交差点の案内を行う場合に目印とする目印対象物を検出する。交差点案内手段は、目印対象物検出手段によって目印対象物が検出された場合に、該目印対象物を用いて案内交差点の案内を行う。目印候補情報取得手段は、案内交差点の周辺に位置する対象物の内、目印対象物の候補である目印対象物候補が設置された高さ情報を取得する。基準値設定手段は、周辺情報取得手段により取得された情報に基づいて、高さの基準値を設定する。交差点距離案内手段は、目印対象物検出手段によって目印対象物が検出されなかった場合に、案内交差点までの距離を用いて該案内交差点の案内を行う。   On the other hand, the navigation ECU (Electronic Control Unit) 13 is an electronic control unit that controls the entire navigation device 1. The CPU 41 as an arithmetic device and a control device, and a working memory when the CPU 41 performs various arithmetic processes. Read out from the ROM 43 and the ROM 43 in which the RAM 42 that stores the route data when the route is searched, the control program, the intersection guidance processing program (FIG. 3) described later, and the like are recorded. An internal storage device such as a flash memory 44 for storing the program is provided. The navigation ECU 13 constitutes various means as processing algorithms. For example, the guide route setting means sets a guide route. The imaging means images the vicinity of the guidance intersection included in the guidance route by the front camera 19 mounted on the vehicle. The surrounding information acquisition means acquires information for specifying the surrounding situation of the guidance intersection. The area setting unit sets a detection exclusion area for the captured image captured by the front camera 19 based on the information acquired by the peripheral information acquisition unit. The mark object detection means is a mark when guiding a guidance intersection from a captured image by performing image processing with priority given to areas other than the detection exclusion area among the captured images captured by the front camera 19. A mark object is detected. The intersection guidance means guides the guidance intersection using the mark object when the mark object detection means detects the mark object. The landmark candidate information acquisition means acquires height information where a landmark object candidate that is a candidate for the landmark object is installed among the objects located around the guidance intersection. The reference value setting means sets the height reference value based on the information acquired by the peripheral information acquisition means. The intersection distance guidance means guides the guidance intersection using the distance to the guidance intersection when no landmark object is detected by the landmark object detection means.

操作部14は、走行開始地点としての出発地及び走行終了地点としての目的地を入力する際等に操作され、各種のキー、ボタン等の複数の操作スイッチ(図示せず)から構成される。そして、ナビゲーションECU13は、各スイッチの押下等により出力されるスイッチ信号に基づき、対応する各種の動作を実行すべく制御を行う。尚、操作部14は液晶ディスプレイ15の前面に設けたタッチパネルによって構成することもできる。また、マイクと音声認識装置によって構成することもできる。   The operation unit 14 is operated when inputting a departure point as a travel start point and a destination as a travel end point, and includes a plurality of operation switches (not shown) such as various keys and buttons. Then, the navigation ECU 13 performs control to execute various corresponding operations based on switch signals output by pressing the switches. The operation unit 14 can also be configured by a touch panel provided on the front surface of the liquid crystal display 15. Moreover, it can also be comprised with a microphone and a speech recognition apparatus.

また、液晶ディスプレイ15には、道路を含む地図画像、交通情報、操作案内、操作メニュー、キーの案内、出発地から目的地までの走行予定経路、走行予定経路に沿った案内情報、ニュース、天気予報、時刻、メール、テレビ番組等が表示される。特に本実施形態では、案内交差点が車両の進行方向前方の所定距離以内(例えば300m)に接近した場合には、案内交差点付近の拡大図や車両の案内交差点における進行方向について表示する。   The liquid crystal display 15 also includes a map image including a road, traffic information, operation guidance, operation menu, key guidance, a planned travel route from the departure point to the destination, guidance information along the planned travel route, news, weather Forecast, time, mail, TV program, etc. are displayed. In particular, in this embodiment, when the guidance intersection approaches within a predetermined distance (for example, 300 m) ahead of the traveling direction of the vehicle, an enlarged view near the guidance intersection and the traveling direction at the guidance intersection of the vehicle are displayed.

また、スピーカ16は、ナビゲーションECU13からの指示に基づいて走行予定経路に沿った走行を案内する音声ガイダンスや、交通情報の案内を出力する。特に本実施形態では、案内交差点が車両の進行方向前方の所定距離(例えば、700m、300m、100mの3回)に到達したタイミングで、案内経路に沿った走行を案内する音声案内の出力を開始する。また、本実施形態に係るナビゲーション装置1では、自車の進行方向前方にある案内交差点に目印となる適当な対象物(例えば、店舗の看板等)がある場合には、目印対象物を用いた音声案内を出力する。例えば、「まもなく××(店舗名)を右方向です。」等を出力する。   Further, the speaker 16 outputs voice guidance for guiding traveling along the planned traveling route and traffic information guidance based on an instruction from the navigation ECU 13. In particular, in this embodiment, at the timing when the guidance intersection reaches a predetermined distance ahead of the vehicle in the traveling direction (for example, three times of 700 m, 300 m, and 100 m), output of voice guidance for guiding traveling along the guidance route is started. To do. Further, in the navigation device 1 according to the present embodiment, when there is an appropriate target object (for example, a store signboard) at the guidance intersection in front of the traveling direction of the host vehicle, the target mark object is used. Output voice guidance. For example, “Soon after XX (store name) is going to the right” is output.

また、DVDドライブ17は、DVDやCD等の記録媒体に記録されたデータを読み取り可能なドライブである。そして、読み取ったデータに基づいて音楽や映像の再生、地図情報DB31の更新等が行われる。   The DVD drive 17 is a drive that can read data recorded on a recording medium such as a DVD or a CD. Based on the read data, music and video are reproduced, the map information DB 31 is updated, and the like.

また、通信モジュール18は、交通情報センタ、例えば、VICSセンタやプローブセンタ等から送信された渋滞情報、規制情報、交通事故情報等の各情報から成る交通情報を受信する為の通信装置であり、例えば携帯電話機やDCMが該当する。また、本実施形態では、ナビゲーションECU13は通信モジュール18を介して外部のサーバと通信を行うことにより、上記交通情報以外に現在位置周辺で行われている野球の試合、花火大会、祭、コンサート等の各種イベントの開催に関するイベント情報についても取得する。   The communication module 18 is a communication device for receiving traffic information composed of information such as traffic jam information, regulation information, and traffic accident information transmitted from a traffic information center, for example, a VICS center or a probe center. For example, a mobile phone or DCM is applicable. In the present embodiment, the navigation ECU 13 communicates with an external server via the communication module 18 so that, in addition to the traffic information, a baseball game, a fireworks display, a festival, a concert, and the like performed around the current position. Also get event information about various events held in.

また、フロントカメラ19は、例えばCCD等の固体撮像素子を用いたカメラにより構成され、車両のフロントバンパの上方に取り付けられるとともに光軸方向を水平より所定角度下方に向けて設置される。そして、フロントカメラ19は、車両が案内交差点に接近した場合に、案内交差点周辺の周辺環境を撮像する。また、ナビゲーションECU13は、その撮像された撮像画像に対して画像処理を行うことによって案内交差点の周辺に位置する目印対象物候補の種類や位置を検出する。また、撮像画像に対する画像処理を行う際には、ナビゲーションECU13は通信モジュール18を介して取得した交通情報やイベント情報等に基づいて、撮像画像に対して優先的に画像処理を行う範囲を設定する。尚、画像処理の詳細については後述する。
そして、ナビゲーションECU13は、検出された目印対象物候補に基づいて、案内交差点を案内する為の目印対象物を選択する。
The front camera 19 is constituted by a camera using a solid-state image sensor such as a CCD, for example, and is installed above the front bumper of the vehicle and installed with the optical axis direction downward from the horizontal by a predetermined angle. And the front camera 19 images the surrounding environment around a guidance intersection, when a vehicle approaches a guidance intersection. Moreover, navigation ECU13 detects the kind and position of the marker object candidate located in the periphery of a guidance intersection by performing image processing with respect to the captured image. In addition, when performing image processing on the captured image, the navigation ECU 13 sets a range in which image processing is preferentially performed on the captured image based on traffic information, event information, and the like acquired via the communication module 18. . Details of the image processing will be described later.
Then, the navigation ECU 13 selects a mark object for guiding the guidance intersection based on the detected mark object candidate.

続いて、前記構成を有するナビゲーション装置1においてナビゲーションECU13が実行する交差点案内処理プログラムについて図3に基づき説明する。図3は本実施形態に係る交差点案内処理プログラムのフローチャートである。ここで、交差点案内処理プログラムは車両のACCがONされた後に所定間隔で実行され、車両の進行方向前方にある案内交差点に対する案内を行うプログラムである。尚、以下の図3、図10、図11にフローチャートで示されるプログラムは、ナビゲーション装置1が備えているRAM42やROM43に記憶されており、CPU41により実行される。   Next, an intersection guidance processing program executed by the navigation ECU 13 in the navigation device 1 having the above configuration will be described with reference to FIG. FIG. 3 is a flowchart of the intersection guidance processing program according to the present embodiment. Here, the intersection guidance processing program is a program that is executed at predetermined intervals after the ACC of the vehicle is turned on, and guides the guidance intersection in front of the traveling direction of the vehicle. The programs shown in the flowcharts of FIGS. 3, 10, and 11 below are stored in the RAM 42 and the ROM 43 provided in the navigation device 1, and are executed by the CPU 41.

先ず、交差点案内処理プログラムではステップ(以下、Sと略記する)1において、CPU41は、ナビゲーション装置1において設定された案内経路に基づく経路案内が行われているか否か判定する。ここで、案内経路は、出発地(例えば自車の現在位置)からユーザに選択された目的地までの推奨経路であり、経路探索処理の結果に基づいて設定される。また、経路探索処理は、地図情報DB31に記憶されたリンクデータ32やノードデータ33、VICSセンタから取得した交通情報等を用いて、公知のダイクストラ法等により行われる。   First, in the intersection guidance processing program, in step (hereinafter abbreviated as S) 1, the CPU 41 determines whether route guidance based on the guidance route set in the navigation device 1 is being performed. Here, the guidance route is a recommended route from the departure point (for example, the current position of the host vehicle) to the destination selected by the user, and is set based on the result of the route search process. The route search process is performed by a known Dijkstra method or the like using link data 32, node data 33, traffic information acquired from the VICS center, or the like stored in the map information DB 31.

そして、ナビゲーション装置1において設定された案内経路に基づく経路案内が行われていると判定された場合(S1:YES)には、S2へと移行する。それに対して、ナビゲーション装置1において設定された案内経路に基づく経路案内が行われていないと判定された場合(S1:NO)には、当該交差点案内処理プログラムを終了する。   And when it determines with the route guidance based on the guidance route set in the navigation apparatus 1 being performed (S1: YES), it transfers to S2. On the other hand, when it is determined that route guidance based on the guidance route set in the navigation device 1 is not performed (S1: NO), the intersection guidance processing program is terminated.

S2においてCPU41は、車両の現在位置及び方位を現在位置検出部11の検出結果に基づいて取得する。尚、車両の現在位置を地図データ上で特定するマップマッチング処理についても行う。更に、車両の現在位置は、高精度ロケーション技術を用いて詳細に特定することが望ましい。また、車両が複数の車線からなる道路を走行する場合には、走行する車線についても特定することが望ましい。ここで、高精度ロケーション技術とは、車両後方のカメラから取り込んだ白線や路面ペイント情報を画像認識により検出し、更に、白線や路面ペイント情報を予め記憶した地図情報DBと照合することにより、走行車線や高精度な車両位置を検出可能にする技術である。尚、高精度ロケーション技術の詳細については既に公知であるので省略する。   In S <b> 2, the CPU 41 acquires the current position and direction of the vehicle based on the detection result of the current position detection unit 11. A map matching process for specifying the current position of the vehicle on the map data is also performed. Furthermore, it is desirable to specify the current position of the vehicle in detail using high-precision location technology. In addition, when the vehicle travels on a road composed of a plurality of lanes, it is desirable to specify the lane in which the vehicle travels. Here, the high-accuracy location technology detects the white line and road surface paint information captured from the camera behind the vehicle by image recognition, and further compares the white line and road surface paint information with a previously stored map information DB, thereby driving the vehicle. This is a technology that makes it possible to detect lanes and highly accurate vehicle positions. The details of the high-accuracy location technology are already known and will be omitted.

次に、S3においてCPU41は、ナビゲーション装置1において設定されている案内経路を取得する。   Next, in S <b> 3, the CPU 41 acquires a guide route set in the navigation device 1.

続いて、S4においてCPU41は、前記S1で取得した車両の現在位置及び方位と前記S2で取得した案内経路に基づいて、案内交差点の案内発話地点から所定距離手前に車両が位置するか否かを判定する。尚、案内交差点とは、前記したようにナビゲーション装置1に設定された案内経路に従ってナビゲーション装置1が走行の案内を行う際に、右左折指示等の案内を行う対象となる交差点である。また、案内交差点の案内発話地点は、案内交差点での案内音声の発話を開始する地点であり、例えば案内交差点の700m手前、300m手前、100m手前とする。また、前記S4の所定距離は、案内交差点の案内に用いる目印対象物の検出及び選択に必要な時間(具体的には後述のS5〜S14の処理を行うのに必要な時間)の間に車両が走行する距離より長い距離とする。車両の現在の車速によっても異なるが、例えば50mとする。   Subsequently, in S4, the CPU 41 determines whether or not the vehicle is positioned a predetermined distance before the guidance utterance point at the guidance intersection based on the current position and direction of the vehicle obtained in S1 and the guidance route obtained in S2. judge. Note that the guidance intersection is an intersection to which guidance such as a right / left turn instruction is given when the navigation device 1 provides guidance for traveling according to the guidance route set in the navigation device 1 as described above. The guidance utterance point at the guidance intersection is a point at which the guidance voice is uttered at the guidance intersection. For example, the guidance utterance point is 700 m before, 300 m before, and 100 m before the guidance intersection. Further, the predetermined distance of S4 is the vehicle during the time required for detection and selection of the mark object used for guidance at the guidance intersection (specifically, the time required for performing the processing of S5 to S14 described later). The distance is longer than the distance traveled. Although it depends on the current vehicle speed of the vehicle, it is set to 50 m, for example.

そして、案内交差点の案内発話地点から所定距離手前に車両が位置すると判定された場合(S4:YES)には、S5へと移行する。それに対して、案内交差点の案内発話地点から所定距離手前に車両が位置しないと判定された場合(S4:NO)には、当該交差点案内処理プログラムを終了する。   If it is determined that the vehicle is positioned a predetermined distance before the guidance utterance point at the guidance intersection (S4: YES), the process proceeds to S5. On the other hand, when it is determined that the vehicle is not located a predetermined distance before the guidance utterance point of the guidance intersection (S4: NO), the intersection guidance processing program is terminated.

S5においてCPU41は、後述の他車両による遮蔽判定処理(図10)を実行する。尚、他車両による遮蔽判定処理は、後述のように交通情報等に基づいて車両の周辺に位置する他車両によってフロントカメラ19の視界が遮られる可能性の程度(以下、車両遮蔽度Sという)を判定する処理である。   In S <b> 5, the CPU 41 executes a shielding determination process (FIG. 10) by another vehicle described later. In the shielding determination process by other vehicles, the degree of possibility that the field of view of the front camera 19 is obstructed by other vehicles located around the vehicle based on traffic information or the like as will be described later (hereinafter referred to as vehicle shielding degree S). It is a process which determines.

次にS6においてCPU41は、後述の人による遮蔽判定処理(図11)を実行する。尚、人による遮蔽判定処理は、後述のようにイベント情報等に基づいて車両の周辺に位置する人(歩行者)によってフロントカメラ19の視界が遮られる可能性の程度(以下、人遮蔽度Tという)を判定する処理である。   Next, in S6, the CPU 41 executes a shielding determination process (FIG. 11) by a person described later. In addition, the shielding determination process by a person is a degree of possibility that the field of view of the front camera 19 is blocked by a person (pedestrian) located in the vicinity of the vehicle based on event information or the like as will be described later (hereinafter, a person shielding degree T It is a process to determine.

続いて、S7においてCPU41は、車両の進行方向前方にある案内交差点の周辺にある目印対象物候補の情報を地図情報DB31から取得する。具体的には、CPU41は、先ず、車両の進行方向前方にある案内交差点の交差点IDを特定する。そして、地図情報DB31に記憶された目印情報35(図2)の内から、特定された交差点IDに対応づけられた目印対象物候補の種類(名称)と位置情報と目印対象物候補の設置高さとをそれぞれ読み出すことによって取得する。   Subsequently, in S <b> 7, the CPU 41 obtains information on landmark object candidates in the vicinity of the guidance intersection in front of the traveling direction of the vehicle from the map information DB 31. Specifically, the CPU 41 first specifies an intersection ID of a guidance intersection that is ahead in the vehicle traveling direction. Then, from the landmark information 35 (FIG. 2) stored in the map information DB 31, the type (name) of the landmark object candidate associated with the identified intersection ID, the position information, and the installation height of the landmark object candidate. Is obtained by reading each of them.

その後、S8においてCPU41は、前記S5で算出された車両遮蔽度Sが所定の閾値以上であるか否かを判定する。尚、前記S8の閾値は、案内交差点の周辺にいる他車両によってフロントカメラ19の視界が遮られる可能性が高いか否かを判定する為の閾値であり、例えば「2」とする。閾値はRAM42等の記憶手段に記憶される。   Thereafter, in S8, the CPU 41 determines whether or not the vehicle shielding degree S calculated in S5 is equal to or greater than a predetermined threshold. The threshold value of S8 is a threshold value for determining whether or not there is a high possibility that the field of view of the front camera 19 is blocked by another vehicle around the guidance intersection. The threshold value is stored in a storage unit such as the RAM 42.

そして、車両遮蔽度Sが所定の閾値以上であると判定された場合(S8:YES)、即ち案内交差点の周辺にいる他車両によってフロントカメラ19の視界が遮られる可能性が高いと判定された場合には、S9へと移行する。それに対して、車両遮蔽度Sが所定の閾値未満となったと判定された場合(S8:NO)、即ち他車両によってフロントカメラ19の視界が遮られる可能性が低いと判定された場合には、S10へと移行する。   Then, when it is determined that the vehicle shielding degree S is equal to or greater than the predetermined threshold (S8: YES), that is, it is determined that there is a high possibility that the field of view of the front camera 19 is blocked by another vehicle around the guidance intersection. In this case, the process proceeds to S9. On the other hand, when it is determined that the vehicle shielding degree S is less than the predetermined threshold (S8: NO), that is, when it is determined that the possibility of the front camera 19 being blocked by another vehicle is low, The process proceeds to S10.

S9においてCPU41は、車両の進行方向前方にある案内交差点の周辺にある目印対象物候補の内、第1基準値以上の高さを有する目印対象物候補について、第1基準値未満の高さを有する目印対象物候補よりも、検出優先度を高く設定する。そして、後述のS14では、フロントカメラ19で撮像した撮像画像から目印対象物候補を検出する際に、前記S9で優先検出度が高く設定された目印対象物候補を優先的に検出対象とする。   In S9, the CPU 41 sets a height less than the first reference value for the mark object candidate having a height equal to or higher than the first reference value among the mark object candidates in the vicinity of the guidance intersection ahead of the traveling direction of the vehicle. The detection priority is set higher than the landmark object candidate that the mark object candidate has. In S14, which will be described later, when a landmark object candidate is detected from a captured image captured by the front camera 19, the landmark object candidate set with a high priority detection level in S9 is preferentially set as a detection target.

また、第1基準値は、案内交差点周辺を走行する他車両によって目印対象物候補が遮蔽されないと予測される最も低い高さとし、例えば4mとする。即ち、自車両と目印対象物の間に他車両が存在しても、他車両によって遮蔽される虞の無い高さに位置する目印対象物候補について、検出優先度が高く設定されることとなる。具体例として、車両の進行方向前方に図2に示すID『10001』の案内交差点がある場合について説明すると、図4に示すように地表から高さ2mに設置された「×○書店の看板51」は、自車両と看板51の間に位置する他車両52によって遮蔽される虞がある為、検出優先度が低く設定される。一方、地表から高さ8mに設置された「コンビニ○○の看板53」は、自車両と看板53の間に位置する他車両54によって遮蔽される虞が無い為、検出優先度が高く設定される。   Further, the first reference value is the lowest height at which the landmark object candidate is predicted not to be shielded by other vehicles traveling around the guidance intersection, for example, 4 m. That is, even if another vehicle exists between the host vehicle and the mark object, the detection priority is set high for the mark object candidate located at a height where there is no possibility of being blocked by the other vehicle. . As a specific example, a case where there is a guidance intersection of ID “10001” shown in FIG. 2 ahead of the traveling direction of the vehicle will be described. As shown in FIG. "Is set to a low detection priority because there is a risk of being blocked by another vehicle 52 located between the host vehicle and the signboard 51. On the other hand, “Convenience Store Sign 53” installed at a height of 8 m from the ground surface has a high detection priority because there is no possibility of being blocked by another vehicle 54 located between the own vehicle and the sign 53. The

次に、S10においてCPU41は、前記S6で算出された人遮蔽度Tが所定の閾値以上であるか否かを判定する。尚、前記S10の閾値は、案内交差点の周辺にいる人によってフロントカメラ19の視界が遮られる可能性が高いか否かを判定する為の閾値であり、例えば「2」とする。閾値はRAM42等の記憶手段に記憶される。   Next, in S10, the CPU 41 determines whether or not the human shielding degree T calculated in S6 is equal to or greater than a predetermined threshold value. Note that the threshold value of S10 is a threshold value for determining whether or not there is a high possibility that the field of view of the front camera 19 is blocked by a person around the guidance intersection. The threshold value is stored in a storage unit such as the RAM 42.

そして、人遮蔽度Tが所定の閾値以上であると判定された場合(S10:YES)、即ち案内交差点の周辺にいる人によってフロントカメラ19の視界が遮られる可能性が高いと判定された場合には、S11へと移行する。それに対して、人両遮蔽度Tが所定の閾値未満となったと判定された場合(S10:NO)、即ち人によってフロントカメラ19の視界が遮られる可能性が低いと判定された場合には、S12へと移行する。   Then, when it is determined that the person blocking degree T is equal to or greater than the predetermined threshold (S10: YES), that is, when it is determined that there is a high possibility that the field of view of the front camera 19 is blocked by a person around the guidance intersection. To S11. On the other hand, when it is determined that the human shielding degree T is less than the predetermined threshold (S10: NO), that is, when it is determined that the possibility that the front camera 19 is blocked by the person is low, The process proceeds to S12.

S11においてCPU41は、車両の進行方向前方にある案内交差点の周辺にある目印対象物候補の内、第2基準値以上の高さを有する目印対象物候補について、第2基準値未満の高さを有する目印対象物候補よりも、検出優先度を高く設定する。そして、後述のS14では、フロントカメラ19で撮像した撮像画像から目印対象物候補を検出する際に、前記S11で優先検出度が高く設定された目印対象物候補を優先的に検出対象とする。   In S <b> 11, the CPU 41 sets a height less than the second reference value for the mark object candidate having a height equal to or higher than the second reference value among the mark object candidates in the vicinity of the guidance intersection ahead of the traveling direction of the vehicle. The detection priority is set higher than the landmark object candidate that the mark object candidate has. In S14, which will be described later, when a landmark object candidate is detected from a captured image captured by the front camera 19, the landmark object candidate whose priority detection level is set high in S11 is preferentially set as a detection target.

また、第1基準値は、案内交差点周辺を歩行する人によって目印対象物候補が遮蔽されないと予測される最も低い高さとし、例えば2mとする。即ち、自車両と目印対象物の間に人が存在しても、人によって遮蔽される虞の無い高さに位置する目印対象物候補について、検出優先度が高く設定されることとなる。具体例として、車両の進行方向前方に図2に示すID『10002』の案内交差点がある場合について説明すると、図5に示すように地表から高さ1mに設置された「△△レンタルの看板55」は、自車両と看板55の間に位置する人56によって遮蔽される虞がある為、検出優先度が低く設定される。一方、地表から高さ6mに設置された「コンビニ○△の看板57」は、自車両と看板57の間に位置する人58によって遮蔽される虞が無い為、検出優先度が高く設定される。   Further, the first reference value is the lowest height at which the landmark object candidate is predicted not to be shielded by a person walking around the guidance intersection, for example, 2 m. That is, even if there is a person between the host vehicle and the mark object, the detection priority is set high for the mark object candidate located at a height where there is no possibility of being blocked by the person. As a specific example, a case where there is a guidance intersection of ID “10002” shown in FIG. 2 ahead of the traveling direction of the vehicle will be described. As shown in FIG. ”Is set to a low detection priority because there is a risk of being blocked by the person 56 positioned between the vehicle and the signboard 55. On the other hand, the “convenience store signboard 57” installed at a height of 6 m from the ground surface has a high detection priority because there is no risk of being blocked by a person 58 located between the vehicle and the signboard 57. .

尚、車両遮蔽度Sが閾値以下であって且つ人遮蔽度Tも閾値以下である場合には、第1基準値以上の高さを有する目印対象物候補を最も検出優先度を高く設定し、第1基準値未満であって第2基準値以上の高さを有する目印対象物候補を次に検出優先度を高く設定し、第2基準値未満の高さを有する目印対象物候補を最も検出優先度を低く設定する。   When the vehicle shielding degree S is equal to or lower than the threshold value and the human shielding level T is also equal to or lower than the threshold value, the landmark object candidate having a height equal to or higher than the first reference value is set to the highest detection priority. A mark object candidate having a height less than the first reference value and having a height greater than or equal to the second reference value is set to the next highest detection priority, and the mark object candidate having a height less than the second reference value is most detected. Set low priority.

次に、S12においてCPU41は、車両が走行する道路の道路形状を地図情報DB31から取得する。具体的には、道路の車線数、道路幅、対向車線の有無、旋回半径等がある。   Next, in S12, CPU41 acquires the road shape of the road where a vehicle drive | works from map information DB31. Specifically, there are the number of road lanes, road width, presence of oncoming lanes, turning radius, and the like.

その後、S13においてCPU41は、前記S5で算出された車両遮蔽度Sと前記S6で算出された人遮蔽度Tと前記S12で取得した車両の走行する道路の道路形状とに基づいて、フロントカメラ19により撮像される撮像画像に対して検出除外エリアを設定する。そして、後述のS14では、フロントカメラ19で撮像した撮像画像から目印対象物候補を検出する際に、前記S11で設定された検出除外エリアを除くエリアを優先して画像処理を行うことにより、該撮像画像から目印対象物候補を検出する。尚、CPU41は、フロントカメラ19により撮像される撮像画像中において他車両や人(歩行者)によって視界が遮られると予測されるエリアを検出除外エリアに設定する。   Thereafter, in S13, the CPU 41 determines the front camera 19 based on the vehicle shielding degree S calculated in S5, the person shielding degree T calculated in S6, and the road shape of the road on which the vehicle travels obtained in S12. A detection exclusion area is set for the captured image captured by the above. In S14, which will be described later, when the landmark object candidate is detected from the captured image captured by the front camera 19, image processing is performed by giving priority to the area excluding the detection exclusion area set in S11. A landmark object candidate is detected from the captured image. Note that the CPU 41 sets an area in the captured image captured by the front camera 19 that is predicted to be blocked by another vehicle or a person (pedestrian) as a detection exclusion area.

以下に、前記S13における検出除外エリアの設定方法について具体例を挙げて以下に説明する。
ここで、図6は片側一車線の道路を走行する自車両の進行方向前方に案内交差点61がある場合において、所定のタイミングでフロントカメラ19により案内交差点61の周辺を撮像した撮像画像62である。図6に示すように案内交差点61の周辺には、目印対象物候補として設置位置や高さの異なる3つの看板63〜65が存在する。
Hereinafter, the setting method of the detection exclusion area in S13 will be described below with a specific example.
Here, FIG. 6 is a captured image 62 obtained by imaging the periphery of the guidance intersection 61 with the front camera 19 at a predetermined timing when the guidance intersection 61 is in front of the traveling direction of the host vehicle traveling on the one-lane road. . As shown in FIG. 6, three signboards 63 to 65 having different installation positions and heights exist as landmark object candidates around the guidance intersection 61.

そして、車両遮蔽度Sや人遮蔽度Tに基づいて下記(A)〜(D)のいずれかの態様で検出除外エリアが設定されることとなる。
(A)車両遮蔽度Sが第1基準値未満であって、人遮蔽度Tが第2基準値未満である場合には、撮像画像62中において歩行者や他車両によって視界が遮られるエリアは無いと予測し、検出除外エリアを設定しない。その結果、後述のS14の画像処理では看板63〜65のいずれも検出されることとなる。
(B)車両遮蔽度Sが第1基準値未満であって、人遮蔽度Tが第2基準値以上である場合には、撮像画像62中において道路脇の歩道を歩行する歩行者によって視界が遮られるエリアがあると予測し、図7に示すように自車両の走行する道路の左右縁部から一定の範囲(歩道にいる多数の歩行者によって視界が遮蔽されると予測される範囲)に検出除外エリア66、67を設定する。その結果、後述のS14の画像処理では検出除外エリア66に含まれる看板64を除いた看板63、65が優先的に検出されることとなる。但し、自動車専用道路等の歩行者が存在し得ない道路を車両が走行する場合には、検出除外エリア66、67は設定されない。また、歩道が片側(例えば車両に対して左側)のみ存在する場合には、歩道の存在する側のみ検出除外エリア(例えば検出除外エリア66のみ)を設定する。
(C)車両遮蔽度Sが第1基準値以上であって、人遮蔽度Tが第2基準値未満である場合には、撮像画像62中において自車線の前方を走行する前方車両によって視界が遮られるエリアがあると予測し、図8に示すように自車線の進行方向前方を含む範囲(多数の前方車両によって視界が遮蔽されると予測される範囲)に検出除外エリア68を設定する。その結果、後述のS14の画像処理では検出除外エリア68に含まれる看板63、64を除いた看板65が優先的に検出されることとなる。
(D)車両遮蔽度Sが第1基準値以上であって、人遮蔽度Tも第2基準値以上である場合には、撮像画像62中において道路脇の歩道を歩行する歩行者によって視界が遮られるエリア、並びに自車線の前方を走行する前方車両によって視界が遮られるエリアがあると予測し、図9に示すように上記(B)及び(C)で設定される全ての検出除外エリア66、67、68を設定する。その結果、後述のS14の画像処理では検出除外エリア66、67、68に含まれる看板63、64を除いた看板65が優先的に検出されることとなる。また、図9に示すように(B)で設定される検出除外エリアと(C)で設定される検出除外エリアが重複する場合には、後述のように重複する検出除外エリアよりも重複しない検出除外エリアを優先して目印対象物候補の検出処理を行う。従って、看板63と看板64とでは、看板63が優先的に検出されることとなる。
尚、上記検出除外エリア66、67、68は自車両が走行する道路の道路形状に基づいて設定される。例えば、自車両が走行する道路がカーブしている場合には、そのカーブ形状に従って検出除外エリア66、67、68は設定される。
Then, based on the vehicle shielding degree S and the human shielding degree T, the detection exclusion area is set in any of the following modes (A) to (D).
(A) When the vehicle shielding degree S is less than the first reference value and the person shielding degree T is less than the second reference value, the area where the field of view is blocked by a pedestrian or another vehicle in the captured image 62 is Predict that there will be no detection exclusion area. As a result, any of the signboards 63 to 65 is detected in the image processing of S14 described later.
(B) When the vehicle shielding degree S is less than the first reference value and the person shielding degree T is greater than or equal to the second reference value, the field of view is viewed by a pedestrian walking on the sidewalk beside the road in the captured image 62. It is predicted that there is an area to be blocked, and as shown in FIG. 7, within a certain range from the left and right edges of the road on which the vehicle travels (a range where the field of view is predicted to be blocked by many pedestrians on the sidewalk) Detection exclusion areas 66 and 67 are set. As a result, the signboards 63 and 65 excluding the signboard 64 included in the detection exclusion area 66 are preferentially detected in the image processing of S14 described later. However, the detection exclusion areas 66 and 67 are not set when the vehicle travels on a road where a pedestrian such as an automobile-only road cannot exist. In addition, when the sidewalk exists only on one side (for example, the left side with respect to the vehicle), a detection exclusion area (for example, only the detection exclusion area 66) is set only on the side where the sidewalk exists.
(C) When the vehicle shielding degree S is equal to or higher than the first reference value and the human shielding degree T is less than the second reference value, the field of view is displayed by the forward vehicle traveling in front of the own lane in the captured image 62. It is predicted that there is an area to be blocked, and the detection exclusion area 68 is set in a range including the front in the traveling direction of the own lane (a range in which the field of view is predicted to be blocked by many forward vehicles) as shown in FIG. As a result, in the image processing of S14 described later, the signboard 65 excluding the signboards 63 and 64 included in the detection exclusion area 68 is preferentially detected.
(D) When the vehicle shielding degree S is greater than or equal to the first reference value and the person shielding degree T is also greater than or equal to the second reference value, the field of view is viewed by a pedestrian walking on the sidewalk beside the road in the captured image 62. It is predicted that there is an area to be blocked, and an area in which the field of view is blocked by a forward vehicle traveling in front of the own lane, and all detection exclusion areas 66 set in (B) and (C) as shown in FIG. , 67 and 68 are set. As a result, in the image processing of S14 described later, the signboard 65 excluding the signboards 63 and 64 included in the detection exclusion areas 66, 67, and 68 is preferentially detected. In addition, as shown in FIG. 9, when the detection exclusion area set in (B) and the detection exclusion area set in (C) overlap, detection that does not overlap more than the overlapping detection exclusion area as described later The target object candidate is detected with priority on the excluded area. Therefore, the signboard 63 is preferentially detected between the signboard 63 and the signboard 64.
The detection exclusion areas 66, 67, and 68 are set based on the road shape of the road on which the host vehicle is traveling. For example, when the road on which the vehicle is traveling is curved, the detection exclusion areas 66, 67, and 68 are set according to the curve shape.

その後、S14においてCPU41は、フロントカメラ19で進行方向前方にある案内交差点付近を撮像した撮像画像に対して画像処理を行うことによって、撮像画像に含まれる目印対象物候補を検出する。以下に、前記S14の処理の詳細について説明する。   Thereafter, in S <b> 14, the CPU 41 detects a landmark object candidate included in the captured image by performing image processing on the captured image obtained by capturing the vicinity of the guidance intersection ahead of the traveling direction with the front camera 19. Details of the process of S14 will be described below.

先ずCPU41は、フロントカメラ19で直近に撮像された撮像画像と、検出対象となる目印対象物候補(前記S7で情報の取得された目印対象物候補)に対応する画像認識用のテンプレートをデータ記録部12等の記憶媒体から読み出す。尚、画像認識用のテンプレートは、目印対象物の種類(例えば、「コンビニ○○の看板」や「ガソリンスタンド××の看板」等)毎に予め用意されている。次に、CPU41は、フロントカメラ19で撮像した撮像画像と、読み出したテンプレートとに基づいて、撮像画像に対してテンプレートマッチングによる画像認識処理を実行する。そして、撮像画像中に含まれる処理対象の目印対象物候補を検出する。   First, the CPU 41 records, as a data record, a captured image most recently captured by the front camera 19 and a template for image recognition corresponding to the landmark object candidate to be detected (the landmark object candidate for which information has been acquired in S7). Read from a storage medium such as the unit 12. Note that a template for image recognition is prepared in advance for each type of landmark object (for example, “Convenience Store XX Sign”, “Gas Station xx Sign”, etc.). Next, the CPU 41 executes image recognition processing by template matching on the captured image based on the captured image captured by the front camera 19 and the read template. And the mark target object candidate of the process target contained in a captured image is detected.

尚、前記S9及びS11で目印対象物候補に検出優先順位が設定されている場合には、先ず最も検出順位の高い目印対象物候補に対応する画像認識用のテンプレートのみを読み出して、テンプレートマッチングによる画像認識処理を実行する。その結果、目印対象物候補が検出できなかった場合には、次に検出順位の高い目印対象物候補に対応する画像認識用のテンプレートを読み出す。以下同様に、検出順位の高い目印対象物候補から順に検出対象として、画像処理を行う。また、前記S13で検出除外エリアが設定されている場合には、撮像画像の内、検出除外エリアを除くエリアを対象として画像処理を行う。そして、目印対象物候補が検出できなかった場合には、検出除外エリアについても対象として画像処理を行う。また、図9に示すように複数の検出除外エリアが重複している場合には、先ず、検出除外エリアを除くエリアを対象として画像処理を行う。そして、目印対象物候補が検出できなかった場合には、重複していない検出除外エリアを対象として画像処理を行う。それでも目印対象物候補が検出できなかった場合には、重複する検出除外エリアを対象として画像処理を行う。尚、テンプレートマッチングによる画像認識処理については既に公知であるので、詳細な説明は省略する。   When the detection priority order is set for the landmark object candidate in S9 and S11, first, only the image recognition template corresponding to the landmark object candidate with the highest detection order is read, and template matching is performed. Perform image recognition processing. As a result, when the landmark object candidate cannot be detected, an image recognition template corresponding to the landmark object candidate having the next highest detection order is read out. Similarly, image processing is performed as detection targets in order from the mark target candidate having the highest detection order. When a detection exclusion area is set in S13, image processing is performed on an area of the captured image excluding the detection exclusion area. When the landmark object candidate cannot be detected, the image processing is performed on the detection exclusion area as a target. In addition, when a plurality of detection exclusion areas overlap as shown in FIG. 9, first, image processing is performed on an area excluding the detection exclusion area. Then, when a landmark object candidate cannot be detected, image processing is performed on a detection exclusion area that does not overlap. If the landmark object candidate still cannot be detected, image processing is performed for the overlapping detection exclusion area. Since image recognition processing by template matching is already known, detailed description is omitted.

また、CPU41は、前記S14において目印対象物候補が1個のみ検出された場合には、該検出された目印対象物候補を案内交差点の案内に用いる目印対象物として選択する。一方、前記S14において目印対象物候補が複数個検出された場合には、該検出された複数の目印対象物候補の内から最も案内に適したものを案内交差点の案内に用いる目印対象物として選択する。例えば、案内交差点の手前側にあって、案内交差点における車両の退出方向側にある目印対象物候補や、交差点中心に最も近い位置にある目印対象物候補を優先的に選択する。尚、目印情報35(図2)において目印対象物候補毎に予め選択優先順位を設定する構成としても良い。   Further, when only one mark object candidate is detected in S14, the CPU 41 selects the detected mark object candidate as a mark object used for guidance of the guidance intersection. On the other hand, when a plurality of landmark object candidates are detected in S14, the most suitable landmark object candidate among the detected landmark object candidates is selected as the landmark object to be used for guidance at the guidance intersection. To do. For example, a landmark object candidate that is on the near side of the guidance intersection and is on the exit direction side of the vehicle at the guidance intersection or a landmark object candidate that is closest to the intersection center is preferentially selected. It should be noted that a selection priority may be set in advance for each landmark object candidate in the landmark information 35 (FIG. 2).

その後、S15においてCPU41は、GPS21等により検出した車両の現在位置に基づいて、案内交差点の案内発話地点に車両が到達したか否かを判定する。また、案内交差点の案内発話地点は、例えば案内交差点の700m手前、300m手前、100m手前とする。   Thereafter, in S15, the CPU 41 determines whether or not the vehicle has reached the guidance utterance point at the guidance intersection based on the current position of the vehicle detected by the GPS 21 or the like. The guidance utterance points at the guidance intersection are, for example, 700 m before, 300 m before, and 100 m before the guidance intersection.

そして、案内交差点の案内発話地点に車両が到達したと判定された場合(S15:YES)には、S16へと移行する。それに対して、案内交差点の案内発話地点に車両が到達していないと判定された場合(S15:NO)には、案内交差点の案内発話地点に車両が到達するまで待機する。   And when it determines with the vehicle having arrived at the guidance speech point of a guidance intersection (S15: YES), it transfers to S16. On the other hand, when it is determined that the vehicle has not reached the guidance utterance point at the guidance intersection (S15: NO), the system waits until the vehicle reaches the guidance utterance point at the guidance intersection.

S16においてCPU41は、前記S14で案内交差点の目印対象物に選択された目印対象物候補を用いて、案内交差点に関する案内を行う。具体的には、車両の案内交差点の退出方向を特定する案内(即ち、車両が案内交差点から退出する退出道路を特定させる為の案内)を行う。例えば、車両が右折案内を行う案内交差点へと接近しており、案内交差点の目印対象物として「コンビニ○○の看板」が選択された場合には、ユーザに「コンビニ○○の看板」を目印に交差点を右折する指示を行う。具体的には、「300m先、コンビニ○○を右方向です」との音声案内をスピーカ16から出力する。更に、案内交差点が車両の所定距離以内(例えば300m)に接近した場合には、目印対象物を含む案内交差点付近の拡大図や車両の案内交差点における進行方向について液晶ディスプレイ15に表示する。
その結果、案内交差点及び該案内交差点から車両が退出する道路をユーザに正確に特定させることが可能となる。
In S16, the CPU 41 performs guidance related to the guidance intersection using the landmark object candidate selected as the landmark object at the guidance intersection in S14. Specifically, guidance for specifying the exit direction of the guidance intersection of the vehicle (that is, guidance for identifying the exit road from which the vehicle exits the guidance intersection) is performed. For example, when the vehicle is approaching a guidance intersection where a right turn guidance is provided and “Convenience Store XX Sign” is selected as the target object of the guidance intersection, the user will be marked “Convenience Store XX Sign”. Instructs to turn right at the intersection. Specifically, voice guidance “300m ahead, convenience store ○ is right” is output from the speaker 16. Further, when the guidance intersection approaches within a predetermined distance (for example, 300 m) of the vehicle, an enlarged view of the vicinity of the guidance intersection including the mark object and the traveling direction at the guidance intersection of the vehicle are displayed on the liquid crystal display 15.
As a result, it becomes possible for the user to accurately specify the guidance intersection and the road from which the vehicle exits from the guidance intersection.

尚、前記S14で目印対象物候補が検出できなかった場合には、CPU41は案内交差点までの距離を用いて該案内交差点の案内を行う。例えば、「300m先を右方向です」との音声案内をスピーカ16から出力する。   If no landmark object candidate is detected in S14, the CPU 41 guides the guidance intersection using the distance to the guidance intersection. For example, voice guidance “300 m ahead is in the right direction” is output from the speaker 16.

次に、前記S5において実行される他車両による遮蔽判定処理のサブ処理について図10に基づき説明する。図10は他車両による遮蔽判定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the shielding determination process performed by the other vehicle executed in S5 will be described with reference to FIG. FIG. 10 is a flowchart of a sub-processing program for shielding determination processing by another vehicle.

先ず、S21においてCPU41は、VICSセンタ等の交通情報センタから案内交差点周辺の渋滞情報について取得する。   First, in S21, the CPU 41 obtains traffic jam information around a guidance intersection from a traffic information center such as a VICS center.

次に、S22においてCPU41は、前記S21で取得した渋滞情報に基づいて案内交差点の周辺の道路(具体的には、案内交差点に接続する道路)の渋滞度が『混雑』以上の状態であるか否かを判定する。尚、渋滞度は、渋滞の度合いが高い順に『渋滞』、『混雑』、『空き』のいずれかに特定されることとする。   Next, in S22, the CPU 41 determines whether the congestion level of the road around the guidance intersection (specifically, the road connected to the guidance intersection) is “congested” or more based on the congestion information acquired in S21. Determine whether or not. It is assumed that the degree of congestion is specified as one of “congested”, “congested”, and “empty” in descending order of the degree of congestion.

そして、案内交差点の周辺の道路の渋滞度が『混雑』以上の状態であると判定された場合(S22:YES)には、S23へと移行する。それに対して、案内交差点の周辺の道路の渋滞度が『空き』の状態であると判定された場合(S22:NO)には、S24へと移行する。   If it is determined that the degree of congestion on the road around the guidance intersection is “congested” or higher (S22: YES), the process proceeds to S23. On the other hand, when it is determined that the degree of traffic congestion on the road around the guidance intersection is in an “empty” state (S22: NO), the process proceeds to S24.

S23においてCPU41は、RAM42等から車両遮蔽度Sを読み出し、渋滞度が『混雑』である場合には「1」を加算し、渋滞度が『渋滞』である場合には「2」を加算して、再度RAM42等に格納する。尚、車両遮蔽度Sは初期状態では「0」に設定される。   In S23, the CPU 41 reads the vehicle shielding degree S from the RAM 42 or the like, and adds “1” when the traffic congestion degree is “congested” and adds “2” when the traffic congestion degree is “congestion”. Then, it is stored again in the RAM 42 or the like. The vehicle shielding degree S is set to “0” in the initial state.

その後、S24においてCPU41は、フロントカメラ19で直近に撮像された撮像画像に対して画像処理を行うことによって、撮像画像に含まれる他車両を検出する。尚、他車両の検出には、テンプレートマッチング等を用いる。   Thereafter, in S24, the CPU 41 detects other vehicles included in the captured image by performing image processing on the captured image most recently captured by the front camera 19. In addition, template matching etc. are used for the detection of other vehicles.

次に、S25においてCPU41は、前記S24の画像処理の結果、撮像画像内に他車両が検出されたか否かを判定する。尚、所定台数(例えば3台)以上検出されたことを条件としても良い。   Next, in S25, the CPU 41 determines whether or not another vehicle is detected in the captured image as a result of the image processing in S24. In addition, it is good also as conditions on detecting more than predetermined number (for example, 3 units).

そして、撮像画像内に他車両が検出されたと判定された場合(S25:YES)には、S26へと移行する。それに対して、撮像画像内に他車両が検出されなかったと判定された場合(S25:NO)、S6へと移行する。   And when it determines with the other vehicle having been detected in the captured image (S25: YES), it transfers to S26. On the other hand, when it is determined that no other vehicle is detected in the captured image (S25: NO), the process proceeds to S6.

S26においてCPU41は、RAM42等から車両遮蔽度Sを読み出し、「1」を加算して再度RAM42等に格納する。その後、S6へと移行する。尚、上記S21〜S23の処理、S24〜S26の処理の一方のみを実行する構成としても良い。   In S26, the CPU 41 reads the vehicle shielding degree S from the RAM 42 or the like, adds “1”, and stores it again in the RAM 42 or the like. Thereafter, the process proceeds to S6. In addition, it is good also as a structure which performs only one of the process of said S21-S23, and the process of S24-S26.

次に、前記S6において実行される人による遮蔽判定処理のサブ処理について図11に基づき説明する。図11は人による遮蔽判定処理のサブ処理プログラムのフローチャートである。   Next, the sub-process of the occlusion determination process performed by a person in S6 will be described with reference to FIG. FIG. 11 is a flowchart of a sub-processing program for the occlusion determination process by a person.

先ず、S31においてCPU41は、通信モジュール18を介して外部のサーバと通信を行うことにより、現在位置周辺で行われている野球の試合、花火大会、祭、コンサート等の各種イベントの開催に関するイベント情報を取得する。   First, in S31, the CPU 41 communicates with an external server through the communication module 18, thereby event information relating to holding various events such as a baseball game, a fireworks display, a festival, and a concert that are held around the current position. To get.

次に、S32においてCPU41は、前記S32で取得したイベント情報に基づいて案内交差点の周辺の歩行者が混雑状態にあるか否かを判定する。具体的には、案内交差点の所定距離以内(例えば1km以内)においてイベントが開催されており、且つ現時刻が該イベントの開始時刻及び終了時刻の前後所定時間以内(例えば前後1時間以内)である場合に、案内交差点の周辺の歩行者が混雑状態にあると判定する。   Next, in S32, the CPU 41 determines whether or not pedestrians around the guidance intersection are congested based on the event information acquired in S32. Specifically, the event is held within a predetermined distance (for example, within 1 km) of the guidance intersection, and the current time is within a predetermined time before and after the start time and end time of the event (for example, within 1 hour before and after). In this case, it is determined that the pedestrians around the guidance intersection are congested.

そして、案内交差点の周辺の歩行者が混雑状態にあると判定された場合(S32:YES)には、S33へと移行する。それに対して、案内交差点の周辺の歩行者が混雑状態に無いと判定された場合(S32:NO)には、S34へと移行する。   And when it determines with the pedestrian around a guidance intersection being in a congestion state (S32: YES), it transfers to S33. On the other hand, when it is determined that the pedestrians around the guidance intersection are not congested (S32: NO), the process proceeds to S34.

S33においてCPU41は、RAM42等から人遮蔽度Tを読み出し、「1」を加算して再度RAM42等に格納する。尚、人遮蔽度Tは初期状態では「0」に設定される。   In S <b> 33, the CPU 41 reads out the human shielding degree T from the RAM 42 or the like, adds “1”, and stores it again in the RAM 42 or the like. Incidentally, the person blocking degree T is set to “0” in the initial state.

次に、S34においてCPU41は、地図情報DB31から案内交差点周辺の地図情報を取得する。また、前記S34では、案内交差点に接続されるリンクが特に歩行者が多い区間か否かについての情報が取得される。   Next, in S34, the CPU 41 acquires map information around the guidance intersection from the map information DB 31. In S34, information about whether or not the link connected to the guidance intersection is a section with particularly many pedestrians is acquired.

続いて、S35においてCPU41は、前記S34で取得した地図情報に基づいて、案内交差点に接続されるリンクが特に歩行者が多い区間に該当するか否か判定する。   Subsequently, in S35, based on the map information acquired in S34, the CPU 41 determines whether or not the link connected to the guidance intersection corresponds to a section with particularly many pedestrians.

そして、案内交差点に接続されるリンクが特に歩行者が多い区間に該当すると判定された場合(S35:YES)には、S36へと移行する。それに対して、案内交差点に接続されるリンクが特に歩行者が多い区間に該当しないと判定された場合(S35:NO)には、S37へと移行する。   And when it determines with the link connected to a guidance intersection corresponding to a section with many pedestrians (S35: YES), it transfers to S36. On the other hand, when it is determined that the link connected to the guidance intersection does not correspond to a section having a large number of pedestrians (S35: NO), the process proceeds to S37.

S36においてCPU41は、RAM42等から人遮蔽度Tを読み出し、「1」を加算して再度RAM42等に格納する。尚、人遮蔽度Tは初期状態では「0」に設定される。   In S <b> 36, the CPU 41 reads out the human shielding degree T from the RAM 42 or the like, adds “1”, and stores it again in the RAM 42 or the like. Incidentally, the person blocking degree T is set to “0” in the initial state.

次に、S37においてCPU41は、フロントカメラ19で直近に撮像された撮像画像に対して画像処理を行うことによって、撮像画像に含まれる人を検出する。尚、人の検出には、テンプレートマッチング等を用いる。   Next, in S <b> 37, the CPU 41 detects a person included in the captured image by performing image processing on the captured image most recently captured by the front camera 19. In addition, template matching etc. are used for a person detection.

続いて、S38においてCPU41は、前記S37の画像処理の結果、撮像画像内に人が検出されたか否かを判定する。尚、所定人数(例えば5人)以上検出されたことを条件としても良い。   Subsequently, in S38, the CPU 41 determines whether or not a person is detected in the captured image as a result of the image processing in S37. In addition, it is good also as conditions on having detected more than predetermined number of persons (for example, 5 persons).

そして、撮像画像内に人が検出されたと判定された場合(S38:YES)には、S39へと移行する。それに対して、撮像画像内に人が検出されなかったと判定された場合(S38:NO)、S7へと移行する。   When it is determined that a person is detected in the captured image (S38: YES), the process proceeds to S39. On the other hand, when it is determined that no person is detected in the captured image (S38: NO), the process proceeds to S7.

S39においてCPU41は、RAM42等から人遮蔽度Tを読み出し、「1」を加算して再度RAM42等に格納する。その後、S7へと移行する。尚、上記S31〜S33の処理、S34〜S36の処理、S37〜S39の処理の内、いずれか1又は2の処理のみを実行しても良い。   In S39, the CPU 41 reads out the human shielding degree T from the RAM 42 and the like, adds “1”, and stores it again in the RAM 42 and the like. Thereafter, the process proceeds to S7. Note that only one or two of the processes of S31 to S33, S34 to S36, and S37 to S39 may be executed.

以上詳細に説明した通り、本実施形態に係るナビゲーション装置1、ナビゲーション装置1を用いた走行案内方法及びナビゲーション装置1で実行されるコンピュータプログラムによれば、車両の進行方向前方に案内交差点が有る場合に、車両に搭載されたフロントカメラ19により案内経路に含まれる案内交差点の周辺を撮像し、案内交差点の周辺状況を特定する情報を取得し(S21、S24、S31、S34、S37)、取得された情報に基づいて、フロントカメラ19により撮像された撮像画像に対して検出除外エリアを設定し(S13)、フロントカメラ19により撮像された撮像画像の内、検出除外エリアを除くエリアを優先して画像処理を行うことにより、撮像画像から案内交差点の案内を行う場合に目印とする目印対象物を検出し(S14)、目印対象物が検出された場合に、該目印対象物を用いて案内交差点の案内を行う(S16)ので、撮像画像から目印対象物を検出する際に、案内交差点の周辺状況について考慮して撮像画像に対して優先的に画像処理を行うエリアを設定することにより、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。その結果、案内のタイミングが遅れることや、ユーザから視認可能な目印対象物が存在するにもかかわらず目印対象物を用いない案内が行われる事態が生じることを防止できる。
また、案内交差点の周辺の車両混雑状況と車両の走行する道路の道路形状とに基づいて検出除外エリアを設定するので、撮像手段により撮像された撮像画像中において、前方車両や対向車線を走行する他車両によって視界が遮られると予測されるエリアを適切に特定し、検出除外エリアに設定することが可能となる。また、目印対象物が検出される可能性の低いエリアに対する不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。
また、案内交差点の周辺の歩行者混雑状況と車両の走行する道路の道路形状とに基づいて検出除外エリアを設定するので、撮像手段により撮像された撮像画像中において、車道の脇を歩行する歩行者によって視界が遮られると予測されるエリアを適切に特定し、検出除外エリアに設定することが可能となる。また、目印対象物が検出される可能性の低いエリアに対する不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。
また、案内交差点の周辺に位置する対象物の内、目印対象物の候補である目印対象物候補が設置された高さ情報を取得し、目印対象物候補の内、基準値以上の高さを有する目印対象物候補を優先的に検出対象とし、検出された目印対象物候補の内から目印対象物を選択するので、撮像画像から検出される可能性の高い目印対象物候補から順に検出対象とすることによって、不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。
また、案内交差点の周辺の車両混雑状況が閾値以上である場合に、他車両によって遮蔽されないと予測される最も低い高さ以上の高さを有する目印対象物候補を優先的に検出対象とするので、撮像画像から検出される可能性の高い目印対象物候補から順に検出対象とすることによって、不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。
また、案内交差点の周辺の歩行者混雑状況が閾値以上である場合に、歩行者によって遮蔽されないと予測される最も低い高さ以上の高さを有する目印対象物候補を優先的に検出対象とするので、撮像画像から検出される可能性の高い目印対象物候補から順に検出対象とすることによって、不要な画像処理が行われることを防止し、画像処理の処理負荷を軽減させるとともに、処理時間についても短縮することが可能となる。
また、目印対象物が検出されなかった場合に、案内交差点までの距離を用いて該案内交差点の案内を行うので、目印対象物が検出できなかった場合であっても、目印対象物を用いずに案内交差点を走行する車両を適切に案内することが可能となる。
As described above in detail, according to the navigation device 1 according to the present embodiment, the travel guidance method using the navigation device 1 and the computer program executed by the navigation device 1, there is a guidance intersection ahead of the traveling direction of the vehicle. In addition, the periphery of the guidance intersection included in the guidance route is imaged by the front camera 19 mounted on the vehicle, and information specifying the surrounding situation of the guidance intersection is acquired (S21, S24, S31, S34, S37). Based on the obtained information, a detection exclusion area is set for the captured image captured by the front camera 19 (S13), and the area excluding the detection exclusion area among the captured images captured by the front camera 19 is given priority. By performing image processing, the mark object to be used as a mark when guiding a guidance intersection from a captured image is displayed. (S14) When the landmark object is detected, the guidance intersection is guided using the landmark object (S16). Therefore, when the landmark object is detected from the captured image, the surrounding situation of the guidance intersection By setting an area where image processing is preferentially performed on the captured image in consideration of the above, it is possible to reduce the processing load of the image processing and shorten the processing time. As a result, it is possible to prevent the timing of guidance from being delayed or the situation where guidance without using the landmark object is performed despite the presence of the landmark object visible to the user.
In addition, since the detection exclusion area is set based on the congestion situation of the vehicle around the guidance intersection and the road shape of the road on which the vehicle travels, the vehicle travels in the forward vehicle or the oncoming lane in the captured image captured by the imaging unit. It is possible to appropriately specify an area where the field of view is predicted to be blocked by another vehicle and set it as a detection exclusion area. Further, it is possible to prevent unnecessary image processing from being performed on an area where the mark target object is unlikely to be detected, thereby reducing the processing load of the image processing and shortening the processing time.
In addition, since the detection exclusion area is set based on the pedestrian congestion situation around the guidance intersection and the road shape of the road on which the vehicle travels, in the captured image captured by the imaging unit, walking walking on the side of the road It is possible to appropriately specify an area where the field of view is predicted to be blocked by a person and set it as a detection exclusion area. Further, it is possible to prevent unnecessary image processing from being performed on an area where the mark target object is unlikely to be detected, thereby reducing the processing load of the image processing and shortening the processing time.
In addition, it obtains the height information where the landmark object candidates that are candidates for the landmark object among the objects located in the vicinity of the guidance intersection are obtained, and the height of the landmark object candidate is higher than the reference value. Since the target landmark object candidate is preferentially detected and the landmark target object is selected from the detected landmark object candidates, the landmark target candidates that are likely to be detected from the captured image are detected in order from the candidate landmark object candidates. By doing so, it is possible to prevent unnecessary image processing from being performed, reduce the processing load of image processing, and shorten the processing time.
Also, when the vehicle congestion around the guidance intersection is greater than or equal to the threshold value, the landmark object candidate having a height equal to or higher than the lowest height that is predicted not to be blocked by other vehicles is preferentially detected. In addition, it is possible to prevent unnecessary image processing from being performed, and to reduce the processing load of the image processing by setting the detection target in order from the mark target candidate that is highly likely to be detected from the captured image. It can be shortened.
In addition, when the pedestrian congestion situation around the guidance intersection is equal to or greater than the threshold, a landmark object candidate having a height equal to or higher than the lowest height that is predicted not to be blocked by the pedestrian is preferentially detected. Therefore, by making the detection target in order from the mark object candidate that is likely to be detected from the captured image, unnecessary image processing is prevented, the processing load of the image processing is reduced, and the processing time is reduced. Can also be shortened.
Further, when the landmark object is not detected, the guidance intersection is guided using the distance to the guidance intersection, so even if the landmark object cannot be detected, the landmark object is not used. It is possible to properly guide the vehicle traveling at the guidance intersection.

尚、本発明は前記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内で種々の改良、変形が可能であることは勿論である。
例えば、本実施形態では案内交差点周辺の車両と歩行者の混雑状況に基づいて検出除外エリアや検出優先順位を設定する(S9、S11、S13)こととしているが、車両と歩行者以外の混雑状況(例えば2輪車の混雑状況)に基づいて検出除外エリアを設定することとしても良い。
Note that the present invention is not limited to the above-described embodiment, and various improvements and modifications can be made without departing from the scope of the present invention.
For example, in this embodiment, the detection exclusion area and the detection priority order are set based on the congestion situation of vehicles and pedestrians around the guidance intersection (S9, S11, S13). It is good also as setting a detection exclusion area based on (for example, the congestion condition of a two-wheeled vehicle).

また、本実施形態では、フロントカメラ19で撮像した撮像画像の内、先ず検出除外エリアを除くエリアに対して画像処理を行い、目印対象物候補が検出できなかった場合に検出除外エリアに対しても画像処理を行う構成としているが、検出除外エリアを除くエリアに対して画像処理を行った時点で目印対象物候補が検出できなかった場合には、目印対象物を用いない案内(例えば案内交差点までの距離を用いた案内)により案内交差点の案内を行うように構成しても良い。   Further, in the present embodiment, first, image processing is performed on an area excluding the detection exclusion area in the captured image captured by the front camera 19, and when the landmark object candidate cannot be detected, the detection exclusion area is detected. However, if a landmark object candidate cannot be detected when image processing is performed on an area excluding the detection exclusion area, guidance without using the landmark object (for example, a guidance intersection) The guidance intersection may be guided by the guidance using the distance up to.

また、本実施形態では、撮像画像から目印対象物候補を検出する為の画像処理としてテンプレートマッチングによる画像認識処理を行っているが、他の画像処理(例えば特徴点検出)により目印対象物候補を検出する構成としても良い。   In this embodiment, image recognition processing by template matching is performed as image processing for detecting a landmark object candidate from a captured image. However, the landmark object candidate is detected by other image processing (for example, feature point detection). It is good also as a structure to detect.

また、本発明はナビゲーション装置以外に、案内経路に基づく経路案内を行う機能を有する装置に対して適用することが可能である。例えば、携帯電話機やスマートフォン等の携帯端末、パーソナルコンピュータ、タブレット型端末等(以下、携帯端末等という)に適用することも可能である。但し、フロントカメラ19の撮像画像が取得できるように車載器に接続する構成とする。また、サーバと携帯端末等から構成されるシステムに対しても適用することが可能となる。その場合には、上述した交差点案内処理プログラム(図3、図10及び図11)の各ステップは、サーバと携帯端末等のいずれが実施する構成としても良い。   In addition to the navigation device, the present invention can be applied to a device having a function of performing route guidance based on a guidance route. For example, the present invention can be applied to a mobile terminal such as a mobile phone or a smartphone, a personal computer, a tablet terminal (hereinafter referred to as a mobile terminal or the like). However, it is set as the structure connected to onboard equipment so that the captured image of the front camera 19 can be acquired. Further, the present invention can be applied to a system including a server and a mobile terminal. In that case, each step of the above-described intersection guidance processing program (FIGS. 3, 10, and 11) may be configured to be performed by either the server or the mobile terminal.

1 ナビゲーション装置
13 ナビゲーションECU
35 目印情報
41 CPU
42 RAM
43 ROM
61 案内交差点
62 撮像画像
63〜65 看板
66〜68 検出除外エリア
1 Navigation device 13 Navigation ECU
35 Mark information 41 CPU
42 RAM
43 ROM
61 Guide intersection 62 Captured image 63-65 Signboard 66-68 Detection exclusion area

Claims (11)

案内経路を設定する案内経路設定手段と、
車両に搭載された撮像装置により前記案内経路に含まれる案内交差点の周辺を撮像する撮像手段と、
前記案内交差点の周辺状況を特定する情報を取得する周辺情報取得手段と、
前記周辺情報取得手段により取得された情報に基づいて、前記撮像手段により撮像された撮像画像に対して検出除外エリアを設定するエリア設定手段と、
前記撮像手段により撮像された撮像画像の内、前記検出除外エリアを除くエリアを優先して画像処理を行うことにより、前記撮像画像から前記案内交差点の案内を行う場合に目印とする目印対象物を検出する目印対象物検出手段と、
前記目印対象物検出手段によって前記目印対象物が検出された場合に、該目印対象物を用いて前記案内交差点の案内を行う交差点案内手段と、を有することを特徴とする走行案内システム。
A guide route setting means for setting a guide route;
Imaging means for imaging the vicinity of a guidance intersection included in the guidance route by an imaging device mounted on a vehicle;
Surrounding information acquisition means for acquiring information for specifying the surrounding situation of the guidance intersection;
An area setting unit that sets a detection exclusion area for a captured image captured by the imaging unit, based on the information acquired by the peripheral information acquisition unit;
By performing image processing with priority on the area excluding the detection exclusion area among the captured images captured by the imaging unit, a landmark object to be a landmark when guiding the guidance intersection from the captured image is selected. Mark object detection means for detecting;
An intersection guide means for guiding the guide intersection using the mark object when the mark object is detected by the mark object detection means.
前記周辺情報取得手段により取得された前記周辺状況は、前記案内交差点の周辺の車両混雑状況であって、
前記エリア設定手段は、前記車両混雑状況と前記車両の走行する道路の道路形状とに基づいて前記検出除外エリアを設定することを特徴とする請求項1に記載の走行案内システム。
The surrounding situation acquired by the surrounding information acquisition means is a vehicle congestion situation around the guidance intersection,
The travel guidance system according to claim 1, wherein the area setting unit sets the detection exclusion area based on the congestion state of the vehicle and a road shape of a road on which the vehicle travels.
前記エリア設定手段は、
前記車両混雑状況と前記車両の走行する道路の道路形状とに基づいて、前記撮像手段により撮像された前記撮像画像中において他車両によって視界が遮られると予測されるエリアを前記検出除外エリアに設定することを特徴とする請求項2に記載の走行案内システム。
The area setting means includes
Based on the congestion situation of the vehicle and the road shape of the road on which the vehicle travels, an area that is predicted to be blocked by other vehicles in the captured image captured by the imaging unit is set as the detection exclusion area The travel guidance system according to claim 2, wherein:
前記周辺情報取得手段により取得された前記周辺状況は、前記案内交差点の周辺の歩行者混雑状況であって、
前記エリア設定手段は、前記歩行者混雑状況と前記車両の走行する道路の道路形状とに基づいて前記検出除外エリアを設定することを特徴とする請求項1に記載の走行案内システム。
The surrounding situation acquired by the surrounding information acquisition means is a pedestrian congestion situation around the guidance intersection,
The travel guidance system according to claim 1, wherein the area setting means sets the detection exclusion area based on the pedestrian congestion situation and a road shape of a road on which the vehicle travels.
前記エリア設定手段は、
前記歩行者混雑状況と前記車両の走行する道路の道路形状とに基づいて、前記撮像手段により撮像された前記撮像画像中において歩行者によって視界が遮られると予測されるエリアを前記検出除外エリアに設定することを特徴とする請求項4に記載の走行案内システム。
The area setting means includes
Based on the pedestrian congestion situation and the road shape of the road on which the vehicle travels, an area that is predicted to be blocked by a pedestrian in the captured image captured by the imaging unit is defined as the detection exclusion area. The travel guidance system according to claim 4, wherein the travel guidance system is set.
前記案内交差点の周辺に位置する対象物の内、前記目印対象物検出手段によって検出対象となる前記目印対象物の候補である目印対象物候補が設置された高さ情報を取得する目印候補情報取得手段と、
前記周辺情報取得手段により取得された情報に基づいて、高さの基準値を設定する基準値設定手段と、を有し、
前記目印対象物検出手段は、前記目印対象物候補の内、前記基準値以上の高さを有する前記目印対象物候補を優先的に検出対象とし、検出された前記目印対象物候補の内から前記目印対象物を選択することを特徴とする請求項1乃至請求項5のいずれかに記載の走行案内システム。
Mark candidate information acquisition for acquiring height information where a mark object candidate, which is a candidate for the mark object to be detected by the mark object detection means, among objects located around the guidance intersection is acquired. Means,
Reference value setting means for setting a reference value of height based on the information acquired by the peripheral information acquisition means,
The landmark object detection means preferentially sets the landmark object candidate having a height equal to or higher than the reference value among the landmark object candidates, and selects the landmark object candidate from the detected landmark object candidates. The travel guidance system according to any one of claims 1 to 5, wherein a landmark object is selected.
前記周辺情報取得手段により取得された前記周辺状況は、前記案内交差点の周辺の車両混雑状況であって、
前記基準値設定手段は、前記車両混雑状況が所定の閾値以上である場合に、他車両によって前記目印対象物候補が遮蔽されないと予測される最も低い高さを前記基準値に設定することを特徴とする請求項6に記載の走行案内システム。
The surrounding situation acquired by the surrounding information acquisition means is a vehicle congestion situation around the guidance intersection,
The reference value setting means sets, as the reference value, the lowest height at which the candidate landmark object is predicted not to be shielded by another vehicle when the vehicle congestion state is equal to or greater than a predetermined threshold. The travel guidance system according to claim 6.
前記周辺情報取得手段により取得された前記周辺状況は、前記案内交差点の周辺の歩行者混雑状況であって、
前記基準値設定手段は、前記歩行者混雑状況が所定の閾値以上である場合に、歩行者によって前記目印対象物候補が遮蔽されないと予測される最も低い高さを前記基準値に設定することを特徴とする請求項6に記載の走行案内システム。
The surrounding situation acquired by the surrounding information acquisition means is a pedestrian congestion situation around the guidance intersection,
The reference value setting means sets, as the reference value, the lowest height at which the landmark object candidate is predicted not to be shielded by a pedestrian when the pedestrian congestion state is equal to or greater than a predetermined threshold. The travel guidance system according to claim 6, wherein
前記目印対象物検出手段によって前記目印対象物が検出されなかった場合に、前記案内交差点までの距離を用いて該案内交差点の案内を行う交差点距離案内手段を有することを特徴とする請求項1乃至請求項8のいずれかに記載の走行案内システム   2. An intersection distance guide means for guiding the guidance intersection using the distance to the guidance intersection when the landmark object detection means does not detect the landmark object. The travel guidance system according to claim 8. 案内経路を設定する案内経路設定ステップと、
車両に搭載された撮像装置により前記案内経路に含まれる案内交差点の周辺を撮像する撮像ステップと、
前記案内交差点の周辺状況を特定する情報を取得する周辺情報取得ステップと、
前記周辺情報取得ステップにより取得された情報に基づいて、前記撮像手段により撮像された撮像画像に対して検出除外エリアを設定するエリア設定ステップと、
前記撮像手段により撮像された撮像画像の内、前記検出除外エリアを除くエリアを優先して画像処理を行うことにより、前記撮像画像から前記案内交差点の案内を行う場合に目印とする目印対象物を検出する目印対象物検出ステップと、
前記目印対象物検出ステップによって前記目印対象物が検出された場合に、該目印対象物を用いて前記案内交差点の案内を行う交差点案内ステップと、を有することを特徴とする走行案内方法。
A guide route setting step for setting a guide route;
An imaging step of imaging the vicinity of a guidance intersection included in the guidance route by an imaging device mounted on a vehicle;
Surrounding information acquisition step for acquiring information for specifying the surrounding situation of the guidance intersection;
An area setting step for setting a detection exclusion area for a captured image captured by the imaging unit based on the information acquired by the peripheral information acquisition step;
By performing image processing with priority on the area excluding the detection exclusion area among the captured images captured by the imaging unit, a landmark object to be a landmark when guiding the guidance intersection from the captured image is selected. A landmark object detection step to detect,
An intersection guidance step for guiding the guidance intersection using the landmark object when the landmark object is detected by the landmark object detection step.
コンピュータに、
案内経路を設定する案内経路設定機能と、
車両に搭載された撮像装置により前記案内経路に含まれる案内交差点の周辺を撮像する撮像機能と、
前記案内交差点の周辺状況を特定する情報を取得する周辺情報取得機能と、
前記周辺情報取得機能により取得された情報に基づいて、前記撮像手段により撮像された撮像画像に対して検出除外エリアを設定するエリア設定機能と、
前記撮像手段により撮像された撮像画像の内、前記検出除外エリアを除くエリアを優先して画像処理を行うことにより、前記撮像画像から前記案内交差点の案内を行う場合に目印とする目印対象物を検出する目印対象物検出機能と、
前記目印対象物検出機能によって前記目印対象物が検出された場合に、該目印対象物を用いて前記案内交差点の案内を行う交差点案内機能と、
を実行させることを特徴とするコンピュータプログラム。
On the computer,
A guide route setting function for setting a guide route,
An imaging function for imaging the vicinity of a guidance intersection included in the guidance route by an imaging device mounted on a vehicle;
Surrounding information acquisition function for acquiring information for specifying the surrounding situation of the guidance intersection;
An area setting function for setting a detection exclusion area for a captured image captured by the imaging unit, based on information acquired by the peripheral information acquisition function;
By performing image processing with priority on the area excluding the detection exclusion area among the captured images captured by the imaging unit, a landmark object to be a landmark when guiding the guidance intersection from the captured image is selected. A landmark object detection function to detect,
An intersection guidance function for guiding the guidance intersection using the landmark object when the landmark object is detected by the landmark object detection function;
A computer program for executing
JP2013023065A 2013-02-08 2013-02-08 Travel guide system, travel guide method, and computer program Pending JP2014153192A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013023065A JP2014153192A (en) 2013-02-08 2013-02-08 Travel guide system, travel guide method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013023065A JP2014153192A (en) 2013-02-08 2013-02-08 Travel guide system, travel guide method, and computer program

Publications (1)

Publication Number Publication Date
JP2014153192A true JP2014153192A (en) 2014-08-25

Family

ID=51575196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013023065A Pending JP2014153192A (en) 2013-02-08 2013-02-08 Travel guide system, travel guide method, and computer program

Country Status (1)

Country Link
JP (1) JP2014153192A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016151833A (en) * 2015-02-16 2016-08-22 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018116014A (en) * 2017-01-20 2018-07-26 パイオニア株式会社 Own vehicle position estimation device, control method, program and storage medium
KR20200058954A (en) * 2018-11-20 2020-05-28 주식회사유넷컨버전스 Method for improving accuracy of foreign objects detection by setting detection exclusion zone
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
WO2022064542A1 (en) * 2020-09-23 2022-03-31 三菱電機株式会社 Guidance control device and guidance control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016151833A (en) * 2015-02-16 2016-08-22 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP2018116014A (en) * 2017-01-20 2018-07-26 パイオニア株式会社 Own vehicle position estimation device, control method, program and storage medium
JP2020525945A (en) * 2017-06-30 2020-08-27 コノート、エレクトロニクス、リミテッドConnaught Electronics Ltd. Method of generating at least one synthetic bird's-eye view image of a motor vehicle and an environmental area of the motor vehicle, camera system and motor vehicle
KR20200058954A (en) * 2018-11-20 2020-05-28 주식회사유넷컨버전스 Method for improving accuracy of foreign objects detection by setting detection exclusion zone
KR102317104B1 (en) * 2018-11-20 2021-10-25 주식회사유넷컨버전스 Method for improving accuracy of foreign objects detection by setting detection exclusion zone
WO2022064542A1 (en) * 2020-09-23 2022-03-31 三菱電機株式会社 Guidance control device and guidance control method

Similar Documents

Publication Publication Date Title
US10071745B2 (en) Automated drive assisting system, automated drive assisting method, and computer program
JP6375754B2 (en) Automatic driving support system, automatic driving support method, and computer program
JP6197691B2 (en) Automatic driving support system, automatic driving support method, and computer program
JP5565296B2 (en) Route guidance device, route guidance method and computer program
JP6269104B2 (en) Automatic driving support system, automatic driving support method, and computer program
JP5729176B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
WO2015129365A1 (en) Automatic driving assistance system and method, and computer program
JP2016050900A (en) Automatic driving support system, automatic driving support method, and computer program
EP2549232A2 (en) Travel guidance system, travel guidance method, and computer program product
JP2017041038A (en) Route search system, route search method and computer program
JP2014153192A (en) Travel guide system, travel guide method, and computer program
JP5796378B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5811666B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP2014160031A (en) Traveling guide system, traveling guide method and computer program
JP5541211B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP2014145666A (en) Travel guide system, travel guide method, and computer program
JP5899691B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5794023B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP5691915B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP2013030006A (en) Traffic light increase/decrease detection system, traffic light increase/decrease detection device, traffic light increase/decrease detection method, and computer program
JP5716564B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5810721B2 (en) Movement guidance system, movement guidance apparatus, movement guidance method, and computer program
JP5720517B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program
JP5712844B2 (en) Moving body position detection system, moving body position detection apparatus, moving body position detection method, and computer program
JP5794024B2 (en) Stop line detection system, stop line detection device, stop line detection method, and computer program