JP5910450B2 - Vehicle navigation system - Google Patents

Vehicle navigation system Download PDF

Info

Publication number
JP5910450B2
JP5910450B2 JP2012221645A JP2012221645A JP5910450B2 JP 5910450 B2 JP5910450 B2 JP 5910450B2 JP 2012221645 A JP2012221645 A JP 2012221645A JP 2012221645 A JP2012221645 A JP 2012221645A JP 5910450 B2 JP5910450 B2 JP 5910450B2
Authority
JP
Japan
Prior art keywords
image
vehicle
unit
original
clean
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012221645A
Other languages
Japanese (ja)
Other versions
JP2014074626A (en
JP2014074626A5 (en
Inventor
朋夫 野村
朋夫 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2012221645A priority Critical patent/JP5910450B2/en
Priority to US14/428,121 priority patent/US20150228194A1/en
Priority to PCT/JP2013/005903 priority patent/WO2014054289A1/en
Priority to DE112013004876.0T priority patent/DE112013004876T5/en
Publication of JP2014074626A publication Critical patent/JP2014074626A/en
Publication of JP2014074626A5 publication Critical patent/JP2014074626A5/ja
Application granted granted Critical
Publication of JP5910450B2 publication Critical patent/JP5910450B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、道路走行車両にナビゲーションのための画像を提供する車両用ナビゲーションシステムに関する。   The present invention relates to a vehicle navigation system that provides an image for navigation to a road vehicle.

特許文献1は、間違いやすい分岐点における動画を複数の車両から収集し、その間違いやすい分岐点を走行する車両に提供するナビゲーションシステムを開示する。   Patent Document 1 discloses a navigation system that collects moving images at a branch point that is likely to be mistaken from a plurality of vehicles and that provides the vehicle that travels at the branch point that is likely to be wrong.

特開2008−185394号公報JP 2008-185394 A

従来技術によって再生される動画には、道路上の他の車両、歩行者などの多くの移動物が写っている。これらの移動物は、動画が再生されるときには、同じ位置には存在しない。このため、他の車両によって撮影された動画を再生するだけでは、運転者の理解を助けることが困難な場合があった。このような観点から、車両用ナビゲーションシステムにはさらなる改良が求められている。   Many moving objects such as other vehicles and pedestrians on the road are shown in the moving image reproduced by the conventional technology. These moving objects do not exist at the same position when the moving image is reproduced. For this reason, it may be difficult to assist the driver's understanding only by playing back a moving image shot by another vehicle. From such a viewpoint, further improvement is demanded for the vehicle navigation system.

開示された発明の目的のひとつは、運転者が理解しやすい画像を提供できる車両用ナビゲーションシステムを提供することである。   One of the objects of the disclosed invention is to provide a vehicle navigation system that can provide an image that is easy for the driver to understand.

開示された発明の目的の他のひとつは、他の移動体に起因する影響が抑制された画像を提供できる車両用ナビゲーションシステムを提供することである。   Another object of the disclosed invention is to provide a vehicle navigation system that can provide an image in which an influence caused by another moving body is suppressed.

開示された発明のひとつは上記目的を達成するために以下の技術的手段を採用する。なお、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、開示された発明の技術的範囲を限定するものではない。   One of the disclosed inventions employs the following technical means to achieve the above object. It should be noted that the reference numerals in parentheses described in the claims and in this section indicate a corresponding relationship with specific means described in the embodiments described later as one aspect, and are technical aspects of the disclosed invention. It does not limit the range.

開示された発明のひとつは、所定の地点において撮影された原画像(RV1、RV2)を取得する取得部(141−142)と、原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、地点における運転を支援するための画像として作成する作成部(144)とを備え、取得部は、複数の原画像を蓄積する蓄積部(142)を含み、作成部(144)は、複数の原画像に基づいてクリーン画像を作成し、さらに、原画像が撮影された地点が、クリーン画像を作成すべき地点として妥当であることを確認した場合に、作成部によるクリーン画像の作成を許容する確認部(143)を備え、確認部は、所定の閾値を越える数の原画像が蓄積された場合に、クリーン画像を作成すべき地点として妥当であることを確認することを特徴とする。
開示された発明のひとつは、所定の地点において撮影された原画像(RV1、RV2)を取得する取得部(141−142)と、原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、地点における運転を支援するための画像として作成する作成部(144)とを備え、取得部は、複数の原画像を蓄積する蓄積部(142)を含み、作成部(144)は、複数の原画像に基づいてクリーン画像を作成し、作成部(144)は、ひとつの原画像における移動体が写っている範囲に、他の原画像における部分画像を合成することにより移動体が消去されたクリーン画像を作成し、取得部は、それぞれの原画像の撮影条件を示す情報を取得し、作成部は、撮影条件に基づいて複数の原画像を合成することを特徴とする。
One of the disclosed inventions is that an acquisition unit (141-142) that acquires original images (RV1, RV2) taken at a predetermined point, and other vehicles and / or pedestrians or the like from the original image A creation unit (144) that creates a clean image (CV) from which at least a portion has been deleted as an image for supporting driving at a point , and the acquisition unit stores a plurality of original images (142) The creation unit (144) creates a clean image based on a plurality of original images, and further confirms that the spot where the original image was taken is appropriate as a spot where the clean image should be created. In addition, a confirmation unit (143) that allows creation of a clean image by the creation unit is provided, and the confirmation unit is a point where a clean image should be created when the number of original images exceeding a predetermined threshold is accumulated. And said that you make sure that it is reasonable.
One of the disclosed inventions is that an acquisition unit (141-142) that acquires original images (RV1, RV2) taken at a predetermined point, and other vehicles and / or pedestrians or the like from the original image A creation unit (144) that creates a clean image (CV) from which at least a portion has been deleted as an image for supporting driving at a point, and the acquisition unit stores a plurality of original images (142) The creation unit (144) creates a clean image based on a plurality of original images, and the creation unit (144) includes a portion in another original image within a range in which the moving body in one original image is shown. A clean image from which the moving object has been erased is created by combining the images, the acquisition unit acquires information indicating the shooting conditions of each original image, and the generation unit generates a plurality of original images based on the shooting conditions. Together Characterized in that it.

この構成によると、所定の地点において撮影された原画像から、その地点における走行を支援するための画像が作成される。よって、その地点における実際の風景に基づいて運転支援用の画像が提供される。しかも、原画像から、他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像が作成される。よって、移動体に起因する分かり難さが軽減される。この結果、他の移動体に起因する影響が抑制され、運転者が理解しやすい画像を提供できる。   According to this configuration, an image for supporting traveling at the point is created from the original image taken at the predetermined point. Therefore, an image for driving support is provided based on the actual scenery at the point. In addition, a clean image is created by deleting at least part of other vehicles and / or moving objects such as pedestrians from the original image. Therefore, the difficulty of understanding due to the moving body is reduced. As a result, it is possible to provide an image that is less affected by other moving objects and is easy for the driver to understand.

本発明の第1実施形態に係るシステムを示すブロック図である。1 is a block diagram showing a system according to a first embodiment of the present invention. 第1実施形態のセンタ装置を示すブロック図である。It is a block diagram which shows the center apparatus of 1st Embodiment. 第1実施形態の車両装置を示すブロック図である。It is a block diagram which shows the vehicle apparatus of 1st Embodiment. 第1実施形態の制御処理を示すフローチャートである。It is a flowchart which shows the control processing of 1st Embodiment. 第1実施形態の制御処理を示すフローチャートである。It is a flowchart which shows the control processing of 1st Embodiment. 第1実施形態の制御処理を示すフローチャートである。It is a flowchart which shows the control processing of 1st Embodiment. 第1実施形態の制御処理を示すフローチャートである。It is a flowchart which shows the control processing of 1st Embodiment. 第1実施形態の原画像の一例を示す平面図である。It is a top view which shows an example of the original image of 1st Embodiment. 第1実施形態の原画像の一例を示す平面図である。It is a top view which shows an example of the original image of 1st Embodiment. 第1実施形態のクリーン画像の一例を示す平面図である。It is a top view which shows an example of the clean image of 1st Embodiment. 第1実施形態の案内画像の一例を示す平面図である。It is a top view which shows an example of the guidance image of 1st Embodiment.

以下に、図面を参照しながら開示された発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。また、後続の実施形態においては、先行する実施形態で説明した事項に対応する部分に百以上の位だけが異なる参照符号を付することにより対応関係を示し、重複する説明を省略する場合がある。各実施形態で具体的に組合せが可能であることを明示している部分同士の組合せばかりではなく、特に組合せに支障が生じなければ、明示してなくとも実施形態同士を部分的に組み合せることも可能である。   Hereinafter, a plurality of modes for carrying out the disclosed invention will be described with reference to the drawings. In each embodiment, parts corresponding to the matters described in the preceding embodiment may be denoted by the same reference numerals, and redundant description may be omitted. When only a part of the configuration is described in each mode, the other modes described above can be applied to the other parts of the configuration. Further, in the following embodiments, the correspondence corresponding to the matters corresponding to the matters described in the preceding embodiments is indicated by adding reference numerals that differ only by one hundred or more, and redundant description may be omitted. . Not only combinations of parts that clearly show that combinations are possible in each embodiment, but also combinations of the embodiments even if they are not explicitly stated unless there is a problem with the combination. Is also possible.

(第1実施形態)
図1に図示されるように、発明を開示する第1実施形態は、車両用ナビゲーションシステム1である。車両用ナビゲーションシステム1は、配信センタ2と、複数の車両3とによって構築されている。配信センタ2には、センタ装置(CNTRD)3が設けられている。車両4には、車両装置(ONVHD)5が設けられている。センタ装置3と車両装置5との間にはデータ通信のための通信システム6が設けられている。センタ装置3と複数の車両装置5とは、通信システム6を介してデータ通信可能に接続されている。通信システム6は、無線電話回線、インターネットなどのネットワークを含むことができる。センタ装置3と車両装置5とは、車両用ナビゲーションシステム1を構成する。
(First embodiment)
As illustrated in FIG. 1, a first embodiment disclosing the invention is a vehicle navigation system 1. The vehicle navigation system 1 is constructed by a distribution center 2 and a plurality of vehicles 3. The distribution center 2 is provided with a center device (CNTRD) 3. The vehicle 4 is provided with a vehicle device (ONVHD) 5. A communication system 6 for data communication is provided between the center device 3 and the vehicle device 5. The center device 3 and the plurality of vehicle devices 5 are connected via a communication system 6 so that data communication is possible. The communication system 6 can include a network such as a wireless telephone line or the Internet. The center device 3 and the vehicle device 5 constitute a vehicle navigation system 1.

センタ装置3は、複数の車両装置5に向けて案内のための画像を配信する。配信される画像は、静止画、または動画である。複数の車両装置5は、配信された画像を受信する。それぞれの車両装置5は、車両4に搭載されたナビゲーション装置によって提供することができる。ナビゲーション装置は、配信された画像を表示することにより、運転者に画像を提供し、運転者の運転を支援する。複数の車両装置5は、それらが搭載された車両4において撮影された画像をセンタ装置3に送信する。センタ装置3は、複数の車両装置5から送信された画像を収集し、加工することによって、配信用の画像を作成する。車両用ナビゲーションシステム1は、複数の車両装置5から収集された画像を加工し、加工された画像を配信する。   The center device 3 distributes an image for guidance to a plurality of vehicle devices 5. The distributed image is a still image or a moving image. The plurality of vehicle devices 5 receive the distributed image. Each vehicle device 5 can be provided by a navigation device mounted on the vehicle 4. The navigation device provides an image to the driver by displaying the distributed image, and assists the driver in driving. The plurality of vehicle devices 5 transmit images taken by the vehicle 4 on which they are mounted to the center device 3. The center device 3 creates an image for distribution by collecting and processing images transmitted from the plurality of vehicle devices 5. The vehicle navigation system 1 processes images collected from the plurality of vehicle devices 5 and distributes the processed images.

図2に図示されるように、センタ装置3は、センタ処理装置(CTCPU)3a、およびメモリ装置(MMR)3bを備える。メモリ装置3bは、データを格納する記憶装置である。センタ処理装置3aとメモリ装置3bとは、マイクロコンピュータを構成する。センタ装置3は、通信システム6との接続を提供するための通信機(COMM)3cを備える。   As shown in FIG. 2, the center device 3 includes a center processing device (CTCPU) 3a and a memory device (MMR) 3b. The memory device 3b is a storage device that stores data. The center processing device 3a and the memory device 3b constitute a microcomputer. The center device 3 includes a communication device (COMM) 3 c for providing a connection with the communication system 6.

図3に図示されるように、車両装置5は、車両処理装置(VHCPU)5a、およびメモリ装置(MMR)5bを備える。メモリ装置5bは、データを格納する記憶装置である。車両処理装置5aとメモリ装置5bとは、マイクロコンピュータを構成する。車両装置5は、通信システム6との接続を提供するための通信機(COMM)5cを備える。車両装置5は、車両4の周囲の画像を撮影するためのカメラ(VHCAM)5dを備える。カメラ5dは、車両の前方の画像を撮影する。カメラ5dは、静止画、または動画を撮影可能である。カメラ5dは、車両4の前方の風景を撮影することにより原画像を供給する。車両装置5は、車両用画像撮影装置を提供する。車両装置5は、表示器(DSP)5eを備える。   As illustrated in FIG. 3, the vehicle device 5 includes a vehicle processing device (VHCPU) 5 a and a memory device (MMR) 5 b. The memory device 5b is a storage device that stores data. The vehicle processing device 5a and the memory device 5b constitute a microcomputer. The vehicle device 5 includes a communication device (COMM) 5 c for providing a connection with the communication system 6. The vehicle device 5 includes a camera (VHCAM) 5 d for taking an image around the vehicle 4. The camera 5d captures an image in front of the vehicle. The camera 5d can capture a still image or a moving image. The camera 5d supplies an original image by photographing a landscape in front of the vehicle 4. The vehicle device 5 provides a vehicle image capturing device. The vehicle device 5 includes a display (DSP) 5e.

車両装置5は、複数の検出器5fを備える。複数の検出器5fは、ナビゲーション装置として必要なセンサを含む。例えば、複数の検出器5fは、車両4の現在位置を検出するための衛星測位装置を含むことができる。複数の検出器5fは、車両4の挙動を検出するためのセンサを含む。例えば、複数の検出器5fは、車両4の走行速度を検出する速度センサ、およびブレーキ装置の操作を検出するブレーキセンサを含むことができる。複数の検出器5fは、運転者の挙動を検出するためのセンサを含む。例えば、運転者の顔を撮影する室内カメラ、運転者の声を検出するマイク、および運転者の心拍を検出する心拍センサを含むことができる。   The vehicle device 5 includes a plurality of detectors 5f. The plurality of detectors 5f include sensors necessary as a navigation device. For example, the plurality of detectors 5 f can include a satellite positioning device for detecting the current position of the vehicle 4. The plurality of detectors 5 f include sensors for detecting the behavior of the vehicle 4. For example, the plurality of detectors 5f can include a speed sensor that detects the traveling speed of the vehicle 4 and a brake sensor that detects an operation of the brake device. The plurality of detectors 5f include sensors for detecting the behavior of the driver. For example, it may include an indoor camera that captures the driver's face, a microphone that detects the driver's voice, and a heart rate sensor that detects the driver's heartbeat.

車両装置5は、車両4に搭載されたナビゲーション装置である。車両装置5は、表示器5eに地図を表示するとともに、地図上に車両4の位置を表示する。さらに、車両装置5は、車両4の利用者からの要求に応答して、現在地点から目的地点までの経路案内を実行する。車両装置5は、現在地点から目的地点までの経路を設定する手段を備える。車両装置5は、表示器5eに表示された地図上に、設定された経路を表示するとともに、運転者が車両を経路に沿って走行させるように、表示または音声によって支援を提供する。   The vehicle device 5 is a navigation device mounted on the vehicle 4. The vehicle device 5 displays a map on the display 5e and displays the position of the vehicle 4 on the map. Further, the vehicle device 5 performs route guidance from the current location to the destination location in response to a request from the user of the vehicle 4. The vehicle device 5 includes means for setting a route from the current location to the destination location. The vehicle device 5 displays the set route on the map displayed on the display 5e, and provides support by display or voice so that the driver can drive the vehicle along the route.

センタ装置3と車両装置5とは、電子制御装置(ECU:Electronic Control Unit)である。ECUは、処理装置と、プログラムを記憶する記憶媒体としてのメモリ装置とを有する。ECUは、コンピュータによって読み取り可能な記憶媒体を備えるマイクロコンピュータによって提供される。記憶媒体は、コンピュータによって読み取り可能なプログラムを非一時的に格納している。記憶媒体は、半導体メモリまたは磁気ディスクによって提供されうる。プログラムは、ECUによって実行されることによって、ECUをこの明細書に記載される装置として機能させ、この明細書に記載される制御方法を実行するようにECUを機能させる。ECUが提供する手段は、所定の機能を達成する機能的ブロック、またはモジュールとも呼ぶことができる。   The center device 3 and the vehicle device 5 are electronic control units (ECU: Electronic Control Unit). The ECU has a processing device and a memory device as a storage medium for storing a program. The ECU is provided by a microcomputer provided with a computer-readable storage medium. The storage medium stores a computer-readable program non-temporarily. The storage medium can be provided by a semiconductor memory or a magnetic disk. By being executed by the ECU, the program causes the ECU to function as a device described in this specification, and causes the ECU to function so as to execute the control method described in this specification. The means provided by the ECU can also be called a functional block or module that achieves a predetermined function.

図4は、車両用ナビゲーションシステム1が提供するリアルビューナビゲーションに関連するリアルビュー処理120を示すフローチャートである。リアルビューナビゲーションにおいては、先行車両によって撮影された画像が、後続車両に提供される。しかも、先行車両によって撮影された画像から、他の車両、さらに望ましくは歩行者などの移動体が消去されたクリーン画像が後続車両に配信される。クリーン画像を作成するために、複数の先行車両から原画像が収集される。また、リアルビューナビゲーションにおいては、その車両の前方の風景から、運転を支援するために有用な情報を含む範囲が切り出され、車内の表示器5eに表示される。リアルビュー処理120には、センタ装置3によって実行されるセンタ装置処理121と、車両装置5によって実行される車両装置処理122とが含まれている。それぞれのステップは、その機能を提供する処理手段または処理部として見ることができる。   FIG. 4 is a flowchart showing the real view processing 120 related to the real view navigation provided by the vehicle navigation system 1. In real view navigation, an image taken by a preceding vehicle is provided to the following vehicle. In addition, a clean image in which a moving body such as a pedestrian or the like is deleted from another vehicle, more desirably a pedestrian, is distributed to the subsequent vehicle. In order to create a clean image, original images are collected from a plurality of preceding vehicles. In real view navigation, a range including information useful for driving support is cut out from the scenery in front of the vehicle and displayed on the display 5e in the vehicle. The real view process 120 includes a center apparatus process 121 executed by the center apparatus 3 and a vehicle apparatus process 122 executed by the vehicle apparatus 5. Each step can be viewed as a processing means or processing unit that provides the function.

ステップ123では、車両4の前方の画像が撮影される。ステップ123には、カメラ5dによって撮影される複数の画像から利用可能な画像のみを選択する選択処理を含むことができる。例えば、車両のウインドシールドに付着した雨滴を除去するためのワイパを写った画像を廃棄する選択処理を含むことができる。   In step 123, an image in front of the vehicle 4 is taken. Step 123 can include a selection process for selecting only an available image from a plurality of images captured by the camera 5d. For example, a selection process of discarding an image showing a wiper for removing raindrops attached to a windshield of a vehicle can be included.

ステップ124では、車両4の前方に出現した道路標識を表示器5eに表示する処理が実行される。この処理では、カメラ5dによって撮影された画像から、道路標識が認識される。例えば、前方の交差点の行き先を表示する標識が認識される。さらに、この処理では、原画像から、道路標識に対応する部分画像が切り出され、切り出された画像が表示器5eに拡大表示される。これにより、運転者による道路標識の認識を支援することができる。   In step 124, a process of displaying a road sign that appears in front of the vehicle 4 on the display 5e is executed. In this process, a road sign is recognized from an image taken by the camera 5d. For example, a sign indicating the destination of an intersection ahead is recognized. Further, in this process, a partial image corresponding to the road sign is cut out from the original image, and the cut out image is enlarged and displayed on the display 5e. Thereby, recognition of a road sign by a driver can be supported.

ステップ131では、車両4が難解地点を走行したことが判定される。難解地点は、運転者が道路構造または進路を理解することが困難な道路上の地点である。難解地点は、難解な交差点、すなわち分岐点を含むことができる。難解地点は、分岐数が多い分岐点、または分岐角度が特殊な分岐点を含むことができる。このような交差点は、難解交差点とも呼ばれる。また、車両4の目的地となりうる地点の入口、駐車場の入口など、道路を走行する間に見出すことが困難な地点も、難解地点に含むことができる。判定は、自動的に実行することができる。さらに、運転者が難解地点であると判断した場合に操作されるスイッチを設け、このスイッチからの入力操作に応答して難解地点を判定してもよい。   In step 131, it is determined that the vehicle 4 has traveled a difficult point. Difficult points are points on the road where it is difficult for the driver to understand the road structure or course. Difficult points can include difficult intersections, i.e., branch points. The difficult points may include branch points with a large number of branches or branch points with a special branch angle. Such an intersection is also called a difficult intersection. In addition, points that are difficult to find while traveling on the road, such as the entrance of a point that can be the destination of the vehicle 4 and the entrance of a parking lot, can also be included in the difficult points. The determination can be performed automatically. Further, a switch that is operated when the driver determines that it is a difficult point may be provided, and the difficult point may be determined in response to an input operation from the switch.

通常とは異なる異常な事象が検出された場合に、車両4が難解地点にあると判定することができる。例えば、交差点の場合、運転者が進行方向の選定を迷ったことを検出することにより、難解交差点であるか否かを判定することができる。運転者が進行方向の選定を迷ったことは、車両4または運転者の挙動によって判定することができる。車両4の挙動には、運転者が車両4に加えた運転操作、車両4の状態、車両4の加速度、および減速度を含むことができる。   When an abnormal event different from normal is detected, it can be determined that the vehicle 4 is at a difficult point. For example, in the case of an intersection, it can be determined whether or not it is an esoteric intersection by detecting that the driver has lost selection of the traveling direction. It can be determined by the behavior of the vehicle 4 or the driver that the driver has lost selection of the traveling direction. The behavior of the vehicle 4 can include a driving operation applied to the vehicle 4 by the driver, a state of the vehicle 4, an acceleration of the vehicle 4, and a deceleration.

難解地点は、運転者が車両4に加えた運転操作、または車両4の挙動に基づいて判定することができる場合がある。難解地点を示す車両挙動の一例は、交差点など候補地点を示す候補範囲内における急減速、すなわち急ブレーキ操作である。他の一例は、候補範囲内における徐行状態である。他の一例は、候補範囲内における停止である。さらに他の一例は、候補範囲内における蛇行操舵である。さらに、減速と蛇行操舵といった複数の車両挙動の組み合わせによって難解地点を判定してもよい。   The difficult point may be determined based on the driving operation applied to the vehicle 4 by the driver or the behavior of the vehicle 4. An example of a vehicle behavior indicating a difficult point is a sudden deceleration within a candidate range indicating a candidate point such as an intersection, that is, a sudden braking operation. Another example is a slow state within the candidate range. Another example is a stop within the candidate range. Yet another example is meandering steering within the candidate range. Further, the difficult point may be determined by a combination of a plurality of vehicle behaviors such as deceleration and meandering steering.

難解地点を判定するために、観測された車両の挙動と、予め設定された基準挙動とが比較される。観測された車両挙動が基準挙動を逸脱している場合に、その地点は難解地点であると判定することができる。基準挙動は、難解地点において多くの車両にあらわれる挙動に基づいて予め設定することができる。基準挙動は、標準挙動とも呼ぶことができる。基準挙動は、特定の運転者の個性に適合するように調整することができる。このような調整は、手動の調節により、または後述の学習処理によって提供することができる。   In order to determine the difficult point, the observed vehicle behavior is compared with a preset reference behavior. When the observed vehicle behavior deviates from the reference behavior, it can be determined that the point is a difficult point. The reference behavior can be set in advance based on behaviors that appear in many vehicles at difficult points. The reference behavior can also be called standard behavior. The reference behavior can be adjusted to suit a particular driver's personality. Such adjustment can be provided by manual adjustment or by a learning process described below.

難解地点は、運転者の挙動に基づいて判定することができる場合がある。例えば、運転者の体の動き、声、心拍などの挙動に基づいて、運転者が難解な地点を走行したか否かを判定することができる。具体的には、顔にあらわれる表情、目の動き、頭の動きを利用できる。また、運転者が経路を間違えたときに出す声を利用できる。より具体的には、「あっつ!」、「しまった!」、「間違えた!」、「あれ?」といった声を利用できる。また、心拍数の急激な変化を利用することができる。   The difficult point may be determined based on the behavior of the driver. For example, it is possible to determine whether or not the driver has traveled a difficult point based on the behavior of the driver's body, voice, heartbeat, and the like. Specifically, facial expressions, eye movements, and head movements appearing on the face can be used. In addition, a voice that is output when the driver makes a mistake in the route can be used. More specifically, voices such as “Hatsu!”, “I got it!”, “I made a mistake!”, “That?” Can be used. Also, rapid changes in heart rate can be used.

難解地点を判定するために、観測された運転者の挙動と、予め設定された基準挙動とが比較される。観測された運転者挙動が基準挙動を逸脱している場合に、その地点は難解地点であると判定することができる。基準挙動は、難解地点において多くの運転者が示す挙動に基づいて予め設定することができる。基準挙動は、標準挙動とも呼ぶことができる。基準挙動は、特定の運転者の個性に適合するように調整することができる。このような調整は、手動の調節により、または後述の学習処理によって提供することができる。   In order to determine the difficult point, the observed behavior of the driver is compared with a preset reference behavior. When the observed driver behavior deviates from the standard behavior, it can be determined that the point is a difficult point. The reference behavior can be set in advance based on behaviors exhibited by many drivers at difficult points. The reference behavior can also be called standard behavior. The reference behavior can be adjusted to suit a particular driver's personality. Such adjustment can be provided by manual adjustment or by a learning process described below.

難解地点は、車両4が経路案内のための予定された設定経路から離脱したことに基づいて判定することができる場合がある。車両装置5によって経路案内を実行しているときに、車両4が交差点において経路から離脱した場合、その交差点は難解交差点である可能性がある。   The difficult point may be determined based on the fact that the vehicle 4 has left the set route scheduled for route guidance. When the vehicle apparatus 5 performs route guidance, if the vehicle 4 leaves the route at the intersection, the intersection may be a difficult intersection.

ステップ131は、運転者が道路構造または進路を理解することが困難な道路上の難解地点を判定する判定部を提供する。判定部は、車両の挙動、および/または運転者の挙動と基準との比較に基づいて難解地点を判定する。難解地点が自動的に判定されるから、運転支援用の画像を自動的に提供できる。   Step 131 provides a determination unit that determines difficult points on the road where it is difficult for the driver to understand the road structure or course. The determination unit determines a difficult point based on a comparison between the behavior of the vehicle and / or the behavior of the driver and the reference. Since the difficult point is automatically determined, an image for driving support can be automatically provided.

ステップ132では、難解地点を撮影した画像が原画像として取り出される。この画像は、車両4からカメラ5dによって撮影された生の画像である。原画像は、難解地点に到達する直前にカメラ5dによって撮影された少なくとも1つの静止画像を含む。そのような画像には、難解地点がその道路構造を見ることができるように映っている可能性が高い。原画像は、難解地点に到達する前の所定区間、または難解地点を含む所定区間において撮影された複数の静止画像、または動画とすることができる。原画像は、難解地点を含む所定走行距離または所定走行期間に撮影された複数の静止画像、または動画から選択的に取り出すことができる。   In step 132, an image obtained by capturing a difficult point is extracted as an original image. This image is a raw image taken from the vehicle 4 by the camera 5d. The original image includes at least one still image taken by the camera 5d immediately before reaching the difficult point. In such an image, there is a high possibility that a difficult point appears so that the road structure can be seen. The original image may be a plurality of still images or moving images taken in a predetermined section before reaching the difficult point or a predetermined section including the difficult point. The original image can be selectively extracted from a plurality of still images or moving images taken during a predetermined travel distance or a predetermined travel period including a difficult point.

ステップ133では、原画像に基づいて、ステップ131における難解地点であるとの判定が検証される。この検証は、原画像に写っている地点が難解地点であるか否かを検証する処理でもある。ステップ131における難解地点の判定は、エラーを含む場合がある。ステップ133では、難解地点である可能性が所定値を下回ると、原画像を廃棄し、後続の処理をスキップしてステップ131へ戻る。この処理により、難解地点の判定の正確さを向上することができる。   In step 133, the determination that the point is a difficult point in step 131 is verified based on the original image. This verification is also a process of verifying whether or not the point shown in the original image is a difficult point. The determination of the difficult point in step 131 may include an error. In step 133, if the possibility of being a difficult point falls below a predetermined value, the original image is discarded, the subsequent processing is skipped, and the process returns to step 131. By this processing, the accuracy of the determination of the difficult point can be improved.

難解地点において観測されることがある車両挙動、運転者挙動、経路逸脱などの難解地点を示す事象は、他の原因によっても発生することがある。このような難解地点以外の原因は、その地点において撮影された原画像に写っている可能性がある。難解地点以外の原因を示す事物は、エラー事物と呼ぶことができる。判定部による判定の検証は、原画像の中にエラー事物が写っているか否かを判定することにより実行できる。   Events that indicate difficult points such as vehicle behavior, driver behavior, and route deviation that may be observed at difficult points may occur due to other causes. There is a possibility that causes other than such difficult points are reflected in the original image taken at that point. Things that indicate causes other than esoteric points can be called error things. Verification of determination by the determination unit can be executed by determining whether or not an error thing is reflected in the original image.

この処理のために、難解地点以外の原因に起因して原画像に写ることがあるエラー事物が予め車両用ナビゲーションシステム1に登録され、記憶される。さらに、原画像を画像処理にすることにより、エラー事物が写っているか否かを判定する。原画像に、エラー事物が写っている場合、ステップ131における判定がエラーであると判定でき、エラー処理を実行することができる。ステップ131における判定がエラーである場合、ステップ132において得られた原画像を破棄することができる。ステップ131における判定がエラーであると判定できない場合、原画像に基づいて難解地点における運転を支援するための画像を提供する提供処理を含む後続の処理が実行される。すなわち、検証部によって判定部による難解地点の判定が正しいことが検証された場合に、後続の提供処理が実行される。検証部は、難解地点の判定が正しいことが検証されない場合に、原画像を廃棄する。検証部によって難解地点の判定が正しいことが検証されない場合、後続の提供処理は実行されない。   For this processing, error things that may appear in the original image due to causes other than the difficult points are registered and stored in the vehicle navigation system 1 in advance. Further, it is determined whether or not an error thing is captured by performing image processing on the original image. When an error thing is reflected in the original image, it can be determined that the determination in step 131 is an error, and error processing can be executed. If the determination in step 131 is an error, the original image obtained in step 132 can be discarded. If it is not possible to determine that the determination in step 131 is an error, subsequent processes including a providing process for providing an image for supporting driving at a difficult point based on the original image are executed. That is, when the verification unit verifies that the determination of the difficult point by the determination unit is correct, the subsequent providing process is executed. The verification unit discards the original image when it is not verified that the difficult point determination is correct. If it is not verified by the verification unit that the determination of the difficult point is correct, the subsequent providing process is not executed.

車両挙動または運転者挙動に基づいて難解地点が判定された場合、誤った判定である可能性がある。難解地点において観測されることがある車両挙動または運転者挙動は、他の原因に基づいてもたらされることもあるからである。例えば、交差点における急ブレーキは、難解交差点に起因して発生する場合、前方車両の急ブレーキに起因して発生する場合、歩行者との接近に起因して発生する場合など多くの原因がある。エラー事物の一例は、至近距離における前方車両の急ブレーキを示す所定面積を上回る赤く点灯したブレーキランプである。エラー事物の他の一例は、至近距離における歩行者の存在である。   When the difficult point is determined based on the vehicle behavior or the driver behavior, there is a possibility that the determination is incorrect. This is because the vehicle behavior or the driver behavior that may be observed at the difficult point may be brought about based on other causes. For example, there are many causes for sudden braking at an intersection, such as when it occurs due to an esoteric intersection, when it occurs due to sudden braking of a preceding vehicle, or when it occurs due to an approach with a pedestrian. An example of an error thing is a brake lamp that is lit in red and exceeds a predetermined area indicating a sudden braking of the vehicle ahead at a close distance. Another example of an error thing is the presence of a pedestrian at close range.

ステップ134では、原画像が車両装置5からセンタ装置3へ送信される。ステップ134は、原画像を車両装置5からセンタ装置3へ送信する送信部を提供する。送信される原画像は、ひとつまたは複数である。ステップ134では、ひとつの難解地点の画像、または複数の難解地点の画像を送信することができる。   In step 134, the original image is transmitted from the vehicle device 5 to the center device 3. Step 134 provides a transmission unit that transmits the original image from the vehicle device 5 to the center device 3. One or a plurality of original images are transmitted. In step 134, an image of one difficult point or an image of a plurality of difficult points can be transmitted.

車両4におけるカメラ5dの設置位置は、複数の車両4毎に異なる場合がある。また、カメラ5dの機種は、複数の車両4ごとに異なる場合がある。ステップ134において送信される画像には、カメラ5dの機種、位置、撮影範囲などの撮影条件に関する情報が付加されている。撮影条件には、撮影時の走行車線、日時などの情報を含ませることができる。このような情報は、複数の車両4毎の原画像の差を認識し、画像を修正するために利用される。   The installation position of the camera 5d in the vehicle 4 may be different for each of the plurality of vehicles 4. The model of the camera 5d may be different for each of the plurality of vehicles 4. Information relating to shooting conditions such as the model, position, and shooting range of the camera 5d is added to the image transmitted in step 134. The shooting conditions can include information such as the travel lane and date / time at the time of shooting. Such information is used for recognizing the difference between the original images for each of the plurality of vehicles 4 and correcting the image.

原画像が撮影されたときの車両4の位置は、複数の車両4それぞれにおいて異なる場合がある。ステップ134において送信される画像には、撮影位置を示す情報が付加されている。例えば、原画像の撮影位置と、交差点の中心点など基準となる地点との間の距離を示す情報が付加される。このような情報は、複数の車両4毎の原画像の差を認識し、画像を修正するために利用される。   The position of the vehicle 4 when the original image is taken may be different in each of the plurality of vehicles 4. Information indicating the shooting position is added to the image transmitted in step 134. For example, information indicating the distance between the shooting position of the original image and a reference point such as the center point of an intersection is added. Such information is used for recognizing the difference between the original images for each of the plurality of vehicles 4 and correcting the image.

ステップ134の処理は、難解地点の存在およびその位置をセンタ装置3に通報する処理でもある。この処理により、センタ装置3は、難解地点の存在を知ることができる。さらに、センタ装置3は、難解地点の存在の通報に応答して、難解地点において運転者を支援するための支援情報を後続の他の車両4に対して提供する処理を実行することができる。   The process of step 134 is also a process of notifying the center device 3 of the existence and position of the difficult point. By this processing, the center apparatus 3 can know the existence of the difficult point. Further, the center device 3 can execute a process of providing support information for assisting the driver at the difficult point to the subsequent vehicle 4 in response to the notification of the existence of the difficult point.

ステップ135では、ステップ131における難解地点を判定するための基準を修正するための学習処理が実行される。ステップ135は、難解地点において観測された車両の挙動、および/または運転者の挙動に基づいて、基準を修正する学習部を提供する。ステップ135では、難解地点である可能性が所定水準を上回る場合を検出し、その場合に観測された車両挙動、または運転者挙動に基づいて、難解地点を示す基準が修正される。難解地点を示す基準は、閾値、または難解地点に相当する挙動そのものによって与えられる。交差点で分岐先を迷った場合に観測される車両挙動および運転者挙動は、運転者それぞれに依存する。この処理により、難解地点の判定の正確さを向上することができる。   In step 135, a learning process for correcting the criterion for determining the difficult point in step 131 is executed. Step 135 provides a learning unit that corrects the reference based on the behavior of the vehicle observed at the difficult point and / or the behavior of the driver. In step 135, the case where the possibility of being a difficult point exceeds a predetermined level is detected, and the criterion indicating the difficult point is corrected based on the vehicle behavior or the driver behavior observed in that case. The reference indicating the difficult point is given by a threshold value or a behavior corresponding to the difficult point. The vehicle behavior and the driver behavior observed when the branch destination is lost at an intersection depends on each driver. By this processing, the accuracy of the determination of the difficult point can be improved.

基準の修正の一例は、センサによって観測された挙動と、所定の基準値とを比較し、その結果によって難解地点が示される場合によって説明される。例えば、所定の基準値を上回る大きい挙動が検出された場合に難解地点であると判定する場合である。このような場合、難解地点である可能性が高い場合に観測された挙動に基づいて、基準値が修正される。   An example of the correction of the reference is explained by the case where the behavior observed by the sensor is compared with a predetermined reference value, and the result indicates a difficult point. For example, it is a case where it is determined that the point is a difficult point when a large behavior exceeding a predetermined reference value is detected. In such a case, the reference value is corrected based on the behavior observed when the possibility of the difficult point is high.

一例においては、難解地点において観測されたブレーキ操作量に基づいて、難解地点を判定するためのブレーキ操作量の基準値が修正される。観測されたブレーキ操作量が、現在の基準値より小さい場合、基準値は、現在の値より小さくなるように修正される場合がある。観測されたブレーキ操作量が、現在の基準値より大きい場合、基準値は、現在の値より大きくなるように修正される場合がある。   In one example, the reference value of the brake operation amount for determining the difficult point is corrected based on the brake operation amount observed at the difficult point. If the observed brake operation amount is smaller than the current reference value, the reference value may be corrected to be smaller than the current value. If the observed amount of brake operation is greater than the current reference value, the reference value may be modified to be greater than the current value.

他の一例においては、難解地点において観測された蛇行操舵の操舵幅に基づいて、難解地点を判定するための操舵幅の基準値が修正される。観測された操舵幅が、現在の基準値より小さい場合、基準値は、現在の値より小さくなるように修正される場合がある。観測された操舵幅が、現在の基準値より大きい場合、基準値は、現在の値より大きくなるように修正される場合がある。   In another example, the reference value of the steering width for determining the difficult point is corrected based on the steering width of the meandering steering observed at the difficult point. If the observed steering width is smaller than the current reference value, the reference value may be modified to be smaller than the current value. If the observed steering width is greater than the current reference value, the reference value may be modified to be greater than the current value.

他の一例においては、難解地点において観測された運転者の脈拍変化量に基づいて、難解地点を判定するための脈拍変化量の基準値が修正される。観測された脈拍変化量が、現在の基準値より小さい場合、基準値は、現在の値より小さくなるように修正される場合がある。観測された脈拍変化量操舵幅が、現在の基準値より大きい場合、基準値は、現在の値より大きくなるように修正される場合がある。   In another example, the reference value of the pulse change amount for determining the difficult point is corrected based on the driver's pulse change amount observed at the difficult point. If the observed pulse variation is less than the current reference value, the reference value may be modified to be less than the current value. When the observed pulse change amount steering width is larger than the current reference value, the reference value may be corrected to be larger than the current value.

基準の修正の他の一例は、難解地点である可能性が高い場合に観測された運転者挙動を、その運転者に特有の「難解地点を示す基準」として設定する場合である。一例においては、難解地点において観測された運転者の声が、難解地点を判定するための基準の声として設定されるように基準が修正される。ある運転者は難解地点において「しまった!」と発声し、他の運転者は難解地点において「おー!」と発声する場合がある。このような運転者の個性に適合した基準を設定するために、前者の場合には「しまった!」を基準として設定し、後者の場合には「おー!」を基準として設定することができる。   Another example of the correction of the reference is a case where the driver behavior observed when the possibility of the difficult point is high is set as a “reference indicating the difficult point” unique to the driver. In one example, the reference is modified so that the driver's voice observed at the difficult point is set as a reference voice for determining the difficult point. One driver may say “I got it!” At a difficult point, and another driver may say “Oh!” At a difficult point. In order to set a standard that suits the driver's personality, the former case can be set with “Shit!” As the reference, and in the latter case with “Oh!” it can.

ステップ141では、センタ装置3は、複数の車両装置5から送信された原画像を受信する。ステップ142では、受信された原画像がメモリ装置3bに蓄積される。ここでは、地点ごとに原画像が蓄積される。ひとつの地点に関して、異なる複数の原画像を蓄積することができる。   In step 141, the center apparatus 3 receives the original images transmitted from the plurality of vehicle apparatuses 5. In step 142, the received original image is stored in the memory device 3b. Here, the original image is accumulated for each point. A plurality of different original images can be accumulated for one point.

ステップ141とステップ142とは、所定の地点、すなわち難解地点において撮影された原画像を取得する取得部を提供する。取得部は、それぞれの原画像の撮影条件を示す情報を取得する。取得部は、ステップ141によって提供され、送信部から送信された原画像を受信するセンタ受信部を含む。取得部は、ステップ142によって提供され、複数の原画像を蓄積する蓄積部を含む。   Step 141 and step 142 provide an acquisition unit that acquires an original image taken at a predetermined point, that is, a difficult point. The acquisition unit acquires information indicating the shooting conditions of each original image. The acquisition unit includes a center reception unit that is provided in step 141 and receives the original image transmitted from the transmission unit. The acquisition unit is provided by step 142 and includes an accumulation unit that accumulates a plurality of original images.

ステップ143では、センタ装置3において、原画像が示す地点が、クリーン画像を提供すべき難解地点として妥当であるか否かを確認する処理が実行される。この確認処理は、オペレータが原画像を見て、判定を下すことによって実施することができる。また、この確認処理には、ひとつの地点に関して、所定の閾値を上回る複数の原画像が蓄積されているか否かの判定を含むことができる。この判定が肯定的である場合、多数の車両4において難解地点であるとの判定がなされたことを示している。この場合、その地点を難解地点であると扱って、後述のクリーン画像を提供することが望ましいと考えられる。ステップ143において難解地点としての妥当性が肯定された場合に、ステップ144が実行される。ステップ143において難解地点としての妥当性が否定された場合には、その地点に関するステップ144の実行は先送りされる。   In step 143, the center device 3 executes a process of confirming whether or not the point indicated by the original image is appropriate as a difficult point to provide the clean image. This confirmation processing can be performed by the operator viewing the original image and making a determination. In addition, the confirmation process can include a determination as to whether or not a plurality of original images exceeding a predetermined threshold are accumulated for one point. When this determination is affirmative, it is indicated that the determination of being a difficult point in many vehicles 4 has been made. In this case, it is considered desirable to treat the point as a difficult point and provide a clean image described later. If the validity of the difficult point is affirmed in step 143, step 144 is executed. If the validity of the difficult point is denied in step 143, the execution of step 144 for that point is postponed.

ステップ143は、原画像が撮影された地点が、クリーン画像を作成すべき地点として妥当であることを確認する確認部を提供する。確認部は、妥当であると確認した場合に、作成部によるクリーン画像の作成を許容する。確認部は、所定の閾値を越える数の原画像が蓄積された場合に、クリーン画像を作成すべき地点として妥当であることを確認する。   Step 143 provides a confirmation unit for confirming that the point where the original image was taken is appropriate as the point where the clean image is to be created. When the confirmation unit confirms that it is appropriate, the creation unit allows the creation of a clean image. When the number of original images exceeding a predetermined threshold is accumulated, the confirmation unit confirms that it is appropriate as a point where a clean image is to be created.

ステップ144では、原画像に基づいてクリーン画像が作成される。ステップ144では、他の車両および歩行者などの移動体が写っていない難解地点のクリーン画像が作成される。クリーン画像の作成は、ひとつの地点に関して蓄積された複数の原画像から、移動体が写っていない原画像を選択する処理により実行できる場合がある。また、クリーン画像の作成は、原画像から他の車両および歩行者などの移動体を消去することにより実行される場合がある。   In step 144, a clean image is created based on the original image. In step 144, a clean image of a difficult point where a moving body such as another vehicle or a pedestrian is not captured is created. The creation of a clean image may be executed by a process of selecting an original image that does not show a moving object from a plurality of original images accumulated for one point. In addition, the creation of a clean image may be executed by erasing other vehicles and moving objects such as pedestrians from the original image.

クリーン画像の作成は、オペレータが原画像を加工し、修正することによって実施することができる。このようなマニュアル処理においては、対象地点に関して蓄積された複数の原画像に基づいてクリーン画像を作成する作業が実行される。また、クリーン画像の作成は、複数の原画像に基づいてひとつまたは複数のクリーン画像を自動的に生成する画像処理プログラムによって実施することができる。   A clean image can be created by an operator processing and correcting an original image. In such manual processing, an operation of creating a clean image based on a plurality of original images accumulated for the target point is executed. The creation of a clean image can be performed by an image processing program that automatically generates one or a plurality of clean images based on a plurality of original images.

クリーン画像の生成工程には、基礎画像の選定、基礎画像における移動体の認識、移動体を消去するための背景画像を提供できる他の原画像の選定、および基礎画像の他の原画像との合成といった複数の工程が含まれる。マニュアル処理においても、画像処理プログラムによる自動化処理においても、画像はメモリ装置3bに一時的に記憶される。   The clean image generation process includes selection of a basic image, recognition of a moving object in the basic image, selection of another original image that can provide a background image for erasing the moving object, and comparison with other original images of the basic image Multiple steps such as synthesis are included. The image is temporarily stored in the memory device 3b both in the manual processing and in the automation processing by the image processing program.

基礎画像の選定は、複数の原画像から、難解地点をわかりやすく示す原画像を選定することによって実行できる。例えば、撮影位置が、難解地点、例えば難解交差点の基準点から所定の範囲にある原画像を、基礎画像として選定することができる。また、難解交差点に接続している道路の幅員に基づいて設定される所定の条件を満たす原画像を、基礎画像として選定することができる。基礎画像における移動体の認識は、車両または歩行者を示す予め設定された基準形状に基づいて実行することができる。   The selection of the basic image can be performed by selecting an original image that shows the difficult-to-understand points in an easily understandable manner from a plurality of original images. For example, an original image whose shooting position is within a predetermined range from a difficult point, for example, a reference point of a difficult intersection can be selected as a basic image. In addition, an original image that satisfies a predetermined condition set based on the width of a road connected to a difficult intersection can be selected as a basic image. Recognition of the moving body in the basic image can be executed based on a preset reference shape indicating a vehicle or a pedestrian.

他の原画像の選定は、基礎画像と類似の原画像を選定することによって実行できる。例えば、撮影位置が基礎画像の撮影位置から所定範囲内である原画像を、他の原画像として選定することができる。また、画像内における特徴的な物、例えば道路標識の位置、形状に注目し、それらが基礎画像と同じように映っている原画像を、他の原画像として選定することができる。具体的には、停止線、または横断歩道を利用することができる。また、交差点内の範囲を認識する画像処理を利用してもよい。   Other original images can be selected by selecting an original image similar to the basic image. For example, an original image whose shooting position is within a predetermined range from the shooting position of the basic image can be selected as another original image. In addition, paying attention to the characteristic objects in the image, for example, the position and shape of the road sign, an original image in which they appear in the same manner as the basic image can be selected as another original image. Specifically, a stop line or a pedestrian crossing can be used. Moreover, you may utilize the image process which recognizes the range in an intersection.

基礎画像と他の画像(部分)との合成においては、撮影位置に基づく補正、日時に基づく影の補正といった補正処理が実行される。撮影位置に基づく補正には、原画像の撮影時における走行車線の違いに基づく左右方向の補正を含むことができる。撮影位置に基づく補正には、カメラ5dの高さの差に基づく高さ方向の補正を含むことができる。基礎画像に移動体を消すように、他の原画像の部分を基礎画像に合成することにより、少なくともひとつの移動体が消去されたクリーン画像が生成される。   In the synthesis of the basic image and another image (part), correction processing such as correction based on the shooting position and shadow correction based on the date and time is executed. The correction based on the shooting position can include a correction in the left-right direction based on the difference in the driving lane when the original image is shot. The correction based on the photographing position can include correction in the height direction based on the height difference of the camera 5d. A clean image in which at least one moving object is deleted is generated by combining another original image portion with the basic image so that the moving object is deleted from the basic image.

ステップ144は、ひとつの原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像を作成する作成部を提供する。クリーン画像は、難解地点における運転を支援するための画像として作成される。作成部は、複数の原画像に基づいてクリーン画像を作成する。この作成部は、それぞれの原画像に付属の撮影条件に基づいて複数の原画像を合成する。作成部は、ひとつの原画像における移動体が写っている範囲に、他の原画像における部分画像を合成することにより移動体が消去されたクリーン画像を作成する。よって、移動体を消去しても、実際の風景に近い画像が提供される。   Step 144 provides a creation unit that creates a clean image in which at least a part of another vehicle and / or a moving object such as a pedestrian is deleted from one original image. The clean image is created as an image for supporting driving at a difficult point. The creation unit creates a clean image based on a plurality of original images. The creating unit synthesizes a plurality of original images based on the shooting conditions attached to each original image. The creation unit creates a clean image from which the moving object is erased by synthesizing the partial images of the other original images within a range in which the moving object is reflected in one original image. Therefore, even if the moving body is deleted, an image close to the actual landscape is provided.

ステップ145では、クリーン画像がセンタ装置3から車両装置5へ配信される。センタ装置3に設けられたステップ145は、クリーン画像を車両装置5に配信する配信部を提供する。クリーン画像の配信は、複数の車両4に向けて実行することができる。また、クリーン画像の配信は、車両4からの要求に応答して実行することができる。また、クリーン画像の配置は、ひとつの難解地点に到達しようとしている車両4に対して実行されてもよい。   In step 145, the clean image is distributed from the center device 3 to the vehicle device 5. Step 145 provided in the center device 3 provides a distribution unit that distributes the clean image to the vehicle device 5. The delivery of the clean image can be executed toward a plurality of vehicles 4. In addition, the delivery of the clean image can be executed in response to a request from the vehicle 4. Further, the arrangement of the clean image may be executed for the vehicle 4 that is about to reach one difficult point.

ステップ136では、車両装置5によって、クリーン画像が受信される。ステップ136は、配信部から配信されたクリーン画像を受信しメモリ装置5bに記憶する車両受信部を提供する。   In step 136, a clean image is received by the vehicle device 5. Step 136 provides a vehicle receiver that receives the clean image distributed from the distributor and stores it in the memory device 5b.

ステップ137では、車両装置5によってクリーン画像が運転者に提供される。ここでは、クリーン画像が表示器5eに表示される。車両装置5は、経路案内のためにクリーン画像を利用する。例えば、車両装置5は、車両4が難解地点に到達する前に、クリーン画像を表示器5eに表示する。   In step 137, a clean image is provided to the driver by the vehicle device 5. Here, a clean image is displayed on the display 5e. The vehicle device 5 uses a clean image for route guidance. For example, the vehicle device 5 displays a clean image on the display 5e before the vehicle 4 reaches a difficult point.

このとき、経路案内が実行されている場合には、クリーン画像の上に案内記号を重ねて表示することができる。案内記号は、経路を示す矢印、または、分岐路において選択可能な複数の分岐方向を示す多頭矢印である。クリーン画像と案内記号とを含む画像は案内画像と呼ぶことができる。案内記号は、車両装置5においてクリーン画像上に合成することができる。案内記号は、センタ装置3においてクリーン画像上に合成してもよい。クリーン画像および案内画像は、運転支援用の画像である。   At this time, when route guidance is being executed, a guidance symbol can be displayed over the clean image. The guide symbol is an arrow indicating a route or a multi-headed arrow indicating a plurality of branching directions that can be selected in the branch path. An image including a clean image and a guidance symbol can be called a guidance image. The guide symbol can be synthesized on the clean image in the vehicle device 5. The guide symbol may be synthesized on the clean image in the center device 3. The clean image and the guidance image are images for driving support.

ステップ132−134、141−145、および136−137は、難解地点において撮影された原画像に基づいて、難解地点における運転を支援するための画像を提供する提供部を提供している。この実施形態では、少なくとも作成部144と配信部145と車両受信部136と表示部137とにより提供部が提供されている。ステップ137は、難解地点を走行するときにメモリ装置5bに記憶されたクリーン画像を表示器5eに表示する表示部を提供する。   Steps 132-134, 141-145, and 136-137 provide a providing unit that provides an image for supporting driving at the difficult point based on the original image taken at the difficult point. In this embodiment, a providing unit is provided by at least the creation unit 144, the distribution unit 145, the vehicle reception unit 136, and the display unit 137. Step 137 provides a display unit for displaying the clean image stored in the memory device 5b on the display 5e when traveling through the difficult point.

ステップ131−137、および141−145は、難解地点において撮影された原画像に基づいて、難解地点における運転を支援するための画像を提供する画像配信処理を提供している。この実施形態では、ステップ124が提供する標識表示処理またはステップ131−145が提供する画像配信処理は、ステップ123によって撮影された画像を利用する利用部を提供する。   Steps 131-137 and 141-145 provide image distribution processing for providing an image for supporting driving at the difficult point based on the original image taken at the difficult point. In this embodiment, the sign display process provided in step 124 or the image distribution process provided in steps 131-145 provides a utilization unit that uses the image taken in step 123.

図5は、難解地点、例えば難解交差点を判定する処理150を示す。処理150は、ステップ131の一例を示す。処理150は、車両装置5によって実行される。   FIG. 5 shows a process 150 for determining difficult points, for example, difficult intersections. Process 150 shows an example of step 131. Process 150 is executed by vehicle device 5.

ステップ151では、候補地点が抽出される。候補地点は、難解地点になる可能性がある地点である。難解交差点を判定する場合、メモリ装置5bに登録された複数の交差点から、運転者が進行方向を迷いそうな難解な交差点が抽出される。   In step 151, candidate points are extracted. Candidate points are points that can be difficult points. When determining an esoteric intersection, an esoteric intersection where the driver is likely to get lost in the traveling direction is extracted from a plurality of intersections registered in the memory device 5b.

ステップ152では、車両4が候補地点に到達したか否かが判定される。ここで否定的に判定される場合、ステップ151へ戻る。肯定的に判定される場合、ステップ153へ進む。   In step 152, it is determined whether or not the vehicle 4 has reached the candidate point. If the determination is negative, the process returns to step 151. If the determination is positive, go to step 153.

ステップ153では、候補地点において車両4が経路案内のための設定経路から離脱したか否かが判定される。交差点などにおいて設定経路から離脱した場合、その交差点が難解地点である可能性が高い。ステップ153では、車両4が設定経路から離脱した場合に、候補地点が難解地点であると判定される。   In step 153, it is determined whether or not the vehicle 4 has left the set route for route guidance at the candidate point. When leaving the set route at an intersection or the like, there is a high possibility that the intersection is a difficult point. In step 153, when the vehicle 4 leaves the set route, it is determined that the candidate point is a difficult point.

ステップ154では、候補地点において観測された車両挙動と基準とが比較される。ステップ154では、観測された車両挙動が基準を逸脱したか否かが判定される。観測された車両挙動が基準を逸脱する場合、候補地点が難解地点であると判定される。   In step 154, the vehicle behavior observed at the candidate point is compared with the reference. In step 154, it is determined whether the observed vehicle behavior deviates from the reference. If the observed vehicle behavior deviates from the standard, it is determined that the candidate point is a difficult point.

ステップ155では、候補地点において観測された運転者挙動と基準とが比較される。ステップ154では、観測された運転者挙動が基準を逸脱したか否かが判定される。観測された運転者挙動が基準を逸脱する場合、候補地点が難解地点であると判定される。   In step 155, the driver behavior observed at the candidate point is compared with the reference. In step 154, it is determined whether the observed driver behavior has deviated from the reference. If the observed driver behavior deviates from the standard, it is determined that the candidate point is a difficult point.

ステップ156では、ステップ153−155における判定処理(1)、(2)、(3)のいずれかによって、候補地点が難解地点であることが示されているか否かを判定する。判定処理(1)、(2)、(3)のいずれかひとつによって候補地点が難解地点であることが示されている場合、ステップ132へ進む。ステップ156において否定的に判定される場合、ステップ151へ戻る。   In step 156, it is determined whether or not the candidate point is indicated as a difficult point by any one of the determination processes (1), (2), and (3) in steps 153-155. If any one of the determination processes (1), (2), and (3) indicates that the candidate point is a difficult point, the process proceeds to step 132. If the determination in step 156 is negative, the process returns to step 151.

図6は、難解地点であるとの判定を原画像に基づいて検証する処理160を示す。処理160は、ステップ133の一例を示す。処理150は、車両装置5によって実行される。   FIG. 6 shows a process 160 for verifying that it is a difficult point based on the original image. The process 160 shows an example of step 133. Process 150 is executed by vehicle device 5.

ステップ161では、難解地点の検出原因が車両挙動または運転者挙動であったか否かが判定される。よって、ステップ154またはステップ155において肯定的に判定された場合に、ステップ161において肯定的な判定が得られる。ステップ161において否定的に判定される場合、ステップ134へ進む。ステップ161において肯定的に判定される場合、ステップ162へ進む。   In step 161, it is determined whether or not the cause of detection of the difficult point is vehicle behavior or driver behavior. Thus, when a positive determination is made at step 154 or step 155, a positive determination is obtained at step 161. If the determination in step 161 is negative, the process proceeds to step 134. If the determination in step 161 is affirmative, the process proceeds to step 162.

ステップ162では、原画像においてエラー事物を探索する画像認識処理が実行される。ステップ163では、原画像にエラー事物があるか否かが判定される。ステップ163において否定的に判定される場合、ステップ134へ進む。ステップ163において肯定的に判定される場合、ステップ164へ進む。ステップ164では、ステップ132において得られた原画像を破棄する。その後、ステップ131へ戻る。   In step 162, image recognition processing for searching for an error thing in the original image is executed. In step 163, it is determined whether there is an error in the original image. If the determination in step 163 is negative, the process proceeds to step 134. If the determination in step 163 is affirmative, the process proceeds to step 164. In step 164, the original image obtained in step 132 is discarded. Thereafter, the process returns to step 131.

図7は、難解地点を示す基準を学習するための処理170を示す。処理170は、ステップ135の一例を示す。処理170は、車両装置5によって実行される。   FIG. 7 shows a process 170 for learning a criterion indicating a difficult point. Process 170 shows an example of step 135. The process 170 is executed by the vehicle device 5.

ステップ171では、ステップ153−155における判定処理(1)、(2)、(3)の複数によって、候補地点が難解地点であることが示されているか否かを判定する。判定処理(1)、(2)、(3)の少なくとも2つによって候補地点が難解地点であることが示されている場合、ステップ172へ進む。ステップ171において否定的に判定される場合、ステップ132へ戻る。   In step 171, it is determined whether or not the candidate point is indicated as a difficult point by a plurality of determination processes (1), (2), and (3) in steps 153-155. If at least two of the determination processes (1), (2), and (3) indicate that the candidate point is a difficult point, the process proceeds to step 172. If a negative determination is made in step 171, the process returns to step 132.

この実施形態では、ステップ131が提供する判定部は、複数の判定処理、すなわちステップ153−155を含む。ステップ171は、難解地点の判定の正しさが所定水準以上の高さであることを判定する判定部を提供する。この結果、学習部は、複数の判定処理の少なくとも2つによって難解地点が判定されている場合に、修正を実行する。   In this embodiment, the determination unit provided in step 131 includes a plurality of determination processes, that is, steps 153 to 155. Step 171 provides a determination unit that determines that the correctness of the difficult-to-understand determination is higher than a predetermined level. As a result, the learning unit performs correction when the difficult point is determined by at least two of the plurality of determination processes.

ステップ172では、難解地点において観測された車両挙動に基づいて、車両挙動のための基準が修正される。ステップ173では、難解地点において観測された運転者挙動に基づいて、運転者挙動のための基準が修正される。ステップ173は、難解地点において観測された運転者の挙動、例えば声を基準に設定する場合がある。   In step 172, the criteria for vehicle behavior are modified based on the vehicle behavior observed at the difficult point. In step 173, the criterion for driver behavior is modified based on the driver behavior observed at the difficult point. Step 173 may be set based on the behavior of the driver observed at the difficult point, for example, voice.

図8、図9は、それぞれ、原画像の一例を示す。これらの図には、カメラ5dにより撮影された画像が、図示のために簡単化されて図示されている。原画像RV1と原画像RV2とは、同じ交差点を撮影した画像である。原画像RV1は、ひとつの車両4における難解交差点の判定に応答して取得された原画像である。原画像RV2は、他のひとつの車両4における難解交差点の判定に応答して取得された原画像である。原画像RV1と原画像RV2とは、撮影された日時、位置が異なっている。   8 and 9 each show an example of the original image. In these drawings, an image taken by the camera 5d is simplified for illustration. The original image RV1 and the original image RV2 are images obtained by photographing the same intersection. The original image RV1 is an original image acquired in response to the determination of a difficult intersection in one vehicle 4. The original image RV2 is an original image acquired in response to the determination of the difficult intersection in the other one vehicle 4. The original image RV1 and the original image RV2 are different in the date and time when the image was taken.

原画像RV1、RV2には、交差点の風景が撮影されている。図示されるように、原画像RV1、RV2には、道路標識RSと、風景の一部である建物BDと、風景の一部であるオーバーパスOPとが写っている。この交差点は、面積が広い。このため、向こう側の建物BDが小さく見える。しかも、信号機などの設置物によって視界が遮られている。さらに、オーバーパスOPが広い範囲を覆っており、全体が暗い。これらの原因により、分岐路のそれぞれを認識することが困難である。   The scenery of the intersection is photographed in the original images RV1 and RV2. As illustrated, the original images RV1 and RV2 include a road sign RS, a building BD that is part of the landscape, and an overpass OP that is part of the landscape. This intersection has a large area. For this reason, the building BD on the other side looks small. Moreover, the field of view is obstructed by an installation such as a traffic light. Furthermore, the overpass OP covers a wide range, and the whole is dark. For these reasons, it is difficult to recognize each of the branch paths.

原画像RV1、RV2には、移動体である他の車両VH、および歩行者PDが写っている。このため、原画像RV1、RV2は異なる風景を表している。これらの原画像RV1、RV2を見ただけでは、交差点の形状を正確に認識し、走行するべき分岐路を選択することは容易なことではない。   In the original images RV1 and RV2, another vehicle VH that is a moving body and a pedestrian PD are shown. For this reason, the original images RV1 and RV2 represent different landscapes. Just looking at these original images RV1 and RV2, it is not easy to accurately recognize the shape of the intersection and select a branch road to travel.

図10は、センタ装置3によって合成されたクリーン画像の一例を示す。この図には、カメラ5dで撮影された画像に相当する高精細な画像が、図示のための簡単化されて図示されている。クリーン画像CVは、ステップ144によって合成された画像である。クリーン画像CVには、道路標識RS、および風景の一部である建物BDとオーバーパスOPとが映し出されている。クリーン画像CVには、少なくとも目立つ移動体は写っていない。クリーン画像CVには、背景の建物BDと同一視できるような小さい移動体が写っている場合がある。クリーン画像CVは、原画像RV1、RV2に基づいて合成されたものである。クリーン画像CVは、原画像RV1、RV2と同程度の高精細な画像である。クリーン画像CVは、建物などを模式的なブロックとして示した絵より、写真に近い品質の画像である。   FIG. 10 shows an example of a clean image synthesized by the center device 3. In this figure, a high-definition image corresponding to an image taken by the camera 5d is shown in a simplified manner for illustration. The clean image CV is an image synthesized at step 144. In the clean image CV, the road sign RS, the building BD that is a part of the landscape, and the overpass OP are displayed. The clean image CV does not show at least a conspicuous moving body. The clean image CV may include a small moving object that can be identified with the background building BD. The clean image CV is synthesized based on the original images RV1 and RV2. The clean image CV is a high-definition image comparable to the original images RV1 and RV2. The clean image CV is an image having a quality closer to that of a photograph than a picture showing a building or the like as a schematic block.

図11は、車両装置5によって表示器5eに表示される案内画像の一例を示す。表示器5eに表示される案内画像NVは、クリーン画像CVと同程度の高精細な画像である。案内画像NVは、クリーン画像CVと同じ画像品質をもつことができる。案内画像NVには、車両装置5が有する経路案内機能によって経路案内のための案内記号GSが合成されている。図示の例においては、案内記号GSは、複数の分岐路のうちのひとつへ進入するための進行方向を示している。案内記号GSは、センタ装置3において、または車両装置5においてクリーン画像上に合成することができる。   FIG. 11 shows an example of a guide image displayed on the display 5 e by the vehicle device 5. The guide image NV displayed on the display 5e is a high-definition image comparable to the clean image CV. The guide image NV can have the same image quality as the clean image CV. A guidance symbol GS for route guidance is combined with the guidance image NV by the route guidance function of the vehicle device 5. In the illustrated example, the guide symbol GS indicates a traveling direction for entering one of a plurality of branch paths. The guide symbol GS can be synthesized on the clean image in the center device 3 or the vehicle device 5.

この実施形態によると、難解地点において撮影された原画像から、その難解地点における走行を支援するための画像が作成される。よって、難解地点における実際の風景に基づいて運転支援用の画像が提供される。   According to this embodiment, an image for supporting traveling at the difficult point is created from the original image taken at the difficult point. Therefore, an image for driving support is provided based on the actual scenery at the difficult point.

一例においては、難解地点を通過した先行車両から原画像が提供され、この原画像に基づいて合成されたクリーン画像が後続車両のための案内画像として提供される。クリーン画像は、先行車両から見えた難解地点の風景に基づいて生成されている。このため、後続車両の運転者には、難解地点における実際の見え方に近い案内画像を提供することができる。   In one example, an original image is provided from a preceding vehicle that has passed through a difficult point, and a clean image synthesized based on the original image is provided as a guide image for the following vehicle. The clean image is generated based on the landscape of the difficult point seen from the preceding vehicle. For this reason, the guide image close | similar to the actual way of seeing in a difficult point can be provided to the driver of a succeeding vehicle.

しかも、原画像から、他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像が作成される。よって、移動体に起因する分かり難さが軽減される。この結果、他の移動体に起因する影響が抑制され、運転者が理解しやすい画像を提供できる。   In addition, a clean image is created by deleting at least part of other vehicles and / or moving objects such as pedestrians from the original image. Therefore, the difficulty of understanding due to the moving body is reduced. As a result, it is possible to provide an image that is less affected by other moving objects and is easy for the driver to understand.

(他の実施形態)
以上、開示された発明の好ましい実施形態について説明したが、開示された複数の発明は上述した実施形態に何ら制限されることなく、種々変形して実施することが可能である。上記実施形態の構造は、あくまで例示であって、開示された複数の発明の技術的範囲はこれらの記載の範囲に限定されるものではない。開示された複数の発明は、実施形態において示された組み合わせに限定されることなく、それぞれ独立して実施可能である。開示された複数の発明のいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものである。
(Other embodiments)
The preferred embodiments of the disclosed invention have been described above, but the disclosed inventions are not limited to the above-described embodiments, and various modifications can be made. The structure of the said embodiment is an illustration to the last, Comprising: The technical scope of several disclosed invention is not limited to the range of these description. The disclosed inventions are not limited to the combinations shown in the embodiments, and can be implemented independently. Some technical scopes of the disclosed inventions are indicated by the description of the claims, and include all modifications within the meaning and scope equivalent to the description of the claims.

例えば、制御装置が提供する手段と機能は、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供することができる。例えば、制御装置をアナログ回路によって構成してもよい。   For example, the means and functions provided by the control device can be provided by software only, hardware only, or a combination thereof. For example, the control device may be configured by an analog circuit.

上述の実施形態では、先行して難解地点を通過した複数の車両4によって取得された複数の原画像に基づいて作成されたクリーン画像が、将来に難解地点に到達する後続の他の車両4に提供される場合を説明した。しかし、車両用ナビゲーションシステムにおいては、ひとつの車両4が繰り返して取得した複数の原画像に基づいて作成されたクリーン画像が、同じ車両4に提供される場合もある。   In the above-described embodiment, a clean image created based on a plurality of original images acquired by a plurality of vehicles 4 that have passed through a difficult point in advance is transferred to another subsequent vehicle 4 that reaches the difficult point in the future. Explained when provided. However, in the vehicle navigation system, a clean image created based on a plurality of original images repeatedly acquired by one vehicle 4 may be provided to the same vehicle 4.

上述の実施形態では、ステップ131−145を、センタ装置3と車両装置5とで分散的に実行する構成を説明した。これに代えて、上述の実施形態と異なる処理の分担を採用してもよい。例えば、ステップ131−135の一部または全部をセンタ装置3において実行してもよい。また、ステップ141−145の一部または全部を車両装置5において実行してもよい。   In the above-described embodiment, the configuration in which steps 131 to 145 are executed in a distributed manner by the center device 3 and the vehicle device 5 has been described. Instead of this, sharing of processing different from the above-described embodiment may be adopted. For example, part or all of steps 131 to 135 may be executed in the center device 3. Further, part or all of steps 141 to 145 may be executed in vehicle device 5.

上述の実施形態では、ステップ131−135は、車両4の走行中にリアルタイムで実行される。これに代えて、ステップ131−135は、所定期間にわたる車両4の走行後に実行されてもよい。この場合、車両4の走行中に観測された情報をメモリ装置5bに記憶する処理が付加される。また、ステップ131−135は、記憶された情報に基づいて実行される。   In the above-described embodiment, steps 131 to 135 are executed in real time while the vehicle 4 is traveling. Alternatively, steps 131 to 135 may be executed after the vehicle 4 has traveled over a predetermined period. In this case, a process for storing information observed during the traveling of the vehicle 4 in the memory device 5b is added. Steps 131-135 are executed based on the stored information.

上記実施形態では、他の車両と歩行者との両方を原画像から消去することによりクリーン画像を作成した。これに代えて、他の車両と歩行者とのいずれか一方だけを原画像から消去してクリーン画像を作成してもよい。   In the above embodiment, a clean image is created by deleting both other vehicles and pedestrians from the original image. Alternatively, a clean image may be created by deleting only one of the other vehicle and the pedestrian from the original image.

上述の実施形態では、ステップ124を車両装置5だけにおいて実行する構成を説明した。これに代えて、ステップ124の一部をセンタ装置2において実行してもよい。例えば、標識の画像をセンタ装置3のメモリ装置3bに収集し、収集された画像から、最新かつ高品質な標識の画像を車両装置5に配信して表示してもよい。   In the above-described embodiment, the configuration in which step 124 is executed only in the vehicle device 5 has been described. Instead, a part of step 124 may be executed in the center device 2. For example, the sign image may be collected in the memory device 3b of the center device 3, and the latest and high-quality sign image may be distributed and displayed from the collected image to the vehicle device 5.

1 車両用ナビゲーションシステム、
2 配信センタ、3 センタ装置、
3a センタ処理装置、3b メモリ装置、3c 通信機、
4 車両、5 車両装置、6 通信システム、
5a 車両処理装置、5b メモリ装置、5c 通信機、
5d カメラ、5e 表示器、5f 検出器。
1 Vehicle navigation system,
2 distribution center, 3 center device,
3a Center processing device, 3b memory device, 3c communication device,
4 vehicle, 5 vehicle device, 6 communication system,
5a Vehicle processing device, 5b Memory device, 5c Communication device,
5d camera, 5e indicator, 5f detector.

Claims (6)

所定の地点において撮影された原画像(RV1、RV2)を取得する取得部(141−142)と、
前記原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、前記地点における運転を支援するための画像として作成する作成部(144)とを備え
前記取得部は、複数の原画像を蓄積する蓄積部(142)を含み、
前記作成部(144)は、複数の前記原画像に基づいて前記クリーン画像を作成し、
さらに、前記原画像が撮影された地点が、前記クリーン画像を作成すべき地点として妥当であることを確認した場合に、前記作成部による前記クリーン画像の作成を許容する確認部(143)を備え、
前記確認部は、所定の閾値を越える数の前記原画像が蓄積された場合に、前記クリーン画像を作成すべき地点として妥当であることを確認することを特徴とする車両用ナビゲーションシステム。
An acquisition unit (141-142) for acquiring original images (RV1, RV2) photographed at a predetermined point;
A creation unit (144) that creates a clean image (CV) in which at least a part of another vehicle and / or a moving body such as a pedestrian is deleted from the original image as an image for supporting driving at the point; Prepared ,
The acquisition unit includes a storage unit (142) that stores a plurality of original images,
The creation unit (144) creates the clean image based on a plurality of the original images,
Furthermore, a confirmation unit (143) that allows the creation unit to create the clean image when it is confirmed that the spot where the original image was captured is appropriate as a location where the clean image should be created. ,
The confirmation unit, if the number of the original image exceeds a predetermined threshold stored, vehicle navigation system characterized that you sure that the clean image is appropriate as a point to be prepared.
前記作成部(144)は、ひとつの前記原画像における前記移動体が写っている範囲に、他の前記原画像における部分画像を合成することにより前記移動体が消去された前記クリーン画像を作成することを特徴とする請求項1に記載の車両用ナビゲーションシステム。 The creation unit (144) creates the clean image from which the moving body is erased by synthesizing a partial image in another original image within a range in which the moving body is captured in one original image. The vehicle navigation system according to claim 1 . 前記取得部は、それぞれの前記原画像の撮影条件を示す情報を取得し、
前記作成部は、前記撮影条件に基づいて複数の前記原画像を合成することを特徴とする請求項2に記載の車両用ナビゲーションシステム。
The acquisition unit acquires information indicating shooting conditions of each of the original images,
The vehicle navigation system according to claim 2 , wherein the creating unit synthesizes a plurality of the original images based on the shooting conditions.
所定の地点において撮影された原画像(RV1、RV2)を取得する取得部(141−142)と、
前記原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、前記地点における運転を支援するための画像として作成する作成部(144)とを備え、
前記取得部は、複数の原画像を蓄積する蓄積部(142)を含み、
前記作成部(144)は、複数の前記原画像に基づいて前記クリーン画像を作成し、
前記作成部(144)は、ひとつの前記原画像における前記移動体が写っている範囲に、他の前記原画像における部分画像を合成することにより前記移動体が消去された前記クリーン画像を作成し、
前記取得部は、それぞれの前記原画像の撮影条件を示す情報を取得し、
前記作成部は、前記撮影条件に基づいて複数の前記原画像を合成することを特徴とする車両用ナビゲーションシステム。
An acquisition unit (141-142) for acquiring original images (RV1, RV2) photographed at a predetermined point;
A creation unit (144) that creates a clean image (CV) in which at least a part of another vehicle and / or a moving body such as a pedestrian is deleted from the original image as an image for supporting driving at the point; Prepared,
The acquisition unit includes a storage unit (142) that stores a plurality of original images,
The creation unit (144) creates the clean image based on a plurality of the original images,
The creation unit (144) creates the clean image from which the moving body has been erased by combining the partial images in the other original image within a range in which the moving body is captured in one original image. ,
The acquisition unit acquires information indicating shooting conditions of each of the original images,
The creating unit for a vehicle navigation system, which comprises combining a plurality of said original image based on the photographing condition.
さらに、前記原画像が撮影された地点が、前記クリーン画像を作成すべき地点として妥当であることを確認した場合に、前記作成部による前記クリーン画像の作成を許容する確認部(143)を備えることを特徴とする請求項4に記載の車両用ナビゲーションシステム。  Furthermore, a confirmation unit (143) that allows the creation unit to create the clean image when it is confirmed that the spot where the original image was taken is appropriate as a point where the clean image should be created. The vehicle navigation system according to claim 4. 前記車両用ナビゲーションシステムは、
複数の車両(4)のそれぞれに設けられた複数の車両装置(5)と、
複数の前記車両装置と通信可能に接続されたセンタ装置(3)とを備え、
前記車両装置(5)は、
前記車両の前方を撮影することにより前記原画像を供給するカメラ(5d)と、
前記原画像を前記車両装置から前記センタ装置へ送信する送信部(134)とを備え、
前記センタ装置(3)は、
前記取得部と、
前記作成部と、
さらに、前記クリーン画像を前記車両装置に配信する配信部(145)とを備え、
前記取得部は、前記送信部から送信された前記原画像を受信するセンタ受信部(141)を含み、
前記車両装置(5)は、さらに、
前記配信部から配信された前記クリーン画像を受信し記憶装置(5b)に記憶する車両受信部(136)と、
前記地点を走行するときに前記記憶装置に記憶された前記クリーン画像を表示器(5e)に表示する表示部(137)とを備えることを特徴とする請求項1から請求項5のいずれかに記載の車両用ナビゲーションシステム。
The vehicle navigation system includes:
A plurality of vehicle devices (5) provided in each of the plurality of vehicles (4);
A center device (3) communicably connected to the plurality of vehicle devices,
The vehicle device (5)
A camera (5d) for supplying the original image by photographing the front of the vehicle;
A transmission unit (134) for transmitting the original image from the vehicle device to the center device;
The center device (3)
The acquisition unit;
The creation unit;
And a delivery unit (145) for delivering the clean image to the vehicle device,
The acquisition unit includes a center reception unit (141) that receives the original image transmitted from the transmission unit,
The vehicle device (5) further includes:
A vehicle receiver (136) for receiving the clean image distributed from the distributor and storing it in a storage device (5b);
A display unit (137) for displaying the clean image stored in the storage device on a display (5e) when traveling at the point, according to any one of claims 1 to 5 , The vehicle navigation system described.
JP2012221645A 2012-10-03 2012-10-03 Vehicle navigation system Active JP5910450B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012221645A JP5910450B2 (en) 2012-10-03 2012-10-03 Vehicle navigation system
US14/428,121 US20150228194A1 (en) 2012-10-03 2013-10-03 Vehicle navigation system, and image capture device for vehicle
PCT/JP2013/005903 WO2014054289A1 (en) 2012-10-03 2013-10-03 Vehicle navigation system, and image capture device for vehicle
DE112013004876.0T DE112013004876T5 (en) 2012-10-03 2013-10-03 Vehicle navigation system and image recording device for a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012221645A JP5910450B2 (en) 2012-10-03 2012-10-03 Vehicle navigation system

Publications (3)

Publication Number Publication Date
JP2014074626A JP2014074626A (en) 2014-04-24
JP2014074626A5 JP2014074626A5 (en) 2015-01-08
JP5910450B2 true JP5910450B2 (en) 2016-04-27

Family

ID=50748865

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012221645A Active JP5910450B2 (en) 2012-10-03 2012-10-03 Vehicle navigation system

Country Status (1)

Country Link
JP (1) JP5910450B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108995590A (en) * 2018-07-26 2018-12-14 广州小鹏汽车科技有限公司 A kind of people's vehicle interactive approach, system and device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101763066B1 (en) * 2016-04-14 2017-07-31 인하대학교 산학협력단 Pedestrian Navigation Method and System with Reconfigurable Multi Modal Interface
KR102554594B1 (en) * 2018-07-09 2023-07-12 현대모비스 주식회사 Wide area surround view monitoring apparatus for vehicle and control method thereof
JP7293648B2 (en) * 2018-12-21 2023-06-20 トヨタ自動車株式会社 Driving support device, vehicle, driving support system, and driving support method
JP7176398B2 (en) 2018-12-21 2022-11-22 トヨタ自動車株式会社 CONTROL DEVICE, VEHICLE, IMAGE DISPLAY SYSTEM, AND IMAGE DISPLAY METHOD
JP7159851B2 (en) * 2018-12-21 2022-10-25 トヨタ自動車株式会社 Driving support device, vehicle, information providing device, driving support system, and driving support method
JP7119984B2 (en) * 2018-12-21 2022-08-17 トヨタ自動車株式会社 Driving support device, vehicle, information providing device, driving support system, and driving support method
JP7367709B2 (en) * 2021-01-20 2023-10-24 トヨタ自動車株式会社 Information processing device, information processing system, and information processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5076468B2 (en) * 2006-12-01 2012-11-21 株式会社デンソー Communication-type navigation system, vehicle navigation device, and center device
JP2008185394A (en) * 2007-01-29 2008-08-14 Denso Corp Vehicle navigation device and information center
JP4894584B2 (en) * 2007-03-22 2012-03-14 トヨタ自動車株式会社 Route guidance device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108995590A (en) * 2018-07-26 2018-12-14 广州小鹏汽车科技有限公司 A kind of people's vehicle interactive approach, system and device

Also Published As

Publication number Publication date
JP2014074626A (en) 2014-04-24

Similar Documents

Publication Publication Date Title
JP5910450B2 (en) Vehicle navigation system
WO2014054288A1 (en) Vehicle navigation system
WO2014054289A1 (en) Vehicle navigation system, and image capture device for vehicle
JP4984974B2 (en) Driving support system and in-vehicle device
JP5461065B2 (en) Current position specifying device and current position specifying method
JP2019509534A (en) System and method for estimating future paths
JP2010068069A (en) Vehicle periphery photographing system
JP5618152B2 (en) Route guidance system, route guidance method, and route guidance program
US8924153B2 (en) Navigation device, navigation method, and navigation program
WO2010023785A1 (en) Intersection situation recognition system
JP4858212B2 (en) Car navigation system
JP2019109592A (en) System and method for generating road map
JP2010134640A (en) Information acquisition apparatus
CN111645705A (en) Method for issuing driving route adjustment and server
JP5910449B2 (en) Vehicle navigation system
US20190143926A1 (en) Vehicle management system, inspection information transmission system, information management system, vehicle management program, inspection information transmission program, and information management program
JP2014074627A (en) Navigation system for vehicle
JP2007221199A (en) On-vehicle camera display device and image processing unit
JP5910448B2 (en) Vehicle navigation system
JP2014074623A (en) Vehicle navigation system
JP2012220259A (en) In-vehicle apparatus and vehicle azimuth correction method thereof
JP7550067B2 (en) Information provision method and information provision system
JP2004064409A (en) Information recording device, information recording method, and information recording program
JP6523907B2 (en) Inter-vehicle distance detection system, inter-vehicle distance detection method, and program
JP3864418B2 (en) Image display device for vehicle

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141117

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150327

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160314

R151 Written notification of patent or utility model registration

Ref document number: 5910450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250