JP5910450B2 - Vehicle navigation system - Google Patents
Vehicle navigation system Download PDFInfo
- Publication number
- JP5910450B2 JP5910450B2 JP2012221645A JP2012221645A JP5910450B2 JP 5910450 B2 JP5910450 B2 JP 5910450B2 JP 2012221645 A JP2012221645 A JP 2012221645A JP 2012221645 A JP2012221645 A JP 2012221645A JP 5910450 B2 JP5910450 B2 JP 5910450B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- vehicle
- unit
- original
- clean
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Description
本発明は、道路走行車両にナビゲーションのための画像を提供する車両用ナビゲーションシステムに関する。 The present invention relates to a vehicle navigation system that provides an image for navigation to a road vehicle.
特許文献1は、間違いやすい分岐点における動画を複数の車両から収集し、その間違いやすい分岐点を走行する車両に提供するナビゲーションシステムを開示する。
従来技術によって再生される動画には、道路上の他の車両、歩行者などの多くの移動物が写っている。これらの移動物は、動画が再生されるときには、同じ位置には存在しない。このため、他の車両によって撮影された動画を再生するだけでは、運転者の理解を助けることが困難な場合があった。このような観点から、車両用ナビゲーションシステムにはさらなる改良が求められている。 Many moving objects such as other vehicles and pedestrians on the road are shown in the moving image reproduced by the conventional technology. These moving objects do not exist at the same position when the moving image is reproduced. For this reason, it may be difficult to assist the driver's understanding only by playing back a moving image shot by another vehicle. From such a viewpoint, further improvement is demanded for the vehicle navigation system.
開示された発明の目的のひとつは、運転者が理解しやすい画像を提供できる車両用ナビゲーションシステムを提供することである。 One of the objects of the disclosed invention is to provide a vehicle navigation system that can provide an image that is easy for the driver to understand.
開示された発明の目的の他のひとつは、他の移動体に起因する影響が抑制された画像を提供できる車両用ナビゲーションシステムを提供することである。 Another object of the disclosed invention is to provide a vehicle navigation system that can provide an image in which an influence caused by another moving body is suppressed.
開示された発明のひとつは上記目的を達成するために以下の技術的手段を採用する。なお、特許請求の範囲およびこの項に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、開示された発明の技術的範囲を限定するものではない。 One of the disclosed inventions employs the following technical means to achieve the above object. It should be noted that the reference numerals in parentheses described in the claims and in this section indicate a corresponding relationship with specific means described in the embodiments described later as one aspect, and are technical aspects of the disclosed invention. It does not limit the range.
開示された発明のひとつは、所定の地点において撮影された原画像(RV1、RV2)を取得する取得部(141−142)と、原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、地点における運転を支援するための画像として作成する作成部(144)とを備え、取得部は、複数の原画像を蓄積する蓄積部(142)を含み、作成部(144)は、複数の原画像に基づいてクリーン画像を作成し、さらに、原画像が撮影された地点が、クリーン画像を作成すべき地点として妥当であることを確認した場合に、作成部によるクリーン画像の作成を許容する確認部(143)を備え、確認部は、所定の閾値を越える数の原画像が蓄積された場合に、クリーン画像を作成すべき地点として妥当であることを確認することを特徴とする。
開示された発明のひとつは、所定の地点において撮影された原画像(RV1、RV2)を取得する取得部(141−142)と、原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、地点における運転を支援するための画像として作成する作成部(144)とを備え、取得部は、複数の原画像を蓄積する蓄積部(142)を含み、作成部(144)は、複数の原画像に基づいてクリーン画像を作成し、作成部(144)は、ひとつの原画像における移動体が写っている範囲に、他の原画像における部分画像を合成することにより移動体が消去されたクリーン画像を作成し、取得部は、それぞれの原画像の撮影条件を示す情報を取得し、作成部は、撮影条件に基づいて複数の原画像を合成することを特徴とする。
One of the disclosed inventions is that an acquisition unit (141-142) that acquires original images (RV1, RV2) taken at a predetermined point, and other vehicles and / or pedestrians or the like from the original image A creation unit (144) that creates a clean image (CV) from which at least a portion has been deleted as an image for supporting driving at a point , and the acquisition unit stores a plurality of original images (142) The creation unit (144) creates a clean image based on a plurality of original images, and further confirms that the spot where the original image was taken is appropriate as a spot where the clean image should be created. In addition, a confirmation unit (143) that allows creation of a clean image by the creation unit is provided, and the confirmation unit is a point where a clean image should be created when the number of original images exceeding a predetermined threshold is accumulated. And said that you make sure that it is reasonable.
One of the disclosed inventions is that an acquisition unit (141-142) that acquires original images (RV1, RV2) taken at a predetermined point, and other vehicles and / or pedestrians or the like from the original image A creation unit (144) that creates a clean image (CV) from which at least a portion has been deleted as an image for supporting driving at a point, and the acquisition unit stores a plurality of original images (142) The creation unit (144) creates a clean image based on a plurality of original images, and the creation unit (144) includes a portion in another original image within a range in which the moving body in one original image is shown. A clean image from which the moving object has been erased is created by combining the images, the acquisition unit acquires information indicating the shooting conditions of each original image, and the generation unit generates a plurality of original images based on the shooting conditions. Together Characterized in that it.
この構成によると、所定の地点において撮影された原画像から、その地点における走行を支援するための画像が作成される。よって、その地点における実際の風景に基づいて運転支援用の画像が提供される。しかも、原画像から、他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像が作成される。よって、移動体に起因する分かり難さが軽減される。この結果、他の移動体に起因する影響が抑制され、運転者が理解しやすい画像を提供できる。 According to this configuration, an image for supporting traveling at the point is created from the original image taken at the predetermined point. Therefore, an image for driving support is provided based on the actual scenery at the point. In addition, a clean image is created by deleting at least part of other vehicles and / or moving objects such as pedestrians from the original image. Therefore, the difficulty of understanding due to the moving body is reduced. As a result, it is possible to provide an image that is less affected by other moving objects and is easy for the driver to understand.
以下に、図面を参照しながら開示された発明を実施するための複数の形態を説明する。各形態において先行する形態で説明した事項に対応する部分には同一の参照符号を付して重複する説明を省略する場合がある。各形態において構成の一部のみを説明している場合は、構成の他の部分については先行して説明した他の形態を適用することができる。また、後続の実施形態においては、先行する実施形態で説明した事項に対応する部分に百以上の位だけが異なる参照符号を付することにより対応関係を示し、重複する説明を省略する場合がある。各実施形態で具体的に組合せが可能であることを明示している部分同士の組合せばかりではなく、特に組合せに支障が生じなければ、明示してなくとも実施形態同士を部分的に組み合せることも可能である。 Hereinafter, a plurality of modes for carrying out the disclosed invention will be described with reference to the drawings. In each embodiment, parts corresponding to the matters described in the preceding embodiment may be denoted by the same reference numerals, and redundant description may be omitted. When only a part of the configuration is described in each mode, the other modes described above can be applied to the other parts of the configuration. Further, in the following embodiments, the correspondence corresponding to the matters corresponding to the matters described in the preceding embodiments is indicated by adding reference numerals that differ only by one hundred or more, and redundant description may be omitted. . Not only combinations of parts that clearly show that combinations are possible in each embodiment, but also combinations of the embodiments even if they are not explicitly stated unless there is a problem with the combination. Is also possible.
(第1実施形態)
図1に図示されるように、発明を開示する第1実施形態は、車両用ナビゲーションシステム1である。車両用ナビゲーションシステム1は、配信センタ2と、複数の車両3とによって構築されている。配信センタ2には、センタ装置(CNTRD)3が設けられている。車両4には、車両装置(ONVHD)5が設けられている。センタ装置3と車両装置5との間にはデータ通信のための通信システム6が設けられている。センタ装置3と複数の車両装置5とは、通信システム6を介してデータ通信可能に接続されている。通信システム6は、無線電話回線、インターネットなどのネットワークを含むことができる。センタ装置3と車両装置5とは、車両用ナビゲーションシステム1を構成する。
(First embodiment)
As illustrated in FIG. 1, a first embodiment disclosing the invention is a
センタ装置3は、複数の車両装置5に向けて案内のための画像を配信する。配信される画像は、静止画、または動画である。複数の車両装置5は、配信された画像を受信する。それぞれの車両装置5は、車両4に搭載されたナビゲーション装置によって提供することができる。ナビゲーション装置は、配信された画像を表示することにより、運転者に画像を提供し、運転者の運転を支援する。複数の車両装置5は、それらが搭載された車両4において撮影された画像をセンタ装置3に送信する。センタ装置3は、複数の車両装置5から送信された画像を収集し、加工することによって、配信用の画像を作成する。車両用ナビゲーションシステム1は、複数の車両装置5から収集された画像を加工し、加工された画像を配信する。
The
図2に図示されるように、センタ装置3は、センタ処理装置(CTCPU)3a、およびメモリ装置(MMR)3bを備える。メモリ装置3bは、データを格納する記憶装置である。センタ処理装置3aとメモリ装置3bとは、マイクロコンピュータを構成する。センタ装置3は、通信システム6との接続を提供するための通信機(COMM)3cを備える。
As shown in FIG. 2, the
図3に図示されるように、車両装置5は、車両処理装置(VHCPU)5a、およびメモリ装置(MMR)5bを備える。メモリ装置5bは、データを格納する記憶装置である。車両処理装置5aとメモリ装置5bとは、マイクロコンピュータを構成する。車両装置5は、通信システム6との接続を提供するための通信機(COMM)5cを備える。車両装置5は、車両4の周囲の画像を撮影するためのカメラ(VHCAM)5dを備える。カメラ5dは、車両の前方の画像を撮影する。カメラ5dは、静止画、または動画を撮影可能である。カメラ5dは、車両4の前方の風景を撮影することにより原画像を供給する。車両装置5は、車両用画像撮影装置を提供する。車両装置5は、表示器(DSP)5eを備える。
As illustrated in FIG. 3, the
車両装置5は、複数の検出器5fを備える。複数の検出器5fは、ナビゲーション装置として必要なセンサを含む。例えば、複数の検出器5fは、車両4の現在位置を検出するための衛星測位装置を含むことができる。複数の検出器5fは、車両4の挙動を検出するためのセンサを含む。例えば、複数の検出器5fは、車両4の走行速度を検出する速度センサ、およびブレーキ装置の操作を検出するブレーキセンサを含むことができる。複数の検出器5fは、運転者の挙動を検出するためのセンサを含む。例えば、運転者の顔を撮影する室内カメラ、運転者の声を検出するマイク、および運転者の心拍を検出する心拍センサを含むことができる。
The
車両装置5は、車両4に搭載されたナビゲーション装置である。車両装置5は、表示器5eに地図を表示するとともに、地図上に車両4の位置を表示する。さらに、車両装置5は、車両4の利用者からの要求に応答して、現在地点から目的地点までの経路案内を実行する。車両装置5は、現在地点から目的地点までの経路を設定する手段を備える。車両装置5は、表示器5eに表示された地図上に、設定された経路を表示するとともに、運転者が車両を経路に沿って走行させるように、表示または音声によって支援を提供する。
The
センタ装置3と車両装置5とは、電子制御装置(ECU:Electronic Control Unit)である。ECUは、処理装置と、プログラムを記憶する記憶媒体としてのメモリ装置とを有する。ECUは、コンピュータによって読み取り可能な記憶媒体を備えるマイクロコンピュータによって提供される。記憶媒体は、コンピュータによって読み取り可能なプログラムを非一時的に格納している。記憶媒体は、半導体メモリまたは磁気ディスクによって提供されうる。プログラムは、ECUによって実行されることによって、ECUをこの明細書に記載される装置として機能させ、この明細書に記載される制御方法を実行するようにECUを機能させる。ECUが提供する手段は、所定の機能を達成する機能的ブロック、またはモジュールとも呼ぶことができる。
The
図4は、車両用ナビゲーションシステム1が提供するリアルビューナビゲーションに関連するリアルビュー処理120を示すフローチャートである。リアルビューナビゲーションにおいては、先行車両によって撮影された画像が、後続車両に提供される。しかも、先行車両によって撮影された画像から、他の車両、さらに望ましくは歩行者などの移動体が消去されたクリーン画像が後続車両に配信される。クリーン画像を作成するために、複数の先行車両から原画像が収集される。また、リアルビューナビゲーションにおいては、その車両の前方の風景から、運転を支援するために有用な情報を含む範囲が切り出され、車内の表示器5eに表示される。リアルビュー処理120には、センタ装置3によって実行されるセンタ装置処理121と、車両装置5によって実行される車両装置処理122とが含まれている。それぞれのステップは、その機能を提供する処理手段または処理部として見ることができる。
FIG. 4 is a flowchart showing the
ステップ123では、車両4の前方の画像が撮影される。ステップ123には、カメラ5dによって撮影される複数の画像から利用可能な画像のみを選択する選択処理を含むことができる。例えば、車両のウインドシールドに付着した雨滴を除去するためのワイパを写った画像を廃棄する選択処理を含むことができる。
In
ステップ124では、車両4の前方に出現した道路標識を表示器5eに表示する処理が実行される。この処理では、カメラ5dによって撮影された画像から、道路標識が認識される。例えば、前方の交差点の行き先を表示する標識が認識される。さらに、この処理では、原画像から、道路標識に対応する部分画像が切り出され、切り出された画像が表示器5eに拡大表示される。これにより、運転者による道路標識の認識を支援することができる。
In
ステップ131では、車両4が難解地点を走行したことが判定される。難解地点は、運転者が道路構造または進路を理解することが困難な道路上の地点である。難解地点は、難解な交差点、すなわち分岐点を含むことができる。難解地点は、分岐数が多い分岐点、または分岐角度が特殊な分岐点を含むことができる。このような交差点は、難解交差点とも呼ばれる。また、車両4の目的地となりうる地点の入口、駐車場の入口など、道路を走行する間に見出すことが困難な地点も、難解地点に含むことができる。判定は、自動的に実行することができる。さらに、運転者が難解地点であると判断した場合に操作されるスイッチを設け、このスイッチからの入力操作に応答して難解地点を判定してもよい。
In
通常とは異なる異常な事象が検出された場合に、車両4が難解地点にあると判定することができる。例えば、交差点の場合、運転者が進行方向の選定を迷ったことを検出することにより、難解交差点であるか否かを判定することができる。運転者が進行方向の選定を迷ったことは、車両4または運転者の挙動によって判定することができる。車両4の挙動には、運転者が車両4に加えた運転操作、車両4の状態、車両4の加速度、および減速度を含むことができる。
When an abnormal event different from normal is detected, it can be determined that the
難解地点は、運転者が車両4に加えた運転操作、または車両4の挙動に基づいて判定することができる場合がある。難解地点を示す車両挙動の一例は、交差点など候補地点を示す候補範囲内における急減速、すなわち急ブレーキ操作である。他の一例は、候補範囲内における徐行状態である。他の一例は、候補範囲内における停止である。さらに他の一例は、候補範囲内における蛇行操舵である。さらに、減速と蛇行操舵といった複数の車両挙動の組み合わせによって難解地点を判定してもよい。
The difficult point may be determined based on the driving operation applied to the
難解地点を判定するために、観測された車両の挙動と、予め設定された基準挙動とが比較される。観測された車両挙動が基準挙動を逸脱している場合に、その地点は難解地点であると判定することができる。基準挙動は、難解地点において多くの車両にあらわれる挙動に基づいて予め設定することができる。基準挙動は、標準挙動とも呼ぶことができる。基準挙動は、特定の運転者の個性に適合するように調整することができる。このような調整は、手動の調節により、または後述の学習処理によって提供することができる。 In order to determine the difficult point, the observed vehicle behavior is compared with a preset reference behavior. When the observed vehicle behavior deviates from the reference behavior, it can be determined that the point is a difficult point. The reference behavior can be set in advance based on behaviors that appear in many vehicles at difficult points. The reference behavior can also be called standard behavior. The reference behavior can be adjusted to suit a particular driver's personality. Such adjustment can be provided by manual adjustment or by a learning process described below.
難解地点は、運転者の挙動に基づいて判定することができる場合がある。例えば、運転者の体の動き、声、心拍などの挙動に基づいて、運転者が難解な地点を走行したか否かを判定することができる。具体的には、顔にあらわれる表情、目の動き、頭の動きを利用できる。また、運転者が経路を間違えたときに出す声を利用できる。より具体的には、「あっつ!」、「しまった!」、「間違えた!」、「あれ?」といった声を利用できる。また、心拍数の急激な変化を利用することができる。 The difficult point may be determined based on the behavior of the driver. For example, it is possible to determine whether or not the driver has traveled a difficult point based on the behavior of the driver's body, voice, heartbeat, and the like. Specifically, facial expressions, eye movements, and head movements appearing on the face can be used. In addition, a voice that is output when the driver makes a mistake in the route can be used. More specifically, voices such as “Hatsu!”, “I got it!”, “I made a mistake!”, “That?” Can be used. Also, rapid changes in heart rate can be used.
難解地点を判定するために、観測された運転者の挙動と、予め設定された基準挙動とが比較される。観測された運転者挙動が基準挙動を逸脱している場合に、その地点は難解地点であると判定することができる。基準挙動は、難解地点において多くの運転者が示す挙動に基づいて予め設定することができる。基準挙動は、標準挙動とも呼ぶことができる。基準挙動は、特定の運転者の個性に適合するように調整することができる。このような調整は、手動の調節により、または後述の学習処理によって提供することができる。 In order to determine the difficult point, the observed behavior of the driver is compared with a preset reference behavior. When the observed driver behavior deviates from the standard behavior, it can be determined that the point is a difficult point. The reference behavior can be set in advance based on behaviors exhibited by many drivers at difficult points. The reference behavior can also be called standard behavior. The reference behavior can be adjusted to suit a particular driver's personality. Such adjustment can be provided by manual adjustment or by a learning process described below.
難解地点は、車両4が経路案内のための予定された設定経路から離脱したことに基づいて判定することができる場合がある。車両装置5によって経路案内を実行しているときに、車両4が交差点において経路から離脱した場合、その交差点は難解交差点である可能性がある。
The difficult point may be determined based on the fact that the
ステップ131は、運転者が道路構造または進路を理解することが困難な道路上の難解地点を判定する判定部を提供する。判定部は、車両の挙動、および/または運転者の挙動と基準との比較に基づいて難解地点を判定する。難解地点が自動的に判定されるから、運転支援用の画像を自動的に提供できる。 Step 131 provides a determination unit that determines difficult points on the road where it is difficult for the driver to understand the road structure or course. The determination unit determines a difficult point based on a comparison between the behavior of the vehicle and / or the behavior of the driver and the reference. Since the difficult point is automatically determined, an image for driving support can be automatically provided.
ステップ132では、難解地点を撮影した画像が原画像として取り出される。この画像は、車両4からカメラ5dによって撮影された生の画像である。原画像は、難解地点に到達する直前にカメラ5dによって撮影された少なくとも1つの静止画像を含む。そのような画像には、難解地点がその道路構造を見ることができるように映っている可能性が高い。原画像は、難解地点に到達する前の所定区間、または難解地点を含む所定区間において撮影された複数の静止画像、または動画とすることができる。原画像は、難解地点を含む所定走行距離または所定走行期間に撮影された複数の静止画像、または動画から選択的に取り出すことができる。
In
ステップ133では、原画像に基づいて、ステップ131における難解地点であるとの判定が検証される。この検証は、原画像に写っている地点が難解地点であるか否かを検証する処理でもある。ステップ131における難解地点の判定は、エラーを含む場合がある。ステップ133では、難解地点である可能性が所定値を下回ると、原画像を廃棄し、後続の処理をスキップしてステップ131へ戻る。この処理により、難解地点の判定の正確さを向上することができる。
In
難解地点において観測されることがある車両挙動、運転者挙動、経路逸脱などの難解地点を示す事象は、他の原因によっても発生することがある。このような難解地点以外の原因は、その地点において撮影された原画像に写っている可能性がある。難解地点以外の原因を示す事物は、エラー事物と呼ぶことができる。判定部による判定の検証は、原画像の中にエラー事物が写っているか否かを判定することにより実行できる。 Events that indicate difficult points such as vehicle behavior, driver behavior, and route deviation that may be observed at difficult points may occur due to other causes. There is a possibility that causes other than such difficult points are reflected in the original image taken at that point. Things that indicate causes other than esoteric points can be called error things. Verification of determination by the determination unit can be executed by determining whether or not an error thing is reflected in the original image.
この処理のために、難解地点以外の原因に起因して原画像に写ることがあるエラー事物が予め車両用ナビゲーションシステム1に登録され、記憶される。さらに、原画像を画像処理にすることにより、エラー事物が写っているか否かを判定する。原画像に、エラー事物が写っている場合、ステップ131における判定がエラーであると判定でき、エラー処理を実行することができる。ステップ131における判定がエラーである場合、ステップ132において得られた原画像を破棄することができる。ステップ131における判定がエラーであると判定できない場合、原画像に基づいて難解地点における運転を支援するための画像を提供する提供処理を含む後続の処理が実行される。すなわち、検証部によって判定部による難解地点の判定が正しいことが検証された場合に、後続の提供処理が実行される。検証部は、難解地点の判定が正しいことが検証されない場合に、原画像を廃棄する。検証部によって難解地点の判定が正しいことが検証されない場合、後続の提供処理は実行されない。
For this processing, error things that may appear in the original image due to causes other than the difficult points are registered and stored in the
車両挙動または運転者挙動に基づいて難解地点が判定された場合、誤った判定である可能性がある。難解地点において観測されることがある車両挙動または運転者挙動は、他の原因に基づいてもたらされることもあるからである。例えば、交差点における急ブレーキは、難解交差点に起因して発生する場合、前方車両の急ブレーキに起因して発生する場合、歩行者との接近に起因して発生する場合など多くの原因がある。エラー事物の一例は、至近距離における前方車両の急ブレーキを示す所定面積を上回る赤く点灯したブレーキランプである。エラー事物の他の一例は、至近距離における歩行者の存在である。 When the difficult point is determined based on the vehicle behavior or the driver behavior, there is a possibility that the determination is incorrect. This is because the vehicle behavior or the driver behavior that may be observed at the difficult point may be brought about based on other causes. For example, there are many causes for sudden braking at an intersection, such as when it occurs due to an esoteric intersection, when it occurs due to sudden braking of a preceding vehicle, or when it occurs due to an approach with a pedestrian. An example of an error thing is a brake lamp that is lit in red and exceeds a predetermined area indicating a sudden braking of the vehicle ahead at a close distance. Another example of an error thing is the presence of a pedestrian at close range.
ステップ134では、原画像が車両装置5からセンタ装置3へ送信される。ステップ134は、原画像を車両装置5からセンタ装置3へ送信する送信部を提供する。送信される原画像は、ひとつまたは複数である。ステップ134では、ひとつの難解地点の画像、または複数の難解地点の画像を送信することができる。
In
車両4におけるカメラ5dの設置位置は、複数の車両4毎に異なる場合がある。また、カメラ5dの機種は、複数の車両4ごとに異なる場合がある。ステップ134において送信される画像には、カメラ5dの機種、位置、撮影範囲などの撮影条件に関する情報が付加されている。撮影条件には、撮影時の走行車線、日時などの情報を含ませることができる。このような情報は、複数の車両4毎の原画像の差を認識し、画像を修正するために利用される。
The installation position of the camera 5d in the
原画像が撮影されたときの車両4の位置は、複数の車両4それぞれにおいて異なる場合がある。ステップ134において送信される画像には、撮影位置を示す情報が付加されている。例えば、原画像の撮影位置と、交差点の中心点など基準となる地点との間の距離を示す情報が付加される。このような情報は、複数の車両4毎の原画像の差を認識し、画像を修正するために利用される。
The position of the
ステップ134の処理は、難解地点の存在およびその位置をセンタ装置3に通報する処理でもある。この処理により、センタ装置3は、難解地点の存在を知ることができる。さらに、センタ装置3は、難解地点の存在の通報に応答して、難解地点において運転者を支援するための支援情報を後続の他の車両4に対して提供する処理を実行することができる。
The process of
ステップ135では、ステップ131における難解地点を判定するための基準を修正するための学習処理が実行される。ステップ135は、難解地点において観測された車両の挙動、および/または運転者の挙動に基づいて、基準を修正する学習部を提供する。ステップ135では、難解地点である可能性が所定水準を上回る場合を検出し、その場合に観測された車両挙動、または運転者挙動に基づいて、難解地点を示す基準が修正される。難解地点を示す基準は、閾値、または難解地点に相当する挙動そのものによって与えられる。交差点で分岐先を迷った場合に観測される車両挙動および運転者挙動は、運転者それぞれに依存する。この処理により、難解地点の判定の正確さを向上することができる。
In
基準の修正の一例は、センサによって観測された挙動と、所定の基準値とを比較し、その結果によって難解地点が示される場合によって説明される。例えば、所定の基準値を上回る大きい挙動が検出された場合に難解地点であると判定する場合である。このような場合、難解地点である可能性が高い場合に観測された挙動に基づいて、基準値が修正される。 An example of the correction of the reference is explained by the case where the behavior observed by the sensor is compared with a predetermined reference value, and the result indicates a difficult point. For example, it is a case where it is determined that the point is a difficult point when a large behavior exceeding a predetermined reference value is detected. In such a case, the reference value is corrected based on the behavior observed when the possibility of the difficult point is high.
一例においては、難解地点において観測されたブレーキ操作量に基づいて、難解地点を判定するためのブレーキ操作量の基準値が修正される。観測されたブレーキ操作量が、現在の基準値より小さい場合、基準値は、現在の値より小さくなるように修正される場合がある。観測されたブレーキ操作量が、現在の基準値より大きい場合、基準値は、現在の値より大きくなるように修正される場合がある。 In one example, the reference value of the brake operation amount for determining the difficult point is corrected based on the brake operation amount observed at the difficult point. If the observed brake operation amount is smaller than the current reference value, the reference value may be corrected to be smaller than the current value. If the observed amount of brake operation is greater than the current reference value, the reference value may be modified to be greater than the current value.
他の一例においては、難解地点において観測された蛇行操舵の操舵幅に基づいて、難解地点を判定するための操舵幅の基準値が修正される。観測された操舵幅が、現在の基準値より小さい場合、基準値は、現在の値より小さくなるように修正される場合がある。観測された操舵幅が、現在の基準値より大きい場合、基準値は、現在の値より大きくなるように修正される場合がある。 In another example, the reference value of the steering width for determining the difficult point is corrected based on the steering width of the meandering steering observed at the difficult point. If the observed steering width is smaller than the current reference value, the reference value may be modified to be smaller than the current value. If the observed steering width is greater than the current reference value, the reference value may be modified to be greater than the current value.
他の一例においては、難解地点において観測された運転者の脈拍変化量に基づいて、難解地点を判定するための脈拍変化量の基準値が修正される。観測された脈拍変化量が、現在の基準値より小さい場合、基準値は、現在の値より小さくなるように修正される場合がある。観測された脈拍変化量操舵幅が、現在の基準値より大きい場合、基準値は、現在の値より大きくなるように修正される場合がある。 In another example, the reference value of the pulse change amount for determining the difficult point is corrected based on the driver's pulse change amount observed at the difficult point. If the observed pulse variation is less than the current reference value, the reference value may be modified to be less than the current value. When the observed pulse change amount steering width is larger than the current reference value, the reference value may be corrected to be larger than the current value.
基準の修正の他の一例は、難解地点である可能性が高い場合に観測された運転者挙動を、その運転者に特有の「難解地点を示す基準」として設定する場合である。一例においては、難解地点において観測された運転者の声が、難解地点を判定するための基準の声として設定されるように基準が修正される。ある運転者は難解地点において「しまった!」と発声し、他の運転者は難解地点において「おー!」と発声する場合がある。このような運転者の個性に適合した基準を設定するために、前者の場合には「しまった!」を基準として設定し、後者の場合には「おー!」を基準として設定することができる。 Another example of the correction of the reference is a case where the driver behavior observed when the possibility of the difficult point is high is set as a “reference indicating the difficult point” unique to the driver. In one example, the reference is modified so that the driver's voice observed at the difficult point is set as a reference voice for determining the difficult point. One driver may say “I got it!” At a difficult point, and another driver may say “Oh!” At a difficult point. In order to set a standard that suits the driver's personality, the former case can be set with “Shit!” As the reference, and in the latter case with “Oh!” it can.
ステップ141では、センタ装置3は、複数の車両装置5から送信された原画像を受信する。ステップ142では、受信された原画像がメモリ装置3bに蓄積される。ここでは、地点ごとに原画像が蓄積される。ひとつの地点に関して、異なる複数の原画像を蓄積することができる。
In
ステップ141とステップ142とは、所定の地点、すなわち難解地点において撮影された原画像を取得する取得部を提供する。取得部は、それぞれの原画像の撮影条件を示す情報を取得する。取得部は、ステップ141によって提供され、送信部から送信された原画像を受信するセンタ受信部を含む。取得部は、ステップ142によって提供され、複数の原画像を蓄積する蓄積部を含む。
Step 141 and step 142 provide an acquisition unit that acquires an original image taken at a predetermined point, that is, a difficult point. The acquisition unit acquires information indicating the shooting conditions of each original image. The acquisition unit includes a center reception unit that is provided in
ステップ143では、センタ装置3において、原画像が示す地点が、クリーン画像を提供すべき難解地点として妥当であるか否かを確認する処理が実行される。この確認処理は、オペレータが原画像を見て、判定を下すことによって実施することができる。また、この確認処理には、ひとつの地点に関して、所定の閾値を上回る複数の原画像が蓄積されているか否かの判定を含むことができる。この判定が肯定的である場合、多数の車両4において難解地点であるとの判定がなされたことを示している。この場合、その地点を難解地点であると扱って、後述のクリーン画像を提供することが望ましいと考えられる。ステップ143において難解地点としての妥当性が肯定された場合に、ステップ144が実行される。ステップ143において難解地点としての妥当性が否定された場合には、その地点に関するステップ144の実行は先送りされる。
In
ステップ143は、原画像が撮影された地点が、クリーン画像を作成すべき地点として妥当であることを確認する確認部を提供する。確認部は、妥当であると確認した場合に、作成部によるクリーン画像の作成を許容する。確認部は、所定の閾値を越える数の原画像が蓄積された場合に、クリーン画像を作成すべき地点として妥当であることを確認する。 Step 143 provides a confirmation unit for confirming that the point where the original image was taken is appropriate as the point where the clean image is to be created. When the confirmation unit confirms that it is appropriate, the creation unit allows the creation of a clean image. When the number of original images exceeding a predetermined threshold is accumulated, the confirmation unit confirms that it is appropriate as a point where a clean image is to be created.
ステップ144では、原画像に基づいてクリーン画像が作成される。ステップ144では、他の車両および歩行者などの移動体が写っていない難解地点のクリーン画像が作成される。クリーン画像の作成は、ひとつの地点に関して蓄積された複数の原画像から、移動体が写っていない原画像を選択する処理により実行できる場合がある。また、クリーン画像の作成は、原画像から他の車両および歩行者などの移動体を消去することにより実行される場合がある。
In
クリーン画像の作成は、オペレータが原画像を加工し、修正することによって実施することができる。このようなマニュアル処理においては、対象地点に関して蓄積された複数の原画像に基づいてクリーン画像を作成する作業が実行される。また、クリーン画像の作成は、複数の原画像に基づいてひとつまたは複数のクリーン画像を自動的に生成する画像処理プログラムによって実施することができる。 A clean image can be created by an operator processing and correcting an original image. In such manual processing, an operation of creating a clean image based on a plurality of original images accumulated for the target point is executed. The creation of a clean image can be performed by an image processing program that automatically generates one or a plurality of clean images based on a plurality of original images.
クリーン画像の生成工程には、基礎画像の選定、基礎画像における移動体の認識、移動体を消去するための背景画像を提供できる他の原画像の選定、および基礎画像の他の原画像との合成といった複数の工程が含まれる。マニュアル処理においても、画像処理プログラムによる自動化処理においても、画像はメモリ装置3bに一時的に記憶される。
The clean image generation process includes selection of a basic image, recognition of a moving object in the basic image, selection of another original image that can provide a background image for erasing the moving object, and comparison with other original images of the basic image Multiple steps such as synthesis are included. The image is temporarily stored in the
基礎画像の選定は、複数の原画像から、難解地点をわかりやすく示す原画像を選定することによって実行できる。例えば、撮影位置が、難解地点、例えば難解交差点の基準点から所定の範囲にある原画像を、基礎画像として選定することができる。また、難解交差点に接続している道路の幅員に基づいて設定される所定の条件を満たす原画像を、基礎画像として選定することができる。基礎画像における移動体の認識は、車両または歩行者を示す予め設定された基準形状に基づいて実行することができる。 The selection of the basic image can be performed by selecting an original image that shows the difficult-to-understand points in an easily understandable manner from a plurality of original images. For example, an original image whose shooting position is within a predetermined range from a difficult point, for example, a reference point of a difficult intersection can be selected as a basic image. In addition, an original image that satisfies a predetermined condition set based on the width of a road connected to a difficult intersection can be selected as a basic image. Recognition of the moving body in the basic image can be executed based on a preset reference shape indicating a vehicle or a pedestrian.
他の原画像の選定は、基礎画像と類似の原画像を選定することによって実行できる。例えば、撮影位置が基礎画像の撮影位置から所定範囲内である原画像を、他の原画像として選定することができる。また、画像内における特徴的な物、例えば道路標識の位置、形状に注目し、それらが基礎画像と同じように映っている原画像を、他の原画像として選定することができる。具体的には、停止線、または横断歩道を利用することができる。また、交差点内の範囲を認識する画像処理を利用してもよい。 Other original images can be selected by selecting an original image similar to the basic image. For example, an original image whose shooting position is within a predetermined range from the shooting position of the basic image can be selected as another original image. In addition, paying attention to the characteristic objects in the image, for example, the position and shape of the road sign, an original image in which they appear in the same manner as the basic image can be selected as another original image. Specifically, a stop line or a pedestrian crossing can be used. Moreover, you may utilize the image process which recognizes the range in an intersection.
基礎画像と他の画像(部分)との合成においては、撮影位置に基づく補正、日時に基づく影の補正といった補正処理が実行される。撮影位置に基づく補正には、原画像の撮影時における走行車線の違いに基づく左右方向の補正を含むことができる。撮影位置に基づく補正には、カメラ5dの高さの差に基づく高さ方向の補正を含むことができる。基礎画像に移動体を消すように、他の原画像の部分を基礎画像に合成することにより、少なくともひとつの移動体が消去されたクリーン画像が生成される。 In the synthesis of the basic image and another image (part), correction processing such as correction based on the shooting position and shadow correction based on the date and time is executed. The correction based on the shooting position can include a correction in the left-right direction based on the difference in the driving lane when the original image is shot. The correction based on the photographing position can include correction in the height direction based on the height difference of the camera 5d. A clean image in which at least one moving object is deleted is generated by combining another original image portion with the basic image so that the moving object is deleted from the basic image.
ステップ144は、ひとつの原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像を作成する作成部を提供する。クリーン画像は、難解地点における運転を支援するための画像として作成される。作成部は、複数の原画像に基づいてクリーン画像を作成する。この作成部は、それぞれの原画像に付属の撮影条件に基づいて複数の原画像を合成する。作成部は、ひとつの原画像における移動体が写っている範囲に、他の原画像における部分画像を合成することにより移動体が消去されたクリーン画像を作成する。よって、移動体を消去しても、実際の風景に近い画像が提供される。 Step 144 provides a creation unit that creates a clean image in which at least a part of another vehicle and / or a moving object such as a pedestrian is deleted from one original image. The clean image is created as an image for supporting driving at a difficult point. The creation unit creates a clean image based on a plurality of original images. The creating unit synthesizes a plurality of original images based on the shooting conditions attached to each original image. The creation unit creates a clean image from which the moving object is erased by synthesizing the partial images of the other original images within a range in which the moving object is reflected in one original image. Therefore, even if the moving body is deleted, an image close to the actual landscape is provided.
ステップ145では、クリーン画像がセンタ装置3から車両装置5へ配信される。センタ装置3に設けられたステップ145は、クリーン画像を車両装置5に配信する配信部を提供する。クリーン画像の配信は、複数の車両4に向けて実行することができる。また、クリーン画像の配信は、車両4からの要求に応答して実行することができる。また、クリーン画像の配置は、ひとつの難解地点に到達しようとしている車両4に対して実行されてもよい。
In
ステップ136では、車両装置5によって、クリーン画像が受信される。ステップ136は、配信部から配信されたクリーン画像を受信しメモリ装置5bに記憶する車両受信部を提供する。
In
ステップ137では、車両装置5によってクリーン画像が運転者に提供される。ここでは、クリーン画像が表示器5eに表示される。車両装置5は、経路案内のためにクリーン画像を利用する。例えば、車両装置5は、車両4が難解地点に到達する前に、クリーン画像を表示器5eに表示する。
In
このとき、経路案内が実行されている場合には、クリーン画像の上に案内記号を重ねて表示することができる。案内記号は、経路を示す矢印、または、分岐路において選択可能な複数の分岐方向を示す多頭矢印である。クリーン画像と案内記号とを含む画像は案内画像と呼ぶことができる。案内記号は、車両装置5においてクリーン画像上に合成することができる。案内記号は、センタ装置3においてクリーン画像上に合成してもよい。クリーン画像および案内画像は、運転支援用の画像である。
At this time, when route guidance is being executed, a guidance symbol can be displayed over the clean image. The guide symbol is an arrow indicating a route or a multi-headed arrow indicating a plurality of branching directions that can be selected in the branch path. An image including a clean image and a guidance symbol can be called a guidance image. The guide symbol can be synthesized on the clean image in the
ステップ132−134、141−145、および136−137は、難解地点において撮影された原画像に基づいて、難解地点における運転を支援するための画像を提供する提供部を提供している。この実施形態では、少なくとも作成部144と配信部145と車両受信部136と表示部137とにより提供部が提供されている。ステップ137は、難解地点を走行するときにメモリ装置5bに記憶されたクリーン画像を表示器5eに表示する表示部を提供する。
Steps 132-134, 141-145, and 136-137 provide a providing unit that provides an image for supporting driving at the difficult point based on the original image taken at the difficult point. In this embodiment, a providing unit is provided by at least the
ステップ131−137、および141−145は、難解地点において撮影された原画像に基づいて、難解地点における運転を支援するための画像を提供する画像配信処理を提供している。この実施形態では、ステップ124が提供する標識表示処理またはステップ131−145が提供する画像配信処理は、ステップ123によって撮影された画像を利用する利用部を提供する。
Steps 131-137 and 141-145 provide image distribution processing for providing an image for supporting driving at the difficult point based on the original image taken at the difficult point. In this embodiment, the sign display process provided in
図5は、難解地点、例えば難解交差点を判定する処理150を示す。処理150は、ステップ131の一例を示す。処理150は、車両装置5によって実行される。
FIG. 5 shows a
ステップ151では、候補地点が抽出される。候補地点は、難解地点になる可能性がある地点である。難解交差点を判定する場合、メモリ装置5bに登録された複数の交差点から、運転者が進行方向を迷いそうな難解な交差点が抽出される。
In
ステップ152では、車両4が候補地点に到達したか否かが判定される。ここで否定的に判定される場合、ステップ151へ戻る。肯定的に判定される場合、ステップ153へ進む。
In
ステップ153では、候補地点において車両4が経路案内のための設定経路から離脱したか否かが判定される。交差点などにおいて設定経路から離脱した場合、その交差点が難解地点である可能性が高い。ステップ153では、車両4が設定経路から離脱した場合に、候補地点が難解地点であると判定される。
In
ステップ154では、候補地点において観測された車両挙動と基準とが比較される。ステップ154では、観測された車両挙動が基準を逸脱したか否かが判定される。観測された車両挙動が基準を逸脱する場合、候補地点が難解地点であると判定される。
In
ステップ155では、候補地点において観測された運転者挙動と基準とが比較される。ステップ154では、観測された運転者挙動が基準を逸脱したか否かが判定される。観測された運転者挙動が基準を逸脱する場合、候補地点が難解地点であると判定される。
In
ステップ156では、ステップ153−155における判定処理(1)、(2)、(3)のいずれかによって、候補地点が難解地点であることが示されているか否かを判定する。判定処理(1)、(2)、(3)のいずれかひとつによって候補地点が難解地点であることが示されている場合、ステップ132へ進む。ステップ156において否定的に判定される場合、ステップ151へ戻る。
In
図6は、難解地点であるとの判定を原画像に基づいて検証する処理160を示す。処理160は、ステップ133の一例を示す。処理150は、車両装置5によって実行される。
FIG. 6 shows a
ステップ161では、難解地点の検出原因が車両挙動または運転者挙動であったか否かが判定される。よって、ステップ154またはステップ155において肯定的に判定された場合に、ステップ161において肯定的な判定が得られる。ステップ161において否定的に判定される場合、ステップ134へ進む。ステップ161において肯定的に判定される場合、ステップ162へ進む。
In
ステップ162では、原画像においてエラー事物を探索する画像認識処理が実行される。ステップ163では、原画像にエラー事物があるか否かが判定される。ステップ163において否定的に判定される場合、ステップ134へ進む。ステップ163において肯定的に判定される場合、ステップ164へ進む。ステップ164では、ステップ132において得られた原画像を破棄する。その後、ステップ131へ戻る。
In
図7は、難解地点を示す基準を学習するための処理170を示す。処理170は、ステップ135の一例を示す。処理170は、車両装置5によって実行される。
FIG. 7 shows a
ステップ171では、ステップ153−155における判定処理(1)、(2)、(3)の複数によって、候補地点が難解地点であることが示されているか否かを判定する。判定処理(1)、(2)、(3)の少なくとも2つによって候補地点が難解地点であることが示されている場合、ステップ172へ進む。ステップ171において否定的に判定される場合、ステップ132へ戻る。
In
この実施形態では、ステップ131が提供する判定部は、複数の判定処理、すなわちステップ153−155を含む。ステップ171は、難解地点の判定の正しさが所定水準以上の高さであることを判定する判定部を提供する。この結果、学習部は、複数の判定処理の少なくとも2つによって難解地点が判定されている場合に、修正を実行する。
In this embodiment, the determination unit provided in
ステップ172では、難解地点において観測された車両挙動に基づいて、車両挙動のための基準が修正される。ステップ173では、難解地点において観測された運転者挙動に基づいて、運転者挙動のための基準が修正される。ステップ173は、難解地点において観測された運転者の挙動、例えば声を基準に設定する場合がある。
In
図8、図9は、それぞれ、原画像の一例を示す。これらの図には、カメラ5dにより撮影された画像が、図示のために簡単化されて図示されている。原画像RV1と原画像RV2とは、同じ交差点を撮影した画像である。原画像RV1は、ひとつの車両4における難解交差点の判定に応答して取得された原画像である。原画像RV2は、他のひとつの車両4における難解交差点の判定に応答して取得された原画像である。原画像RV1と原画像RV2とは、撮影された日時、位置が異なっている。
8 and 9 each show an example of the original image. In these drawings, an image taken by the camera 5d is simplified for illustration. The original image RV1 and the original image RV2 are images obtained by photographing the same intersection. The original image RV1 is an original image acquired in response to the determination of a difficult intersection in one
原画像RV1、RV2には、交差点の風景が撮影されている。図示されるように、原画像RV1、RV2には、道路標識RSと、風景の一部である建物BDと、風景の一部であるオーバーパスOPとが写っている。この交差点は、面積が広い。このため、向こう側の建物BDが小さく見える。しかも、信号機などの設置物によって視界が遮られている。さらに、オーバーパスOPが広い範囲を覆っており、全体が暗い。これらの原因により、分岐路のそれぞれを認識することが困難である。 The scenery of the intersection is photographed in the original images RV1 and RV2. As illustrated, the original images RV1 and RV2 include a road sign RS, a building BD that is part of the landscape, and an overpass OP that is part of the landscape. This intersection has a large area. For this reason, the building BD on the other side looks small. Moreover, the field of view is obstructed by an installation such as a traffic light. Furthermore, the overpass OP covers a wide range, and the whole is dark. For these reasons, it is difficult to recognize each of the branch paths.
原画像RV1、RV2には、移動体である他の車両VH、および歩行者PDが写っている。このため、原画像RV1、RV2は異なる風景を表している。これらの原画像RV1、RV2を見ただけでは、交差点の形状を正確に認識し、走行するべき分岐路を選択することは容易なことではない。 In the original images RV1 and RV2, another vehicle VH that is a moving body and a pedestrian PD are shown. For this reason, the original images RV1 and RV2 represent different landscapes. Just looking at these original images RV1 and RV2, it is not easy to accurately recognize the shape of the intersection and select a branch road to travel.
図10は、センタ装置3によって合成されたクリーン画像の一例を示す。この図には、カメラ5dで撮影された画像に相当する高精細な画像が、図示のための簡単化されて図示されている。クリーン画像CVは、ステップ144によって合成された画像である。クリーン画像CVには、道路標識RS、および風景の一部である建物BDとオーバーパスOPとが映し出されている。クリーン画像CVには、少なくとも目立つ移動体は写っていない。クリーン画像CVには、背景の建物BDと同一視できるような小さい移動体が写っている場合がある。クリーン画像CVは、原画像RV1、RV2に基づいて合成されたものである。クリーン画像CVは、原画像RV1、RV2と同程度の高精細な画像である。クリーン画像CVは、建物などを模式的なブロックとして示した絵より、写真に近い品質の画像である。
FIG. 10 shows an example of a clean image synthesized by the
図11は、車両装置5によって表示器5eに表示される案内画像の一例を示す。表示器5eに表示される案内画像NVは、クリーン画像CVと同程度の高精細な画像である。案内画像NVは、クリーン画像CVと同じ画像品質をもつことができる。案内画像NVには、車両装置5が有する経路案内機能によって経路案内のための案内記号GSが合成されている。図示の例においては、案内記号GSは、複数の分岐路のうちのひとつへ進入するための進行方向を示している。案内記号GSは、センタ装置3において、または車両装置5においてクリーン画像上に合成することができる。
FIG. 11 shows an example of a guide image displayed on the
この実施形態によると、難解地点において撮影された原画像から、その難解地点における走行を支援するための画像が作成される。よって、難解地点における実際の風景に基づいて運転支援用の画像が提供される。 According to this embodiment, an image for supporting traveling at the difficult point is created from the original image taken at the difficult point. Therefore, an image for driving support is provided based on the actual scenery at the difficult point.
一例においては、難解地点を通過した先行車両から原画像が提供され、この原画像に基づいて合成されたクリーン画像が後続車両のための案内画像として提供される。クリーン画像は、先行車両から見えた難解地点の風景に基づいて生成されている。このため、後続車両の運転者には、難解地点における実際の見え方に近い案内画像を提供することができる。 In one example, an original image is provided from a preceding vehicle that has passed through a difficult point, and a clean image synthesized based on the original image is provided as a guide image for the following vehicle. The clean image is generated based on the landscape of the difficult point seen from the preceding vehicle. For this reason, the guide image close | similar to the actual way of seeing in a difficult point can be provided to the driver of a succeeding vehicle.
しかも、原画像から、他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像が作成される。よって、移動体に起因する分かり難さが軽減される。この結果、他の移動体に起因する影響が抑制され、運転者が理解しやすい画像を提供できる。 In addition, a clean image is created by deleting at least part of other vehicles and / or moving objects such as pedestrians from the original image. Therefore, the difficulty of understanding due to the moving body is reduced. As a result, it is possible to provide an image that is less affected by other moving objects and is easy for the driver to understand.
(他の実施形態)
以上、開示された発明の好ましい実施形態について説明したが、開示された複数の発明は上述した実施形態に何ら制限されることなく、種々変形して実施することが可能である。上記実施形態の構造は、あくまで例示であって、開示された複数の発明の技術的範囲はこれらの記載の範囲に限定されるものではない。開示された複数の発明は、実施形態において示された組み合わせに限定されることなく、それぞれ独立して実施可能である。開示された複数の発明のいくつかの技術的範囲は、特許請求の範囲の記載によって示され、さらに特許請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものである。
(Other embodiments)
The preferred embodiments of the disclosed invention have been described above, but the disclosed inventions are not limited to the above-described embodiments, and various modifications can be made. The structure of the said embodiment is an illustration to the last, Comprising: The technical scope of several disclosed invention is not limited to the range of these description. The disclosed inventions are not limited to the combinations shown in the embodiments, and can be implemented independently. Some technical scopes of the disclosed inventions are indicated by the description of the claims, and include all modifications within the meaning and scope equivalent to the description of the claims.
例えば、制御装置が提供する手段と機能は、ソフトウェアのみ、ハードウェアのみ、あるいはそれらの組合せによって提供することができる。例えば、制御装置をアナログ回路によって構成してもよい。 For example, the means and functions provided by the control device can be provided by software only, hardware only, or a combination thereof. For example, the control device may be configured by an analog circuit.
上述の実施形態では、先行して難解地点を通過した複数の車両4によって取得された複数の原画像に基づいて作成されたクリーン画像が、将来に難解地点に到達する後続の他の車両4に提供される場合を説明した。しかし、車両用ナビゲーションシステムにおいては、ひとつの車両4が繰り返して取得した複数の原画像に基づいて作成されたクリーン画像が、同じ車両4に提供される場合もある。
In the above-described embodiment, a clean image created based on a plurality of original images acquired by a plurality of
上述の実施形態では、ステップ131−145を、センタ装置3と車両装置5とで分散的に実行する構成を説明した。これに代えて、上述の実施形態と異なる処理の分担を採用してもよい。例えば、ステップ131−135の一部または全部をセンタ装置3において実行してもよい。また、ステップ141−145の一部または全部を車両装置5において実行してもよい。
In the above-described embodiment, the configuration in which steps 131 to 145 are executed in a distributed manner by the
上述の実施形態では、ステップ131−135は、車両4の走行中にリアルタイムで実行される。これに代えて、ステップ131−135は、所定期間にわたる車両4の走行後に実行されてもよい。この場合、車両4の走行中に観測された情報をメモリ装置5bに記憶する処理が付加される。また、ステップ131−135は、記憶された情報に基づいて実行される。
In the above-described embodiment, steps 131 to 135 are executed in real time while the
上記実施形態では、他の車両と歩行者との両方を原画像から消去することによりクリーン画像を作成した。これに代えて、他の車両と歩行者とのいずれか一方だけを原画像から消去してクリーン画像を作成してもよい。 In the above embodiment, a clean image is created by deleting both other vehicles and pedestrians from the original image. Alternatively, a clean image may be created by deleting only one of the other vehicle and the pedestrian from the original image.
上述の実施形態では、ステップ124を車両装置5だけにおいて実行する構成を説明した。これに代えて、ステップ124の一部をセンタ装置2において実行してもよい。例えば、標識の画像をセンタ装置3のメモリ装置3bに収集し、収集された画像から、最新かつ高品質な標識の画像を車両装置5に配信して表示してもよい。
In the above-described embodiment, the configuration in which step 124 is executed only in the
1 車両用ナビゲーションシステム、
2 配信センタ、3 センタ装置、
3a センタ処理装置、3b メモリ装置、3c 通信機、
4 車両、5 車両装置、6 通信システム、
5a 車両処理装置、5b メモリ装置、5c 通信機、
5d カメラ、5e 表示器、5f 検出器。
1 Vehicle navigation system,
2 distribution center, 3 center device,
3a Center processing device, 3b memory device, 3c communication device,
4 vehicle, 5 vehicle device, 6 communication system,
5a Vehicle processing device, 5b Memory device, 5c Communication device,
5d camera, 5e indicator, 5f detector.
Claims (6)
前記原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、前記地点における運転を支援するための画像として作成する作成部(144)とを備え、
前記取得部は、複数の原画像を蓄積する蓄積部(142)を含み、
前記作成部(144)は、複数の前記原画像に基づいて前記クリーン画像を作成し、
さらに、前記原画像が撮影された地点が、前記クリーン画像を作成すべき地点として妥当であることを確認した場合に、前記作成部による前記クリーン画像の作成を許容する確認部(143)を備え、
前記確認部は、所定の閾値を越える数の前記原画像が蓄積された場合に、前記クリーン画像を作成すべき地点として妥当であることを確認することを特徴とする車両用ナビゲーションシステム。 An acquisition unit (141-142) for acquiring original images (RV1, RV2) photographed at a predetermined point;
A creation unit (144) that creates a clean image (CV) in which at least a part of another vehicle and / or a moving body such as a pedestrian is deleted from the original image as an image for supporting driving at the point; Prepared ,
The acquisition unit includes a storage unit (142) that stores a plurality of original images,
The creation unit (144) creates the clean image based on a plurality of the original images,
Furthermore, a confirmation unit (143) that allows the creation unit to create the clean image when it is confirmed that the spot where the original image was captured is appropriate as a location where the clean image should be created. ,
The confirmation unit, if the number of the original image exceeds a predetermined threshold stored, vehicle navigation system characterized that you sure that the clean image is appropriate as a point to be prepared.
前記作成部は、前記撮影条件に基づいて複数の前記原画像を合成することを特徴とする請求項2に記載の車両用ナビゲーションシステム。 The acquisition unit acquires information indicating shooting conditions of each of the original images,
The vehicle navigation system according to claim 2 , wherein the creating unit synthesizes a plurality of the original images based on the shooting conditions.
前記原画像から他の車両および/または歩行者などの移動体の少なくとも一部を消去したクリーン画像(CV)を、前記地点における運転を支援するための画像として作成する作成部(144)とを備え、
前記取得部は、複数の原画像を蓄積する蓄積部(142)を含み、
前記作成部(144)は、複数の前記原画像に基づいて前記クリーン画像を作成し、
前記作成部(144)は、ひとつの前記原画像における前記移動体が写っている範囲に、他の前記原画像における部分画像を合成することにより前記移動体が消去された前記クリーン画像を作成し、
前記取得部は、それぞれの前記原画像の撮影条件を示す情報を取得し、
前記作成部は、前記撮影条件に基づいて複数の前記原画像を合成することを特徴とする車両用ナビゲーションシステム。 An acquisition unit (141-142) for acquiring original images (RV1, RV2) photographed at a predetermined point;
A creation unit (144) that creates a clean image (CV) in which at least a part of another vehicle and / or a moving body such as a pedestrian is deleted from the original image as an image for supporting driving at the point; Prepared,
The acquisition unit includes a storage unit (142) that stores a plurality of original images,
The creation unit (144) creates the clean image based on a plurality of the original images,
The creation unit (144) creates the clean image from which the moving body has been erased by combining the partial images in the other original image within a range in which the moving body is captured in one original image. ,
The acquisition unit acquires information indicating shooting conditions of each of the original images,
The creating unit for a vehicle navigation system, which comprises combining a plurality of said original image based on the photographing condition.
複数の車両(4)のそれぞれに設けられた複数の車両装置(5)と、
複数の前記車両装置と通信可能に接続されたセンタ装置(3)とを備え、
前記車両装置(5)は、
前記車両の前方を撮影することにより前記原画像を供給するカメラ(5d)と、
前記原画像を前記車両装置から前記センタ装置へ送信する送信部(134)とを備え、
前記センタ装置(3)は、
前記取得部と、
前記作成部と、
さらに、前記クリーン画像を前記車両装置に配信する配信部(145)とを備え、
前記取得部は、前記送信部から送信された前記原画像を受信するセンタ受信部(141)を含み、
前記車両装置(5)は、さらに、
前記配信部から配信された前記クリーン画像を受信し記憶装置(5b)に記憶する車両受信部(136)と、
前記地点を走行するときに前記記憶装置に記憶された前記クリーン画像を表示器(5e)に表示する表示部(137)とを備えることを特徴とする請求項1から請求項5のいずれかに記載の車両用ナビゲーションシステム。 The vehicle navigation system includes:
A plurality of vehicle devices (5) provided in each of the plurality of vehicles (4);
A center device (3) communicably connected to the plurality of vehicle devices,
The vehicle device (5)
A camera (5d) for supplying the original image by photographing the front of the vehicle;
A transmission unit (134) for transmitting the original image from the vehicle device to the center device;
The center device (3)
The acquisition unit;
The creation unit;
And a delivery unit (145) for delivering the clean image to the vehicle device,
The acquisition unit includes a center reception unit (141) that receives the original image transmitted from the transmission unit,
The vehicle device (5) further includes:
A vehicle receiver (136) for receiving the clean image distributed from the distributor and storing it in a storage device (5b);
A display unit (137) for displaying the clean image stored in the storage device on a display (5e) when traveling at the point, according to any one of claims 1 to 5 , The vehicle navigation system described.
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221645A JP5910450B2 (en) | 2012-10-03 | 2012-10-03 | Vehicle navigation system |
US14/428,121 US20150228194A1 (en) | 2012-10-03 | 2013-10-03 | Vehicle navigation system, and image capture device for vehicle |
PCT/JP2013/005903 WO2014054289A1 (en) | 2012-10-03 | 2013-10-03 | Vehicle navigation system, and image capture device for vehicle |
DE112013004876.0T DE112013004876T5 (en) | 2012-10-03 | 2013-10-03 | Vehicle navigation system and image recording device for a vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012221645A JP5910450B2 (en) | 2012-10-03 | 2012-10-03 | Vehicle navigation system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014074626A JP2014074626A (en) | 2014-04-24 |
JP2014074626A5 JP2014074626A5 (en) | 2015-01-08 |
JP5910450B2 true JP5910450B2 (en) | 2016-04-27 |
Family
ID=50748865
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012221645A Active JP5910450B2 (en) | 2012-10-03 | 2012-10-03 | Vehicle navigation system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5910450B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108995590A (en) * | 2018-07-26 | 2018-12-14 | 广州小鹏汽车科技有限公司 | A kind of people's vehicle interactive approach, system and device |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101763066B1 (en) * | 2016-04-14 | 2017-07-31 | 인하대학교 산학협력단 | Pedestrian Navigation Method and System with Reconfigurable Multi Modal Interface |
KR102554594B1 (en) * | 2018-07-09 | 2023-07-12 | 현대모비스 주식회사 | Wide area surround view monitoring apparatus for vehicle and control method thereof |
JP7293648B2 (en) * | 2018-12-21 | 2023-06-20 | トヨタ自動車株式会社 | Driving support device, vehicle, driving support system, and driving support method |
JP7176398B2 (en) | 2018-12-21 | 2022-11-22 | トヨタ自動車株式会社 | CONTROL DEVICE, VEHICLE, IMAGE DISPLAY SYSTEM, AND IMAGE DISPLAY METHOD |
JP7159851B2 (en) * | 2018-12-21 | 2022-10-25 | トヨタ自動車株式会社 | Driving support device, vehicle, information providing device, driving support system, and driving support method |
JP7119984B2 (en) * | 2018-12-21 | 2022-08-17 | トヨタ自動車株式会社 | Driving support device, vehicle, information providing device, driving support system, and driving support method |
JP7367709B2 (en) * | 2021-01-20 | 2023-10-24 | トヨタ自動車株式会社 | Information processing device, information processing system, and information processing program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5076468B2 (en) * | 2006-12-01 | 2012-11-21 | 株式会社デンソー | Communication-type navigation system, vehicle navigation device, and center device |
JP2008185394A (en) * | 2007-01-29 | 2008-08-14 | Denso Corp | Vehicle navigation device and information center |
JP4894584B2 (en) * | 2007-03-22 | 2012-03-14 | トヨタ自動車株式会社 | Route guidance device |
-
2012
- 2012-10-03 JP JP2012221645A patent/JP5910450B2/en active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108995590A (en) * | 2018-07-26 | 2018-12-14 | 广州小鹏汽车科技有限公司 | A kind of people's vehicle interactive approach, system and device |
Also Published As
Publication number | Publication date |
---|---|
JP2014074626A (en) | 2014-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5910450B2 (en) | Vehicle navigation system | |
WO2014054288A1 (en) | Vehicle navigation system | |
WO2014054289A1 (en) | Vehicle navigation system, and image capture device for vehicle | |
JP4984974B2 (en) | Driving support system and in-vehicle device | |
JP5461065B2 (en) | Current position specifying device and current position specifying method | |
JP2019509534A (en) | System and method for estimating future paths | |
JP2010068069A (en) | Vehicle periphery photographing system | |
JP5618152B2 (en) | Route guidance system, route guidance method, and route guidance program | |
US8924153B2 (en) | Navigation device, navigation method, and navigation program | |
WO2010023785A1 (en) | Intersection situation recognition system | |
JP4858212B2 (en) | Car navigation system | |
JP2019109592A (en) | System and method for generating road map | |
JP2010134640A (en) | Information acquisition apparatus | |
CN111645705A (en) | Method for issuing driving route adjustment and server | |
JP5910449B2 (en) | Vehicle navigation system | |
US20190143926A1 (en) | Vehicle management system, inspection information transmission system, information management system, vehicle management program, inspection information transmission program, and information management program | |
JP2014074627A (en) | Navigation system for vehicle | |
JP2007221199A (en) | On-vehicle camera display device and image processing unit | |
JP5910448B2 (en) | Vehicle navigation system | |
JP2014074623A (en) | Vehicle navigation system | |
JP2012220259A (en) | In-vehicle apparatus and vehicle azimuth correction method thereof | |
JP7550067B2 (en) | Information provision method and information provision system | |
JP2004064409A (en) | Information recording device, information recording method, and information recording program | |
JP6523907B2 (en) | Inter-vehicle distance detection system, inter-vehicle distance detection method, and program | |
JP3864418B2 (en) | Image display device for vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141117 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150327 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160301 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160314 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5910450 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |