JP2021117048A - 変化点検出装置及び地図情報配信システム - Google Patents

変化点検出装置及び地図情報配信システム Download PDF

Info

Publication number
JP2021117048A
JP2021117048A JP2020009322A JP2020009322A JP2021117048A JP 2021117048 A JP2021117048 A JP 2021117048A JP 2020009322 A JP2020009322 A JP 2020009322A JP 2020009322 A JP2020009322 A JP 2020009322A JP 2021117048 A JP2021117048 A JP 2021117048A
Authority
JP
Japan
Prior art keywords
image
map information
change point
vehicle
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020009322A
Other languages
English (en)
Other versions
JP7173062B2 (ja
Inventor
智 宇野
Satoshi Uno
智 宇野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2020009322A priority Critical patent/JP7173062B2/ja
Priority to CN202110078524.2A priority patent/CN113160594B/zh
Priority to US17/154,172 priority patent/US11662221B2/en
Publication of JP2021117048A publication Critical patent/JP2021117048A/ja
Application granted granted Critical
Publication of JP7173062B2 publication Critical patent/JP7173062B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3841Data obtained from two or more sources, e.g. probe vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3811Point data, e.g. Point of Interest [POI]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3807Creation or updating of map data characterised by the type of data
    • G01C21/3815Road data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • G06F16/2379Updates performed during online database operations; commit processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096775Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a central station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Atmospheric Sciences (AREA)
  • Geometry (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Instructional Devices (AREA)

Abstract

【課題】道路またはその周囲の構造物に関して、高精度地図の作成時から何らかの変化点が生じた地点を特定する。【解決手段】変化点検出装置(プロセッサ160)は、道路上及び道路周囲の走行条件に関連する構造物を表す地図情報を記憶するメモリ170と、車両100に搭載された車載カメラ110により得られた車両100の周囲の環境を表す画像から、構造物を隠蔽する遮蔽物体20を検出する物体検出部162と、地図情報において遮蔽物体20により隠蔽される構造物を除いて、画像と地図情報とを照合し、画像と地図情報との一致度を算出する照合部163と、一致度が所定の閾値以下である場合、画像に表された構造物に地図情報に表された対応する構造物と異なる変化点があると判定する変化点検出部164と、を有する。【選択図】図4

Description

本発明は、変化点検出装置及び地図情報配信システムに関する。
交通情報管理システムに関し、第1自動車が範囲外経路を走行するときに収集されたその範囲外経路の走行情報が、第1自動車からネットワークを介してセンターに逐次収集され、第1自動車が通行した範囲外経路の交通情報が作成された上で管理され、管理されているその交通情報が、ネットワークを介して第2自動車に送信される技術が公知である(例えば、特許文献1を参照)。
特開2004−245758号公報
自動運転の実用化に向けて、高精度地図の利用が想定されている。自動運転に利用される高精度地図には、車線区画線などの道路標示、道路標識及び信号機などの情報が含まれる。自動運転にて走行する車両(自動運転車両)は、自車に搭載された車載カメラにより得られた自車周囲の画像と高精度地図とをマッチングすることで、自車の位置を正確に推定するとともに、走行中の車線を特定する。
しかし、自動運転車両が走行中の道路またはその周囲の構造物に関して、高精度地図の作成時から何らかの変化があり、高精度地図と自車周囲の画像とが一致しない場合、自動運転制御に不調をきたすことがある。
そこで、本発明は、道路またはその周囲の構造物に関して、高精度地図の作成時から何らかの変化点が生じた地点を特定することを目的とする。
一つの実施形態によれば、変化点検出装置が提供される。この変化点検出装置は、道路上及び道路周囲の走行条件に関連する構造物を表す地図情報を記憶する記憶部と、車両に搭載された撮像部により得られた車両の周囲を表す画像から、構造物を隠蔽する物体を検出する検出部と、地図情報において物体により隠蔽される構造物を除いて、画像と地図情報とを照合し、画像と地図情報との一致度を算出する照合部と、一致度が所定の閾値以下である場合、画像に表された構造物に地図情報に表された対応する構造物と異なる変化点があると判定する変化点検出部と、を有する。
この変化点検出装置において、変化点検出部は、画像が得られたときの車両の周囲の環境の状況を表す情報、画像上での物体が表された領域のサイズまたは構造物のサイズに基づいて、画像から構造物を判別可能か否かを判定し、画像から構造物を判別可能と判定した場合に限り、変化点があると判定することが好ましい。
この変化点検出装置において、照合部は、画像を分割して得られる複数の部分画像のそれぞれについて、当該部分画像と地図情報の当該部分画像に対応する部分領域とを照合し、部分画像と地図情報の部分領域との部分一致度を算出し、変化点検出部は、一致度が所定の閾値を超えており、且つ、複数の部分画像のいずれかについての部分一致度が所定の部分一致度閾値以下である場合に、当該部分画像に表された構造物と地図情報の当該部分画像に対応する部分領域に表された構造物との間に、変化点があると判定することが好ましい。
この変化点検出装置は、変化点に基づいて、地図情報を更新する地図情報更新部を更に有する。
他の実施形態によれば、地図情報配信システムが提供される。この地図情報配信システムは、複数の車両と、複数の車両のそれぞれと通信可能なサーバとを有する地図情報配信システムであって、複数の車両のそれぞれは変化点検出装置を有し、変化点検出装置は、道路上及び道路周囲の走行条件に関連する構造物を表す地図情報を記憶する記憶部と、車両に搭載された撮像部により得られた車両の周囲の環境を表す画像から、構造物を隠蔽する物体を検出する検出部と、地図情報において物体により隠蔽される構造物を除いて、画像と地図情報とを照合し、画像と地図情報との一致度を算出する照合部と、一致度が所定の閾値以下である場合、画像に表された構造物に地図情報に表された対応する構造物と異なる変化点があると判定する変化点検出部と、変化点検出部により変化点があると判定された場合に、サーバへ変化点の情報を送信する送信部と、を有し、サーバは、複数の車両のいずれかから変化点の情報を受信すると、他の車両へ変化点の情報を送信する。
本発明に係る変化点検出装置は、道路またはその周囲の構造物に関して、高精度地図の作成時から何らかの変化点が生じた地点を特定できるという効果を奏する。
一つの実施形態による変化点検出装置が実装された地図情報配信システムの構成を示す模式図である。 車両に搭載されている車両制御システムの構成を示す模式図である。 サーバの構成を示す模式図である。 プロセッサの変化点検出処理に関する機能ブロックを示す模式図である。 地図情報が更新される例を示す模式図である。 車載カメラが撮影して得られた画像に遮蔽物体が写り込んでいる状態を示す模式図である。 区画線の掠れを検出する手法の一例を示す模式図である。 ECUのプロセッサが行う変化点検出処理を示すフローチャートである。
以下、図を参照しつつ、変化点検出装置について説明する。変化点検出装置は、例えば、車載カメラにより得られた車両の周囲の環境を表す画像と地図情報とを照合し、地図情報に表された走行条件に関連する構造物と実際の構造物との間の変化点を検出する。
ところで、画像と地図情報とを照合する際に、画像の中に構造物を隠蔽する物体(以下、遮蔽物体とも称する)が含まれている場合がある。この場合、画像と地図情報とを照合した結果、変化点が誤って検出されてしまう可能性がある。本実施形態では、画像の中に遮蔽物体が検出されると、遮蔽物体によって隠蔽される構造物が地図情報における照合対象から除かれた上で、画像と地図情報とが照合される。このような処理が行われることで、遮蔽物体によって隠蔽されていない構造物について、画像と地図情報とが照合されるため、それらの構造物について変化点が正しく検出されることになる。そして、遮蔽物体によって隠蔽された構造物については、変化点が検出されないため、変化点が誤って検出されてしまうことが抑制される。
図1は、一つの実施形態による変化点検出装置が実装された地図情報配信システム1000の構成を示す模式図である。この地図情報配信システム1000は、自律走行可能な自動運転車両の一例である複数の車両100と、サーバ300とを有する。各車両100とサーバ300とは、光通信回線などで構成される通信ネットワーク400及び通信ネットワーク400とゲートウェイ(図示せず)を介して接続される無線基地局500を介して互いに通信可能となっている。すなわち、無線基地局500は、各車両100とサーバ300間の通信を中継する。一例として、変化点検出装置は、車両100に実装されている。地図情報配信システム1000では、変化点に基づいて地図情報が最新の情報に更新される。なお、本実施形態では、各車両100は、変化点検出処理に関して同じ構成を有し、サーバ300は、各車両100に対して同じ処理を適用するので、以下では、特に必要が無い限り、1台の車両100について説明する。
サーバ300は、管理センターに備えられている。管理センターは、サーバ300を用いて、複数の車両100に地図情報などの各種情報を提供する。また、管理センターは、サーバ300を用いて、各車両100が検出した変化点に関する情報を収集し、変化点に関する情報、または更新された地図情報を各車両100に配信する。管理センターは、これら以外にも、サーバ300を用いて各車両100を制御するための各種処理を行う。
図2は、車両100に搭載されている車両制御システムの構成を示す模式図である。車両制御システムは、車載カメラ110と、測位情報受信機120と、環境情報取得部130と、無線端末140と、電子制御装置(ECU:Electronic Control Unit)150と、を有している。ECU150は、変化点検出装置の一例である。車載カメラ110と、測位情報受信機120と、環境情報取得部130と、無線端末140と、ECU150のそれぞれは、コントローラエリアネットワーク(Controller Area Network (CAN))、イーサネット(Ethernet)といった規格に準拠した車内ネットワークを介して通信可能に接続される。
車載カメラ110は、撮像部の一例であり、CCDあるいはC−MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる領域の像を結像する結像光学系を有する。車載カメラ110は、車両内部のダッシュボード、またはフロントガラスの近辺等に設けられ、所定の撮影周期(例えば1/30秒〜1/10秒)ごとに車両100の周囲(例えば、車両100の前方)を撮影し、車両100の周囲の環境を表す画像を生成する。車載カメラ110により得られた画像は、カラー画像であることが好ましい。また、車載カメラ110は、ステレオカメラから構成されていてもよく、左右画像の視差から画像上の各構造物までの距離を取得するように構成されていてもよい。車載カメラ110は、画像を生成する度に、その生成した画像を、車内ネットワークを介してECU150へ出力する。
測位情報受信機120は、車両100の現在位置及び姿勢を表す測位情報を取得する。例えば、測位情報受信機120は、GPS(Global Positioning System)受信機とすることができる。そして、測位情報受信機120は、測位情報を受信する度に、取得した測位情報を、車内ネットワークを介してECU150へ出力する。
環境情報取得部130は、主に車両100の周囲の環境を表す情報(以下、環境情報と称する)を取得する。環境情報取得部130は、外気温センサ、車両100の外部の照度を検出する照度センサ、車両100の外部の降雨量を検出する降雨センサ、等を含む。
なお、環境情報は、これらのセンサが検出する検出値以外にも、アンチロックブレーキシステム(AVS:Anti-lock Braking System)、車両安定制御システム(VSC:Vehicle Stability Control)、トラクションコントロールシステム(TRC:Traction Control System)など、車両安定制御に関わる制御値を含む。なお、これらの車両安定制御では、車輪速センサ、ブレーキ油圧センサ等が検出した検出値が用いられる。また、環境情報は、車両100のワイパーの動作状態を示す制御値、ヘッドランプの指示信号の設定値(ハイビーム、ロービームのいずれかを示す設定値)なども含む。更に、環境情報は、画像認識(機械学習によるものを含む)による気象状況または路面状況の判定値を含むものであってもよい。これらの、検出値、制御値、設定値、判定値などは、車両100の周囲の環境に関連して変化する値であり、環境情報取得部130は、これらの値を取得する。したがって、環境情報取得部130は、上述したセンサ以外に、例えばECU150とは別に設けられたECU、あるいはECU150自体であってもよい。環境情報取得部130は、取得した環境情報を、車内ネットワークを介してECU150へ出力する。
無線端末140は、例えば、アンテナと、無線信号の変調及び復調といった、無線通信に関連する各種の処理を実行する信号処理回路とを有する。そして無線端末140は、無線基地局500からダウンリンクの無線信号を受信し、また、アップリンクの無線信号を無線基地局500へ送信する。すなわち、無線端末140は、無線基地局500から受信したダウンリンクの無線信号から、サーバ300から車両100へ伝送される信号(例えば、地図情報、変化点の情報、後述するブラックリストの情報等)を取り出してECU150へわたす。また無線端末140は、ECU150から受け取ったサーバ300へ送信される信号(例えば、車両100の現在位置及び姿勢、変化点に関する情報、車載カメラ110が撮影した画像、画像と地図情報を重畳した重畳画像、環境情報など)を含むアップリンクの無線信号を生成し、その無線信号を送信する。
ECU150は、プロセッサ160と、メモリ170と、通信インターフェース180とを有する。プロセッサ160は、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ160は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。メモリ170は、記憶部の一例であり、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。メモリ170には、地図情報、車載カメラ110の内部パラメータなどの情報が記憶されている。地図情報は、車両が走行する道路上及び道路周囲の走行条件に関連する構造物(以下、単に構造物と称する)を表す情報であり、これらの構造物の3次元的な位置情報を含む。なお、構造物は、例えば路面上に描画された車線区画線または道路境界線といった道路標示、道路標識、信号機、道路端の縁石または壁、道路に近接する建物などを含む。内部パラメータは、車両100における車載カメラ110の取付位置、車両100に対する車載カメラ110の姿勢、車載カメラ110の焦点距離等を含む。通信インターフェース180は、ECU150を車内ネットワークに接続するためのインターフェース回路を有する。なお、ECU150による変化点検出処理については、後述する。
図3は、サーバ300の構成を示す模式図である。サーバ300は、制御装置310と、ストレージ装置320と、を有している。
制御装置310は、プロセッサ312と、メモリ314と、通信インターフェース316とを有する。プロセッサ312は、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ312は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。メモリ314は、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。通信インターフェース316は、制御装置310をサーバ300内のネットワーク、または通信ネットワーク400に接続するためのインターフェース回路を有する。通信インターフェース316は、車両100と、通信ネットワーク400及び無線基地局500を介して通信可能に構成される。すなわち、通信インターフェース316は、車両100から無線基地局500及び通信ネットワーク400を介して受信した、情報をプロセッサ312へわたす。また、通信インターフェース316は、プロセッサ312から受け取った情報を、通信ネットワーク400及び無線基地局500を介して車両100へ送信する。
ストレージ装置320は、記憶部の一例であり、例えば、ハードディスク装置または光記録媒体及びそのアクセス装置を有する。そして、ストレージ装置320は、地図情報を記憶している。また、ストレージ装置320は、地図情報配信システム1000により利用される各種情報を記憶している。さらに、ストレージ装置320は、プロセッサ312上で実行される処理を実行するためのコンピュータプログラムを記憶してもよい。なお、ストレージ装置320は、ハードディスクドライブ等から構成される。サーバ300側で行われる処理については、後述する。
以下、変化点検出処理の詳細について説明する。図4は、プロセッサ160の変化点検出処理に関する機能ブロックを示す模式図である。プロセッサ160は、投影部161と、物体検出部162と、照合部163と、変化点検出部164と、地図情報更新部165と、送信部166と、を有している。プロセッサ160が有するこれらの各部は、例えば、プロセッサ160上で動作するコンピュータプログラムにより実現される機能モジュールである。つまり、プロセッサ160が有するこれらの各部は、プロセッサ160とこれを機能させるためのプログラム(ソフトウェア)から構成される。また、そのプログラムは、ECU150が備えるメモリ170または外部から接続される記録媒体に記録されていてもよい。あるいは、プロセッサ160が有するこれらの各部は、プロセッサ160に設けられる専用の演算回路であってもよい。
プロセッサ160は、図4に示す構成により、車載カメラ110から取得した画像と地図情報とを照合し、画像と地図情報との間の一致度を算出する。そして、プロセッサ160は、一致度が所定の閾値以下の場合に変化点を検出する。地図情報に表された構造物に対して実際の構造物が変化した場合は、画像と地図情報を照合すると変化点が検出される。この場合、実際の構造物の変化を地図情報に反映させるため、地図情報が更新される。
図5は、地図情報が更新される例を示す模式図である。ここでは、構造物が変化した例として、道路10に設けられた分岐路12と道路10とを区画する区画線14、路肩と道路10の境界または中央分離帯と道路10との境界を示す道路境界線17、道路10の左側の壁18などの構造物が変化した場合を例に挙げて説明する。
図5は、片側2車線の道路10を車両100が走行した際に、車載カメラ110が車両前方を撮影して生成した画像を示している。左右に示す画像は、車両100の位置および姿勢、内部パラメータが同一の条件で撮影されたものであるが、撮影したタイミングが異なっている。図5の左側の画像では、2車線の道路10の左側に分岐路12が存在し、道路10の車線と分岐路12との境界に沿って区画線14が存在している。道路10を走行する車両100は、区画線14を跨いで分岐路12へ進入することで、道路10とは異なる方向へ進むことができる。なお、道路10は、区画線16によって2車線に区画されている。
一方、図5の右側の画像は、分岐路12が廃止され、区画線14が無くなった後に撮影されたものである。図5の左側の画像では、分岐路12が廃止されたことに伴い、路肩と道路10の境界を示す道路境界線17、壁18の形状も変化している。
地図情報には、図5に示す分岐路12、区画線14,16、道路10の左側の壁18などの構造物の他にも、道路標識、信号機などの構造物の3次元的な位置が、例えば世界座標系により特徴点群の座標として表されている。
分岐路12、区画線14などの構造物が無くなった直後は、地図情報に分岐路12や区画線14などの構造物の情報が依然として表されている。このため、地図情報を参照した車両100に対して誤った情報が与えられてしまい、地図情報を参照した車両制御システムは、分岐路12、区画線14などが依然として存在するものと認識してしまう。
一方、プロセッサ160は、車載カメラ110が撮影して生成した画像を取得する度に、画像と地図情報を逐次照合し、画像と地図情報との間の変化点を検出する。分岐路12および区画線14などの構造物が無くなった後に撮影された画像と、地図情報とが照合されると、変化点が検出される。変化点に基づいて地図情報が更新されることで、地図情報は、分岐路12および区画線14などの構造物が無くなったことが反映されたものとなる。
図6は、分岐路12、区画線14などの構造物が無くなった後に撮影された画像に遮蔽物体20が写り込んでいる状態を示す模式図である。図6に示す例では、遮蔽物体20は、先行車両である大型のバスであり、遮蔽物体20によって、区画線16、道路境界線17、壁18などの構造物の一部が隠蔽されている。分岐路12および区画線14などの構造物が無くなったことが地図情報に既に反映されていたとしても、遮蔽物体20が画像中に写り込んでしまうと、画像と地図情報を照合した際に、両者の一致度が低く判定されてしまい、変化点があるものとして誤検出がなされてしまう。
このため、プロセッサ160は、図6に示す車載カメラ110の画像から構造物を隠蔽する遮蔽物体20を検出し、画像と地図情報を照合する際に、地図情報に表された構造物のうち、遮蔽物体20により隠蔽される構造物(図6の例では、遮蔽物体20の裏側に隠れている区画線16、道路境界線17、壁18など)を照合対象から除いて照合することで、画像と地図情報との一致度を算出する。そして、プロセッサ160は、一致度が所定の閾値以下である場合、画像に表された構造物に、地図情報に表された対応する構造物と異なる変化点があると判定する。
これにより、遮蔽物体20により隠蔽される構造物については、変化点が検出されないため、構造物を隠蔽する遮蔽物体20が存在する場合においても、変化点が正確に検出される。また、地図情報に表された、遮蔽物体20により隠蔽される構造物について、これらの構造物の情報が誤って更新されることが抑制される。
以下では、プロセッサ160が行う処理について詳細に説明する。プロセッサ160は、車載カメラ110が上述の所定の撮影周期ごとに生成した画像、および測位情報受信機120が受信した車両100の現在位置及び姿勢に関する測位情報を逐次取得する。
プロセッサ160の投影部161は、メモリ170に記憶された3次元の地図情報を車載カメラ110が生成した画像上に投影することで、地図情報を2次元の情報に変換する。この際、車両100の現在位置及び姿勢と内部パラメータに基づいて、地図情報に表された構造物が、画像上に投影される。より詳細には、投影部161は、車両100の位置及び姿勢を仮定して、地図情報に表された車両100の周囲の構造物を車載カメラ110が生成した画像上に投影する。例えば、投影部161は、測位情報受信機120から受信した最新の測位情報で表される車両100の位置、及び、直近の複数の測位情報から求められる車両100の進行方向に相当する車両100の姿勢を、車両100の仮定位置及び仮定姿勢とする。投影部161は、その仮定位置及び仮定姿勢と、内部パラメータに従って、世界座標系から、車載カメラ110の位置を原点とし、車載カメラ110の光軸方向を一つの軸方向とするカメラ座標系への変換式を求める。そのような変換式は、座標系間の回転を表す回転行列と座標系間の平行移動を表す並進ベクトルの組み合わせで表される。そして投影部161は、その変換式に従って、地図情報に含まれる、世界座標系で表された車両100の周囲の道路上の構造物の座標を、カメラ座標系の座標に変換する。そして投影部161は、内部パラメータに基づいて、カメラ座標系の座標に変換された構造物を画像上に投影する。これにより、車載カメラ110により得られた画像に対し、地図情報に表された構造物が重畳された重畳画像が生成される。
なお、投影部161は、車両100の仮定位置及び仮定姿勢と、内部パラメータに基づいて、地図情報により表された構造物のうち車載カメラ110で撮影可能な領域を特定し、特定した構造物のみをカメラ座標系に変換するようにしてもよい。例えば、車載カメラ110の位置を原点とし、車載カメラ110の画角(焦点距離)によって定まる領域が撮影可能な領域とされる。これにより、車載カメラ110が撮影できない範囲が除かれて座標変換、投影が行われるため、投影部161による処理負荷が軽減される。
物体検出部162は、車載カメラ110により生成された画像から、車両100の周囲の構造物を検出する。例えば、物体検出部162は、画像を識別器に入力することで、画像に表された構造物を検出する。物体検出部162は、識別器として、例えば、入力された画像から、その画像の各画素について、その画素に表される可能性の有る物体の種類ごとに、その物体がその画素に表されている確からしさを出力し、確からしさが最大となる物体が表されていると識別するように予め学習されたセグメンテーション用の識別器を用いることができる。物体検出部162は、そのような識別器として、例えば、Fully Convolutional Network(FCN)といった、セグメンテーション用のコンボリューショナルニューラルネットワーク型(CNN)のアーキテクチャを有するディープニューラルネットワーク(DNN)を用いることができる。あるいは、物体検出部162は、ランダムフォレストあるいはサポートベクトルマシンといった他の機械学習手法に従ったセグメンテーション用の識別器を利用してもよい。この場合、物体検出部162は、画像をセグメンテーション用の識別器に入力することで、その画像において構造物が写っている画素を特定する。そして物体検出部162は、同じ種類の構造物が写っている画像の集合をその構造物が表された領域とする。
あるいは、物体検出部162は、画像に対してSobelフィルタといったエッジ検出フィルタを適用して、画像からエッジが表されたエッジ画素を特徴点として検出してもよい。物体検出部162は、エッジ画素の集合に対してハフ変換を実行することで、画像から直線を検出してもよい。そして物体検出部162は、画像から検出された直線が車両100の進行方向に沿って延伸されている場合に、その直線を、道路上の構造物の一例である車線区画線として検出してもよい。
また、物体検出部162は、画像を識別器に入力することで遮蔽物体20を検出する。その際、物体検出部162は、構造物の検出に用いる識別器とは別個に、入力された画像から、その画像に表された遮蔽物体20を検出するように予め学習された識別器を用いてもよい。物体検出部162は、そのような識別器として、例えば、Single Shot MultiBox Detector(SSD)、または、Faster R-CNNといった、コンボリューショナルニューラルネットワーク型(CNN)のアーキテクチャを持つDNNを用いることができる。
また、物体検出部162は、検出した構造物が表された領域の画像に対して、エッジ検出処理を行うことで、構造物を表す特徴点を検出する。物体検出部162は、検出された構造物の種類、その構造物が表された領域を表す情報(例えば、その構造物が表された領域を示すビットマップ)、および特徴点を照合部163へ出力する。
照合部163は、車載カメラ110が生成した画像上に投影された、地図情報に表された構造物と、車載カメラ110が生成した画像から検出された構造物とを照合し、両者の一致度を算出する。この際、照合部163は、遮蔽物体20により隠蔽される構造物を照合対象から除いた上で、地図情報に表された構造物と、車載カメラ110が生成した画像から検出された構造物とを照合する。
例えば、照合部163は、物体検出部162が画像から構造物の特徴点を検出している場合、画像の特徴点と地図情報の特徴点とが一致するかのマッチングを行い、重畳画像内において、特徴点の全数に対する一致した特徴点の数の割合を算出することで、地図情報に表された構造物と、車載カメラ110が生成した画像から検出された構造物との一致度を算出する。この場合、例えば一致度は以下の式から算出される。
一致度=地図情報の特徴点のうち、画像から検出された特徴点の何れかまでの距離が所定値以下となるものの数/地図情報について設定された特徴点の総数
なお、照合部163は、構造物が表されたビットマップを物体検出部162から取得している場合、公知のテンプレートマッチングの手法により、地図情報に表された構造物と画像から検出された構造物との一致度を算出してもよい。
一致度を算出する際、照合部163は、物体検出部162により遮蔽物体20が検出されると、地図情報に表された構造物のうち、遮蔽物体20により隠蔽される構造物を照合対象から除く処理を行う。これにより、遮蔽物体20で隠蔽される地図情報上の領域は、一致度の算出から除外される。
例えば、図6に示す車載カメラ110の画像の場合、物体検出部162により遮蔽物体20として大型のバスが検出される。照合部163は、遮蔽物体20により隠蔽される構造物(遮蔽物体20の背後に隠れている道路10、区画線16、道路境界線17、壁18など)を照合対象から除く。そして、照合部163は、車載カメラ110により得られた画像と、遮蔽物体20により隠蔽される構造物が除かれた地図情報とを照合することで、画像と地図情報の一致度を算出する。
その際、照合部163は、車載カメラ110の画像に対して地図情報に表された構造物が重畳された状態で、画像中に検出された遮蔽物体20の領域に位置する構造物を照合対象から除くことで、遮蔽物体20により隠蔽される構造物を照合対象から除くことができる。
なお、物体検出部162により検出された遮蔽物体20の位置に誤差が含まれること等を考慮して、照合部163は、検出された遮蔽物体20よりも広い領域に含まれる構造物を照合対象から除いてもよい。
投影部161は、仮定位置及び仮定姿勢を所定量ずつ変化させながら、複数の仮定位置及び仮定姿勢において、上記と同様の座標系変換、投影の各処理を実行する。照合部163は、一致度が最大となるときの仮定位置及び仮定姿勢を特定し、その仮定位置及び仮定姿勢を、車両100の実際の位置及び姿勢として推定してもよい。なお、照合部163が推定した車両100の実際の位置及び姿勢に対し、車輪速センサから得られる車両100の移動量、角速度センサから得られる車両100のヨー角の変化を適用して、照合部163が推定した値が補正されてもよい。このようにして推定された車両100の実際の位置及び姿勢は、車両100の自動運転に用いられ得る。すなわち、車両100の制御システムは、推定された車両100の実際の位置及び姿勢に基づいて、地図情報を参照しながらアクセル、ブレーキ、操舵を制御することで、車両100が所望の経路を走行するように自動運転を行うことができる。
照合部163が算出した一致度は、変化点検出部164へ送られる。変化点検出部164は、一致度と所定の閾値とを比較する。なお、照合部163は、車両100の実際の位置及び姿勢を推定しながら、複数の仮定位置及び仮定姿勢のそれぞれについて、地図情報に表された構造物と画像から検出された構造物との一致度を算出し、一致度の最大値を求めてもよい。この場合、一致度の最大値が変化点検出部164へ送られ、変化点検出部164は、一致度の最大値と所定の閾値とを比較する。
変化点検出部164は、一致度が所定の閾値以下である場合、画像に表された構造物に地図情報に表された対応する構造物と異なる変化点があると判定する。例えば、上述した特徴点マッチングの場合、車載カメラ110の画像の特徴点のうち、地図情報の特徴点と一致しなかった特徴点が変化点に相当する。または、地図情報の特徴点のうち、車載カメラ110の画像の特徴点と一致しなかった特徴点が変化点に相当する。また、テンプレートマッチングの場合、マッチングした領域毎に一致度を求め、一致度が閾値以下の領域が変化点とされる。
一方、構造物によっては、単に画像と地図情報とを照合するのみでは、変化点を検出できない場合がある。例えば、道路上の構造物の一例である道路標示は、劣化するほど掠れて見えなくなる。しかし、道路標示の一部が掠れているような場合、この掠れが一致度に及ぼす影響は低い。このため、画像と地図情報とを照合して掠れに起因する変化点を検出しようとしても、画像と地図情報が全体として一致していると、一致度が所定の閾値を上回る可能性がある。このため、道路標示の掠れは、上述の方法では変化点として検出されない場合がある。
このため、照合部163は、道路標示の掠れによる変化点を検出する場合、画像を複数の部分画像に分割し、部分画像ごとに地図情報上で対応する部分領域との部分一致度を算出する。なお、部分画像ごとに部分一致度を算出する処理は、上述した一致度の算出と同様に行われる。画像と地図情報との相違が道路標示の掠れに起因する場合、照合部163による照合の結果、画像全体について地図情報と照合した際の一致度は所定の閾値よりも大きくなる。一方、部分画像のうち、掠れが生じている道路標示が部分画像中に存在すると、その部分画像における部分一致度は、所定の閾値(部分一致度閾値)以下となる。したがって、変化点検出部164は、部分一致度が部分一致度閾値以下となる場合に、その部分画像に表された構造物と地図情報上で対応する部分領域に表された構造物との間に、道路標示の掠れによる変化点があると判定する。
図7は、道路標示としての区画線の掠れを検出する手法の一例を示す模式図である。ここでは、図5の左側に示した画像を例に挙げ、道路10を2車線に区画する区画線16に生じた掠れを変化点として検出する場合について説明する。
図7に示す例では、画像中で道路10の領域が破線L1〜L4を境に8つの部分画像P1〜P8に分割されている。照合部163は、部分画像P1〜P8のそれぞれについて、地図情報の対応する部分領域と照合し、部分一致度を求める。
ここで、道路10を2車線に区画する区画線16のうち、部分画像P3に表されている区画線16(図7中に破線で示す)のみが掠れているものとする。この際、画像全体について地図情報と照合した際の一致度は所定の閾値よりも大きくなる。また、部分画像P1,P2,P4,P5,P6,P7,P8については、画像中に擦れた区画線16が存在していないか、または画像中に擦れた区画線16が占める領域が非常に小さい。したがって、部分画像P1,P2,P4,P5,P6,P7,P8のそれぞれと地図情報の対応する部分領域とを照合して得られる部分一致度は、部分一致度閾値よりも大きくなる。
一方、部分画像P3については、掠れた区画線16が部分画像中で大きな領域を占めているため、部分画像P3と地図情報の対応する部分領域とを照合して得られる部分一致度は、部分一致度閾値よりも小さくなる。したがって、変化点検出部164は、照合部163による照合の結果、部分画像P3と地図情報の対応する部分領域との間に、道路標示の掠れに起因する変化点を検出する。例えば、変化点検出部164は、上述した特徴点マッチングの場合、部分画像の特徴点のうち、地図情報の対応する部分領域の特徴点と一致しなかった特徴点を、掠れに起因する変化点として検出する。
なお、図7の例において、部分画像P1,P2,P5,P6については、遮蔽物体20として先行車両が画像に写り込んでいるため、照合部163は、地図情報において遮蔽物体20により隠蔽される構造物を照合対象から除いて照合することで、部分画像と地図情報との部分一致度を算出する。
図8は、ECU150のプロセッサ160が行う変化点検出処理を示すフローチャートである。図8の処理は、プロセッサ160により所定の制御周期毎に実行される。先ず、物体検出部162が、車載カメラ110により得られた画像から遮蔽物体20を検出する(ステップS100)。次に、照合部163が、地図情報において遮蔽物体20により隠蔽される構造物を除いて、車載カメラ110により得られた画像と地図情報上の対応領域とを照合して一致度を算出する(ステップS102)。
次に、変化点検出部164が、一致度が所定の閾値以下であるか否かを判定し(ステップS104)、一致度が所定の閾値以下の場合はステップS106へ進む。ステップS106では、変化点検出部164が、画像上に表された構造物と地図情報上の対応する構造物間の変化点を検出する。ステップS106の後は処理を終了する。また、ステップS104で一致度が所定の閾値を超える場合は、処理を終了する。
以上の処理により、プロセッサ160は、車載カメラ110が生成した画像から構造物を隠蔽する遮蔽物体20を検出した場合、遮蔽物体20により隠蔽される構造物を照合対象から除いた上で、車載カメラ110が生成した画像と地図情報とを照合して一致度を算出する。このため、遮蔽物体20によって構造物が隠蔽される場合であっても、画像と地図情報との一致度が正確に算出される。したがって、一致度に基づいて、画像に表された構造物と地図情報に表された構造物との間の変化点が精度良く検出される。
地図情報更新部165は、変化点検出部164が検出した変化点に基づいて、地図情報を更新する。例えば、地図情報更新部165は、重畳画像上で検出された変化点をカメラ座標系の座標に変換する。そして、地図情報更新部165は、カメラ座標系で表される変化点の座標を世界座標系に変換することで、世界座標系で表された変化点の座標を得る。そして、地図情報更新部165は、世界座標系で表された変化点の座標に基づいて、地図情報を更新する。その際、例えば、地図情報更新部165は、車載カメラ110の画像の特徴点のうち、地図情報の特徴点と一致しなかった特徴点が変化点として検出されると、変化後の構造物が変化点の座標により表されるように地図情報を更新する。地図情報更新部165は、変化点の座標に加えて、物体検出部162により識別された、変化点の位置に対応する構造物の種類の情報に基づいて、地図情報を更新してもよい。更新された地図情報は、メモリ170に記憶される。
送信部166は、変化点に関する情報(変化点の座標、変化点に対応する構造物の種類など)を、変化点が検出されたことを示すフラグとともに、無線端末140を介して無線基地局500へ送信する。送信された変化点に関する情報は、サーバ300により取得される。その際、画像上の構造物と地図情報に表さられた構造物とが重畳された重畳画像がエビデンスとしてサーバ300側へ送信されてもよい。これにより、サーバ300側において変化点の検出結果の納得性が向上される。変化点に関する情報は、サーバ300のストレージ装置320に記憶される。サーバ300は、変化点に関する情報を各車両100に送信する。したがって、各車両100は、変化点に関する情報に基づいて、各車両100が保有する地図情報を更新することができる。
また、送信部166は、地図情報更新部165により更新された地図情報を、無線端末140を介して無線基地局500へ送信する。更新された地図情報は、サーバ300により取得され、ストレージ装置320に記憶される。サーバ300は、更新された地図情報を、各車両100に送信する。したがって、各車両100は、更新された地図情報を利用して、自動運転を行うことができる。
以上説明したように本実施形態によれば、車載カメラ110が生成した画像から構造物を隠蔽する遮蔽物体20が検出された場合において、遮蔽物体20により隠蔽される構造物が照合対象から除かれて、地図情報と画像とが照合される。このため、遮蔽物体20によって構造物が遮られる場合であっても、画像と地図情報との一致度が正確に算出される。したがって、地図情報に表された構造物と、実際の構造物とが異なっている変化点がある場合に、その変化点が精度良く検出される。
(変形例)
プロセッサ160は、画像と地図情報の一致度が所定の閾値以下である場合であっても、画像から構造物が判別可能である場合に限り変化点があると判定してもよい。画像から構造物を判別できない場合、画像と地図情報との一致度が低くても、一致度の低さは画像から構造物を判別できないことに起因している可能性がある。このため、変化点検出部164は、環境情報取得部130が取得した情報、または画像中の遮蔽物体20が表された領域のサイズに基づいて、画像から構造物を判別可能か否か判定する。そして、変化点検出部164は、画像から構造物を判別できると判定した場合に限り、車載カメラ110の画像と地図情報との間に変化点が生じていると判定する。
例えば、変化点検出部164は、照度センサから得られる照度が所定の閾値を超えている場合、あるいは照度が計測可能な上限値近傍に達しているような場合は、車載カメラ110が逆光を受けている状況、あるいは車載カメラ110に西日が当たっている状況などであり、画像から構造物を判別できないと判定する。なお、変化点検出部164は、車載カメラ110が西日を受けていることの判定を、測位情報受信機120から得られる車両前方の向きが西向きであり、且つ時刻が日没時刻(夕刻)であることにより判定してもよい。また、変化点検出部164は、画像に表された各画素の輝度の統計値に基づき、輝度の統計値が低いほど、画像から構造物を判別できないと判定してもよい。また、変化点検出部164は、逆光時のように輝度の統計値が上限値近傍に達している場合に、画像から構造物を判別できないと判定してもよい。
また、変化点検出部164は、ワイパーの動作速度が速いほど降雨により画像上の構造物の判別が困難になるため、ワイパーの動作速度が所定の閾値を超えている場合、画像から構造物を判別できないと判定する。また、変化点検出部164は、雨量が多いほど画像上の構造物の判別が困難になるため、降雨センサが検出した降雨量が所定の閾値を超えている場合は、画像から構造物を判別できないと判定する。
また、変化点検出部164は、外気温センサの検出値に基づき、気温が所定の閾値以下の場合は、路面に積雪や凍結があることが想定されるため、画像から構造物を判別できないと判定する。また、変化点検出部164は、アンチロックブレーキシステム(AVS)、車両安定制御システム(VSC)、トラクションコントロールシステム(TRC)などの車両安定制御に関わる動作情報に基づいて、これらのシステムの動作頻度が所定の閾値を超えている場合は、路面に積雪や凍結があることが想定されるため、画像から構造物を判別できないと判定する。なお、路面に積雪や凍結があると、特に、道路標示など道路上の構造物の判別が困難となる。
また、変化点検出部164は、ヘッドランプの指示信号の設定値に基づき、ヘッドランプが点灯している時間に対して、ヘッドランプがハイビームに設定される時間の割合が所定の閾値を超えている場合は、暗い道を走行していることが想定されるため、画像から構造物を判別できないと判定する。更に、変化点検出部164は、画像認識による気象、路面状況の判定値に基づき、気象状況、路面状況が悪い場合は、画像から構造物を判別できないと判定する。
また、変化点検出部164は、画像内で遮蔽物体20が表された領域のサイズが所定の閾値よりも大きい場合は、画像から構造物を判別できないと判定する。例えば、図6に示した例において、遮蔽物体20である大型のバスとの車間距離がより近い場合、画像内で遮蔽物体20が表された領域が非常に大きくなり、画像から構造物を判別することができなくなる。一例として、車載カメラ110が生成した画像の全面積に対して遮蔽物体20の面積が1/2以上の場合、変化点検出部164は、画像から構造物を判別できないと判定する。
また、変化点検出部164は、構造物のサイズに基づいて、微小なサイズの構造物については、画像から構造物を判別できないと判定する。例えば、変換点検出部164は、道路の端の小さな縁石、道路脇の小さな道路標識または看板など、所定の閾値よりも小さいサイズの構造物については、画像から構造物を認識できないと判定する。これらの小さいサイズの構造物は、予め地図情報上で特定されていてもよい。
以上のように、変化点検出部164は、画像から構造物を判別できると判定した場合に限り、車載カメラ110の画像と地図情報との間に変化点が生じていると判定することができる。これにより、画像に表された構造物と地図情報に表された対応する構造物とが相違しておらず、画像から構造物が判別できないために一致度が低くなるような場合に、変化点が誤検出されてしまうことが抑制される。
また、変化点に関する情報は、サーバ300側で、自動運転に支障があることを示すブラックリストの情報として管理されてもよい。そして、ブラックリストの情報は、通信ネットワーク400及び無線基地局500を介して各車両100に送信されてもよい。これにより、例えば、ブラックリストの情報を受信した車両100は、変化点が検出された位置の近辺に到達する前に車両100のドライバに対して警告を発することで、ドライバに対して、地図情報に対して実際の構造物が変化していることの注意喚起を行うことができる。特に、サーバ300が、更新された地図情報を各車両100に配信するまでにある程度の時間を要するような場合、更新された地図情報を各車両100が受け取る前に、ブラックリストの情報を各車両100が認識しておくことで、各車両100は、地図情報が更新される前であっても、地図情報に対して実際の構造物が変化していることの注意喚起をドライバに対して行うことができる。また、ブラックリストの情報は、サーバ300または車両100において、自動運転の禁止区間の設定、自動運転の禁止区間を回避するレーンチェンジプランニング、または自動運転の禁止区間を回避する経路検索のために利用されることも可能である。
プロセッサ160は、変化点を検出するための処理を常時行わなくてもよい。例えば、プロセッサ160は、自動運転制御において、構造物の変化に関連性の高い不調が発生している場合に限定して、変化点を検出してもよい。このような不調として、例えば、地図情報に表された区画線に対して実際の区画線が変化したことに起因して、車両100が所望の経路から外れた場合等が挙げられる。これにより、変化点を検出する処理、地図情報を更新する処理の負荷が抑えられるとともに、変化点の検出に伴うサーバ300との通信処理の負荷が抑制される。
また、プロセッサ160は、上述したブラックリストの情報に基づいて、ブラックリストが地図改修中であることを示すことから、ブラックリストの情報に含まれる地点以外で変化点を検出するための処理を行うことで、処理負荷を軽減してもよい。
また、以上の説明では、車両100側で変化点検出処理を行う場合について説明したが、図4に示す各部の処理をサーバ300の制御装置310のプロセッサ312が実行してもよい。この場合、車載カメラ110が生成した画像、車両100の現在位置及び姿勢に関する情報、内部パラメータ、および環境情報が、無線端末140から無線基地局500へ送信され、サーバ300により取得される。サーバ300のプロセッサ312は、上述したプロセッサ160による変化点検出処理と同様の処理を行い、変化点を検出する。更に、サーバ300のプロセッサ312は、上述した地図情報更新部165と同様の処理を行い、地図情報を更新する。
また、車両100側で変化点検出処理までが行われ、地図情報の更新は、サーバ300側で行われてもよい。この場合、車両100側で検出された変化点の座標、および構造物の種類に関する情報が、無線端末140から無線基地局500へ送信され、サーバ300により取得される。サーバ300のプロセッサ312は、上述した地図情報更新部165と同様の処理を行い、地図情報を更新する。
更に、他の変形例によれば、変化点検出装置は、車両100に備えられたドライブレコーダ、ナビゲーション装置などの装置として、ECU150とは別個に実装されていてもよい。
以上、本発明に係る好適な実施形態を説明したが、本発明はこれら実施形態に限定されるものではなく、特許請求の範囲の記載内で様々な修正及び変更を施すことが可能である。
10 道路
12 分岐路
14,16 区画線
18 壁
20 遮蔽物体
100 車両
110 車載カメラ
120 測位情報受信機
130 環境情報取得部
140 無線端末
150 制御装置
160 プロセッサ
161 投影部
162 物体検出部
163 照合部
164 変化点検出部
165 地図情報更新部
166 送信部
170 メモリ
180 通信インターフェース
300 サーバ
310 制御装置
312 プロセッサ
314 メモリ
316 通信インターフェース
320 ストレージ装置
400 通信ネットワーク
500 無線基地局
1000 地図情報配信システム

Claims (5)

  1. 道路上及び道路周囲の走行条件に関連する構造物を表す地図情報を記憶する記憶部と、
    車両に搭載された撮像部により得られた前記車両の周囲の環境を表す画像から、前記構造物を隠蔽する物体を検出する検出部と、
    前記地図情報において前記物体により隠蔽される前記構造物を除いて、前記画像と前記地図情報とを照合し、前記画像と前記地図情報との一致度を算出する照合部と、
    前記一致度が所定の閾値以下である場合、前記画像に表された前記構造物に前記地図情報に表された対応する前記構造物と異なる変化点があると判定する変化点検出部と、
    を有する変化点検出装置。
  2. 前記変化点検出部は、前記画像が得られたときの前記車両の周囲の環境の状況を表す情報、前記画像上での前記物体が表された領域のサイズまたは前記構造物のサイズに基づいて、前記画像から前記構造物を判別可能か否かを判定し、前記画像から前記構造物を判別可能と判定した場合に限り、前記変化点があると判定する、請求項1に記載の変化点検出装置。
  3. 前記照合部は、前記画像を分割して得られる複数の部分画像のそれぞれについて、当該部分画像と前記地図情報の当該部分画像に対応する部分領域とを照合し、前記部分画像と前記地図情報の前記部分領域との部分一致度を算出し、
    前記変化点検出部は、前記一致度が所定の閾値を超えており、且つ、複数の前記部分画像のいずれかについての前記部分一致度が所定の部分一致度閾値以下である場合に、当該部分画像に表された前記構造物と前記地図情報の当該部分画像に対応する前記部分領域に表された前記構造物との間に、前記変化点があると判定する、請求項1又は2に記載の変化点検出装置。
  4. 前記変化点に基づいて、前記地図情報を更新する地図情報更新部を更に有する、請求項1〜3のいずれか1項に記載の変化点検出装置。
  5. 複数の車両と、前記複数の車両のそれぞれと通信可能なサーバとを有する地図情報配信システムであって、
    複数の前記車両のそれぞれは変化点検出装置を有し、
    前記変化点検出装置は、
    道路上及び道路周囲の走行条件に関連する構造物を表す地図情報を記憶する記憶部と、
    前記車両に搭載された撮像部により得られた前記車両の周囲の環境を表す画像から、前記構造物を隠蔽する物体を検出する検出部と、
    前記地図情報において前記物体により隠蔽される前記構造物を除いて、前記画像と前記地図情報とを照合し、前記画像と前記地図情報との一致度を算出する照合部と、
    前記一致度が所定の閾値以下である場合、前記画像に表された前記構造物に前記地図情報に表された対応する前記構造物と異なる変化点があると判定する変化点検出部と、
    前記変化点検出部により前記変化点があると判定された場合に、前記サーバへ前記変化点の情報を送信する送信部と、を有し、
    前記サーバは、複数の前記車両のいずれかから前記変化点の情報を受信すると、他の車両へ前記変化点の情報を送信する、地図情報配信システム。
JP2020009322A 2020-01-23 2020-01-23 変化点検出装置及び地図情報配信システム Active JP7173062B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020009322A JP7173062B2 (ja) 2020-01-23 2020-01-23 変化点検出装置及び地図情報配信システム
CN202110078524.2A CN113160594B (zh) 2020-01-23 2021-01-20 变化点检测装置以及地图信息发布系统
US17/154,172 US11662221B2 (en) 2020-01-23 2021-01-21 Change point detection device and map information distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020009322A JP7173062B2 (ja) 2020-01-23 2020-01-23 変化点検出装置及び地図情報配信システム

Publications (2)

Publication Number Publication Date
JP2021117048A true JP2021117048A (ja) 2021-08-10
JP7173062B2 JP7173062B2 (ja) 2022-11-16

Family

ID=76878684

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020009322A Active JP7173062B2 (ja) 2020-01-23 2020-01-23 変化点検出装置及び地図情報配信システム

Country Status (3)

Country Link
US (1) US11662221B2 (ja)
JP (1) JP7173062B2 (ja)
CN (1) CN113160594B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007562A1 (ja) * 2021-07-26 2023-02-02 本田技研工業株式会社 制御装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018214694A1 (de) * 2018-08-30 2020-03-05 Continental Automotive Gmbh Lokalisierungsvorrichtung zur visuellen Lokalisierung eines Fahrzeugs
CN112668428A (zh) * 2020-12-21 2021-04-16 北京百度网讯科技有限公司 车辆变道的检测方法、路侧设备、云控平台和程序产品
CN113720325B (zh) * 2021-09-14 2024-05-17 阿里巴巴达摩院(杭州)科技有限公司 环境变化检测方法、装置、电子设备及计算机存储介质
CN114445359B (zh) * 2022-01-24 2023-09-08 上海歆广数据科技有限公司 一种网格数据体系中电子地图质量控制系统及方法
EP4379321A1 (en) * 2022-11-30 2024-06-05 Volkswagen Ag Method for detection of map deviations, system and vehicle

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2016156973A (ja) * 2015-02-25 2016-09-01 パイオニア株式会社 地図データ記憶装置、制御方法、プログラム及び記憶媒体
US20180149487A1 (en) * 2016-11-26 2018-05-31 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
JP2019003606A (ja) * 2017-06-09 2019-01-10 株式会社デンソー 地図変化点検出装置
JP2019078562A (ja) * 2017-10-20 2019-05-23 トヨタ自動車株式会社 自車位置推定装置
JP2019168610A (ja) * 2018-03-23 2019-10-03 パイオニア株式会社 データ構造、情報処理装置及び地図作成装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3644473B2 (ja) * 1997-08-07 2005-04-27 アイシン・エィ・ダブリュ株式会社 地図表示装置及び記録媒体
KR100485059B1 (ko) * 2001-10-19 2005-04-22 후지쓰 텐 가부시키가이샤 화상표시장치
JP4131930B2 (ja) * 2002-12-16 2008-08-13 株式会社日立製作所 地図更新プログラム及び地図更新装置
JP4260504B2 (ja) 2003-02-17 2009-04-30 本田技研工業株式会社 交通情報管理システム
JP4130441B2 (ja) * 2004-07-16 2008-08-06 三菱電機株式会社 地図情報処理装置
US8260543B2 (en) * 2007-03-29 2012-09-04 Alpine Electronics, Inc. Hidden point detection and warning method and apparatus for navigation system
EP2622578B1 (en) * 2010-09-30 2015-01-14 Analogic Corporation Object classification using two-dimensional projection
JP6254083B2 (ja) * 2012-07-27 2017-12-27 クラリオン株式会社 車載用周囲環境認識装置
CN103868515A (zh) * 2013-12-25 2014-06-18 沈阳美行科技有限公司 一种放大图和缩小地图的自由移动的方法
JP6160634B2 (ja) * 2015-02-09 2017-07-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
KR101656808B1 (ko) * 2015-03-20 2016-09-22 현대자동차주식회사 사고 정보 관리 장치, 이를 포함하는 차량 및 사고 정보 관리 방법
KR101675306B1 (ko) * 2015-03-20 2016-11-11 현대자동차주식회사 사고 정보 관리 장치, 이를 포함하는 차량 및 사고 정보 관리 방법
WO2016151750A1 (ja) * 2015-03-24 2016-09-29 パイオニア株式会社 地図情報記憶装置、自動運転制御装置、制御方法、プログラム及び記憶媒体
KR101832189B1 (ko) * 2015-07-29 2018-02-26 야마하하쓰도키 가부시키가이샤 이상화상 검출장치, 이상화상 검출장치를 구비한 화상 처리 시스템 및 화상 처리 시스템을 탑재한 차량
JP2017162356A (ja) * 2016-03-11 2017-09-14 日本電気株式会社 情報認識システム、情報認識装置、車両、情報認識方法およびプログラム
CN106527424B (zh) * 2016-09-20 2023-06-09 深圳银星智能集团股份有限公司 移动机器人及移动机器人的导航方法
JP6572930B2 (ja) 2017-03-24 2019-09-11 株式会社デンソー 情報処理装置及び情報処理システム
WO2018225446A1 (ja) 2017-06-09 2018-12-13 株式会社デンソー 地図変化点検出装置
JP7043755B2 (ja) 2017-08-29 2022-03-30 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
JP6729611B2 (ja) 2018-02-01 2020-07-22 株式会社デンソー 車両用画像データ生成装置、走行軌道データ生成システム、区間画像データ生成プログラム及び記憶媒体
US10984260B2 (en) * 2019-05-23 2021-04-20 GM Global Technology Operations LLC Method and apparatus for controlling a vehicle including an autonomous control system
CN114454882A (zh) * 2022-02-25 2022-05-10 重庆长安汽车股份有限公司 自主控制车辆怠速启停控制方法、系统、车辆及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2016156973A (ja) * 2015-02-25 2016-09-01 パイオニア株式会社 地図データ記憶装置、制御方法、プログラム及び記憶媒体
US20180149487A1 (en) * 2016-11-26 2018-05-31 Thinkware Corporation Image processing apparatus, image processing method, computer program and computer readable recording medium
JP2019003606A (ja) * 2017-06-09 2019-01-10 株式会社デンソー 地図変化点検出装置
JP2019078562A (ja) * 2017-10-20 2019-05-23 トヨタ自動車株式会社 自車位置推定装置
JP2019168610A (ja) * 2018-03-23 2019-10-03 パイオニア株式会社 データ構造、情報処理装置及び地図作成装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023007562A1 (ja) * 2021-07-26 2023-02-02 本田技研工業株式会社 制御装置

Also Published As

Publication number Publication date
CN113160594A (zh) 2021-07-23
CN113160594B (zh) 2023-05-30
US20210231460A1 (en) 2021-07-29
JP7173062B2 (ja) 2022-11-16
US11662221B2 (en) 2023-05-30

Similar Documents

Publication Publication Date Title
JP7173062B2 (ja) 変化点検出装置及び地図情報配信システム
US10696227B2 (en) Determining a road surface characteristic
US11669102B2 (en) Navigating a vehicle based on a detected barrier
JP7176811B2 (ja) 自律車両ナビゲーションのための疎な地図
CN109416257B (zh) 检测主车辆行驶道路的系统和方法、导航主车辆的系统及计算机可读介质
US9740942B2 (en) Moving object location/attitude angle estimation device and moving object location/attitude angle estimation method
KR20190102665A (ko) 실세계 물체 정보를 이용한 카메라 공차 보정 시스템 및 방법
US10325163B2 (en) Vehicle vision
KR102166512B1 (ko) 주변 환경에서 자동차를 정밀 위치 추적하기 위한 방법, 디바이스, 맵 관리 장치 및 시스템
US20200103920A1 (en) Stationary camera localization
CN110969059A (zh) 车道线识别方法及系统
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
JP2015102449A (ja) 車両自己位置推定装置、及び車両自己位置推定方法
CN110073410B (zh) 跟踪场景中的对象的方法
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
CN116892949A (zh) 地上物检测装置、地上物检测方法以及地上物检测用计算机程序
CN110539748A (zh) 基于环视的拥堵跟车系统和终端
US20220082407A1 (en) Map system, map generating program, storage medium, on-vehicle apparatus, and server
KR20210100777A (ko) 차량의 위치를 결정하는 장치 및 그의 동작 방법
JP7241839B1 (ja) 自己位置推定装置
JP2019091327A (ja) 立体物検出装置
EP4383216A1 (en) Methods and apparatuses for adaptive high beam control for a vehicle
US20230260294A1 (en) Apparatus, method, and computer program for estimating road edge
CN117953046A (zh) 数据处理方法、装置、控制器、车辆及存储介质
CN116433771A (zh) 视觉slam定位方法、装置、电子设备及可存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210412

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220322

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R151 Written notification of patent or utility model registration

Ref document number: 7173062

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151