JP2023118462A - 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム - Google Patents

道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム Download PDF

Info

Publication number
JP2023118462A
JP2023118462A JP2022021424A JP2022021424A JP2023118462A JP 2023118462 A JP2023118462 A JP 2023118462A JP 2022021424 A JP2022021424 A JP 2022021424A JP 2022021424 A JP2022021424 A JP 2022021424A JP 2023118462 A JP2023118462 A JP 2023118462A
Authority
JP
Japan
Prior art keywords
road
vehicle
edge
section
undetected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022021424A
Other languages
English (en)
Inventor
雅浩 田中
Masahiro Tanaka
守 塚本
Mamoru Tsukamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Woven by Toyota Inc
Original Assignee
Woven by Toyota Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Woven by Toyota Inc filed Critical Woven by Toyota Inc
Priority to JP2022021424A priority Critical patent/JP2023118462A/ja
Priority to US18/164,925 priority patent/US20230260294A1/en
Priority to DE102023102959.2A priority patent/DE102023102959A1/de
Priority to CN202310129864.2A priority patent/CN116645651A/zh
Publication of JP2023118462A publication Critical patent/JP2023118462A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Abstract

【課題】車両に搭載されたカメラから見えない場所における道路端の位置を適切にすることが可能な道路端推定装置を提供する。【解決手段】道路端推定装置は、車両2の走行軌跡を推定する走行軌跡推定部41と、車両2に搭載されたカメラ11により車両2の走行中に生成された複数の画像から道路の端部の位置を推定する位置推定部42と、道路の端部が検出されなかった画像が生成されたときに車両2が走行した未検出区間を特定する区間特定部43と、未検出区間における道路の構造が、道路の端部を有する構造か否か判定する道路構造判定部44と、未検出区間における道路の構造が端部を有する構造である場合、未検出区間の前後区間の道路の端部の位置に基づいて未検出区間における道路の端部の位置を推定し、一方、未検出区間における道路の構造が端部を有さない構造である場合、未検出区間における道路の端部の位置を推定しない道路端推定部45とを有する。【選択図】図5

Description

本発明は、道路端が表された画像から道路端の位置を推定する道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラムに関する。
ドライバによる車両の運転を支援するために、車載カメラにより撮影された風景画像データを用いて道路端を取得し、道路端を車両が逸脱しないように車両走行方向を制御する技術が提案されている(特許文献1を参照)。特許文献1に開示された車両運転支援装置は、道路端を取得できない場合、所定時間の間、道路端を取得できなくなる直前に取得した道路端である直前道路端に基づいて取得できなくなっている道路端の部分を推定する。
特開2018-83563号公報
車載カメラから見えない場所に道路端が常に存在するとは限らない。そのため、車載カメラにより生成された画像において道路端が表されていない場所について、適切に道路端の位置を推定することが求められる。
そこで、本発明は、車両に搭載されたカメラから見えない場所における道路端の位置を適切に推定することが可能な道路端推定装置を提供することを目的とする。
一つの実施形態によれば、道路端推定装置が提供される。この道路端推定装置は、車両に搭載された、車両の挙動を検知するセンサにより得られたセンサ信号または車両に搭載された測位装置により測位された車両の自己位置に基づいて、車両の走行軌跡を推定する走行軌跡推定部と、車両に搭載されたカメラにより生成された、車両の走行中に得られた複数の画像のうち、車両が走行した道路の端部が表された画像に基づいて、道路の端部の位置を推定する位置推定部と、複数の画像のうち、道路の端部が検出されなかった画像が生成されたときに車両が走行した未検出区間を特定する区間特定部と、未検出区間において画像が生成されたときの車両の位置、未検出区間において生成された画像または未検出区間に相当する走行軌跡における、車両の挙動に基づいて、未検出区間における道路の構造が端部を有する構造か否か判定する道路構造判定部と、未検出区間における道路の構造が端部を有する構造である場合、走行軌跡に沿って未検出区間の前後における道路の端部の位置に基づく補間により、未検出区間における道路の端部の位置を推定し、一方、未検出区間における道路の構造が端部を有さない構造である場合、未検出区間における道路の端部の位置を推定しない道路端推定部とを有する。
この道路端推定装置において、道路構造判定部は、未検出区間において生成された画像から、未検出区間の前後における車両から道路の端部へ向かう方向に位置する他の車両を検出し、車両から検出した他の車両までの距離を推定し、推定した他の車両までの距離が未検出区間の前後における車両から道路の端部までの距離よりも長い場合、未検出区間における道路の構造が端部を有さない構造であると判定することが好ましい。
また、この道路端推定装置は、未検出区間の道路の構造を表す地図情報を記憶する記憶部をさらに有することが好ましい。そして道路構造判定部は、地図情報において、未検出区間で車両が走行した道路から外れる位置に車両が進入可能なスペースが示されている場合、未検出区間における道路の構造が端部を有さない構造であると判定することが好ましい。
あるいは、この道路端推定装置において、道路構造判定部は、未検出区間または未検出区間の直前の区間においてイグニッションスイッチをオンにしたまま車両が所定期間以上停車したことを走行軌跡が示している場合、未検出区間における道路の構造が端部を有さない構造であると判定することが好ましい。
あるいはまた、この道路端推定装置において、道路構造判定部は、未検出区間における車両の進行方向と、未検出区間の直前の区間における車両の進行方向とが所定角度以上異なる場合、未検出区間における道路の構造が端部を有さない構造であると判定することが好ましい。
あるいはまた、この道路端推定装置において、道路構造判定部は、走行軌跡において示された未検出区間における車両の位置が、未検出区間の前後の区間における道路の端部の位置を結んだ線よりもその道路から外れている場合、未検出区間における道路の構造が端部を有さない構造であると判定することが好ましい。
あるいはまた、この道路端推定装置において、道路構造判定部は、未検出区間において生成された画像から信号機、停止線あるいは横断歩道を検出した場合、未検出区間における道路の構造が端部を有さない構造であると判定することが好ましい。
他の形態によれば、道路端推定方法が提供される。この道路端推定方法は、車両に搭載された、車両の挙動を検知するセンサにより得られたセンサ信号または車両に搭載された測位装置により測位された車両の自己位置に基づいて、車両の走行軌跡を推定し、車両に搭載されたカメラにより生成された、車両の走行中に得られた複数の画像のうち、車両が走行した道路の端部が表された画像に基づいて、道路の端部の位置を推定し、複数の画像のうち、道路の端部が検出されなかった画像が生成されたときに車両が走行した未検出区間を特定し、未検出区間において画像が生成されたときの車両の位置、未検出区間において生成された画像または未検出区間に相当する走行軌跡における、車両の挙動に基づいて、未検出区間における道路の構造が端部を有する構造か否か判定し、未検出区間における道路の構造が端部を有する構造である場合、走行軌跡に沿って未検出区間の前後における道路の端部の位置に基づく補間により、未検出区間における道路の端部の位置を推定し、一方、未検出区間における道路の構造が端部を有さない構造である場合、未検出区間における道路の端部の位置を推定しない、ことを含む。
さらに他の形態によれば、道路端推定用コンピュータプログラムが提供される。この道路端推定用コンピュータプログラムは、車両に搭載された、車両の挙動を検知するセンサにより得られたセンサ信号または車両に搭載された測位装置により測位された車両の自己位置に基づいて、車両の走行軌跡を推定し、車両に搭載されたカメラにより生成された、車両の走行中に得られた複数の画像のうち、車両が走行した道路の端部が表された画像に基づいて、道路の端部の位置を推定し、複数の画像のうち、道路の端部が検出されなかった画像が生成されたときに車両が走行した未検出区間を特定し、未検出区間において画像が生成されたときの車両の位置、未検出区間において生成された画像または未検出区間に相当する走行軌跡における、車両の挙動に基づいて、未検出区間における道路の構造が端部を有する構造か否か判定し、未検出区間における道路の構造が端部を有する構造である場合、走行軌跡に沿って未検出区間の前後における道路の端部の位置に基づく補間により、未検出区間における道路の端部の位置を推定し、一方、未検出区間における道路の構造が端部を有さない構造である場合、未検出区間における道路の端部の位置を推定しない、ことをコンピュータに実行させるための命令を含む。
本開示に係る道路端推定装置は、車両に搭載されたカメラから見えない場所における道路端の位置を適切に推定することができるという効果を奏する。
道路端推定装置を含む地物データ収集システムの概略構成図である。 車両の概略構成図である。 データ取得装置のハードウェア構成図である。 道路端推定装置の一例であるサーバのハードウェア構成図である。 道路端推定処理を含む地図更新処理に関するサーバのプロセッサの機能ブロック図である。 (a)は、他の物体に隠されている位置に道路端が存在する場合における道路端推定の結果の一例を示す図であり、(b)は、他の物体に隠されている位置に道路端が存在しない場合における道路端推定の結果の一例を示す図である。 道路端推定処理の動作フローチャートである。
以下、図を参照しつつ、道路端推定装置、及び、道路端推定装置にて実行される道路端推定方法ならびに道路端推定用コンピュータプログラムについて説明する。この道路端推定装置は、車両が走行した所定の道路区間について、車両の走行軌跡を推定するとともに、その道路区間において、車両に搭載されたカメラにより生成された車両周囲を表す一連の画像から道路の端部を検出することで道路の端部の位置を推定する。その際、この道路端推定装置は、道路の端部が検出されなかった画像が生成されたときの車両の走行区間を未検出区間として特定する。そしてこの道路端推定装置は、道路の端部が検出されなかった画像、その画像が生成されたときの車両の位置、または特定した未検出区間における車両の挙動に基づいて、未検出区間における道路の構造が端部を有する構造か否か判定する。未検出区間における道路の構造が端部を有する構造であると判定された場合、この道路端推定装置は、車両の走行軌跡に沿って未検出区間の前後における道路の端部の位置に基づく補間により、未検出区間における道路の端部の位置を推定する。一方、未検出区間における道路の構造が端部を有さない構造であると判定された場合、この道路端推定装置は、未検出区間における道路の端部の位置を推定せず、そのまま端部は存在しないものとする。
以下では、道路端推定装置を、車両の走行中に得られた、道路の端部、各種の道路標示、信号機及びその他の車両の走行に関連する地物を表す地物データを収集する地物データ収集システムに適用した例について説明する。収集された地物データは、車両の走行に関連する地物に関する情報を含む地図情報の生成または更新のために用いられる。しかし、道路端推定装置は、地物データ収集システム以外に用いられてもよい。例えば、道路端推定装置は、車両の走行支援あるいは車両の自動運転制御を実行する車両制御システムに適用されてもよい。
図1は、道路端推定装置が実装される地物データ収集システムの概略構成図である。本実施形態では、地物データ収集システム1は、少なくとも一つの車両2と、道路端推定装置の一例であるサーバ3とを有する。各車両2は、例えば、サーバ3が接続される通信ネットワーク4とゲートウェイ(図示せず)などを介して接続される無線基地局5にアクセスすることで、無線基地局5及び通信ネットワーク4を介してサーバ3と接続される。なお、図1では、簡単化のため、一つの車両2のみが図示されているが、地物データ収集システム1は、複数の車両2を有していてもよい。同様に、図1では、一つの無線基地局5のみが図示されているが、複数の無線基地局5が通信ネットワーク4に接続されていてもよい。
図2は、車両2の概略構成図である。車両2は、カメラ11と、GPS受信機12と、少なくとも一つの車両運動センサ13と、無線通信端末14と、データ取得装置15とを有する。カメラ11、GPS受信機12、車両運動センサ13、無線通信端末14及びデータ取得装置15は、コントローラエリアネットワークといった規格に準拠した車内ネットワークを介して通信可能に接続される。なお、車両運動センサ13は、車両2の走行を制御する電子制御装置(ECU、図示せず)と接続されていてもよい。また、車両2は、車両2の走行予定ルートを探索し、その走行予定ルートに従って車両2が走行するようナビゲートするナビゲーション装置(図示せず)をさらに有してもよい。
カメラ11は、車両2の周囲を撮影するための撮像部の一例であり、CCDあるいはC-MOSなど、可視光に感度を有する光電変換素子のアレイで構成された2次元検出器と、その2次元検出器上に撮影対象となる所定の領域の像を結像する結像光学系を有する。そしてカメラ11は、例えば、車両2の前方、後方または側方を向くように、例えば、車両2の車室内に取り付けられる。そしてカメラ11は、所定の撮影周期(例えば1/30秒~1/10秒)ごとに車両2周囲の所定の領域を撮影し、その所定の領域が写った画像を生成する。カメラ11により得られた画像は、カラー画像であってもよく、あるいは、グレー画像であってもよい。なお、車両2には、撮影方向または焦点距離が異なる複数のカメラ11が設けられてもよい。
カメラ11は、画像を生成する度に、その生成した画像を、車内ネットワークを介してデータ取得装置15へ出力する。
GPS受信機12は、測位装置の一例であり、所定の周期ごとにGPS衛星からのGPS信号を受信し、受信したGPS信号に基づいて車両2の自己位置を測位する。そしてGPS受信機12は、所定の周期ごとに、GPS信号に基づく車両2の自己位置の測位結果を表す測位情報を、車内ネットワークを介してデータ取得装置15へ出力する。なお、車両2はGPS受信機12以外の衛星測位システムに準拠した受信機を有していてもよい。この場合、その受信機が車両2の自己位置を測位すればよい。
車両運動センサ13は、車両2の挙動を検知するセンサの一例であり、車両2の挙動に関する情報(以下、車両挙動情報と呼ぶことがある)を取得して、車両挙動情報を表すセンサ信号を生成する。車両挙動情報は、例えば、車輪速、車両2の互いに直交する3軸それぞれの角速度、または、車両2の加速度である。車両運動センサ13には、例えば、車両2の車輪速を測定する車輪速センサ、車両2の互いに直交する3軸それぞれの角速度を測定するジャイロセンサ、及び、車両2の加速度を測定する加速度センサのうちの少なくとも一つが含まれる。車両運動センサ13は、所定の周期ごとに、センサ信号を生成し、生成したセンサ信号を、車内ネットワークを介してデータ取得装置15へ出力する。なお、車両運動センサ13がECUと接続されている場合には、車両運動センサ13により生成されたセンサ信号は、ECU及び車内ネットワークを介してデータ取得装置15へ出力される。
無線通信端末14は、通信部の一例であり、所定の無線通信規格に準拠した無線通信処理を実行する機器であり、例えば、無線基地局5にアクセスすることで、無線基地局5及び通信ネットワーク4を介してサーバ3と接続される。そして無線通信端末14は、データ取得装置15から受け取った、地物データ及び走行情報などを含むアップリンクの無線信号を生成する。そして無線通信端末14は、そのアップリンクの無線信号を無線基地局5へ送信することで、地物データ及び走行情報などをサーバ3へ送信する。また、無線通信端末14は、無線基地局5からダウンリンクの無線信号を受信して、その無線信号に含まれる、サーバ3からの収集指示などをデータ取得装置15あるいはECUへわたす。
図3は、データ取得装置15のハードウェア構成図である。データ取得装置15は、カメラ11により生成された画像に基づいて地物データを生成する。さらに、データ取得装置15は、車両2の走行挙動を表す走行情報を生成する。そのために、データ取得装置15は、通信インターフェース21と、メモリ22と、プロセッサ23とを有する。
通信インターフェース21は、車内通信部の一例であり、データ取得装置15を車内ネットワークに接続するためのインターフェース回路を有する。すなわち、通信インターフェース21は、車内ネットワークを介して、カメラ11、GPS受信機12、車両運動センサ13及び無線通信端末14と接続される。そして通信インターフェース21は、カメラ11から画像を受信する度に、受信した画像をプロセッサ23へわたす。また、通信インターフェース21は、GPS受信機12から測位情報を受信する度に、受信した測位情報をプロセッサ23へわたす。さらに、通信インターフェース21は、車両運動センサ13またはECUからセンサ信号を受信する度に、受信したセンサ信号をプロセッサ23へわたす。さらにまた、通信インターフェース21は、無線通信端末14を介してサーバ3から受信した、地物データの収集指示をプロセッサ23へわたす。さらにまた、通信インターフェース21は、プロセッサ23から受け取った地物データ及び走行情報を、車内ネットワークを介して無線通信端末14へ出力する。
メモリ22は、例えば、揮発性の半導体メモリ及び不揮発性の半導体メモリを有する。メモリ22は、ハードディスク装置といった他の記憶装置をさらに有してもよい。そしてメモリ22は、データ取得装置15のプロセッサ23により実行される地物データ及び走行情報の生成に関連する処理において使用される各種のデータを記憶する。そのようなデータには、例えば、車両2の識別情報、カメラ11の設置高さ、撮影方向及び画角といったカメラ11のパラメータなどが含まれる。また、メモリ22は、カメラ11から受信した画像、GPS受信機12から受信した測位情報、及び、車両運動センサ13により生成されたセンサ信号に含まれる車両挙動情報を一定期間記憶してもよい。さらに、メモリ22は、地物データの収集指示にて指定された、地物データの生成及び収集対象となる領域(以下、収集対象領域と呼ぶことがある)を表す情報を表す情報を記憶する。さらにまた、メモリ22は、プロセッサ23で実行される各処理を実現するためのコンピュータプログラムなどを記憶してもよい。
プロセッサ23は、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ23は、論理演算ユニット、数値演算ユニットあるいはグラフィック処理ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ23は、カメラ11から受信した画像、GPS受信機12から受信した測位情報、及び車両運動センサ13またはECUから受信したセンサ信号に含まれる車両挙動情報をメモリ22に保存する。さらに、プロセッサ23は、車両2が走行している間、所定の周期(例えば、0.1秒~10秒)ごとに、地物データ及び走行情報の生成に関連する処理を実行する。
プロセッサ23は、地物データ生成に関連する処理として、例えば、GPS受信機12から受信した測位情報で表される車両2の自車位置が収集対象領域に含まれるか否か判定する。そしてプロセッサ23は、自車位置が収集対象領域に含まれる場合、カメラ11から受信した画像に基づいて地物データを生成する。
地物データは、車両の走行に関連する地物を表すデータである。本実施形態では、プロセッサ23は、地物データに、カメラ11により生成された画像、その画像が生成された時刻、その時刻における車両2の進行方向、及び、カメラ11の設置高さ、撮影方向及び画角といったカメラ11のパラメータを含める。なお、プロセッサ23は、車両2の進行方向を表す情報を、車両2のECUから取得すればよい。そしてプロセッサ23は、地物データを生成する度に、生成した地物データを、無線通信端末14を介してサーバ3へ送信する。なお、プロセッサ23は、一つの地物データに、複数の画像、各画像の生成時刻及び車両2の進行方向を含めてもよい。また、プロセッサ23は、カメラ11のパラメータを、地物データとは別個に、無線通信端末14を介してサーバ3へ送信してもよい。
さらに、プロセッサ23は、所定のタイミング(例えば、車両2のイグニッションスイッチがオンにされたタイミング)以降における、車両2の走行情報を生成し、その走行情報を、無線通信端末14を介してサーバ3へ送信する。プロセッサ23は、走行情報に、所定のタイミング以降において一定周期ごとに得られた一連の測位情報、各測位情報における車両2の位置が測定された時刻、及び、車輪速、加速度及び角速度といった車両挙動情報を含める。さらに、プロセッサ23は、ECUから取得した、イグニッションスイッチがオンまたはオフにされたタイミングを表す情報を、走行情報に含めてもよい。さらに、プロセッサ23は、走行情報及び地物データに、車両2の識別情報を含めてもよい。
次に、道路端推定装置の一例であるサーバ3について説明する。
図4は、道路端推定装置の一例であるサーバ3のハードウェア構成図である。サーバ3は、通信インターフェース31と、ストレージ装置32と、メモリ33と、プロセッサ34とを有する。通信インターフェース31、ストレージ装置32及びメモリ33は、プロセッサ34と信号線を介して接続されている。サーバ3は、キーボード及びマウスといった入力装置と、液晶ディスプレイといった表示装置とをさらに有してもよい。
通信インターフェース31は、通信部の一例であり、サーバ3を通信ネットワーク4に接続するためのインターフェース回路を有する。そして通信インターフェース31は、車両2と、通信ネットワーク4及び無線基地局5を介して通信可能に構成される。すなわち、通信インターフェース31は、車両2から無線基地局5及び通信ネットワーク4を介して受信した、地物データ及び走行情報をプロセッサ34へわたす。また、通信インターフェース31は、プロセッサ34から受け取った収集指示を、通信ネットワーク4及び無線基地局5を介して車両2へ送信する。
ストレージ装置32は、記憶部の一例であり、例えば、ハードディスク装置または光記録媒体及びそのアクセス装置を有する。そしてストレージ装置32は、道路端推定処理において使用される各種のデータ及び情報を記憶する。例えば、ストレージ装置32は、画像から道路の端部及び地物などを検出するための識別器を特定するためのパラメータセットを記憶する。また、ストレージ装置32は、ナビゲーション装置が走行ルートを探索するために用いられるナビゲーション用の地図を記憶してもよい。また、ストレージ装置32は、各車両2から受信した地物データ及び走行情報を記憶する。さらにまた、ストレージ装置32は、プロセッサ34上で実行される、道路端推定処理を実行するためのコンピュータプログラムを記憶してもよい。
メモリ33は、記憶部の他の一例であり、例えば、不揮発性の半導体メモリ及び揮発性の半導体メモリを有する。そしてメモリ33は、道路端推定処理の実行中に生成される各種データなどを一時的に記憶する。
プロセッサ34は、制御部の一例であり、1個または複数個のCPU(Central Processing Unit)及びその周辺回路を有する。プロセッサ34は、論理演算ユニットあるいは数値演算ユニットといった他の演算回路をさらに有していてもよい。そしてプロセッサ34は、道路端推定処理を含む地図更新処理を実行する。
図5は、道路端推定処理を含む地図更新処理に関連するプロセッサ34の機能ブロック図である。プロセッサ34は、走行軌跡推定部41と、位置推定部42と、区間特定部43と、道路構造判定部44と、道路端推定部45と、地図更新部46とを有する。プロセッサ34が有するこれらの各部は、例えば、プロセッサ34上で動作するコンピュータプログラムにより実現される機能モジュールである。あるいは、プロセッサ34が有するこれらの各部は、プロセッサ34に設けられる、専用の演算回路であってもよい。また、プロセッサ34が有するこれらの各部のうち、地図更新部46を除く各部の処理が、道路端推定処理に関連する。
走行軌跡推定部41は、所定の区間における、車両2の走行情報に基づいて、その所定の区間を車両2が走行したときの車両2の走行軌跡を推定する。以下では、車両2の走行軌跡を、単に走行軌跡と呼ぶことがある。
例えば、走行軌跡推定部41は、車両2の走行情報に含まれる、一連の測位情報のそれぞれについての車両2の位置が測定された時刻が早い方から順に、その測位情報で示される車両2の位置を並べることで、走行軌跡を推定することができる。さらに、走行軌跡推定部41は、推定した走行軌跡に、個々の車両2の位置についての測定時刻を含めてもよい。さらに、受信した走行情報にイグニッションスイッチがオンまたはオフにされたタイミングが含まれている場合、走行軌跡推定部41は、イグニッションスイッチがオンまたはオフにされたタイミングにおける車両2の位置を特定する情報を走行軌跡に含めてもよい。
あるいは、走行軌跡推定部41は、いわゆるStructure from Motion (SfM)手法にしたがって、車両2の走行軌跡を推定してもよい。この場合、走行軌跡推定部41は、車両2から受信した地物データに含まれる、所定の区間を走行中の車両2のカメラ11により生成された、一連の画像のそれぞれから、車両2の周囲に存在する1以上の地物を検出する。
例えば、走行軌跡推定部41は、一連の画像を、検出対象となる地物を検出するように予め学習された識別器に入力することで、入力された画像(以下、単に入力画像と呼ぶことがある)に表された地物を検出する。走行軌跡推定部41は、そのような識別器として、例えば、入力画像から、その入力画像に表された地物を検出するように予め学習されたディープニューラルネットワーク(DNN)を用いることができる。そのようなDNNとして、例えば、Single Shot MultiBox Detector(SSD)またはFaster R-CNNといった、コンボリューショナルニューラルネットワーク(CNN)型のアーキテクチャを持つDNNが用いられる。あるいは、そのようなDNNとして、Vision Transformerといった、Self-Attention Network型のアーキテクチャを持つDNNが用いられてもよい。この場合、識別器は、入力画像上の様々な領域において、検出対象となる地物の種類(例えば、信号機、車線区画線、横断歩道、一時停止線など)ごとに、その地物がその領域に表されている確からしさを表す確信度を算出する。識別器は、何れかの種類の地物についての確信度が所定の検出閾値以上となる領域に、その種類の地物が表されていると判定する。そしてその識別器は、入力画像上で検出対象となる地物が含まれる領域(例えば、検出対象となる地物の外接矩形、以下、物体領域と呼ぶ)を表す情報、及び、物体領域に表された地物の種類を表す情報を出力する。
走行軌跡推定部41は、SfMの手法にしたがって、各画像生成時の車両2の位置及びそれらの位置に対する検出された個々の地物の相対的な位置を推定する。そして走行軌跡推定部41は、その推定結果に基づいて走行軌跡を推定する。
ここで、画像上の各画素の位置は、カメラ11からその画素に表された物体への方位と1対1に対応する。そのため、走行軌跡推定部41は、各画像での地物を表す特徴点に対応する、カメラ11からの方位、各画像の生成時刻間の車両2の移動量、車両2の進行方向及びカメラ11のパラメータに基づいてその地物と車両2の相対的な位置関係を推定することができる。
走行軌跡推定部41は、走行軌跡の最初の車両2の位置を、走行情報に含まれる、所定のタイミングでのGPS受信機12による測位情報に表された車両2の自車位置とすることができる。その後、走行軌跡推定部41は、走行情報に含まれる、車輪速、加速度及び角速度といった車両挙動情報を利用して、各画像の生成時刻間での車両2の移動量を推定する。
走行軌跡推定部41は、車両2の走行中において、互いに異なるタイミングで得られた複数の画像のそれぞれにおいて検出された同じ地物を対応付ける。その際、走行軌跡推定部41は、例えば、オプティカルフローを利用した追跡手法を利用することで、複数の画像間で、同一の着目する地物が表された物体領域に含まれる特徴点同士を対応付けることができる。そして走行軌跡推定部41は、三角測量により、各画像生成時の車両2の位置に対する着目する地物の相対的な位置及び各画像生成時の車両2の位置を推定できる。その際、走行軌跡推定部41は、各画像の生成時刻における車両2の進行方向、何れかの画像生成時の車両2の位置、各画像の生成時刻間の車両2の移動量、カメラ11のパラメータ、各画像における対応する特徴点の位置をその三角測量に利用すればよい。
走行軌跡推定部41は、上記の処理を検出された複数の地物について繰り返すことで、各画像生成時の車両2の位置及びそれらの位置に対する、車両2の周囲に位置した地物の相対的な位置を順次推定できる。そして走行軌跡推定部41は、推定した車両2の位置を順に並べることで、走行軌跡を推定することができる。この場合も、走行軌跡推定部41は、推定した走行軌跡に、車両2の個々の位置についての画像生成時刻を、車両2がその位置を通過したときの時刻として含めてもよい。
走行軌跡推定部41は、推定した走行軌跡を表す情報を、位置推定部42、区間特定部43,道路構造判定部44及び道路端推定部45へ通知する。
位置推定部42は、車両2が所定の区間を走行している間にカメラ11により生成された一連の複数の画像のそれぞれから、その所定の区間における道路の端部を検出し、検出した道路の端部の実空間における位置を推定する。位置推定部42は、各画像に対して同じ処理を実行すればよいので、以下では、1枚の画像に対する処理について説明する。
位置推定部42は、画像を、道路の端部を検出するように予め学習された識別器に入力することで、入力された画像に表された道路の端部を検出する。位置推定部42は、そのような識別器として、走行軌跡推定部41に関して説明した地物検出用の識別器と同様の識別器を利用することができる。あるいは、位置推定部42は、そのような識別器として、Fully Convolutional NetworkあるいはU-netといった、画素ごとにその画素に表された物体を識別するセマンティックセグメンテーション用のDNNを用いてもよい。この場合、識別器は、画像の各画素を、道路外が表された画素と道路が表された画素とに識別するように予め学習される。そして位置推定部42は、識別器により出力された、道路が表された画素の集合領域の外縁部に位置する各画素に道路の端部が表されていると判定すればよい。
位置推定部42は、道路の端部が表された各画素について、画像上でのその画素の位置と、画像が生成されたときの車両2の位置及び進行方向と、カメラ11のパラメータとに基づいて、その画素に表された道路の端部の実空間の位置を推定すればよい。なお、位置推定部42は、画像が生成されたときの車両2の位置及び進行方向を、走行軌跡推定部41から取得すればよい。
位置推定部42は、上記のように、道路の端部が表された画素ごとに、その画素に表された道路の端部の位置を推定してもよく、あるいは、道路の端部が表された画素のうちの幾つかの画素についてのみ、その画素に表された道路の端部の位置を推定してもよい。また、位置推定部42は、車両2が走行中の道路の両端のうちの一方の端部の位置のみを推定してもよい。例えば、位置推定部42は、所定の区間において車両2が走行可能な側の道路の端部の位置を推定してもよい。すなわち、所定の区間における道路が車両2に対して左側通行の道路である場合、位置推定部42は、左側の道路の端部の位置を推定する。この場合、位置推定部42は、道路の端部が表された画素の集合のうち、車両2に近い方に隣接する画素が道路の路面となる個々の画素を、道路の端部の位置の推定に利用すればよい。あるいは、位置推定部42は、道路の端部が表された画素の集合のうち、カメラ11の取り付け位置及び撮影方向で特定される、画像上で車両2の進行方向に相当する画素列よりも左側に位置する個々の画素を、道路の端部の位置の推定に利用すればよい。
位置推定部42は、道路の端部が検出された各画像について、その画像に表された道路の端部の推定位置を道路端推定部45及び地図更新部46へ通知する。また、位置推定部42は、道路の端部が検出されなかった各画像の生成時刻を区間特定部43へ通知する。
区間特定部43は、車両2が所定の区間を走行している間にカメラ11により生成された一連の複数の画像のうち、道路の端部が検出されなかった画像が生成されたときの車両2の走行区間を未検出区間として特定する。そのために、区間特定部43は、位置推定部42から通知された、道路の端部が検出されなかった各画像の生成時刻と、走行情報とを参照することで、道路の端部が検出されなかった各画像の生成時刻における車両2の位置を特定する。そして区間特定部43は、走行軌跡推定部41により推定された走行軌跡において、特定された車両2の位置の集合を含む区間を、未検出区間とする。
区間特定部43は、未検出区間を表す情報を道路構造判定部44及び道路端推定部45へ通知する。
道路構造判定部44は、未検出区間における、車両2が走行した道路の構造が端部を有する構造か否か判定する。ここで、道路の端部を有する構造とは、車両が走行可能な路面部分と車両が走行可能でない部分とが分かれており、車両が走行可能な路面部分の境界が存在するような道路の構造を指す。逆に、道路の端部を有さない、あるいは端部が無い構造とは、例えば、交差点、踏切、あるいは駐車場などの私有地への入り口といった、道路の延伸方向と交差する方向においてその道路外へ車両が進入できるだけのスペースが有るような構造を指す。さらに、道路の端部を有さない構造には、一般車両が走行可能な車線よりも道路の端部側に、パス専用レーンといった特定の種類の車両のみが進入可能な車線がある構造が含まれてもよい。したがって、道路の構造が端部を有さない構造をしている区間では、その前後の区間よりも道路から外れる方向に他の物体が存在する可能性がある。あるいは、そのような区間では、車両2自身がその前後の区間における道路の端部よりも道路から外れる方向へ向けて移動する可能性がある。さらに、道路の構造が端部を有さない構造をしている区間では、ナビゲーション用の地図において交差点または踏切といった、車両2が走行した道路から外れる位置に車両2が進入可能なスペースが示されている可能性がある。そこで、道路構造判定部44は、未検出区間の位置、未検出区間においてカメラ11により生成された画像に表された他の物体、あるいは、未検出区間を走行した際の車両2の挙動を、道路の端部の有無の判定に利用する。なお、以下では、未検出区間において車両2が走行した道路を、単に未検出区間における道路と呼ぶことがある。
例えば、道路構造判定部44は、未検出区間の位置とナビゲーション用の地図とを参照する。そして道路構造判定部44は、ナビゲーション用の地図において、未検出区間に交差点などの道路外へ車両2が進入可能なスペースが表されている場合、未検出区間における道路の構造が端部を有さない構造であると判定する。
また、道路構造判定部44は、車両2の走行軌跡が、未検出区間における車両2の位置がその前後の区間における道路の端部の位置を結んだ線よりも道路から外れることを示している場合、未検出区間における道路の構造が端部を有さない構造であると判定する。あるいは、道路構造判定部44は、車両2の走行軌跡を参照して、未検出区間の前後での車両2の進行方向の変化に基づいて、未検出区間における道路の構造を判定してもよい。例えば、未検出区間の直前の区間における車両2の進行方向と、未検出区間における車両2の進行方向とが所定角度以上(例えば、45°以上)変化している場合、車両2は交差点で右折または左折したか、それまで走行していた道路から脇へ逸れた可能性が高い。そこでこのような場合、道路構造判定部44は、未検出区間における道路の構造が端部を有さない構造であると判定する。また、未検出区間に交差点が含まれる場合、車両2はその交差点の直前で停止する場合もある。そこで、道路構造判定部44は、未検出区間またはその直前の区間において、イグニッションスイッチがオンのまま車両2が所定期間以上停車したことを走行軌跡が示している場合、未検出区間における道路の構造が端部を有さない構造であると判定してもよい。なお、道路構造判定部44は走行軌跡に含まれる車両2の一つの位置に、所定期間にわたって複数の測定時刻が対応付けられている場合に、その位置において車両2が所定期間にわたって停車したと判定すればよい。また、未検出区間に交差点が含まれる場合、未検出区間またはその前後で信号機、停止線あるいは横断歩道が存在する可能性がある。そこで、道路構造判定部44は、未検出区間を車両2が走行する際にカメラ11により生成された画像から信号機、停止線あるいは横断歩道が検出される場合、未検出区間における道路の構造が端部を有さない構造であると判定してもよい。この場合、道路構造判定部44は、画像を識別器に入力することで、信号機、停止線あるいは横断歩道を検出する。道路構造判定部44は、そのような識別器として、走行軌跡推定部41に関して説明した地物検出用の識別器と同様の識別器を利用することができる。あるいは、走行軌跡推定部41が使用する識別器、あるいは、位置推定部42が使用する識別器が、信号機、停止線あるいは横断歩道も検出するように予め学習されてもよい。
さらに、道路構造判定部44は、未検出区間を車両2が走行する際にカメラ11により生成された画像から検出された他の車両の位置と、その前後の区間における道路の端部の位置との比較により、未検出区間における道路の構造を判定してもよい。この場合、道路構造判定部44は、画像を識別器に入力することで、他の車両を検出する。道路構造判定部44は、そのような識別器として、上記の識別器と同様の識別器を利用することができる。あるいは、上記の識別器、走行軌跡推定部41が使用する識別器、または位置推定部42が使用する識別器が、他の車両も検出するように予め学習されてもよい。画像において他の車両が表された領域の下端の位置は、他の車両が路面に接している位置を表すと想定される。また、画像上の各画素と、カメラ11から見た方位とは1対1に対応している。そこで、道路構造判定部44は、画像において他の車両が表された領域の下端の位置と、車両2の位置及び進行方向と、カメラ11の設置高さ及び撮影方向といったパラメータとに基づいて、車両2から他の車両までの方位及び距離を推定することができる。したがって、道路構造判定部44は、その方位及び距離に基づいて、車両2が走行した道路の延伸方向と直交する方向における、車両2から他の車両までの距離(以下、説明の便宜上、横方向距離と呼ぶことがある)を推定できる。そして道路構造判定部44は、車両2から他の車両までの横方向距離と、未検出区間の前後の区間における、車両2から道路の端部までの横方向距離とを比較する。道路構造判定部44は、車両2から他の車両までの横方向距離が、未検出区間の前後の何れかの区間における、車両2から道路の端部までの横方向距離よりも長い場合、未検出区間における道路の構造が端部を有さない構造であると判定する。
道路構造判定部44は、上述したような、道路の端部が無い構造であると判定するための判断基準の何れも満たされない場合に、未検出区間における、車両2が走行した道路の構造が端部を有する構造であると判定することができる。例えば、車両2から他の車両までの横方向距離が、未検出区間の前後の何れかの区間における、車両2から道路の端部までの横方向距離よりも短い場合、他の車両が道路の端部の近くに駐車されているために、他の車両が道路の端部を隠していることが想定される。そのため、このような場合には、道路構造判定部44は、未検出区間における、車両2が走行した道路の構造が端部を有する構造であると判定すればよい。さらに、道路構造判定部44は、車両2の走行軌跡を参照して、上記のような駐車している他の車両の近くで車両2が停車した場合に、未検出区間における、車両2が走行した道路の構造が端部を有する構造であると判定してもよい。なお、道路構造判定部44は、未検出区間から一定距離内で車両2が停車するとともにイグニッションスイッチがオフにされ、かつ、車両2の進行方向と道路の延伸方向との角度差が所定角度以下である場合、駐車中の他の車両の近くで車両2が停車したと判定する。また、未検出区間の道路の端部の有無の判定結果が矛盾するような車両2の挙動が車両2の走行軌跡に示されている場合、道路構造判定部44は、上述した、走行軌跡を参照しない判定条件に基づいて未検出区間の道路の端部の有無を判定してもよい。
道路構造判定部44は、未検出区間における道路の構造の判定結果を道路端推定部45へ通知する。
道路端推定部45は、未検出区間における道路の構造が端部を有する構造である場合、走行軌跡に沿って未検出区間の前後の区間における道路の端部の位置に基づく補間により、未検出区間における道路の端部の位置を推定する。その際、道路端推定部45は、所定の曲線または直線で前後の区間における道路の端部の位置を接続するように補間することで、未検出区間における道路の端部の位置を推定すればよい。道路端推定部45は、補間に利用する所定の曲線として、例えば、クロソイド曲線あるいはスプライン曲線を使用することができる。特に、未検出区間がカーブの区間である場合、そのカーブはクロソイド曲線に沿って設計されていることがある。そのため、道路端推定部45は、補間に利用する所定の曲線としてクロソイド曲線を利用することで、未検出区間における道路の端部の位置を精度良く推定することができる。道路端推定部45は、補間により推定した道路の端部の位置に対して、補間により推定されたことを表すフラグを付してもよい。
一方、未検出区間における道路の構造が端部を有さない構造である場合、道路端推定部45は、未検出区間における道路の端部の位置を推定しない。これにより、道路端推定部45は、もともと道路の端部が存在しない区間において、道路の端部の位置を誤って推定することを防止できる。
図6(a)は、他の物体に隠されている位置に道路端が存在する場合における道路端推定の結果の一例を示す図である。また、図6(b)は、他の物体に隠されている位置に道路端が存在しない場合における道路端推定の結果の一例を示す図である。図6(a)に示されている例では、道路600を走行した車両2の走行軌跡601に沿って、時刻t0~t5のそれぞれに対応する位置においてカメラ11により画像が生成されている。そして時刻t4以外の時刻において生成された画像から道路600の端部602の位置r0~r3、r5が検出されている。しかし、時刻t4において生成された画像では、駐車車両610により、道路600の端部602が隠されているため、道路600の端部602が検出されていない。そのため、時刻t4における車両2の位置が未検出区間603となっている。この例では、駐車車両610から走行軌跡601までの距離(すなわち、駐車車両610から車両2までの距離)d1が、未検出区間603の前後の区間における走行軌跡601から道路600の端部602までの距離d2よりも短い。そのため、未検出区間603における道路600の構造は、端部を有する構造であると判断される。したがって、未検出区間603における道路600の端部602の位置r4は、その前後の区間における端部602の位置r3,r5からの補間により推定される。
図6(b)に示されている例においても、道路600を走行した車両2の走行軌跡601に沿って、時刻t0~t5のそれぞれに対応する位置においてカメラ11により画像が生成されている。そして時刻t4以外の時刻において生成された画像から道路600の端部602の位置r0~r3、r5が検出されている。一方、時刻t4におけるカメラ11の撮影範囲には交差点が含まれているため、時刻t4において生成された画像には、道路600の端部602が写っていない。そのため、時刻t4における車両2の位置が未検出区間604となっている。しかし、この例では、時刻t4において生成された画像に写っている、一時停車している他の車両620は、道路600と交差する他の道路上に停車している。そのため、時刻t4において生成された画像から検出された他の車両620と走行軌跡601間の距離d3が、未検出区間604の前後の区間における走行軌跡601から道路600の端部602までの距離d2よりも長くなっている。その結果として、未検出区間604における道路600の構造は、端部を有さない構造であると判断される。したがって、未検出区間604では、道路600の端部602の位置は補間により推定されることはなく、未検出のままとされる。
道路端推定部45は、未検出区間についての道路端の位置の推定結果または補間されないことを示す情報を地図更新部46へ通知する。
地図更新部46は、所定の区間において推定され、あるいは補間された個々の道路の端部の位置を、生成または更新対象となる地図情報に追加し、あるいは書き換える。なお、道路の構造が端部を有さない構造であると判定された未検出区間については、地図更新部46は、道路の端の位置を地図情報に追加しない。これにより、道路の端部が無い区間であるにもかかわらず、道路の端部の位置が地図情報に誤って追加されることが防止される。さらに、地図更新部46は、所定の区間において検出された地物の種類及び位置を、その地図情報に追加し、あるいは書き換えてもよい。
図7は、サーバ3における、道路端推定処理の動作フローチャートである。サーバ3のプロセッサ34は、収集対象領域内の所定の区間についての車両2から地物データ及び走行情報を受信すると、以下に示される動作フローチャートに従って道路端推定処理を実行すればよい。
プロセッサ34の走行軌跡推定部41は、所定の区間における車両2の走行軌跡を推定する(ステップS101)。また、プロセッサ34の位置推定部42は、車両2が所定の区間を走行している間にカメラ11により生成された一連の複数の画像のそれぞれから、その所定の区間における道路の端部を検出する。そして位置推定部42は、端部を検出できた画像から、その端部の位置を推定する(ステップS102)。また、プロセッサ34の区間特定部43は、道路の端部が検出されなかった画像が生成されたときの車両2の走行区間を未検出区間として特定する(ステップS103)。
プロセッサ34の道路構造判定部44は、未検出区間における道路の構造が端部を有する構造か否か判定する(ステップS104)。未検出区間における道路の構造が端部を有する構造である場合(ステップS104-Yes)、プロセッサ34の道路端推定部45は、走行軌跡に沿って未検出区間の前後の区間における道路の端部の位置に基づく補間処理を実行する。これにより、道路端推定部45は、未検出区間における道路の端部の位置を推定する(ステップS105)。
一方、未検出区間における道路の構造が端部を有さない構造である場合(ステップS104-No)、道路端推定部45は、未検出区間における道路の端部の位置を推定せず、道路の端部は無いままとする(ステップS106)。ステップS105またはS106の後、プロセッサ34は、道路端推定処理を終了する。
以上に説明してきたように、この道路端推定装置は、道路の端部が検出されなかった画像が生成されたときの車両の走行区間を未検出区間として特定する。そしてこの道路端推定装置は、道路の端部が検出されなかった画像、その画像が生成されたときの車両の位置、または未検出区間における車両の挙動に基づいて、未検出区間における道路の構造が端部を有する構造か否か判定する。未検出区間における道路の構造が端部を有する構造である場合、この道路端推定装置は、車両の走行軌跡に沿ってその走行区間の前後における道路の端部の位置に基づく補間により、未検出区間における道路の端部の位置を推定する。一方、未検出区間における道路の構造が端部を有さない構造である場合、この道路端推定装置は、未検出区間における道路の端部の位置を推定しない。そのため、この道路端推定装置は、そもそも道路の端部が無い場所に対して誤って推定した道路の端部の位置を設定することを防止することができる。一方、この道路端推定装置は、何らかの理由で画像に表されていない区間における道路の端部については、その端部の位置を、その区間の前後の区間の道路の端部の位置に基づいて適切に推定することができる。したがって、この道路端推定装置は、車両に搭載されたカメラから見えない場所における道路端の位置を適切に推定することができる。
変形例によれば、データ取得装置15のプロセッサ23が、サーバ3のプロセッサ34の代わりに道路端推定処理を実行してもよい。この場合、データ取得装置15は、道路端の推定結果を表す情報を、無線通信端末14を介してサーバ3へ送信すればよい。あるいは、車両2のECUが道路端推定処理を実行してもよい。この場合、ECUは、推定された道路端の位置に基づいて車両2が道路端から一定の距離を保って走行するように、車両2を制御することができる。
さらに、上記の各実施形態または変形例による道路端推定装置のプロセッサが有する各部の機能をコンピュータに実現させるコンピュータプログラムは、コンピュータによって読取り可能な記録媒体に記憶された形で提供されてもよい。なお、コンピュータによって読取り可能な記録媒体は、例えば、磁気記録媒体、光記録媒体、又は半導体メモリとすることができる。
以上のように、当業者は、本発明の範囲内で、実施される形態に合わせて様々な変更を行うことができる。
1 地物データ収集システム
2 車両
11 カメラ
12 GPS受信機
13 車両運動センサ
14 無線通信端末
15 データ取得装置
21 通信インターフェース
22 メモリ
23 プロセッサ
3 サーバ(道路端推定装置)
31 通信インターフェース
32 ストレージ装置
33 メモリ
34 プロセッサ
41 走行軌跡推定部
42 位置推定部
43 区間特定部
44 道路構造判定部
45 道路端推定部
46 地図更新部
4 通信ネットワーク
5 無線基地局

Claims (9)

  1. 車両に搭載された、前記車両の挙動を検知するセンサにより得られたセンサ信号または前記車両に搭載された測位装置により測位された前記車両の自己位置に基づいて、前記車両の走行軌跡を推定する走行軌跡推定部と、
    前記車両に搭載されたカメラにより生成された、前記車両の走行中に得られた複数の画像のうち、前記車両が走行した道路の端部が表された画像に基づいて、前記道路の端部の位置を推定する位置推定部と、
    前記複数の画像のうち、前記道路の端部が検出されなかった画像が生成されたときに前記車両が走行した未検出区間を特定する区間特定部と、
    前記未検出区間において前記画像が生成されたときの前記車両の位置、前記未検出区間において生成された前記画像または前記未検出区間に相当する前記走行軌跡における、前記車両の挙動に基づいて、前記未検出区間における前記道路の構造が端部を有する構造か否か判定する道路構造判定部と、
    前記未検出区間における道路の構造が端部を有する構造である場合、前記走行軌跡に沿って前記未検出区間の前後における前記道路の端部の位置に基づく補間により、前記未検出区間における前記道路の端部の位置を推定し、一方、前記未検出区間における道路の構造が端部を有さない構造である場合、前記未検出区間における前記道路の端部の位置を推定しない道路端推定部と、
    を有する道路端推定装置。
  2. 前記道路構造判定部は、前記未検出区間において生成された前記画像から、前記未検出区間の前後における前記車両から前記道路の端部へ向かう方向に位置する他の車両を検出し、前記車両から検出した他の車両までの距離を推定し、推定した他の車両までの距離が前記未検出区間の前後における前記車両から前記道路の端部までの距離よりも長い場合、前記未検出区間における道路の構造が端部を有さない構造であると判定する、請求項1に記載の道路端推定装置。
  3. 前記未検出区間の道路の構造を表す地図情報を記憶する記憶部をさらに有し、
    前記道路構造判定部は、前記地図情報において、前記未検出区間で前記車両が走行した道路から外れる位置に前記車両が進入可能なスペースが示されている場合、前記未検出区間における道路の構造が端部を有さない構造であると判定する、請求項1に記載の道路端推定装置。
  4. 前記道路構造判定部は、前記未検出区間または前記未検出区間の直前の区間においてイグニッションスイッチをオンにしたまま前記車両が所定期間以上停車したことを前記走行軌跡が示している場合、前記未検出区間における道路の構造が端部を有さない構造であると判定する、請求項1に記載の道路端推定装置。
  5. 前記道路構造判定部は、前記未検出区間における前記車両の進行方向と、前記未検出区間の直前の区間における前記車両の進行方向とが所定角度以上異なる場合、前記未検出区間における道路の構造が端部を有さない構造であると判定する、請求項1に記載の道路端推定装置。
  6. 前記道路構造判定部は、前記走行軌跡において示された前記未検出区間における前記車両の位置が、前記未検出区間の前後の区間における前記道路の端部の位置を結んだ線よりも前記道路から外れている場合、前記未検出区間における道路の構造が端部を有さない構造であると判定する、請求項1に記載の道路端推定装置。
  7. 前記道路構造判定部は、前記未検出区間において生成された前記画像から信号機、停止線あるいは横断歩道を検出した場合、前記未検出区間における道路の構造が端部を有さない構造であると判定する、請求項1に記載の道路端推定装置。
  8. 車両に搭載された、前記車両の挙動を検知するセンサにより得られたセンサ信号または前記車両に搭載された測位装置により測位された前記車両の自己位置に基づいて、前記車両の走行軌跡を推定し、
    前記車両に搭載されたカメラにより生成された、前記車両の走行中に得られた複数の画像のうち、前記車両が走行した道路の端部が表された画像に基づいて、前記道路の端部の位置を推定し、
    前記複数の画像のうち、前記道路の端部が検出されなかった画像が生成されたときに前記車両が走行した未検出区間を特定し、
    前記未検出区間において前記画像が生成されたときの前記車両の位置、前記未検出区間において生成された前記画像または前記未検出区間に相当する前記走行軌跡における、前記車両の挙動に基づいて、前記未検出区間における前記道路の構造が端部を有する構造か否か判定し、
    前記未検出区間における道路の構造が端部を有する構造である場合、前記走行軌跡に沿って前記未検出区間の前後における前記道路の端部の位置に基づく補間により、前記未検出区間における前記道路の端部の位置を推定し、一方、前記未検出区間における道路の構造が端部を有さない構造である場合、前記未検出区間における前記道路の端部の位置を推定しない、
    ことを含む道路端推定方法。
  9. 車両に搭載された、前記車両の挙動を検知するセンサにより得られたセンサ信号または前記車両に搭載された測位装置により測位された前記車両の自己位置に基づいて、前記車両の走行軌跡を推定し、
    前記車両に搭載されたカメラにより生成された、前記車両の走行中に得られた複数の画像のうち、前記車両が走行した道路の端部が表された画像に基づいて、前記道路の端部の位置を推定し、
    前記複数の画像のうち、前記道路の端部が検出されなかった画像が生成されたときに前記車両が走行した未検出区間を特定し、
    前記未検出区間において前記画像が生成されたときの前記車両の位置、前記未検出区間において生成された前記画像または前記未検出区間に相当する前記走行軌跡における、前記車両の挙動に基づいて、前記未検出区間における前記道路の構造が端部を有する構造か否か判定し、
    前記未検出区間における道路の構造が端部を有する構造である場合、前記走行軌跡に沿って前記未検出区間の前後における前記道路の端部の位置に基づく補間により、前記未検出区間における前記道路の端部の位置を推定し、一方、前記未検出区間における道路の構造が端部を有さない構造である場合、前記未検出区間における前記道路の端部の位置を推定しない、
    ことをコンピュータに実行させるための道路端推定用コンピュータプログラム。
JP2022021424A 2022-02-15 2022-02-15 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム Pending JP2023118462A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2022021424A JP2023118462A (ja) 2022-02-15 2022-02-15 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム
US18/164,925 US20230260294A1 (en) 2022-02-15 2023-02-06 Apparatus, method, and computer program for estimating road edge
DE102023102959.2A DE102023102959A1 (de) 2022-02-15 2023-02-07 Vorrichtung, Verfahren und Computerprogramm zum Schätzen eines Straßenrandes
CN202310129864.2A CN116645651A (zh) 2022-02-15 2023-02-08 道路端推测装置、道路端推测方法及道路端推测用计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022021424A JP2023118462A (ja) 2022-02-15 2022-02-15 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2023118462A true JP2023118462A (ja) 2023-08-25

Family

ID=87430519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022021424A Pending JP2023118462A (ja) 2022-02-15 2022-02-15 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム

Country Status (4)

Country Link
US (1) US20230260294A1 (ja)
JP (1) JP2023118462A (ja)
CN (1) CN116645651A (ja)
DE (1) DE102023102959A1 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6544341B2 (ja) 2016-11-25 2019-07-17 トヨタ自動車株式会社 車両運転支援装置

Also Published As

Publication number Publication date
US20230260294A1 (en) 2023-08-17
DE102023102959A1 (de) 2023-08-17
CN116645651A (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
JP6566132B2 (ja) 物体検出方法及び物体検出装置
JP2019099138A (ja) 車線維持補助方法及び装置
US11928871B2 (en) Vehicle position estimation device and traveling position estimation method
JP2005257314A (ja) 車両位置検出装置
JP6943127B2 (ja) 位置補正方法、車両制御方法及び位置補正装置
WO2021116752A1 (en) Systems and methods for selectively decelerating a vehicle
JP7234840B2 (ja) 位置推定装置
US20230316539A1 (en) Feature detection device, feature detection method, and computer program for detecting feature
JP2022064762A (ja) 車両制御装置及び車両制御方法
JP2018159752A (ja) 地図情報学習方法及び地図情報学習装置
JP7463997B2 (ja) 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
CN114973644B (zh) 道路信息生成装置
JP7435513B2 (ja) 車両制御装置及び車両制御方法
EP3859281B1 (en) Apparatus and method for collecting data for map generation
JP2023118462A (ja) 道路端推定装置、道路端推定方法及び道路端推定用コンピュータプログラム
JP7067290B2 (ja) 軌道設定装置
US20240067222A1 (en) Vehicle controller, vehicle control method, and vehicle control computer program for vehicle control
US20240077320A1 (en) Vehicle controller, method, and computer program for vehicle control
US20230373535A1 (en) Vehicle controller, method, and computer program for controlling vehicle
US20230294689A1 (en) Vehicle controller, and method and computer program for controlling vehicle
JP7302615B2 (ja) 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム
JP7325296B2 (ja) 物体認識方法及び物体認識システム
US20230373503A1 (en) Vehicle controller, method and computer program for vehicle control, priority setting device, and vehicle control system
JP2024025040A (ja) 自車位置推定装置及び自車位置推定方法
JP2022146384A (ja) 物体検出装置

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20230517

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240402