JP7241582B2 - 移動体位置検出方法及び移動体位置検出システム - Google Patents

移動体位置検出方法及び移動体位置検出システム Download PDF

Info

Publication number
JP7241582B2
JP7241582B2 JP2019060132A JP2019060132A JP7241582B2 JP 7241582 B2 JP7241582 B2 JP 7241582B2 JP 2019060132 A JP2019060132 A JP 2019060132A JP 2019060132 A JP2019060132 A JP 2019060132A JP 7241582 B2 JP7241582 B2 JP 7241582B2
Authority
JP
Japan
Prior art keywords
vehicle
fixed
image
camera
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019060132A
Other languages
English (en)
Other versions
JP2020159887A (ja
Inventor
英城 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Renault SAS
Original Assignee
Renault SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Renault SAS filed Critical Renault SAS
Priority to JP2019060132A priority Critical patent/JP7241582B2/ja
Publication of JP2020159887A publication Critical patent/JP2020159887A/ja
Application granted granted Critical
Publication of JP7241582B2 publication Critical patent/JP7241582B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、移動体位置検出方法及び移動体位置検出システムに関する。
従来、車両周辺の障害物を検出する障害物検出装置が知られている(例えば、特許文献1参照)。この装置は、車両に搭載されたカメラで撮影された撮影画像、前記車両の位置、前記位置の周辺の地図情報を取得する取得部と、前記車両の位置と、前記地図情報とに基づいて、前記撮影画像を模造する模造画像を作成する画像作成部と、前記撮影画像と前記模造画像とに基づいて、前記撮影画像に含まれる障害物を検出する障害物検出部と、を備える。
特開2017-16474号公報
特許文献1に開示された障害物検出装置は、車載カメラ画像で認識した障害物とGPSによる自己位置とから障害物との位置関係を算出する内容となっている。しかし、GPSやGNSSは、ビルなどの反射波(マルチパス)によって誤差が非常に大きくなるため、自己位置の検出精度が悪化する、という課題があった。ここで、「GPS」は、「Global Positioning System」の略であり、「GNSS」は、「Global Navigation Satellite System」の略である。
本開示は、上記課題に着目してなされたもので、走行中、走行環境条件にかかわらず自車両の自己位置を精度良く検出することを目的とする。
上記目的を達成するため、本開示は、車載カメラが接続される移動体側コントローラと、走行路に沿って設置される定点カメラが接続される定点カメラ側コントローラとの通信による移動体位置検出方法であって、以下の手順としている。
定点カメラからの定点カメラ映像を取得する。
定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する。
車載カメラからの車載カメラ映像を取得する。
3D地図データベースに有する画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して3D画像マップを作成しておき、車載カメラ映像を画像データに含む3D画像マップを取得する。
車載カメラ映像に対し予め記憶設定されている3D画像マップを検索し、特徴点のパターンマッチングによって背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する。
自車両の自己位置を、定点カメラ映像に基づいて算出する。
このため、走行中、走行環境条件にかかわらず自車両の自己位置を精度良く検出することができる。加えて、構造物が有する特徴点のパターンマッチングによって自車両を特定することで、背景差分により分離された移動体の中から自車両を特定する際、短時間にて精度良く自車両を特定することができる。
実施例1の移動体位置検出方法が適用された移動体位置検出システムを示す全体システム構成図である。 実施例1の移動体位置検出システムの構成要素を示す構成要素図である。 実施例1の定点カメラ側コントローラと移動体側コントローラの詳細構成を示す詳細ブロック図である。 定点カメラ映像管理センターの定点カメラ側コントローラで実行される移動体位置検出処理の流れを示すフローチャートである。 車両の移動体側コントローラで実行される移動体位置検出処理の流れを示すフローチャートである。 背景差分による移動体検出作用1を示す作用説明図である。 背景差分による移動体検出作用2を示す作用説明図である。 背景差分による移動体検出作用3を示す作用説明図である。 背景差分による移動体検出作用4を示す作用説明図である。 背景差分による移動体検出作用5を示す作用説明図である。 車載カメラ映像と3D画像マップの特徴点とのパターンマッチングの一例を示す説明図である。 背景差分により分離された複数台の移動体の中から自車両を特定する自車両特定作用を示す作用説明図である。 実施例2の移動体位置検出システムの構成要素を示す構成要素図である。 実施例2の移動体側コントローラと定点カメラ側コントローラの詳細構成とを示す詳細ブロック図である。 車両の移動体側コントローラで実行される移動体位置検出処理の流れを示すフローチャートである。
以下、本開示による移動体位置検出方法及び移動体位置検出システムを実施するための形態を、図面に示す実施例1及び実施例2に基づいて説明する。
実施例1における移動体位置検出方法は、定点カメラ映像管理センター10に有する定点カメラ側コントローラ11での処理により自車両の自己位置及び自車両に対する障害物を検出する移動体位置検出システムに適用したものである。以下、実施例1の構成を、「全体システム構成」、「コントローラの詳細構成」、「移動体位置検出処理構成」に分けて説明する。
[全体システム構成]
図1は、実施例1の移動体位置検出方法が適用された移動体位置検出システムを示し、図2は、実施例1の移動体位置検出システムの構成要素を示す。以下、図1及び図2に基づいて全体システム構成を説明する。
実施例1の移動体位置検出システムは、「交差点などに設置された複数の定点カメラ映像」と「複数の車両からの車載カメラ映像、ポイントクラウド情報」を利用して車両の自己位置情報と車両に対する障害物情報を自車両に送信するシステムである。以下、市街地に存在する交差点に設置された複数の定点カメラを用いる移動体位置検出システムの一例について説明する。
移動体位置検出システムは、図1に示すように、定点カメラ15と、定点カメラ映像管理センター10と、車載カメラ23と、車両20(移動体の一例)と、を備えている。
定点カメラ15は、ビル31,32,33,34が立ち並ぶ市街地に存在し、2本の直線道路が交差する交差点40の周囲の複数個所の位置に設置されたカメラである。定点カメラ15としては、例えば、図1に示すように、
(a) 交差点40の4箇所の角部位置のそれぞれにレンズ光軸を交差点に向けて設置された4台のカメラ
(b) 交差点40の4箇所の角部両側位置にそれぞれレンズ光軸を道路に向けて設置された8台のカメラ
(c) 交差点40で交わる4本の放射道路41,42,43,44の真上位置にそれぞれレンズ光軸を道路に向けて設置された4台のカメラ
というように、16台の定点カメラ15が設置される。
定点カメラ映像管理センター10は、複数の定点カメラ映像を集中管理するインフラ設備として設けられ、定点カメラ映像管理センター10には、複数台の定点カメラ15が接続される定点カメラ側コントローラ11(図2参照)を有する。
車両20は、交差点付近を走行する複数台の車両であり、車載カメラ23が接続される移動体側コントローラ21(図2参照)が搭載されている。なお、車両20のうち、移動体側コントローラ21を搭載していない車両が一部混在していても良い。
ここで、複数台の定点カメラ15と定点カメラ側コントローラ11は、有線による接続とされる(図1の実線)。一方、移動体側コントローラ21と定点カメラ側コントローラ11との間の情報交換は、レイテンシが小さい高速通信速度(例えば、5~6Gbpsなど)による無線通信とされる(図1の破線)。即ち、図1に示す移動体位置検出システムは、高速通信技術を利用してカメラ映像データを車載センサ信号のように取り扱う構成としている。
定点カメラ映像管理センター10は、図2に示すように、定点カメラ側コントローラ11と、通信装置12と、3D地図データベース13と、背景画像記憶装置14と、を有する。
定点カメラ側コントローラ11は、自車両の自己位置情報と障害物情報とを移動体位置検出情報として取得する移動体位置検出機能を分担するコントローラである。定点カメラ側コントローラ11は、定点カメラ15からの定点カメラ映像と、3D地図データベース13からの3D画像マップと、通信装置12,22を介して受信された車載カメラ映像とを入力情報とする。そして、定点カメラ15により取得した定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する。車載カメラ映像と、車載カメラ映像を画像データに含む3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する。さらに、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除いた移動体を、自車両に対する障害物として特定する。
通信装置12は、車両20の移動体側コントローラ21から通信装置22を介して車載カメラ映像が送信されると、送信される車載カメラ映像を受信する。ここで、車両20からの車載カメラ映像の送信は、定点カメラ映像により認識できる領域内に車両20が入ってきたときに定点カメラ側コントローラ11から要求しても良い。また、車両20から定期的に送信される車載カメラ映像であっても良い。さらに、車両20からの自車両の自己位置情報要求や障害物情報の要求により送信される車載カメラ映像であっても良い。
3D地図データベース13は、定点カメラ映像管理センター10のメモリに格納され、緯度/経度情報と道路情報と道路に沿った構造物情報を含む3次元高精度地図データである。この3D地図データベース13には、3D画像データに、各移動体(車両20)から観察できる範囲に存在する構造物が有する特徴点を付加して作成された3D画像マップが予め記憶されている。
背景画像記憶装置14は、定点カメラ15により取得した定点カメラ映像の背景差分によって背景及び固定物から移動体を分離するとき、背景画像(固定物画像を含む)を一時的に記憶しておくメモリである。
車両20は、図2に示すように、移動体側コントローラ21と、通信装置22と、車載カメラ23と、測距センサ24と、GPS25と、車両制御装置26と、を有する。
移動体側コントローラ21は、移動体位置検出情報(自車両の自己位置と障害物情報)を定点カメラ映像管理センター10から通信装置22を介して受信することにより取得する機能を有する。ここで、移動体側コントローラ21は、移動体位置検出情報が、定点カメラ映像とGPS25や測距センサ24との両方により取得される場合、定点カメラ映像からの移動体位置検出情報を優先する。なお、定点カメラ映像からの自車両の自己位置情報を、GPS25により取得される自車両の自己位置の補正情報として用いても良い。
通信装置22は、車載カメラ23からの車載カメラ映像を送信する機能と、定点カメラ側コントローラ11で算出された移動体位置検出情報を、通信装置12を介して受信する機能とを有する。
車載カメラ23は、自車両のフロントガラスの上部位置に設置される前方認識カメラなどであり、自車両の周囲情報(車線や先行車や歩行者や構造物など)をカメラ映像データにより取得する機能を有する。
測距センサ24は、自車両周囲の障害物の存在を検知する機能と共に、自車両周囲の障害物までの距離を検知する機能を有するセンサである。測距センサ24には、電波を用いたレーダーと光を用いたライダーと超音波を用いたソナーとを含み、レーダーとしては、例えば、レーザーレンジファインダー(LRF)、ミリ波レーダー、超音波レーダーなどを用いることができる。
GPS25は、GNSSアンテナを有し、衛星通信を利用することで停車中/走行中の自車両の自己位置(緯度・経度)を検知する自車両の自己位置センサである。本移動体位置検出システムでのGPS25の役割は、定点カメラが設置されていない道路の走行中や定点カメラ映像を取得できない夜間走行中などのように、定点カメラ映像から自車両の自己位置情報を取得できないときに自車両の自己位置情報を取得する。
車両制御装置26は、移動体位置検出情報(自車両の自己位置と障害物情報)を入力情報に用いて制御を行う装置である。車両制御装置26としては、例えば、ナビ画面上で自車両の道案内をするナビゲーション装置、車線逸脱防止制御や先行車追従制御や自動ブレーキ制御等を行う運転支援装置、自動運転モードの選択により駆動/制動/操舵の制御が行われる自動運転装置などがある。
[コントローラの詳細構成]
図3は、実施例1の定点カメラ側コントローラ11と移動体側コントローラ21の詳細構成を示す。以下、図3に基づいて定点カメラ側コントローラ11と移動体側コントローラ21の詳細構成を説明する。
移動体位置検出システムは、図3に示すように、車載カメラ23が接続される移動体側コントローラ21と、走行路に沿って設置される定点カメラ15が接続される定点カメラ側コントローラ11と、を備える。
定点カメラ側コントローラ11は、図3に示すように、車載カメラ映像受信部11a(受信部)と、移動体検出部11bと、移動体特定部11cと、自己位置算出部11dと、障害物検出部11eと、障害物距離算出部11fと、を有する。さらに、移動体通知制御部11gと、自己位置及び障害物情報送信部11h(送信部)と、を有する。
車載カメラ映像受信部11aは、移動体側コントローラ21の車載カメラ映像送信部21aから車載カメラ映像を受信する。ここで、「車載カメラ映像」は、車両前方の道路や先行車のみによる限られた範囲によるカメラ映像ではなく、周囲の構造物(ビルなど)を含む車両周囲カメラ映像とする。
移動体検出部11bは、定点カメラ15により取得した定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する。ここで、「移動体」とは、定点カメラ映像の背景差分によって、背景及び固定物からの抽出により分離された全ての移動する物体をいう。つまり、移動体には、走行している車両20に限らず、歩行者や自転車やバイクなども含まれる。
移動体特定部11cは、車載カメラ映像と、3D地図データベース13から取得した3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する。ここで、車載カメラ映像と3D画像マップとを照合する場合、車載カメラ映像に対し予め記憶設定されている3D画像マップを検索し、3D画像マップに付加されている特徴点のパターンマッチングによって車載カメラ映像を取得している移動体を特定する。
自己位置算出部11dは、特定された自車両の自己位置を、定点カメラ映像に基づいて算出する。自車両の自己位置は、例えば、3D地図データベース13に有する道路地図情報を読み出し、定点カメラ映像で特定された自車両の位置を、読み出した道路地図情報の道路地図位置に移し、道路地図位置の経度と緯度を算出する。
障害物検出部11eは、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除いた移動体を障害物として特定し、障害物を検出する。ここで、「障害物」とは、背景差分により分離した移動体の中から自車両を除く全ての移動体を障害物とするのではなく、あくまで自車両からの所定距離範囲内に存在する移動体であって、自車両から死角となる位置に存在する移動体も含んで検出する。
障害物距離算出部11fは、障害物検出部11eにより検出された障害物の位置と、自車両と障害物との距離を算出する。障害物の位置は、自車両の自己位置と同様に算出する。自車両と障害物との距離は、障害物が自車両からの死角にない場合は、測距センサ24により取得する。一方、障害物が自車両から死角になる場合は、自車両の自己位置と障害物の位置との道路地図上での距離を算出することで行う。
移動体通知制御部11gは、複数の移動体(自車両)に対して検出情報を通知する場合に、自己位置算出部11dで算出された自車両の自己位置と、障害物距離算出部11fで算出された障害物の位置/距離情報を、特定された自車両毎にまとめる制御を行う。
自己位置及び障害物情報送信部11hは、自車両の自己位置情報と障害物の位置/距離情報を、移動体側コントローラ21の自己位置及び障害物情報受信部21bへ送信する。
移動体側コントローラ21は、図3に示すように、車載カメラ映像送信部21a(送信部)と、自己位置及び障害物情報受信部21b(受信部)と、を有する。
車載カメラ映像送信部21aは、車載カメラ23により取得した車載カメラ映像を定点カメラ側コントローラ11の車載カメラ映像受信部11aへ送信する。
自己位置及び障害物情報受信部21bは、定点カメラ側コントローラ11の自己位置及び障害物情報送信部11hから車両の自己位置と障害物情報を受信する。
[移動体位置検出処理構成]
図4は、定点カメラ映像管理センター10の定点カメラ側コントローラ11で実行される移動体位置検出処理の流れを示す。以下、図4の各ステップについて説明する。
ステップS101では、スタートに続いて、全ての処理情報の初期化をし、ステップS102へ進む。
ステップS102では、S101又はS109に続き、交差点40に設置された複数の定点カメラ15からの定点カメラ映像を取得し、ステップS103へ進む。
ステップS103では、S102に続き、定点カメラ映像を用い、背景差分により固定物(背景)と移動体を分離し、ステップS104へ進む。
ステップS104では、S103に続き、車両20からの車載カメラ映像情報や測距センサ24やGPS25からのポイントクラウド情報を取得し、ステップS105へ進む。ここで、「車両20」とは、ステップS103にてn個の移動体が検出されると、n個の移動体の中の1個の移動体である。「ポイントクラウド情報」とは、コンピュータで扱う点の集合による情報のことをいい、2次元直交座標(x,y)、又は、3次元直交座標(x,y,z)で表現される。
ステップS105では、S104に続き、予め準備されている3D地図データベース13から3D地図情報(=3D画像マップ)を取得し、ステップS106へ進む。
ステップS106では、S105に続き、移動体候補情報(=分離した移動体)により参照するべき3D地図情報(=3D画像マップ)を絞り込み、ステップS107へ進む。これにより、3D地図データベース13の全領域を検索する必要がなくなり、次のステップS107での特定時間を大幅に短縮させることができる。
ステップS107では、S106に続き、背景差分により導出した移動体の中から、今回の移動体を特定し、ステップS108へ進む。即ち、絞り込まれた領域の中から移動体の映像やポイントクラウド情報が当てはまる移動体を自車両として特定する。これらの作業を移動体毎に繰り返すことにより、交差点40から観測可能な移動体がどの車両であるかを特定することが可能となる。
ステップS108では、S107に続き、背景差分により導出した移動体の中から、今回の特定された移動体以外の移動体を障害物として特定し、ステップS109へ進む。これにより、歩行者や自転車など車載カメラ映像を送信してこない移動体については、車両20に対して移動する障害物として特定することができる。
ステップS109では、S108に続き、車載カメラ映像を送信してきた各車両20に自己位置と障害物情報を送信し、ステップS102へ戻る。これにより、それぞれの移動体は自己位置と障害物を認識することができる。
図5は、車両20の移動体側コントローラ21で実行される移動体位置検出処理の流れを示すフローチャートである。以下、図5の各ステップについて説明する。
ステップS201では、スタートに続いて、全ての処理情報の初期化をし、ステップS202へ進む。
ステップS202では、S201又はS205に続き、車載カメラ23からの車載カメラ映像を取得し、ステップS203へ進む。
ステップS203では、S202に続き、LRFなどの測距センサ24やGPS25からポイントクラウド情報を取得し、ステップS204へ進む。
ステップS204では、S203に続き、自己位置と障害物情報を固定側(定点カメラ映像管理センター10)から取得し、ステップS205へ進む。
ステップS205では、S204に続き、取得した自己位置と障害物情報を車両制御装置26に出力し、ステップS202へ戻る。つまり、移動体側は車載カメラ情報やポイントクラウド情報などを定点カメラ側に送信し、定点カメラ側が導出した結果(自己位置情報と障害物情報)を受信するだけである。そして、これらの情報を車両の制御に利用する。
次に、「背景技術と課題」、「課題解決対策」を説明し、実施例1の作用を、「移動体位置検出作用」、「背景差分による移動体の分離作用」、「自車両の特定作用」に分けて説明する。
[背景技術と課題]
自車両の自己位置情報は、特許文献1に開示された障害物検出装置のようにGPSにより取得している。そして、車載カメラ映像の画像処理により障害物の存在を認識すると、レーダーなどにより自車両と障害物との距離情報を取得している。
しかし、自車両の自己位置情報の取得に用いられるGPSは、ビルなどの反射波(マルチパス)によって誤差が非常に大きくなるため、自己位置の検出精度が悪化する、という課題があった。
また、車載カメラだけで障害物の存在を認識しようとしても、死角や画像処理時の様々な問題により、自車両に対する障害物の全てを検出することできない、という課題があった。さらに、自車両から死角となる位置に存在する障害物との距離情報は、反射波を利用するレーダーなどを用いても取得することができない、という課題があった。
[課題解決対策]
従来、車載されたカメラ映像を固定側処理装置に送信する場合、通信のレイテンシが問題となる。しかし、近年、ほぼリアルタイムで画像送信する技術が出現しており、この高速通信技術を利用してカメラ映像データを車載センサ信号のように取り扱うことが可能となってきている。
本発明者は、カメラ映像データを車載センサ信号のように取り扱うことができる点に着目し、GPSなどを使用せずに、カメラ映像を用いて自己位置や障害物情報を導出する課題解決対策を提案した。
即ち、車載カメラ23が接続される移動体側コントローラ21と、走行路に沿って設置される定点カメラ15が接続される定点カメラ側コントローラ11との通信による移動体位置検出方法であって、以下の手順としている。定点カメラ15からの定点カメラ映像を取得する。定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する。背景差分により分離した移動体の何れかに搭載された車載カメラ23からの車載カメラ映像を取得する。車載カメラ映像を画像データに含む3D画像マップを取得する。車載カメラ映像と3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する。自車両の自己位置を、定点カメラ映像に基づいて算出する。
このように、GPSを使用せず、定点カメラ映像と車載カメラ映像と3D画像マップを使用し、定点カメラ映像の背景差分及び車載カメラ映像と3D画像マップとの照合により自車両を特定し、自車両の自己位置を算出するようにしている。このため、自車両の自己位置算出の際、ビルなどの反射波(マルチパス)による影響を全く受けることがない。この結果、走行中、走行環境条件にかかわらず自車両の自己位置を精度良く検出することができる。
そして、定点カメラ映像の背景差分による移動体の中から特定された自車両を除くことで、自車両から死角となる位置に存在する障害物を含み、自車両に対する障害物を検出することが可能である。さらに、自車両から死角となる位置に存在する障害物との距離情報についても自車両の自己位置と障害物の位置を用いて取得することが可能である。
[移動体位置検出作用]
実施例1では、定点カメラ側コントローラ11による図4のS101→S102→S103→S104→S105→S106→S107→S108→S109へと進む移動体位置検出処理によって移動体位置が検出される。
即ち、定点カメラ15から定点カメラ映像が取得され(S102)、定点カメラ映像の背景差分によって背景及び固定物から移動体が分離される(S103)。
次に、背景差分により分離した移動体の何れかに搭載される車載カメラ23の車載カメラ映像とポイントクラウド情報が移動体側コントローラ21からの受信により取得される(S104)。そして、3D地図情報が取得され(S105)、移動体候補情報により参照するべき3D地図情報が絞り込まれた3D画像マップが取得される(S106)。
次に、車載カメラ映像と3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体が自車両として特定される(S107)。続いて、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除く移動体が障害物として特定される(S108)。
次に、自車両の自己位置と障害物の位置及び距離による障害物情報が、定点カメラ映像に基づいて算出され、算出結果である自車両の自己位置と障害物情報が移動体側コントローラ21へ送信される(S109)。
定点カメラ側コントローラ11が算出した結果(自己位置と障害物情報)を受信した移動体側コントローラ21は、受信情報を車両制御装置26へ出力することで(図5)、受信情報が車両の制御に利用される。
このように、実施例1では、定点カメラ側コントローラ11による移動体位置検出処理によって移動体位置を検出している。このため、移動体側は車載カメラ情報やポイントクラウド情報などを定点カメラ側コントローラ11に送信し、定点カメラ側コントローラ11が導出した結果を受信するだけで、自己位置と障害物情報を車両制御に利用することができる。言い換えると、車両20は、通信装置22を高速通信に対応する装置とし、高速通信により必要情報の送受信を行うだけで、精度の良い自己位置と障害物情報を取得することができる。
[背景差分による移動体の分離作用]
定点カメラ側コントローラ11の移動体検出部11bと図4のステップS103においては、背景差分により固定物(背景)と移動体が分離される。以下、図6A~図6Eに基づいて背景差分による移動体の分離作用を説明する。
この背景推定と移動体検出の例では、定点カメラ15から得られるビデオストリームを処理し、移動体部分のみを抽出する。屋外での撮影であるため、時刻と共に環境が変化するので、環境の変化に対応した移動体の検出を考える必要がある。
(a) ある時刻tにおける画像が図6Aのような場合を例にする。
(b) 前回の時刻t-1の時に計算された結果を元に、現時点での背景を推定し、背景以外の動領域を求める。図6Bに示す点の塊部分が移動体として認識された部分になる。
(c) 図6Cに示すように、図6Bに示す点の塊部分の外周に沿った形状による連結成分を求める。
(d) 図6Cに示す連結成分領域を膨張させて図6Dに示すように楕円にした後、反転させ、次回のための背景として背景画像記憶装置14へ登録する。図6Dに示す画面上において、楕円の外側が背景領域となる。
(e) 図6Eに示すように、移動体として検出された楕円を囲う最小の四角形にて枠を表示する。図6Eに示す枠領域をXY座標で取得することも、四角形の枠内や楕円の面積を取得することも勿論可能である。
以上の背景差分処理(a)~(e)を繰り返すことにより、定点カメラ映像の固定物(背景)から移動体のみが抽出分離され、移動体を正しく認識することが可能である。
[自車両の特定作用]
定点カメラ側コントローラ11の移動体特定部11cと図4のステップS107においては、背景差分により分離された移動体の中から車載カメラ映像を取得している移動体が自車両として特定される。以下、図7及び図8に基づいて自車両の特定作用を説明する。
自車両を特定する際、図7に示すように、3D地図データベース13に有する画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点(図7に付した点)を付加して3D画像マップが作成される。ここで、特徴点とは、移動体から観察されるビルの外形に沿って付された点や電信柱に沿って付された点などをいう。
そして、車載カメラ映像に対し予め記憶設定されている3D画像マップが検索され、特徴点のパターンマッチングによって背景差分により分離された移動体の中から車載カメラ映像を取得している移動体が自車両として特定される。
例えば、右側通行路において、図8に示すように、背景差分によりNo1~No34の合計34台の移動体が分離されたとし、図8のNo23の移動体から前方に向けた車載カメラ映像が、左側に高いビルがあり、右側に低いビルと電信柱があるとする。
このとき、No23の移動体から観察されるビルの外形に沿って付された特徴点のパターンや電信柱に沿って付された特徴点が、図7に示すようにパターンがマッチングすると、No23の移動体が車載カメラ映像を取得している自車両として特定される。
このように、特徴点のパターンマッチングによって背景差分により分離された移動体の中から車載カメラ映像を取得している移動体を自車両として特定している。このため、背景差分により分離された移動体の中から自車両を特定する際、短時間にて精度良く自車両を特定することができる。
以上説明したように、実施例1の移動体位置検出方法及び移動体位置検出システムにあっては、下記に列挙する効果を奏する。
(1) 車載カメラ23が接続される移動体側コントローラ21と、走行路に沿って設置される定点カメラ15が接続される定点カメラ側コントローラ11との通信による移動体位置検出方法であって、
定点カメラ15から定点カメラ映像を取得し、
定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、
車載カメラ23から車載カメラ映像を取得し、
車載カメラ映像を画像データに含む3D画像マップを取得し、
車載カメラ映像と3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定し、
自車両の自己位置を、定点カメラ映像に基づいて算出する(図1)。
このため、走行中、走行環境条件にかかわらず自車両の自己位置を精度良く検出する移動体位置検出方法を提供することができる。
(2) 背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除いた移動体を、自車両に対する障害物として特定する(図4)。
このため、背景差分により分離した移動体の中から特定された自車両を除くだけの簡単な処理により、自車両から死角となる位置に存在する障害物を含み、自車両に対する障害物を特定することができる。
(3) 背景差分により分離した移動体の中から自車両と障害物を特定すると、自車両の自己位置情報と、障害物の位置を含む障害物情報とを移動体位置検出情報として取得する(図4)。
このため、定点カメラ映像と車載カメラ映像と3D画像マップとを用いるだけで、自車両の自己位置情報と障害物情報との両情報を移動体位置検出情報として取得することができる。
(4) 3D画像マップを、3D地図データベースに有する画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して作成しておき、
車載カメラ映像に対し予め記憶設定されている3D画像マップを検索し、特徴点のパターンマッチングによって背景差分により分離された移動体の中から車載カメラ映像を取得している移動体を自車両として特定する(図7)。
このため、背景差分により分離された移動体の中から自車両を特定する際、短時間にて精度良く自車両を特定することができる。
(5) 定点カメラ15は、車両が走行する走行路に沿って複数個所の位置に設置された複数台のカメラであり、
定点カメラ15と定点カメラ側コントローラ11は、有線による接続とし、
移動体側コントローラ21と定点カメラ側コントローラ11との間の情報交換は、レイテンシが小さい高速通信速度による無線通信とする(図1)。
このため、定点カメラ側コントローラ11と移動体側コントローラ21とを備える移動体位置検出システムを構築する際、定点カメラ映像や車載カメラ映像による映像情報を有線により接続されている情報のように扱うことができる。
(6) 定点カメラ15は、市街地に存在する交差点40の周囲の複数個所の位置に設置されたカメラである(図1)。
このため、GPSを用いた場合に反射波(マルチパス)による誤差影響が最も大きくなる市街地に存在する交差点40の付近を走行しているとき、自車両の自己位置を精度良く検出することができる。
(7) 定点カメラ側コントローラ11は、
定点カメラ15から定点カメラ映像を取得し、
定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、
背景差分により分離した移動体の何れかに搭載される車載カメラ23による車載カメラ映像を、移動体側コントローラ21からの受信により取得し、
車載カメラ映像を画像データに含む3D画像マップを取得し、
車載カメラ映像と3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定し、
自車両の自己位置を、定点カメラ映像に基づいて算出し、
自車両の自己位置情報を移動体側コントローラ21へ送信する(図4)。
このため、定点カメラ側コントローラ11が自車両の自己位置情報を算出し、算出結果を移動体側コントローラ21により受信するだけで、自己位置情報を車両制御に利用することができる。
(8) 車載カメラ23が接続される移動体側コントローラ21と、走行路に沿って設置される定点カメラ15が接続される定点カメラ側コントローラ11と、を備える移動体位置検出システムであって、
移動体側コントローラ21は、
車載カメラ23により取得した車載カメラ映像を定点カメラ側コントローラ11へ送信する送信部(車載カメラ映像送信部21a)と、
定点カメラ側コントローラ11から車両の自己位置情報を受信する受信部(自己位置及び障害物情報受信部21b)と、を有し、
定点カメラ側コントローラ11は、
移動体側コントローラ21から車載カメラ映像を受信する受信部(車載カメラ映像受信部11a)と、
定点カメラ15により取得した定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する移動体検出部11bと、
車載カメラ映像と、車載カメラ映像を画像データに含む3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する移動体特定部11cと、
自車両の自己位置を、定点カメラ映像に基づいて算出する自己位置算出部11dと、
自車両の自己位置情報を移動体側コントローラ21へ送信する送信部(自己位置及び障害物情報送信部11h)と、を有する(図3)。
このため、定点カメラ側コントローラ11が自車両の自己位置情報を算出し、算出結果を移動体側コントローラ21により受信するだけで、自己位置情報を車両制御に利用できる移動体位置検出システムを提供することができる。
実施例2における移動体位置検出方法は、車両20に有する移動体側コントローラ21’での処理により自車両の自己位置及び自車両に対する障害物を検出する移動体位置検出システムに適用したものである。以下、実施例2の構成を、「全体システム構成」、「コントローラの詳細構成」、「移動体位置検出処理構成」に分けて説明する。
[全体システム構成]
図9は、実施例2の移動体位置検出システムの構成要素を示す。以下、図9に基づいて全体システム構成を説明する。なお、実施例2の移動体位置検出方法が適用された移動体位置検出システムの全体システム構成は、実施例1の図1と同様であるので説明を省略する。
定点カメラ映像管理センター10は、図9に示すように、定点カメラ側コントローラ11’と、通信装置12と、を有する。
定点カメラ側コントローラ11’は、定点カメラ15から取得された定点カメラ映像を、通信装置12を介して車両20(移動体)側へ送信する機能を有する。
通信装置12は、所定条件が成立すると、定点カメラ映像を車両20へ送信する。ここで、定点カメラ映像は、定点カメラ映像により認識できる領域内に車両20が入ってきたときに送信しても良い。また、定点カメラ側コントローラ11’から定期的に送信しても良い。さらに、車両20からの定点カメラ映像要求により送信しても良い。
車両20は、図9に示すように、移動体側コントローラ21’と、通信装置22と、車載カメラ23と、測距センサ24と、GPS25と、車両制御装置26と、3D地図データベース27と、背景画像記憶装置28と、を有する。
移動体側コントローラ21’は、自車両の自己位置情報と障害物情報とを移動体位置検出情報として取得する移動体位置検出機能を分担するコントローラである。移動体側コントローラ21’は、通信装置22を介して受信された定点カメラ映像と、3D地図データベース13からの3D画像マップと、車載カメラ23から取得した車載カメラ映像とを入力情報とする。そして、定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する。車載カメラ映像と、車載カメラ映像を画像データに含む3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する。さらに、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除いた移動体を、自車両に対する障害物として特定する。
通信装置22は、定点カメラ側コントローラ11’で取得された定点カメラ映像を受信する機能を有する。なお、車載カメラ23、測距センサ24、GPS25、車両制御装置26は、実施例1と同様の構成である。
3D地図データベース27は、車両20のメモリに格納され、緯度/経度情報と道路情報と道路に沿った構造物情報を含む3次元高精度地図データである。この3D地図データベース13には、3D画像データに、車両20から観察できる範囲に存在する構造物が有する特徴点を付加して作成された3D画像マップが予め記憶されている。
背景画像記憶装置28は、受信された定点カメラ映像を用い、背景差分によって背景及び固定物から移動体を分離するとき、背景画像(固定物画像を含む)を一時的に記憶しておくメモリである。
[コントローラの詳細構成]
図10は、実施例2の定点カメラ側コントローラ11’と移動体側コントローラ21’の詳細構成を示す。以下、図10に基づいて定点カメラ側コントローラ11’と移動体側コントローラ21’の詳細構成を説明する。
移動体位置検出システムは、図10に示すように、車載カメラ23が接続される移動体側コントローラ21’と、走行路に沿って設置される定点カメラ15が接続される定点カメラ側コントローラ11’と、を備える。
定点カメラ側コントローラ11’は、図10に示すように、定点カメラ映像送信部11i(送信部)を有する。
定点カメラ映像送信部11iは、定点カメラ15により取得した定点カメラ映像を移動体側コントローラ21’の定点カメラ映像受信部21cへ送信する。
移動体側コントローラ21’は、図10に示すように、定点カメラ映像受信部21c(受信部)と、移動体検出部21dと、移動体特定部21eと、自己位置算出部21fと、障害物検出部21gと、障害物距離算出部21hと、を有する。そして、移動体検出情報出力部21iを有する。
定点カメラ映像受信部21cは、定点カメラ側コントローラ11’の定点カメラ映像送信部11iから定点カメラ映像を受信する。
移動体検出部21dは、受信により取得した定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する。
移動体特定部21eは、車載カメラ23から車載カメラ映像を取得し、3D地図データベース27から車載カメラ映像を画像データに含む3D画像マップを取得する。そして、車載カメラ映像と3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する。
自己位置算出部21fは、特定した自車両の自己位置を、定点カメラ映像に基づいて算出する。障害物検出部21gは、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除いた移動体を障害物として特定し、障害物を検出する。障害物距離算出部21hは、障害物検出部21gにより検出された障害物の位置と、自車両と障害物との距離を算出する。
移動体検出情報出力部21iは、自車両の自己位置情報と、障害物距離算出部21hで算出された障害物の位置/距離情報を、車両制御装置26へ出力する。
[移動体位置検出処理構成]
図11は、車両20の移動体側コントローラ21’で実行される移動体位置検出処理の流れを示す。以下、図11の各ステップについて説明する。
ステップS211では、スタートに続いて、全ての処理情報の初期化をし、ステップS212へ進む。
ステップS212では、S211又はS219に続き、定点カメラ側コントローラ11’で取得された定点カメラ映像を受信し、ステップS213へ進む。
ステップS213では、S212に続き、定点カメラ映像を用い、背景差分により固定物(背景)と移動体を分離し、ステップS214へ進む。
ステップS214では、S213に続き、車載カメラ23から車載カメラ映像情報、測距センサ24やGPS25からポイントクラウド情報を取得し、ステップS215へ進む。
ステップS215では、S204に続き、予め準備されている3D地図データベース27から3D地図情報(=3D画像マップ)を取得し、ステップS216へ進む。
ステップS216では、S215に続き、移動体候補情報(=分離した移動体)により参照するべき3D地図情報(=3D画像マップ)を絞り込み、ステップS217へ進む。これにより、3D地図データベース27の全領域を検索する必要がなくなり、次のステップS217での特定時間を大幅に短縮させることができる。
ステップS217では、S216に続き、背景差分により導出した移動体の中から、今回の移動体を特定し、ステップS218へ進む。即ち、絞り込まれた領域の中から移動体の映像やポイントクラウド情報が当てはまる移動体を自車両として特定する。
ステップS218では、S217に続き、背景差分により導出した移動体の中から、今回の特定された移動体以外の移動体を障害物として特定し、ステップS219へ進む。
ステップS219では、S218に続き、自車両の自己位置と障害物情報を算出し、算出結果を車両制御装置26へ出力し、ステップS212へ戻る。これにより、自車両は自己位置と障害物を認識することができる。つまり、移動体側コントローラ21’は、定点カメラ映像管理センター10から定点カメラ映像を受信するだけで、自車両の自己位置と障害物情報を算出し、これらの情報を車両の制御に利用する。
次に、実施例2の移動体位置検出作用を説明する。なお、他の作用は、実施例1と同様であるので説明を省略する。
実施例2では、移動体側コントローラ21’による図11のS211→S212→S213→S214→S215→S216→S217→S218→S219へと進む移動体位置検出処理によって移動体位置が検出される。
即ち、定点カメラ15から定点カメラ映像が受信され(S212)、定点カメラ映像の背景差分によって背景及び固定物から移動体が分離される(S213)。
次に、車載カメラ23の車載カメラ映像とポイントクラウド情報が取得される(S214)。そして、3D地図情報が取得され(S215)、移動体候補情報により参照するべき3D地図情報が絞り込まれた3D画像マップが取得される(S216)。
次に、車載カメラ映像と3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体が自車両として特定される(S217)。続いて、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を除く移動体が障害物として特定される(S218)。
次に、自車両の自己位置と障害物の位置及び距離による障害物情報が算出され、算出結果である自車両の自己位置と障害物情報が車両制御装置26へ出力される(S219)。これにより、自車両の自己位置と障害物情報が車両制御装置26での制御に利用される。
このように、実施例2では、移動体側コントローラ21’による移動体位置検出処理によって移動体位置を検出している。このため、移動体側(車両20側)では、定点カメラ側コントローラ11’から定点カメラ映像を受信するだけで、自車両の自己位置と障害物情報を算出でき、算出結果を車両制御に利用することができる。言い換えると、定点カメラ映像管理センター10側は、通信装置12を高速通信に対応する装置とし、高速通信により定点カメラ映像の情報を各移動体へ送信する機能を付加するだけで良い。
以上説明したように、実施例2の移動体位置検出方法及び移動体位置検出システムにあっては、下記に列挙する効果を奏する。
(9) 移動体側コントローラ21’は、
定点カメラ15による定点カメラ映像を定点カメラ側コントローラ11’からの受信により取得し、
定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、
車載カメラ23から車載カメラ映像を取得し、
車載カメラ映像を画像データに含む3D画像マップを取得し、
車載カメラ映像と前記3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定し、
自車両の自己位置を、定点カメラ映像に基づいて算出する(図11)。
このため、定点カメラ側コントローラ11’から定点カメラ映像を受信するだけで、移動体側コントローラ21’により算出される自車両の自己位置情報を車両制御に利用することができる。
(10) 車載カメラ23が接続される移動体側コントローラ21’と、走行路に沿って設置される定点カメラ15が接続される定点カメラ側コントローラ11’とを備える移動体位置検出システムであって、
定点カメラ側コントローラ11’は、
定点カメラ15により取得される定点カメラ映像の情報を移動体側コントローラ21’へ送信する送信部(定点カメラ映像送信部11i)を有し、
移動体側コントローラ21’は、
定点カメラ側コントローラ11’から定点カメラ映像を受信する受信部(定点カメラ映像受信部21c)と、
定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する移動体検出部21dと、
車載カメラ23から取得される車載カメラ映像と、車載カメラ映像を画像データに含む3D画像マップとの照合により、背景差分により分離した移動体の中から車載カメラ映像を取得している移動体を自車両として特定する移動体特定部21eと、
自車両の自己位置を、定点カメラ映像に基づいて算出する自己位置算出部21fと、を有する(図10)。
このため、定点カメラ側コントローラ11’から定点カメラ映像を受信するだけで、移動体側コントローラ21’により算出される自車両の自己位置情報を車両制御に利用できる移動体位置検出システムを提供することができる。
以上、本開示の移動体位置検出方法及び移動体位置検出システムを実施例1及び実施例2に基づき説明してきた。しかし、具体的な構成については、これらの実施例に限られるものではなく、特許請求の範囲の各請求項に係る発明の要旨を逸脱しない限り、設計の変更や追加等は許容される。
実施例1,2では、定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、車載カメラ映像と3D画像マップとの照合により分離した移動体の中から自車両と障害物を特定する例を示した。しかし、分離した移動体の中から自車両と障害物を特定する場合、時間差分による確認手法を併用して自車両と障害物の特定精度をより向上させる例としても良い。自車両であることを確認する場合には、定点カメラ映像の背景差分によって分離した移動体の時間差分と、車載カメラ映像と3D画像マップとを照合して算出した自車両位置の時間差分とを用い、2つの時間差分に矛盾がないか否かを確認する。障害物であることを確認する場合には、定点カメラ映像の背景差分によって分離した移動体の時間差分と、車載カメラ映像と3D画像マップとの照合により自車両以外として特定された障害物位置の時間差分とを用い、2つの時間差分に矛盾がないか否かを確認する。
実施例1では、定点カメラ映像管理センター10に有する定点カメラ側コントローラ11において全ての機能を分担する処理により自車両の自己位置及び自車両に対する障害物を検出する例を示した。実施例2では、車両20に有する移動体側コントローラ21’ において全ての機能を分担する処理により自車両の自己位置及び自車両に対する障害物を検出する例を示した。しかし、定点カメラ映像取得機能と車載カメラ映像取得機能と3D画像マップ取得機能と移動体検出機能と自車両特定機能と自己位置算出機能を2つのグループに分け、一部の機能を定点カメラ側で分担し、残りの機能を移動体側で分担する例としても良い。
実施例1,2では、自車両の自己位置情報と、障害物の位置を含む障害物情報とを移動体位置検出情報として取得する例を示した。しかし、自車両の自己位置情報のみを移動体位置検出情報として取得する例としても良い。
10 定点カメラ映像管理センター
11,11’ 定点カメラ側コントローラ
11a 車載カメラ映像受信部(受信部)
11b 移動体検出部
11c 移動体特定部
11d 自己位置算出部
11h 自己位置及び障害物情報送信部(送信部)
11i 定点カメラ映像送信部(送信部)
12 通信装置
13 3D地図データベース
14 背景画像記憶装置
15 定点カメラ
20 車両
21,21’ 移動体側コントローラ
21a 車載カメラ映像送信部(送信部)
21b 自己位置及び障害物情報受信部(受信部)
21c 定点カメラ映像受信部(受信部)
21d 移動体検出部
21e 移動体特定部
21f 自己位置算出部
22 通信装置
23 車載カメラ
24 測距センサ
25 GPS
26 車両制御装置
27 3D地図データベース
28 背景画像記憶装置
31,32,33,34 ビル
40 交差点

Claims (9)

  1. 車載カメラが接続される移動体側コントローラと、走行路に沿って設置される定点カメラが接続される定点カメラ側コントローラとの通信による移動体位置検出方法であって、
    前記定点カメラから定点カメラ映像を取得し、
    前記定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、
    前記車載カメラから車載カメラ映像を取得し、
    3D地図データベースに有する画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して3D画像マップを作成しておき、前記車載カメラ映像を画像データに含む前記3D画像マップを取得し、
    前記車載カメラ映像に対し予め記憶設定されている前記3D画像マップを検索し、前記特徴点のパターンマッチングによって前記背景差分により分離された移動体の中から前記車載カメラ映像を取得している移動体を自車両として特定し、
    前記自車両の自己位置を、前記定点カメラ映像に基づいて算出する
    ことを特徴とする移動体位置検出方法。
  2. 請求項1に記載された移動体位置検出方法において、
    前記背景差分により分離した移動体の中から前記車載カメラ映像を取得している移動体を除いた移動体を、前記自車両に対する障害物として特定する
    ことを特徴とする移動体位置検出方法。
  3. 請求項2に記載された移動体位置検出方法において、
    前記背景差分により分離した移動体の中から前記自車両と前記障害物を特定すると、前記自車両の自己位置情報と、前記障害物の位置を含む障害物情報とを移動体位置検出情報として取得する
    ことを特徴とする移動体位置検出方法。
  4. 請求項1から3までの何れか一項に記載された移動体位置検出方法において、
    前記定点カメラは、車両が走行する走行路に沿って複数個所の位置に設置された複数台のカメラであり、
    前記定点カメラと前記定点カメラ側コントローラは、有線による接続とし、
    前記移動体側コントローラと前記定点カメラ側コントローラとの間の情報交換は、レイテンシが小さい高速通信速度による無線通信とする
    ことを特徴とする移動体位置検出方法。
  5. 請求項4に記載された移動体位置検出方法において、
    前記定点カメラは、市街地に存在する交差点の周囲の複数個所の位置に設置されたカメラである
    ことを特徴とする移動体位置検出方法。
  6. 請求項1から5までの何れか一項に記載された移動体位置検出方法において、
    前記定点カメラ側コントローラは、
    前記定点カメラから定点カメラ映像を取得し、
    前記定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、
    前記背景差分により分離した移動体の何れかに搭載される前記車載カメラによる車載カメラ映像を、前記移動体側コントローラからの受信により取得し、
    3D地図データベースに有する画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して3D画像マップを作成しておき、前記車載カメラ映像を画像データに含む前記3D画像マップを取得し、
    前記車載カメラ映像に対し予め記憶設定されている前記3D画像マップを検索し、前記特徴点のパターンマッチングによって前記背景差分により分離した移動体の中から前記車載カメラ映像を取得している移動体を自車両として特定し、
    前記自車両の自己位置を、前記定点カメラ映像に基づいて算出し、
    前記自車両の自己位置情報を前記移動体側コントローラへ送信する
    ことを特徴とする移動体位置検出方法。
  7. 車載カメラが接続される移動体側コントローラと、走行路に沿って設置される定点カメラが接続される定点カメラ側コントローラと、を備える移動体位置検出システムであって、
    前記移動体側コントローラは、
    前記車載カメラにより取得した車載カメラ映像を前記定点カメラ側コントローラへ送信する送信部と、
    前記定点カメラ側コントローラから車両の自己位置情報を受信する受信部と、を有し、
    前記定点カメラ側コントローラは、
    前記移動体側コントローラから前記車載カメラ映像を受信する受信部と、
    前記定点カメラにより取得した定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する移動体検出部と、
    3D画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して作成された3D画像マップが予め記憶されている3D地図データベースと、
    前記車載カメラ映像に対し予め記憶設定されている前記3D画像マップを検索し、前記特徴点のパターンマッチングによって前記背景差分により分離した移動体の中から前記車載カメラ映像を取得している移動体を自車両として特定する移動体特定部と、
    前記自車両の自己位置を、前記定点カメラ映像に基づいて算出する自己位置算出部と、
    前記自車両の自己位置情報を前記移動体側コントローラへ送信する送信部と、を有する
    ことを特徴とする移動体位置検出システム。
  8. 請求項1から5までの何れか一項に記載された移動体位置検出方法において、
    前記移動体側コントローラは、
    前記定点カメラによる定点カメラ映像を前記定点カメラ側コントローラからの受信により取得し、
    前記定点カメラ映像の背景差分によって背景及び固定物から移動体を分離し、
    前記車載カメラから車載カメラ映像を取得し、
    3D地図データベースに有する画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して3D画像マップを作成しておき、前記車載カメラ映像を画像データに含む前記3D画像マップを取得し、
    前記車載カメラ映像に対し予め記憶設定されている前記3D画像マップを検索し、前記特徴点のパターンマッチングによって前記背景差分により分離した移動体の中から前記車載カメラ映像を取得している移動体を自車両として特定し、
    前記自車両の自己位置を、前記定点カメラ映像に基づいて算出する
    ことを特徴とする移動体位置検出方法。
  9. 車載カメラが接続される移動体側コントローラと、走行路に沿って設置される定点カメラが接続される定点カメラ側コントローラとを備える移動体位置検出システムであって、
    前記定点カメラ側コントローラは、
    前記定点カメラにより取得される定点カメラ映像の情報を前記移動体側コントローラへ送信する送信部を有し、
    前記移動体側コントローラは、
    前記定点カメラ側コントローラから前記定点カメラ映像を受信する受信部と、
    前記定点カメラ映像の背景差分によって背景及び固定物から移動体を分離する移動体検出部と、
    3D画像データに、各移動体から観察できる範囲に存在する構造物が有する特徴点を付加して作成された3D画像マップが予め記憶されている3D地図データベースと、
    前記車載カメラから取得される車載カメラ映像に対し予め記憶設定されている前記3D画像マップを検索し、前記特徴点のパターンマッチングによって前記背景差分により分離した移動体の中から前記車載カメラ映像を取得している移動体を自車両として特定する移動体特定部と、
    前記自車両の自己位置を、前記定点カメラ映像に基づいて算出する自己位置算出部と、を有する
    ことを特徴とする移動体位置検出システム。
JP2019060132A 2019-03-27 2019-03-27 移動体位置検出方法及び移動体位置検出システム Active JP7241582B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019060132A JP7241582B2 (ja) 2019-03-27 2019-03-27 移動体位置検出方法及び移動体位置検出システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019060132A JP7241582B2 (ja) 2019-03-27 2019-03-27 移動体位置検出方法及び移動体位置検出システム

Publications (2)

Publication Number Publication Date
JP2020159887A JP2020159887A (ja) 2020-10-01
JP7241582B2 true JP7241582B2 (ja) 2023-03-17

Family

ID=72642910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019060132A Active JP7241582B2 (ja) 2019-03-27 2019-03-27 移動体位置検出方法及び移動体位置検出システム

Country Status (1)

Country Link
JP (1) JP7241582B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097279A (ja) 2006-10-11 2008-04-24 Denso Corp 車両外部情報表示装置
JP2016057677A (ja) 2014-09-05 2016-04-21 本田技研工業株式会社 走行支援制御装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008097279A (ja) 2006-10-11 2008-04-24 Denso Corp 車両外部情報表示装置
JP2016057677A (ja) 2014-09-05 2016-04-21 本田技研工業株式会社 走行支援制御装置

Also Published As

Publication number Publication date
JP2020159887A (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
US11915099B2 (en) Information processing method, information processing apparatus, and recording medium for selecting sensing data serving as learning data
US10240934B2 (en) Method and system for determining a position relative to a digital map
US20150378015A1 (en) Apparatus and method for self-localization of vehicle
JP4577655B2 (ja) 地物認識装置
US11869251B2 (en) Driving support method and driving support device
CN110567465B (zh) 使用精度规范定位车辆的系统和方法
JP2008065087A (ja) 静止物地図生成装置
JP2012208525A (ja) 静止物地図生成装置
CN111353453B (zh) 用于车辆的障碍物检测方法和装置
JP2022024741A (ja) 車両制御装置、車両制御方法
KR20180048985A (ko) 주변 환경에서 자동차를 정밀 위치 추적하기 위한 방법, 디바이스, 맵 관리 장치 및 시스템
CN113743171A (zh) 目标检测方法及装置
JP7114165B2 (ja) 位置計算装置、及び、位置計算プログラム
CN111323038B (zh) 隧道内无人驾驶车辆的定位方法、系统和电子设备
CN112883058A (zh) 用于车辆定位的标定方法、装置、设备、车辆和介质
US20220402492A1 (en) Method for Controlling Vehicle and Vehicle Control Device
JP2018189463A (ja) 車両位置推定装置及びプログラム
JP7241582B2 (ja) 移動体位置検出方法及び移動体位置検出システム
KR20210029323A (ko) 정밀 지도를 이용한 센서 퓨전의 인지 성능 향상을 위한 장치 및 방법
JP2019070895A (ja) 走路認識装置
EP3640679B1 (en) A method for assigning ego vehicle to a lane
JP6946660B2 (ja) 測位装置
JP2023122597A (ja) 情報処理装置、情報処理方法及びプログラム
CN109964132B (zh) 用于在运动物体上配置传感器的方法、设备和系统
JP7325296B2 (ja) 物体認識方法及び物体認識システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230307

R150 Certificate of patent or registration of utility model

Ref document number: 7241582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150