JP2021105915A - 位置特定システム - Google Patents
位置特定システム Download PDFInfo
- Publication number
- JP2021105915A JP2021105915A JP2019237736A JP2019237736A JP2021105915A JP 2021105915 A JP2021105915 A JP 2021105915A JP 2019237736 A JP2019237736 A JP 2019237736A JP 2019237736 A JP2019237736 A JP 2019237736A JP 2021105915 A JP2021105915 A JP 2021105915A
- Authority
- JP
- Japan
- Prior art keywords
- mobility
- vehicle
- target information
- collation target
- detection data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
【課題】特徴量が同じモビリティが複数存在する場合でも、各モビリティの位置を一意に特定することが可能な位置特定システムを提供すること。【解決手段】本発明の一実施形態に係る位置特定システム1は、複数のモビリティに関する情報を検出して検出データを生成する検出装置20と、検出データから複数のモビリティの種類及び位置を導出する位置種類導出部103と、複数のモビリティの種類ごとに、検出データに基づく第1の照合対象情報と、複数のモビリティが提供した第2の照合対象情報とを照合するマッチング処理部106と、第1の照合対象情報及び第2の照合対象情報がマッチングする場合、位置種類導出部103が導出した、第1の照合対象情報に関連する位置を、第2の照合対象情報を提供したモビリティの位置として特定する位置特定部107とを含む。【選択図】図2
Description
本発明は、モビリティの位置を特定するための位置特定システムに関する。
従来、自動車やオートバイ、自立型ロボット等のモビリティの位置を特定するためシステムが提案されている。この点に関し、特許文献1が開示する道路管理システムでは、道路上の車両を撮影して撮影画像を生成し、当該撮影画像に含まれる車両が自動運転車両である場合、当該撮影画像に基づいて自動運転車両の特徴量情報を生成し、当該特徴量情報を用いて自動運転車両を識別し、その位置を特定する。
しかしながら、特許文献1が開示する道路管理システムでは、特徴量によってモビリティを識別するため、外観が同じモビリティ、すなわち、特徴量が同じモビリティが複数存在する場合、これらのモビリティが同一のモビリティであると識別される可能性がある。このため、同一のモビリティについて複数の位置情報が存在することになり、各モビリティの位置を一意に特定することができないという問題があった。
本発明は、このような問題を解決するためになされたものであり、特徴量が同じモビリティが複数存在する場合でも、各モビリティの位置を一意に特定することが可能な位置特定システムを提供することを目的とする。
本発明の一実施形態に係る位置特定システムは、前記複数のモビリティに関する情報を検出して検出データを生成する検出装置と、前記検出データから前記複数のモビリティの種類及び位置を導出する位置種類導出部と、前記複数のモビリティの種類ごとに、前記検出データに基づく第1の照合対象情報と、前記複数のモビリティが提供した第2の照合対象情報とを照合するマッチング処理部と、前記第1の照合対象情報及び前記第2の照合対象情報がマッチングする場合、前記位置種類導出部が導出した、前記第1の照合対象情報に関連する位置を、前記第2の照合対象情報を提供したモビリティの位置として特定する位置特定部とを含む。
本発明により、特徴量が同じモビリティが複数存在する場合でも、各モビリティの位置を一意に特定することが可能な位置特定システムを提供することができる。
<第1の実施形態>
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る位置特定システム1を示す概略図である。位置特定システム1は、管理装置10(図示せず)と、インフラ型検出装置20とを含む。管理装置10及びインフラ型検出装置20は、インターネット等のネットワークを介して、相互にデータ通信を行うことができる。図1には、位置特定システム1が位置を特定するモビリティの具体例として車両30a〜30dが表されているが、位置特定システム1が位置を特定することが可能なモビリティは、車両30a〜30dに限られず、自立型ロボット等の他の種々のモビリティが含まれる。
以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、本発明の第1の実施形態に係る位置特定システム1を示す概略図である。位置特定システム1は、管理装置10(図示せず)と、インフラ型検出装置20とを含む。管理装置10及びインフラ型検出装置20は、インターネット等のネットワークを介して、相互にデータ通信を行うことができる。図1には、位置特定システム1が位置を特定するモビリティの具体例として車両30a〜30dが表されているが、位置特定システム1が位置を特定することが可能なモビリティは、車両30a〜30dに限られず、自立型ロボット等の他の種々のモビリティが含まれる。
管理装置10は、インフラ型検出装置20及び車両30a〜30dが提供する情報を処理するための情報処理装置である。管理装置10の具体例としては、コンピュータやECU(Electronic Control Unit)等の種々の情報処理装置が挙げられる。管理装置10は、車両30a〜30dが走行する道路の近くの場所や当該道路から離れた場所等の任意の場所に設置することができる。管理装置10の構成の詳細については、図2を参照して後述する。
インフラ型検出装置20は、車両30a〜30dに関する種々の検出データを生成する装置である。インフラ型検出装置20の具体例としては、可視光線を補足して撮影画像を生成する可視光カメラ、赤外線を補足して撮影画像を生成する赤外線カメラ(遠赤外線カメラ、中赤外線カメラ、近赤外線カメラ)、可視光線よりも波長の短い電磁波(ミリ波やレーダ等)を発射して反射波を補足可能なレーダ等が挙げられる。可視光カメラや赤外線カメラが生成する検出データには、これらのカメラが生成した撮影画像の各画素の座標値及び輝度値と、当該撮影画像を生成した時刻を示す時刻情報が含まれる。レーダが生成する検出データには、反射波の受信位置を示す情報と、当該反射波を受信した時刻を示す時刻情報が含まれる。
インフラ型検出装置20は、車両30a〜30dの検出データを生成すると、ネットワークを介して管理装置10に当該検出データを送信する。また、インフラ型検出装置20は、車両30a〜30dが無線通信を介して提供するモビリティデータを受信することができ、ネットワークを介して管理装置10に当該モビリティデータを送信する。
車両30a〜30dは、道路上を走行可能な自動車等の車両である。車両30a〜30dは、自車両が有するモビリティデータを、無線通信を介してインフラ型検出装置20に送信する。図4に示すように、モビリティデータには、車両30a〜30dの速度及び位置を計測した時刻を示す時刻情報と、車両30a〜30dの速度及び位置情報と、車両30a〜30dの車種を示す情報が含まれる。図4に示す例では、車両30a〜30dの位置情報として、車両30a〜30dがGPS(Global Positioning System)を利用して取得可能な経度及び緯度が使用される。
図2は、管理装置10の詳細な構成を示すブロック図である。管理装置10は、制御部100と、通信インタフェース(I/F)110と、記憶装置120とを含む。制御部100は、管理装置10が備える電子回路及び装置を制御するCPU(Central Processing Unit)等の演算装置である。制御部100は、本発明の位置特定プログラムを実行することにより、本発明の位置特定方法を実行する。本発明の位置特定プログラムには、通信制御部101と、データ登録部102と、位置種類導出部103と、速度算出部104と、フィルタリング処理部105と、マッチング処理部106と、位置特定部107とが含まれる。
通信制御部101は、通信I/F110を制御して、インフラ型検出装置20との間のデータ通信を制御するプログラムモジュールである。通信I/F110は、ネットワークを介してインフラ型検出装置20とデータ通信を行うインタフェースである。
データ登録部102は、インフラ型検出装置20から受信した検出データ及びモビリティデータを記憶装置120に保存するプログラムモジュールである。データ登録部102は、インフラ型検出装置20から検出データ及びモビリティデータを受信すると、これらのデータを記憶装置120に保存すると共に、検出データに含まれる時刻情報を、図5に示すような検出データテーブルに登録することができる。検出データテーブルには、図5に示すように、検出データが生成された時刻を示す時刻情報と、検出データを用いて導出された車種、車両の位置座標及び速度が登録される。
位置種類導出部103は、インフラ型検出装置20が提供した検出データを用いて、車両30a〜30dの種類及び位置を導出し、検出データテーブルに登録するプログラムモジュールである。インフラ型検出装置20として可視光カメラ又は赤外線カメラを使用する場合、位置種類導出部103は、撮影画像の各画素の座標値及び輝度値を入力データとし、当該撮影画像に写っていると推定される車両の種類及び位置座標を出力データとするニューラルネットワークを用いて、車両30a〜30dの種類及び位置を導出することができる。このニューラルネットワークは、撮影画像の各画素の座標値及び輝度値と、当該撮影画像に実際に写っている車両の種類及び位置座標とを訓練データとするディープラーニングを繰り返し実行することにより、学習させることができる。本実施形態では、車両の位置座標として、撮影画像において車両を示す領域の中心点の座標値を使用する。
また、インフラ型検出装置20として上記レーダを使用する場合、位置種類導出部103は、レーダが反射波を補足する可能性のある領域で構成される画像に反射波の受信位置をプロットし、当該反射波の受信位置がプロットされた画像(以下、「プロット画像」とする。)における反射波の位置座標を入力データとし、当該電磁波を反射したと推定される車両の種類及び位置座標を出力データとするニューラルネットワークを用いて、車両30a〜30dの種類及び位置を導出することができる。このニューラルネットワークは、当該プロット画像における反射波の位置座標と、当該電磁波を実際に反射した車両の種類及び当該プロット画像における車両の実際の位置座標とを訓練データとして用いてディープラーニングを繰り返し実行することにより、学習させることができる。本実施形態では、車両の位置座標として、当該プロット画像において車両を示す領域の中心点の座標値を使用する。
速度算出部104は、インフラ型検出装置20が提供した検出データを用いて、対象時間帯の各時刻における車両の速度を算出し、位置種類導出部103が導出した車両の種類及び位置座標と関連付けて、当該車両の速度を検出データテーブルに登録するプログラムモジュールである。具体的には、速度算出部104は、時間的に隣接する2つの撮影画像又はプロット画像を用いて同一の車両の移動量を算出する。次いで、速度算出部104は、撮影画像又はプロット画像における当該車両の移動量を、インフラ型検出装置20のフレームレート(30FPS等)の逆数(0.033秒等)で除算し、得られた値に所定の換算係数を乗算することにより、各時刻における車両の速度(km/h)を算出することができる。なお、インフラ型検出装置20として速度検出装置を設置し、当該速度検出装置が提供する速度情報を、位置種類導出部103が導出した車両の種類及び位置座標と関連付けて検出データテーブルに登録してもよい。
フィルタリング処理部105は、車両30a〜30dが提供したモビリティデータをフィルタリングするプログラムモジュールである。フィルタリング処理部105は、記憶装置120から対象時間帯のモビリティデータを取得し、当該モビリティデータが示す位置情報に基づいてモビリティデータを選別することにより、モビリティデータをフィルタリングすることができる。より詳細には、フィルタリング処理部105は、対象時間帯のモビリティデータが示す位置情報(経度及び緯度を示す情報等)を、インフラ型検出装置20によって検出可能な範囲の位置情報(経度及び緯度を示す情報等)と比較し、対象時間帯のモビリティデータの中から、位置情報がインフラ型検出装置20によって検出可能な範囲内であるモビリティデータを選択する。
マッチング処理部106は、検出データから導出された第1の照合対象情報と、車両30a〜30dがモビリティデータとして提供した第2の照合対象情報を車種ごとに照合して、これらの照合対象情報がマッチングするか否か判断することにより、車両の同一性を判断するプログラムモジュールである。第1の実施形態では、速度算出部104が検出データを用いて算出した車両30a〜30dの速度を第1の照合対象情報として使用し、車両30a〜30dがモビリティデータとして提供した速度を第2の照合対象情報として使用する。
具体的には、マッチング処理部106は、照合対象となる車両30a〜30dのうちの1の車両(例えば、車両30a)の対象時間帯の各時刻(t1〜t4等)の速度を記憶装置120から取得する。次いで、マッチング処理部106は、図7に示すように、車両30aの対象時間帯の各時刻(t1〜t4等)の速度(図7の破線で示す)と、検出データから算出された速度(図7の実線で示す値)との差分が所定値以下であるか否か判断する。これらの速度の差分が所定値以下である場合、マッチング処理部106は、これらの速度がマッチングすると判断する。一方、これらの速度の差分が所定値を超える場合、マッチング処理部106は、これらの速度はマッチングしないと判断する。同様に、マッチング処理部106は、その他の車両についてもマッチング処理を実行する。
位置特定部107は、第1の照合対象情報及び第2の照合対象情報がマッチングする場合に、これらの照合対象情報に関連する車両の位置を特定するプログラムモジュールである。具体的には、位置特定部107は、図6に示すように、検出データテーブルを車種ごとにソートし、第1の照合対象情報である速度に関連付けられた位置座標を、第1の照合対象情報とマッチングする第2の照合対象情報を提供した車両の位置として特定することができる。例えば、車種Xについて、図4に示す車両30aのモビリティデータが示す時刻t1の速度(10km/h)と、図6に示す検出データテーブルに時刻t1と関連付けて登録された速度(10km/h)がマッチングすると判断された場合、位置特定部107は、検出データテーブルにおいて時刻t1の速度(10km/h)と関連付けて登録されている位置座標(250,450)を、第2の照合対象情報を提供した車両の時刻t1における位置として特定する。
記憶装置120は、検出データ、モビリティデータ、検出データテーブル及び本発明の位置特定プログラム等の種々のデータが保存される記憶装置である。
図3は、第1の実施形態に係る管理装置10が実行する処理の一例を示すフローチャートである。ステップS101では、管理装置10の位置種類導出部103が、対象時間帯の検出データを記憶装置120から取得し、当該検出データを用いて、車種及び各時刻の各車両の位置を導出し、検出データテーブルに登録する。ステップS102では、速度算出部104が、対象時間帯の検出データを用いて、対象時間帯の各時刻における各車両の速度を算出し、検出データテーブルに登録する。ステップS103では、フィルタリング処理部105が、記憶装置120に保存されているモビリティデータをフィルタリングする。
ステップS104では、マッチング処理部106が、フィルタリングされたモビリティデータから対象時間帯の各時刻における車種毎の車両の速度を取得すると共に、検出データテーブルから対象時間帯における車種毎の車両の速度を取得し、車種ごとに各時刻の車両の速度を照合する。ステップS105では、位置特定部107が、検出データテーブルを車種ごとにソートして、マッチングすると判断された第2の照合対象情報である速度を提供した車両の対象時間帯の各時刻における位置を特定する。具体的には、位置特定部107は、検出データテーブルにおいて、マッチングすると判断された第1の照合対象情報である速度と関連付けて登録された位置座標を、当該車両の対象時間帯の各時刻における位置として特定し、図3の処理が終了する。
(第1の実施形態の効果)
第1の実施形態では、検出データから導出された速度を第1の照合対象情報として使用し、モビリティが提供した速度を第2の照合対象情報として使用する。管理装置10は、これらの速度を車種ごとに照合し、これらの速度がマッチングすると判断した場合、第1の照合対象情報である速度に関連付けられた位置座標を、第2の照合対象情報である速度を提供したモビリティの位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、その速度のプロファイルの違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
第1の実施形態では、検出データから導出された速度を第1の照合対象情報として使用し、モビリティが提供した速度を第2の照合対象情報として使用する。管理装置10は、これらの速度を車種ごとに照合し、これらの速度がマッチングすると判断した場合、第1の照合対象情報である速度に関連付けられた位置座標を、第2の照合対象情報である速度を提供したモビリティの位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、その速度のプロファイルの違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
<第2の実施形態>
第2の実施形態では、車両30a〜30dが走行する車線の近傍に設置された距離測定装置(以下、「ランドマーク」とする。)と車両30a〜30dとの相対距離(以下、単に「相対距離」とする。)を照合対象情報として使用する。以下、第1の実施形態と異なる点について説明する。
第2の実施形態では、車両30a〜30dが走行する車線の近傍に設置された距離測定装置(以下、「ランドマーク」とする。)と車両30a〜30dとの相対距離(以下、単に「相対距離」とする。)を照合対象情報として使用する。以下、第1の実施形態と異なる点について説明する。
車両30a〜30dは、上記レーダを備えており、電磁波の発射時刻及び当該電磁波の反射波の受信時刻の差分時間と、電磁波の速度とを用いて、相対距離を算出することができる。車両30a〜30dは、当該相対距離、当該相対距離の測定時刻、位置情報及び車種を示す情報を、モビリティデータとして、無線通信を介してインフラ型検出装置20に送信する。インフラ型検出装置20は、当該モビリティデータを、ネットワークを介して管理装置10に送信する。
管理装置10の位置種類導出部103は、対象時間帯の検出データを記憶装置120から取得し、当該検出データを用いて、車種及び各時刻の車両の位置を導出すると共に、相対距離を導出し、これらの情報を関連付けて検出データテーブルに登録する。インフラ型検出装置20として可視光カメラ又は赤外線カメラを使用する場合、位置種類導出部103は、撮影画像の各画素の座標値及び輝度値を入力データとし、撮影画像に写っていると推定される車両の種類、位置座標及び相対距離を出力データとするニューラルネットワークを用いて、車両30a〜30dの種類、位置及び相対距離を導出することができる。このニューラルネットワークは、撮影画像の各画素の座標値及び輝度値と、当該撮影画像に実際に写っている車両の種類、位置座標及び相対距離とを訓練データとするディープラーニングを繰り返し実行することにより、学習させることができる。
また、インフラ型検出装置20として上記レーダを使用する場合、位置種類導出部103は、レーダが反射波を補足する可能性のある領域で構成される画像に反射波の受信位置をプロットし、プロット画像における反射波の位置座標を入力データとし、当該電磁波を反射したと推定される車両の種類、位置座標及び相対距離を出力データとするニューラルネットワークを用いて、車両30a〜30dの種類、位置及び相対距離を導出することができる。このニューラルネットワークは、当該プロット画像における反射波の位置座標と、当該電磁波を実際に反射した車両の種類、当該プロット画像における車両の位置座標、及び実際の相対距離とを訓練データとして用いてディープラーニングを繰り返し実行することにより、学習させることができる。
図8は、第2の実施形態に係る管理装置10が実行する処理の一例を示すフローチャートである。ステップS201では、管理装置10の位置種類導出部103が、対象時間帯の検出データを記憶装置120から取得し、当該検出データを用いて、車種、各時刻の各車両の位置及び相対距離を導出し、これらの情報を関連付けて検出データテーブルに登録する。ステップS202では、フィルタリング処理部105が、記憶装置120に保存されているモビリティデータをフィルタリングする。
ステップS203では、マッチング処理部106が、フィルタリングされたモビリティデータが示す対象時間帯の各車両の相対距離と、検出データテーブルに登録された対象時間帯の各車両の相対距離とを、車種ごとに照合する。具体的には、マッチング処理部106は、照合対象となる車両30a〜30dのうちの1の車両(例えば、車両30a等)の対象時間帯の各時刻(t1〜t4等)の相対距離を記憶装置120から取得する。次いで、マッチング処理部106は、図9に示すように、車両30aの対象時間帯の各時刻(t1〜t4等)の相対距離(図9の破線で示す)と、検出データから算出された相対距離(図9の実線で示す値)との差分が所定値以下であるか否か判断する。これらの相対距離の差分が所定値以下である場合、マッチング処理部106は、これらの相対距離はマッチングすると判断する。一方、これらの相対距離の差分が所定値を超える場合、マッチング処理部106は、これらの相対距離はマッチングしないと判断する。同様に、マッチング処理部106は、その他の車両30b〜30dについてもマッチング処理を実行する。
ステップS204では、位置特定部107が、検出データテーブルを車種ごとにソートして、マッチングすると判断された第2の照合対象情報である相対距離を提供した車両の対象時間帯の各時刻における位置を特定する。具体的には、位置特定部107は、検出データテーブルにおいて、マッチングすると判断された第1の照合対象情報である相対距離と関連付けて登録された位置座標を、当該車両の対象時間帯の各時刻における位置として特定し、図8の処理が終了する。
(第2の実施形態の効果)
第2の実施形態では、検出データから導出された相対距離を第1の照合対象情報として使用し、モビリティが提供した相対距離を第2の照合対象情報として使用する。管理装置10は、これらの相対距離を車種ごとに照合し、これらの相対距離がマッチングすると判断した場合、第1の照合対象情報である相対距離に関連付けられた位置座標を、第2の照合対象情報である相対距離を提供した車両の位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、その相対距離のプロファイルの違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
第2の実施形態では、検出データから導出された相対距離を第1の照合対象情報として使用し、モビリティが提供した相対距離を第2の照合対象情報として使用する。管理装置10は、これらの相対距離を車種ごとに照合し、これらの相対距離がマッチングすると判断した場合、第1の照合対象情報である相対距離に関連付けられた位置座標を、第2の照合対象情報である相対距離を提供した車両の位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、その相対距離のプロファイルの違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
<第3の実施形態>
第3の実施形態では、車両30a〜30dが備える発光装置の発光パターンを示す情報(以下、「発光パターン情報」とする。)を照合対象情報として使用する。発光パターン情報には、少なくとも発光装置の種類(ヘッドライト、テールランプ、ブレーキランプ、フォグランプ、車幅灯等)及び発光が行われた時刻を示す時刻情報が含まれる。以下、第1の実施形態と異なる点について説明する。
第3の実施形態では、車両30a〜30dが備える発光装置の発光パターンを示す情報(以下、「発光パターン情報」とする。)を照合対象情報として使用する。発光パターン情報には、少なくとも発光装置の種類(ヘッドライト、テールランプ、ブレーキランプ、フォグランプ、車幅灯等)及び発光が行われた時刻を示す時刻情報が含まれる。以下、第1の実施形態と異なる点について説明する。
管理装置10は、速度算出部104の代わりに、発光パターン導出部を備える。発光パターン導出部は、インフラ型検出装置20が生成した撮影画像から、第1の照合対象情報である発光パターン情報を導出する。具体的には、発光パターン導出部は、撮影画像の各画素の座標値及び輝度値を入力データとし、撮影画像に写っていると推定される車両の発光パターン情報を出力データとするニューラルネットワークを用いて、撮影画像から発光パターン情報を導出することができる。このニューラルネットワークは、撮影画像の各画素の座標値及び輝度値と、当該撮影画像に実際に写っている車両の発光パターン情報とを訓練データとするディープラーニングを繰り返し実行することにより、学習させることができる。
車両30a〜30dは、時刻情報、位置情報、車種を示す情報、及び第2の照合対象情報である発光パターン情報を、モビリティデータとして、無線通信を介してインフラ型検出装置20に送信する。インフラ型検出装置20は、当該モビリティデータを、ネットワークを介して管理装置10に送信する。
図10は、第3の実施形態に係る管理装置10が実行する処理の一例を示すフローチャートである。ステップS301では、管理装置10の位置種類導出部103が、対象時間帯の検出データを記憶装置120から取得し、当該検出データを用いて、車種及び各時刻の各車両の位置を導出し、検出データテーブルに登録する。ステップS302では、発光パターン導出部が、対象時間帯の検出データを用いて、対象時間帯の各時刻における各車両の発光パターン情報を導出し、位置種類導出部103が導出した車種及び各時刻の車両の位置と関連付けて、当該発光パターン情報を検出データテーブルに登録する。ステップS303では、フィルタリング処理部105が、記憶装置120に保存されているモビリティデータをフィルタリングする。
ステップS304では、マッチング処理部106が、フィルタリングされたモビリティデータが示す対象時間帯の各車両の発光パターン情報と、検出データテーブルに登録された対象時間帯の各車両の発光パターン情報とを、車種ごとに照合する。ステップS305では、位置特定部107が、検出データテーブルを車種ごとにソートして、マッチングすると判断された第2の照合対象情報である発光パターン情報を提供した車両の対象時間帯の各時刻における位置を特定する。具体的には、位置特定部107は、検出データテーブルにおいて、マッチングすると判断された第1の照合対象情報である発光パターン情報と関連付けて登録された位置座標を、当該車両の対象時間帯の各時刻における位置として特定し、図10の処理が終了する。
(第3の実施形態の効果)
第3の実施形態では、検出データから導出された発光パターン情報を第1の照合対象情報として使用し、モビリティが提供した発光パターン情報を第2の照合対象情報として使用する。管理装置10は、これらの発光パターン情報を車種ごとに照合し、これらの発光パターン情報がマッチングすると判断した場合、第1の照合対象情報である発光パターン情報に関連付けられた位置座標を、第2の照合対象情報である発光パターン情報を提供した車両の位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、その発光パターンの違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
第3の実施形態では、検出データから導出された発光パターン情報を第1の照合対象情報として使用し、モビリティが提供した発光パターン情報を第2の照合対象情報として使用する。管理装置10は、これらの発光パターン情報を車種ごとに照合し、これらの発光パターン情報がマッチングすると判断した場合、第1の照合対象情報である発光パターン情報に関連付けられた位置座標を、第2の照合対象情報である発光パターン情報を提供した車両の位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、その発光パターンの違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
<第4の実施形態>
第4の実施形態では、車両30a〜30dから見える光景を照合対象情報として使用する。具体的には、管理装置10が生成する車両30a〜30dから観測されると推定される光景を表す画像(以下、「推定画像」とする。)を第1の照合対象情報として使用し、車両30a〜30dが備える撮影装置が撮影した撮影画像を第2の照合対象情報として使用する。以下、第1の実施形態と異なる点について説明する。
第4の実施形態では、車両30a〜30dから見える光景を照合対象情報として使用する。具体的には、管理装置10が生成する車両30a〜30dから観測されると推定される光景を表す画像(以下、「推定画像」とする。)を第1の照合対象情報として使用し、車両30a〜30dが備える撮影装置が撮影した撮影画像を第2の照合対象情報として使用する。以下、第1の実施形態と異なる点について説明する。
管理装置10は、速度算出部104の代わりに、推定画像生成部を備える。推定画像生成部は、インフラ型検出装置20が生成した撮影画像から推定画像を生成すると共に、当該撮影画像における当該推定画像に関連する車両の位置座標とを生成する。具体的には、推定画像生成部は、インフラ型検出装置20が生成した撮影画像の各画素の座標値及び輝度値と、位置種類導出部103が導出した当該車両の位置座標とを入力データとし、撮影画像に写っている車両から観測される光景を表す推定画像を出力データとするニューラルネットワークを用いて、推定画像を生成する。このニューラルネットワークは、インフラ型検出装置20が生成した撮影画像の各画素の座標値及び輝度値と、位置種類導出部103が導出した当該車両の位置座標と、当該撮影画像に実際に写っている車両の撮影装置が生成した撮影画像とを訓練データとするディープラーニングを繰り返し実行することにより、学習させることができる。
車両30a〜30dは、自車両が備える撮影装置が撮影した撮影画像、撮影時刻を示す時刻情報、位置情報及び車種を示す情報を、モビリティデータとして、無線通信を介してインフラ型検出装置20に送信する。インフラ型検出装置20は、当該モビリティデータを、ネットワークを介して管理装置10に送信する。
図11は、第4の実施形態に係る管理装置10が実行する処理の一例を示すフローチャートである。ステップS401では、管理装置10の位置種類導出部103が、対象時間帯の検出データを記憶装置120から取得し、当該検出データを用いて、車種及び各時刻の各車両の位置座標を導出し、検出データテーブルに登録する。ステップS402では、推定画像生成部が、インフラ型検出装置20の生成した対象時間帯の撮影画像を用いて、対象時間帯の各時刻における各車両の推定画像を生成し、位置種類導出部103が導出した車種及び各時刻の車両の位置座標と関連付けて、当該推定画像の識別情報を検出データテーブルに登録する。ステップS403では、フィルタリング処理部105が、記憶装置120に保存されているモビリティデータをフィルタリングする。
ステップS404では、マッチング処理部106が、フィルタリングされた車両30a〜30dが提供した対象時間帯の各時刻の撮影画像と、推定画像生成部が生成した対象時間帯の各時刻の推定画像とを車種ごとに照合する。ステップS405では、位置特定部107が、検出データテーブルを車種ごとにソートして、マッチングすると判断された第2の照合対象情報である撮影画像を提供した車両の対象時間帯の各時刻における位置を特定する。具体的には、位置特定部107は、検出データテーブルにおいて、マッチングすると判断された第1の照合対象情報である推定画像の識別情報と関連付けて登録された位置座標を、当該車両の対象時間帯の各時刻における位置として特定し、図11の処理が終了する。
(第4の実施形態の効果)
第4の実施形態では、インフラ型検出装置20が提供した撮影画像から導出される推定画像を第1の照合対象情報として使用し、車両30a〜30dが提供した撮影画像を第2の照合対象情報として使用する。管理装置10は、これらの画像を車種ごとに照合し、これらの画像がマッチングすると判断した場合、第1の照合対象情報である推定画像の識別情報に関連付けられた位置座標を、第2の照合対象情報である撮影画像を提供した車両の位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、モビリティから見える光景の違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
第4の実施形態では、インフラ型検出装置20が提供した撮影画像から導出される推定画像を第1の照合対象情報として使用し、車両30a〜30dが提供した撮影画像を第2の照合対象情報として使用する。管理装置10は、これらの画像を車種ごとに照合し、これらの画像がマッチングすると判断した場合、第1の照合対象情報である推定画像の識別情報に関連付けられた位置座標を、第2の照合対象情報である撮影画像を提供した車両の位置座標として特定する。これにより、特徴量が同じ車両が複数存在する場合でも、各車両の位置を一意に特定することができる。すなわち、同一の種類のモビリティが複数存在する場合であっても、モビリティから見える光景の違いによって各モビリティを識別することができ、各モビリティの位置を特定することができる。
上述の例において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに提供することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えば、フレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば、光磁気ディスク)、CD−ROM、CD−R、CD−R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに提供されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
本発明は上述した実施形態に限られたものではなく、本発明の趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、上述した実施形態では、位置種類導出部103、速度算出部104、フィルタリング処理部105、マッチング処理部106、位置特定部107、発光パターン導出部及び推定画像生成部が、同一の管理装置10に実装されるが、他の実施形態では、これらの機能部を個別の装置に実装してもよい。また、上述した実施形態では、これらの機能部をプログラムモジュールとして実現するが、他の実施形態では、これらの機能部をFPGA(Field-Programmable Gate Array)等の半導体回路によって実現してもよい。さらに、上述した実施形態では、検出データ、モビリティデータ及び検出データテーブルが、管理装置10の記憶装置120に保存されるが、他の実施形態では、検出データ、モビリティデータ及び検出データテーブルを個別のデータサーバに保存してもよい。
1 位置特定システム
10 管理装置
103 位置種類導出部
106 マッチング処理部
107 位置特定部
20 インフラ型検出装置
30a〜30d 車両
10 管理装置
103 位置種類導出部
106 マッチング処理部
107 位置特定部
20 インフラ型検出装置
30a〜30d 車両
Claims (1)
- 複数のモビリティの位置を特定するための位置特定システムであって、
前記複数のモビリティに関する情報を検出して検出データを生成する検出装置と、
前記検出データから前記複数のモビリティの種類及び位置を導出する位置種類導出部と、
前記複数のモビリティの種類ごとに、前記検出データに基づく第1の照合対象情報と、前記複数のモビリティが提供した第2の照合対象情報とを照合するマッチング処理部と、
前記第1の照合対象情報及び前記第2の照合対象情報がマッチングする場合、前記位置種類導出部が導出した、前記第1の照合対象情報に関連する位置を、前記第2の照合対象情報を提供したモビリティの位置として特定する位置特定部とを含む、
位置特定システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237736A JP2021105915A (ja) | 2019-12-27 | 2019-12-27 | 位置特定システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019237736A JP2021105915A (ja) | 2019-12-27 | 2019-12-27 | 位置特定システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021105915A true JP2021105915A (ja) | 2021-07-26 |
Family
ID=76918849
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019237736A Withdrawn JP2021105915A (ja) | 2019-12-27 | 2019-12-27 | 位置特定システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021105915A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023157343A1 (ja) * | 2022-02-17 | 2023-08-24 | 日立Astemo株式会社 | 車両認識システム及びサーバ |
WO2024070700A1 (ja) * | 2022-09-26 | 2024-04-04 | 三井住友建設株式会社 | 運行管理装置、運行管理方法、自動運転車両、及び、情報処理方法 |
-
2019
- 2019-12-27 JP JP2019237736A patent/JP2021105915A/ja not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023157343A1 (ja) * | 2022-02-17 | 2023-08-24 | 日立Astemo株式会社 | 車両認識システム及びサーバ |
WO2024070700A1 (ja) * | 2022-09-26 | 2024-04-04 | 三井住友建設株式会社 | 運行管理装置、運行管理方法、自動運転車両、及び、情報処理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11474247B2 (en) | Methods and systems for color point cloud generation | |
CA3027921C (en) | Integrated sensor calibration in natural scenes | |
CN108513674B (zh) | 一种车前积雪与结冰的检测报警方法、存储介质和服务器 | |
JP6682833B2 (ja) | 物体認識アルゴリズムの機械学習のためのデータベース構築システム | |
CN108692719B (zh) | 物体检测装置 | |
US11587248B2 (en) | Method and system for multiple stereo based depth estimation and collision warning/avoidance utilizing the same | |
KR102400452B1 (ko) | 이동 경로 메타데이터를 이용한 항공 사진/비디오에서의 상황 인식 객체 검출 | |
JP2020052694A (ja) | 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム | |
WO2018104563A3 (en) | Method and system for video-based positioning and mapping | |
CN110758477B (zh) | 基于二维码识别的列车定位方法及系统 | |
US11841434B2 (en) | Annotation cross-labeling for autonomous control systems | |
US10832567B2 (en) | Systems and methods for generating composite real-time traffic images based on triggering events using data from vehicle borne sensors | |
CN111141311B (zh) | 一种高精度地图定位模块的评估方法及系统 | |
WO2017051480A1 (ja) | 画像処理装置及び画像処理方法 | |
KR102177655B1 (ko) | Mvs 기반의 무인항공기를 갖춘 객체 추적 시스템 | |
JP6278791B2 (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラムならびに車両位置検出システム | |
US9922049B2 (en) | Information processing device, method of processing information, and program for processing information | |
WO2020095545A1 (ja) | 物体認識システム、認識装置、物体認識方法および物体認識プログラム | |
JP2021105915A (ja) | 位置特定システム | |
JP2017181476A (ja) | 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム | |
CN114968187A (zh) | 用于自动驾驶系统的感知系统开发的平台 | |
JP2018073275A (ja) | 画像認識装置 | |
CN110781730B (zh) | 智能驾驶感知方法及感知装置 | |
CN112689234A (zh) | 室内车辆定位方法、装置、计算机设备和存储介质 | |
JP7003972B2 (ja) | 距離推定装置、距離推定方法及び距離推定用コンピュータプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220214 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20220829 |