JP7079041B2 - 情報処理装置、プログラム、及び、情報処理方法 - Google Patents

情報処理装置、プログラム、及び、情報処理方法 Download PDF

Info

Publication number
JP7079041B2
JP7079041B2 JP2021514202A JP2021514202A JP7079041B2 JP 7079041 B2 JP7079041 B2 JP 7079041B2 JP 2021514202 A JP2021514202 A JP 2021514202A JP 2021514202 A JP2021514202 A JP 2021514202A JP 7079041 B2 JP7079041 B2 JP 7079041B2
Authority
JP
Japan
Prior art keywords
moving body
information
curve
time
traveling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021514202A
Other languages
English (en)
Other versions
JPWO2020213649A1 (ja
Inventor
広毅 元垣内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Smartdrive Inc
Original Assignee
Smartdrive Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smartdrive Inc filed Critical Smartdrive Inc
Publication of JPWO2020213649A1 publication Critical patent/JPWO2020213649A1/ja
Application granted granted Critical
Publication of JP7079041B2 publication Critical patent/JP7079041B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、情報処理装置、プログラム、及び、情報処理方法に関する。
近年、自動車等の移動体について、リアルタイム又は所望のタイミングで、移動体の状態を監視又は管理するビジネスが注目されている。このようなサービスでは、移動体の走行状態をできるだけ正確に推定することが重要である。また、自動運転制御機能を有する自動車も注目されており、同様に、自動運転制御機能では、自動車の走行状態をできるだけ正確に推定することが重要である。
自動車の走行状態として、例えば、走行軌跡及びその曲率半径が挙げられる。そのため、走行軌跡や曲率半径をできるだけ正確に推定することが、移動体状況の監視又は管理や、自動運転制御機能の実現に有用である。
例えば、再表2010-073300号公報には、速度検出部によって測定された走行速度と、ヨーレート検出部によって測定された回転角速度と、を用いて曲率半径を推定する技術が開示されている。
再表2010-073300号公報の曲率半径の推定方法は、速度が発生したタイミングで速度を検出可能な速度検出部を備えること(つまり、速度の測定に遅延がないことが保証されること)を前提とする。しかし、衛星からのGPS(Global Positioning System)データを参照して(限定でなく例として、通信機能を備えるスマートフォンに配置されたGPSモジュールを用いて)曲率半径を推定する場合、GPSデータが、電離圏及び対流圏において遅延する。そのため、GPSデータから得られた速度の時間変化は、角速度センサによって検出された回転角速度の時間変化と同期していない。したがって、速度検出部を備えていない車両に再表2010-073300号公報を適用したとしても、曲率半径の推定の精度は不十分である。
このように、従来技術では、移動体の走行状態の推定の精度は不十分である。
本発明の目的は、移動体の走行状態の推定の精度を向上させることである。
本発明の一態様は、
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得する位置情報取得手段と、
前記移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するセンサ情報取得手段と、
前記センサ情報を参照して、前記移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するカーブ走行期間特定手段と、
前記取得した位置情報の中から、前記特定したカーブ走行期間に対応する複数の対象位置情報を特定する対象位置特定手段と、を備える、情報処理装置である。
本発明によれば、移動体の走行状態の推定の精度を向上させることができる。
本実施形態の情報処理システムの構成を示すブロック図である。 図1の情報処理システムの機能ブロック図である。 本実施形態の概要の説明図である。 本実施形態の移動体情報データベースのデータ構造を示す図である。 本実施形態の走行ログ情報データベースのデータ構造を示す図である。 本実施形態の位置ログ情報データベースのデータ構造を示す図である。 本実施形態の判定情報データベースのデータ構造を示す図である。 本実施形態のカーブ走行の判定処理のシーケンス図である。 図8の判定の処理の詳細なフローチャートである。 図8の走行情報の取得の説明図である。 図8のカーブ走行期間の特定の説明図である。 図8の曲率半径の推定の説明図である。 本実施形態のカーブ走行情報の提示処理のシーケンス図である。 図13の情報処理において表示される画面例を示す図である。 変形例1のカーブ走行期間の特定の説明図である。 変形例2の概要の説明図である。 変形例3の概要の説明図である。
以下、本発明の一実施形態について、図面に基づいて詳細に説明する。なお、実施形態を説明するための図面において、同一の構成要素には原則として同一の符号を付し、その繰り返しの説明は省略する。
以下の実施形態において、X軸、Y軸、及び、Z軸の定義は、以下のとおりである。
・X軸:移動体の重心点を通る進行方向の軸
・Y軸:移動体の重心点を通る進行方向に対して直交する幅方向の軸
・Z軸:移動体の重心点を通る鉛直軸
(1)情報処理システムの構成
情報処理システムの構成を説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
図1に示すように、情報処理システム1は、クライアント装置10と、センサユニット20と、サーバ30とを備える。
クライアント装置10及びサーバ30は、ネットワーク(限定でなく例として、インターネット又はイントラネット)NWを介して接続される。
センサユニット20は、クライアント装置10に接続される。
クライアント装置10及びセンサユニット20は、本実施形態では移動体MBに配置されることとしているが、この形態に限られない。クライアント装置10は、センサユニット20からネットワーク経由等で必要なデータを受信することができる限りは、移動体MB外に配置されてもよい。
クライアント装置10は、サーバ30にリクエストを送信する情報処理装置の一例である。クライアント装置10は、限定でなく例として、スマートフォン、タブレット端末、又は、パーソナルコンピュータである。
センサユニット20は、移動体MBの位置に関する位置情報と、移動体MBの走行に関する走行情報と、を取得するように構成される。
サーバ30は、クライアント装置10から送信されたリクエストに応じたレスポンスをクライアント装置10に提供する情報処理装置の一例である。サーバ30は、限定でなく例として、ウェブサーバである。
移動体MBは、例えば、少なくとも以下を含む。
・四輪車
・二輪車
・船舶
・飛行体(一例として、ドローン)
・パーソナルモビリティ
(1-1)クライアント装置の構成
クライアント装置10の構成を説明する。
図2に示すように、クライアント装置10は、記憶装置11と、プロセッサ12と、入出力インタフェース13と、通信インタフェース14とを備える。
記憶装置11は、プログラム及びデータを記憶するように構成される。記憶装置11は、限定でなく例として、ROM(Read Only Memory)、RAM(Random Access Memory)、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
記憶装置11に記憶されるプログラムは、限定でなく例として、以下のプログラムを含む。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
記憶装置11に記憶されるデータは、限定でなく例として、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
プロセッサ12は、記憶装置11に記憶されたプログラムを起動することによって、クライアント装置10の機能を実現するように構成される。プロセッサ12は、コンピュータの一例である。
入出力インタフェース13は、クライアント装置10に接続される入力デバイスからユーザの指示を取得し、かつ、クライアント装置10に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、限定でなく例として、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、限定でなく例として、ディスプレイである。
通信インタフェース14は、クライアント装置10とサーバ30との間の通信を制御するように構成される。
(1-2)サーバの構成
サーバ30の構成を説明する。
図2に示すように、サーバ30は、記憶装置31と、プロセッサ32と、入出力インタフェース33と、通信インタフェース34とを備える。
記憶装置31は、プログラム及びデータを記憶するように構成される。記憶装置31は、限定でなく例として、ROM、RAM、及び、ストレージ(例えば、フラッシュメモリ又はハードディスク)の組合せである。
記憶装置31に記憶されるプログラムは、例えば、以下のプログラムを含む。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
記憶装置31に記憶されるデータは、例えば、以下のデータを含む。
・情報処理において参照されるデータベース
・情報処理の実行結果
プロセッサ32は、記憶装置31に記憶されたプログラムを起動することによって、サーバ30の機能を実現するように構成される。プロセッサ32は、コンピュータの一例である。
入出力インタフェース33は、サーバ30に接続される入力デバイスからユーザの指示を取得し、かつ、サーバ30に接続される出力デバイスに情報を出力するように構成される。
入力デバイスは、限定でなく例として、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、限定でなく例として、ディスプレイである。
通信インタフェース34は、サーバ30とクライアント装置10との間の通信を制御するように構成される。
(1-3)センサユニットの構成
センサユニット20の構成を説明する。
図2に示すように、センサユニット20は、加速度センサ21と、角速度センサ22と、イメージセンサ23と、GPSモジュール24と、を備える。
加速度センサ21は、移動体MBの加速度を検出するように構成される。加速度は、以下の成分を有する。
・X軸方向の加速度
・Y軸方向の加速度
・Z軸方向の加速度
角速度センサ22は、移動体MBの角速度を検出するように構成される。角速度は、以下の成分を有する。
・X軸回りの角速度
・Y軸回りの角速度
・Z軸回りの角速度(以下「ヨーレート」という)
イメージセンサ23は、移動体MBの車内及び車外の少なくとも1つの画像を撮像するように構成される。
GPSモジュール24は、衛星から移動体MBの位置情報(例えば、移動体MBの緯度及び経度を示す情報)を受信するように構成される。
(2)実施形態の概要
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
図3に示すように、サーバ30は、移動体MBに配置されたセンサユニット20(例えば、GPSモジュール24)から、移動体MBの位置に関する位置情報と、移動体MBの走行に関するセンサ情報と、を取得する。
サーバ30は、複数のセンサ情報を参照して、カーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定する。
サーバ30は、複数の位置情報の中から、カーブ走行期間に対応する複数の対象位置情報を特定する。
これにより、移動体MBの走行状態の推定の精度を向上させることができる。
(3)データベース
本実施形態のデータベースを説明する。以下のデータベースは、記憶装置31に記憶される。
(3-1)移動体情報データベース
本実施形態の移動体情報データベースを説明する。図4は、本実施形態の移動体情報データベースのデータ構造を示す図である。
図4の移動体情報データベースには、移動体MBに関する移動体情報が格納されている。
移動体情報データベースは、「移動体ID」フィールドと、「移動体属性」フィールドと、「オーナID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
「移動体ID」フィールドには、移動体MBを識別する移動体識別情報が格納される。
「移動体属性」フィールドには、移動体MBの属性に関する移動体属性情報が格納される。「移動体属性」フィールドは、複数のサブフィールド(「車種」フィールド及び「製造年」フィールド)を含む。
「車種」フィールドには、移動体MBの車種に関する情報が格納される。
「製造年」フィールドには、移動体MBの製造年に関する情報が格納される。
「オーナID」フィールドには、移動体MBを所有するオーナを識別するオーナ識別情報が格納される。
(3-2)走行ログ情報データベース
本実施形態の走行ログ情報データベースを説明する。図5は、本実施形態の走行ログ情報データベースのデータ構造を示す図である。
図5の走行ログ情報データベースには、移動体MBの走行に関する走行情報のログ(以下「走行ログ情報」という)が格納されている。
走行ログ情報データベースは、「走行ログID」フィールドと、「走行時刻」フィールドと、「加速度」フィールドと、「角速度」フィールドと、「画像」フィールドと、を含む。各フィールドは、互いに関連付けられている。
走行ログ情報データベースは、移動体IDに関連付けられている。
「走行ログID」フィールドには、走行ログを識別する走行ログ識別情報が格納される。
「走行時刻」フィールドには、走行ログに対応する時刻(以下「走行時刻」という)に関する情報が格納される。
「加速度」フィールドには、移動体MBの加速度の値(例えば、加速度センサ21によって検出された値)が格納される。
「角速度」フィールドには、移動体MBの角速度の値(例えば、角速度センサ22によって取得された値)が格納される。
「画像」フィールドには、移動体MBの車内及び車外の少なくとも1つの画像が格納される。
(3-3)位置ログ情報データベース
本実施形態の位置ログ情報データベースを説明する。図6は、本実施形態の位置ログ情報データベースのデータ構造を示す図である。
図6の位置ログ情報データベースには、移動体MBの位置に関する位置情報のログ(以下「位置ログ情報」という)が格納されている。
位置ログ情報データベースは、「位置ログID」フィールドと、「位置時刻」フィールドと、「位置」フィールドと、を含む。各フィールドは、互いに関連付けられている。
位置ログ情報データベースは、移動体IDに関連付けられている。
「位置ログID」フィールドには、位置ログを識別する位置ログ識別情報が格納される。
「位置時刻」フィールドには、位置ログに対応する時刻(以下「位置時刻」という)に関する情報が格納される。
「位置」フィールドには、移動体MBの位置情報が格納される。
(3-4)判定情報データベース
本実施形態の判定情報データベースを説明する。図7は、本実施形態の判定情報データベースのデータ構造を示す図である。
図7の判定情報データベースには、判定結果に関する判定情報が格納される。
判定情報データベースは、「判定ログID」フィールドと、「走行ログID」フィールドと、「位置ログID」フィールドと、「判定結果」フィールドと、を含む。各フィールドは、互いに関連付けられている。
判定情報データベースは、移動体識別情報に関連付けられている。
「判定ログID」フィールドには、判定情報を識別する判定識別情報が格納される。
「走行ログID」フィールドには、判定の際に参照された走行ログ(以下「参照走行ログ」という)の走行ログ識別情報が格納される。
参照走行ログは、カーブに進入したときの走行ログ情報の走行ログ識別情報、及び、カーブから出たときの走行ログ情報の走行ログ識別情報の組合せである。
走行ログ情報データベース(図5)における「走行ログID」フィールド(図7)の情報に関連付けられた「走行時刻」フィールドの組合せは、移動体MBがカーブ走行を開始したときの走行時刻、及び、移動体MBがカーブ走行を終了したときの走行時刻を示している。
「位置ログID」フィールドには、判定の際に参照された位置ログ(以下「参照位置ログ」という)の位置ログ識別情報が格納される。
参照位置ログは、カーブに進入したときの位置ログ情報の位置ログ識別情報、及び、カーブから出たときの位置ログ情報の位置ログ識別情報の組合せである。
位置ログ情報データベース(図6)における「位置ログID」フィールド(図7)の情報に関連付けられた「位置時刻」フィールドの情報の組合せは、移動体MBがカーブに進入したときの位置時刻、及び、移動体MBがカーブから出たときの位置時刻を示している。
「判定結果」フィールドには、判定情報が格納される。「判定結果」フィールドは、複数のサブフィールド(「方向」フィールド、「カーブ走行時間」フィールド、「曲率半径」フィールド、「入車速度」フィールド、「出車速度」フィールド、及び、「平均速度」フィールド)を含む。
「方向」フィールドには、移動体MBのカーブ走行の方向(以下「カーブ方向」という)に関するカーブ方向情報(一例として、右折又は左折)が格納される。
「カーブ走行時間」フィールドには、移動体MBのカーブ走行期間の長さ(以下「カーブ走行時間」という)に関する情報が格納される。
「曲率半径」フィールドには、曲率半径の判定結果に関する情報(例えば、曲率半径の推定値)が格納される。
「入車速度」フィールドには、移動体MBがカーブに進入したときの速度(以下「入車速度」という)に関する情報が格納される。
「出車速度」フィールドには、移動体MBがカーブから出たときの速度(以下「出車速度」という)に関する情報が格納される。
「平均速度」フィールドには、移動体MBがカーブを走行している間の平均速度に関する情報が格納される。
(4)情報処理
本実施形態の情報処理を説明する。
(4-1)カーブ走行の判定処理
本実施形態のカーブ走行の判定処理を説明する。図8は、本実施形態のカーブ走行の判定処理のシーケンス図である。図9は、図8の判定の処理の詳細なフローチャートである。図10は、図8の走行情報の取得の説明図である。図11は、図8のカーブ走行期間の特定の説明図である。図12は、図8の曲率半径の推定の説明図である。
図8に示すように、クライアント装置10は、走行情報の取得(S110)を実行する。
具体的には、プロセッサ12は、移動体MBに配置されたセンサユニット20から、移動体MBの走行に関する走行情報を取得する。走行情報は、例えば、以下の情報を含む。
・加速度センサ21による検出結果(加速度センサ21の座標系(以下「加速度センサ座標系」という)における移動体MBの加速度)
・角速度センサ22による検出結果(角速度センサ22のセンサ座標系(以下「角速度センサ座標系」という)における移動体MBの角速度)
・イメージセンサ23によって撮像された画像(移動体MBの車内及び車外の少なくとも1つの画像)
・加速度センサ21、角速度センサ22、及び、イメージセンサ23による検出時刻(つまり、走行時刻)
プロセッサ12は、式1を用いて、加速度センサ21による検出結果(加速度センサ21の座標系(センサ座標系)の値)As(xs,ys,zs)を、移動体MBの座標系の値(つまり、加速度)Am(xm,ym,zm)に変換する(図10)。式1において、角速度センサ22による検出結果は、水平面上への回転行列Rh及び進行方向(X方向)への回転行列Rdの影響を受ける。したがって、センサ座標系の加速度As(xs,ys,zs)の各成分は、移動体MBの座標系の加速度Am(xm,ym,zm)の各成分とは異なる。
Am(x,y,z) = Rd * Rh * As(x,y,z) …(式1)
・Rh:水平面上への回転行列
・Rd:進行方向(X方向)への回転行列
プロセッサ12は、式2を用いて、角速度センサ22による検出結果(角速度センサ22の座標系(センサ座標系)の値)ωsを、移動体MBの座標系の値(以下「角速度情報」という)ωmに変換する(図10)。式2において、角速度センサ22による検出結果のうちX成分及びY成分は、水平面上への回転行列Rh及び進行方向(X方向)への回転行列Rdの影響を受けるが、Z成分(ヨーレート)は、進行方向(X方向)への回転行列Rdの影響を受けない。
ωm = Rd * Rh * ωs …(式2)
なお、回転行列Rhおよび回転行列Rdは移動体におけるセンサユニット20の設置状態に応じて値が変化してしまう可能性があるため、回転行列Rhおよび回転行列Rdの値を定期的なタイミング(例えば、毎日の所定の時刻、又は、移動体MBの起動のタイミングなど)で取得し、角速度センサ22による検出結果ωmの値を更新することが望ましい。例えば、クライアント装置10は、図示しない再計算指示部をさらに備える。再計算指示部は、所定の更新条件を満たす場合には、プロセッサ12に回転行列Rhおよび回転行列Rdの値を再計算し、且つ、角速度センサ22による検出結果ωmの値の更新を指示してもよい。
ステップS110の後、クライアント装置10は、位置情報の取得(S111)を実行する。
具体的には、プロセッサ12は、センサユニット20から、移動体MBの位置に関する位置情報を取得する。位置情報は、例えば、以下の情報を含む。
・GPSモジュール24による検出結果(移動体MBの位置情報)
・GPSモジュール24による検出時刻(つまり、位置時刻という)
ステップS111の後、クライアント装置10は、判定リクエスト(S112)を実行する。
具体的には、プロセッサ12は、判定リクエストデータをサーバ30に送信する。判定リクエストデータは、以下の情報を含む。
・記憶装置11に予め記憶された移動体識別情報
・ステップS110で取得された走行情報(走行時刻情報、加速度Am、角速度ωm、及び、画像)
・ステップS111で取得された位置情報(位置時刻情報、並びに、移動体MBの緯度及び経度の組合せを示す情報)
ステップS112の後、サーバ30は、判定(S130)を実行する。
図9に示すように、サーバ30は、速度の計算(S1300)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる位置情報を参照して、移動体MBの位置の時間変化を特定する。
プロセッサ32は、特定された時間変化に基づいて、移動体MBの速度Vgpsを計算する。
ステップS1300の後、サーバ30は、カーブ走行期間の特定(S1301)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる走行情報のうちヨーレートωmzの走行時刻毎の変化を示すヨーレート関数ωmz(Tr)を求める(図11)。
プロセッサ32は、例えば、ヨーレート関数ωmz(Tr)を参照して、ヨーレートωmzの値が上昇を開始する走行時刻(以下「カーブ走行開始時刻」という)Tr1と、ヨーレートωmzの値の減少が終了する走行時刻(以下「カーブ走行終了時刻」という)Tr2と、を特定する。または、例えば、ヨーレートωmzの微分値の絶対値が所定の閾値以上になった(または超過した)時刻をカーブ走行開始時刻Tr1とし、その後、ヨーレートωmzの微分値の絶対値が所定の閾値以下になった(または未満になった)時刻をカーブ走行終了時刻Tr2として特定してもよく、カーブ走行開始時刻Tr1およびカーブ走行終了時刻Tr2の特定手法は特に限定しない。
プロセッサ32は、ステップS1300で得られた速度Vgpsの位置時刻Tgps毎の変化を示す速度関数Vgps(Tgps)を求める(図11)。位置時刻Tgpsは、衛星とGPSモジュール24との間の通信における遅延の影響を受けるので、走行時刻Trとは異なる。
プロセッサ32は、ステップS1301で得られたカーブ走行開始時刻Tr1に、衛星とGPSモジュール24との間の通信におけるレイテンシによって決まる遅延時間ΔTを加算することにより、速度関数Vgps(Tgps)におけるカーブ走行開始時刻Tgps1を計算する。
プロセッサ32は、ステップS1301で得られたカーブ走行終了時刻Tr2に遅延時間ΔTを加算することにより、速度関数Vgps(Tgps)におけるカーブ走行終了時刻Tgps2を計算する。
プロセッサ32は、カーブ走行開始時刻Tr1又はTgps1から、カーブ走行終了時刻Tr2又はTgps2までの期間をカーブ走行期間Pcとして特定する。
プロセッサ32は、特定したカーブ走行期間Pcの長さをカーブ走行時間として特定する。
プロセッサ32は、カーブ走行開始時刻Tgps1における速度(以下「入車速度」という)Vgps(Tgps1)を計算する。
プロセッサ32は、カーブ走行終了時刻Tgps2における速度(以下「出車速度」という)Vgps(Tgps2)を計算する。
プロセッサ32は、カーブ走行開始時刻Tgps1からカーブ走行終了時刻Tgps2までの速度Vgps(Tgps)の平均速度を計算する。
ステップS1301の後、サーバ30は、対象位置情報の特定(S1302)を実行する。
具体的には、プロセッサ32は、位置ログ情報データベース(図6)を参照して、ステップS1301で得られたカーブ走行開始時刻Tgps1に関連付けられた位置情報(以下「カーブ走行開始位置情報」という)を特定する。
プロセッサ32は、位置ログ情報データベースを参照して、ステップS1301で得られたカーブ走行終了時刻Tgps2に関連付けられた位置情報(以下「カーブ終了位置情報」という)を特定する。
プロセッサ32は、位置ログ情報データベースを参照して、ステップS1301で得られたカーブ走行開始時刻Tgps1とカーブ走行終了時刻Tgps2との間に含まれる位置時刻情報に関連付けられた位置情報(以下「カーブ走行位置情報」という)を特定する。
カーブ走行の判定の対象となる位置情報(以下「対象位置情報」という)は、カーブ走行開始位置情報、カーブ走行位置情報、及び、カーブ終了位置情報の組合せである。
ステップS1302の後、サーバ30は、曲率半径の推定(S1303)を実行する。
具体的には、プロセッサ32は、ステップS1301で得られた対象位置情報を参照して、ステップS1301で得られたカーブ走行期間Pcにおける移動体MBの位置の軌跡を推定する(図12B)。
プロセッサ32は、推定された軌跡の曲率半径R0を計算する。
ここで、推定された軌跡から曲率半径R0を計算する具体的な手法として、例えば、最小二乗法を用いて、推定された軌跡とのマッチング度が最も高い(誤差が最小となる)円弧モデルを算出し、その円弧モデルの半径を曲率半径R0と推定するといった手法が挙げられる。無論、曲率半径R0の計算手法はこれに限られず、その手法は特に限定されない。
仮に、ステップS1301が実行されなかった場合、カーブ走行期間は特定されない。
この場合、図12Aに示すように、大量の位置情報の中からカーブ走行中の位置情報を抽出することは困難である。そのため、曲率半径R1は、実際のカーブ走行の曲率半径とは大きく異なる値になることがある。図12Aは、曲率半径R1が実際のカーブ走行の曲率半径より大きくなる例を示している。
これに対して、本実施形態では、ステップS1301においてカーブ走行期間が特定される。
この場合、図12Bに示すように、大量の位置情報の中からカーブ走行中の対象位置情報が抽出される。そのため、実際のカーブ走行に対応する曲率半径R0が得られる。
ステップS1303の後、サーバ30は、カーブ方向の判定(S1304)を実行する。
具体的には、プロセッサ32は、S1301で得られたヨーレート関数ωmz(Tr)のカーブ走行開始時刻Tr1からカーブ走行終了時刻Tr2までの値に基づいて、カーブ方向(右折又は左折)を判定する。
図8に示すように、ステップS1304の後、サーバ30は、データベースの更新(S131)を実行する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる移動体識別情報に関連付けられた走行ログ情報データベース(図5)に以下の情報を格納する。
・「走行ログID」フィールドには、ユニークな走行ログ識別情報が格納される。
・「走行時刻」フィールドには、判定リクエストデータに含まれる走行時刻情報が格納される。
・「加速度」フィールドには、判定リクエストデータに含まれる加速度の値が格納される。
・「角速度」フィールドには、判定リクエストデータに含まれる角速度の値が格納される。
・「画像」フィールドには、判定リクエストデータに含まれる画像が格納される。
プロセッサ32は、判定リクエストデータに含まれる移動体識別情報に関連付けられた位置ログ情報データベース(図6)に以下の情報を格納する。
・「位置ログID」フィールドには、ユニークな位置ログ識別情報が格納される。
・「位置時刻」フィールドには、判定リクエストデータに含まれる位置時刻情報が格納される。
・「位置」フィールドには、判定リクエストデータに含まれる位置情報が格納される。
プロセッサ32は、判定リクエストデータに含まれる移動体識別情報に関連付けられた判定情報データベース(図7)に以下の情報を格納する。
・「判定ログID」フィールドには、ユニークな判定ログ識別情報が格納される。
・「走行ログID」フィールドには、走行ログ情報データベース(図5)において、カーブ走行開始時刻Tr1からカーブ走行終了時刻Tr2までの間の期間に関連付けられた走行ログ識別情報が格納される。
・「位置ログID」フィールドには、位置ログ情報データベース(図6)において、対象位置情報に関連付けられた位置ログ識別情報が格納される。
・「方向」フィールドには、S1304で得られたカーブ方向情報が格納される。
・「カーブ走行時間」フィールドには、ステップS1301で得られたカーブ走行時間が格納される。
・「曲率半径」フィールドには、ステップS1303で得られた曲率半径R0の値が格納される。
・「入車速度」フィールドには、ステップS1301で得られた入車速度の値が格納される。
・「出車速度」フィールドには、ステップS1301で得られた出車速度の値が格納される。
・「平均速度」フィールドには、ステップS1301で得られた平均速度の値が格納される。
(4-2)カーブ走行情報の提示処理
本実施形態のカーブ走行情報の提示処理を説明する。図13は、本実施形態のカーブ走行情報の提示処理のシーケンス図である。図14は、図13の情報処理において表示される画面例を示す図である。
クライアント装置10は、検索リクエスト(S210)を実行する。
具体的には、プロセッサ12は、画面P10(図14)をディスプレイに表示する。
画面P10は、フィールドオブジェクトF10と、操作オブジェクトB10と、を含む。
フィールドオブジェクトF10は、曲率半径の推定の対象となる移動体MBの移動体識別情報のユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB10は、フィールドオブジェクトF10に入力されたユーザ入力に基づく検索リクエストを実行させるためのユーザ指示を受け付けるオブジェクトである。
ユーザが、フィールドオブジェクトF10に任意の移動体識別情報を入力し、且つ、操作オブジェクトB10を操作すると、プロセッサ12は、検索リクエストデータをサーバ30に送信する。検索リクエストデータは、フィールドオブジェクトF10に入力された移動体識別情報を含む。
ステップS210の後、サーバ30は、検索(S230)を実行する。
具体的には、プロセッサ32は、検索リクエストデータに含まれる移動体識別情報に関連付けられた走行ログ情報データベース(図5)の「曲率半径」フィールドの値を、検索の対象となる曲率半径(以下「対象曲率半径」という)として特定する。
ステップS230の後、サーバ30は、検索レスポンス(S231)を実行する。
具体的には、プロセッサ32は、検索レスポンスデータをクライアント装置10に送信する。検索レスポンスデータは、以下の情報を含む。
・ステップS131で特定された移動体識別情報
・ステップS1301で特定されたカーブ走行開始時刻Tr1
・ステップS1301で特定されたカーブ走行終了時刻Tr2
・ステップS1304で得られたカーブ方向
・ステップS1301で得られたカーブ走行時間
・ステップS1303で得られた曲率半径
・ステップS1301で得られた入車速度
・ステップS1301で得られた出車速度
ステップS231の後、クライアント装置10は、カーブ走行情報の提示(S211)を実行する。
具体的には、プロセッサ12は、画面P11(図14)をディスプレイに表示する。
画面P11は、1又は複数の表示オブジェクトA11を含む。
各表示オブジェクトA11には、以下の情報が表示される。
・検索レスポンスデータに含まれる移動体識別情報
・検索レスポンスデータに含まれるカーブ走行開始時刻
・検索レスポンスデータに含まれるカーブ走行終了時刻
・検索レスポンスデータに含まれるカーブ方向
・検索レスポンスデータに含まれるカーブ走行期間
・検索レスポンスデータに含まれる曲率半径
・検索レスポンスデータに含まれる入車速度
・検索レスポンスデータに含まれる出車速度
・検索レスポンスデータに含まれる平均速度
本実施形態によれば、移動体MBの位置情報及びヨーレートの組合せを用いて、カーブ走行が行われたときの移動体MBの曲率半径を計算する。これにより、移動体MBの走行状態(例えば、曲率半径)の推定の精度を向上させることができる。
(5)変形例
本実施形態の変形例を説明する。
(5-1)変形例1
変形例1を説明する。変形例1は、加速度センサ21によって検出された加速度を用いて移動体MBの曲率半径を計算する例である。図15は、変形例1のカーブ走行期間の特定の説明図である。
ステップS1301(図9)において、変形例1のプロセッサ32は、判定リクエストデータに含まれる走行情報のうち、センサ座標系の加速度As(xs,ys,zs)の走行時刻毎の変化を示す加速度関数Am(Tr)を求める(図15)。
プロセッサ32は、加速度関数Am(Tr)を参照して、加速度Amの値が上昇を開始する走行時刻(以下「カーブ走行開始時刻」という)Tr1と、加速度Amの値の減少が終了する走行時刻(以下「カーブ走行終了時刻」という)Tr2と、を特定する。
変形例1によれば、角速度センサ22が移動体MBに配置されていなくても、本実施形態と同様の効果が得ることができる。
また、変形例1によれば、角速度センサ22が移動体MBに配置されている場合、角速度センサ22によって検出された角速度、及び、加速度センサ21によって検出された加速度の組合せを用いて、対象位置情報を特定することにより、曲率半径の推定の精度を更に向上させることができる。
(5-2)変形例2
変形例2を説明する。変形例2は、イメージセンサ23によって撮像された画像を用いて移動体MBの曲率半径を計算する例である。図16は、変形例2の概要の説明図である。
図16に示すように、変形例2のクライアント装置10は、GPSモジュール24によって取得された位置情報と、イメージセンサ23によって取得された画像と、をサーバ30に送信する。画像は、例えば、走行中の移動体MBの車外の風景に関する画像を含む。
ステップS1300(図9)において、プロセッサ32は、本実施形態と同様に、移動体MBの速度Vgpsを計算する。
ステップS1301において、プロセッサ32は、判定リクエストデータに含まれる画像の特徴量を解析することにより、移動体MBの車外の風景の走行時刻毎の変化を特定する。
プロセッサ32は、車外の風景の変化を参照して、カーブ走行開始時刻Tr1と、カーブ走行終了時刻Tr2と、を特定する。
例えば、イメージセンサ23は移動体MBの内部からフロントガラスに向けて設置され、且つ、一定の頻度(例えば、30fps)で移動体MBの外部(例えば、前方)の画像を撮像するように構成される。
ここで、プロセッサ32は、イメージセンサ23により撮像された画像の画像特徴量を解析する。
プロセッサ32は、連続して撮像された画像間における所定の領域の動きベクトルを計算する。
プロセッサ32は、動きベクトルの大きさ(例えば、フロントガラス領域またはその内部の小領域の動きベクトルの大きさ)が所定の閾値以上になった(または超過した)時刻をカーブ走行開始時刻Tr1として特定し、且つ、カーブ走行開始時刻Tr1の後に動きベクトルの大きさが閾値以下になった(または未満になった)時刻をカーブ走行終了時刻Tr2として特定してもよい。
また、イメージセンサ23は移動体MBの外部に設置されていてもよく、この場合は、画像内の任意の領域における動きベクトルの大きさについて同様の処理を行う。
無論、撮像された画像の情報に基づくカーブ走行開始時刻Tr1およびカーブ走行終了時刻Tr2の特定手法はこれらに特に限定されない。
変形例2によれば、加速度センサ21及び角速度センサ22が移動体MBに配置されていなくても、本実施形態と同様の効果を得ることができる。
また、変形例2によれば、加速度センサ21及び角速度センサ22の少なくとも1つが移動体MBに配置されている場合、加速度センサ21及び角速度センサ22の少なくとも1つによって検出された情報、及び、イメージセンサ23によって取得された画像の組合せを用いて、対象位置情報を特定することにより、曲率半径の推定の精度を更に向上させることができる。
(5-3)変形例3
変形例3を説明する。変形例3は、移動体MBの外部に配置されたイメージセンサによって撮像された画像を用いて移動体MBの曲率半径を計算する例である。図17は、変形例3の概要の説明図である。
図17に示すように、変形例3のクライアント装置10は、GPSモジュール24によって取得された位置情報をサーバ30に送信する。
移動体MBの車外に配置されたイメージセンサISは、走行中の移動体MBの画像を取得し、且つ、当該画像をサーバ30に送信する。イメージセンサISは、例えば、以下の少なくとも1つに配置される。
・移動体MBの走行環境に存在する構造物(一例として、電柱、信号機、歩道橋、及び、建築物)
・移動体MBとは異なる移動体(一例として、二輪車、四輪車、鉄道、ドローン、航空機、船舶、パーソナルモビリティ、人工衛星、及び、歩行者が所持するモバイル端末の少なくとも1つ)
ステップS1300(図9)において、プロセッサ32は、本実施形態と同様に、移動体MBの速度Vgpsを計算する。
ステップS1301において、プロセッサ32は、イメージセンサISによって取得された画像の画像特徴量を解析することにより、移動体MBの走行軌跡を推定する。
プロセッサ32は、走行位置の変化を参照して、カーブ走行開始時刻Tr1と、カーブ走行終了時刻Tr2と、を特定する。
例えば、イメージセンサISは、移動体MBとは別の移動体MBaに配置され、且つ、一定の頻度(例えば、30fps)で移動体MBaの外部(例えば、前方)の画像を撮像するように構成される。
ここで、プロセッサ32は、イメージセンサISにより撮像された画像の画像特徴量を解析する。
画像特徴量の解析によって、移動体MB(一例として、移動体MBのナンバープレート)が画像に含まれていることが特定され、かつ、連続する画像群に移動体MBのカーブ走行の挙動(一例として、右折または左折)が含まれていることが特定された場合、プロセッサ32は、変形例2と同様に、時間的に連続する画像間における移動体MBの背景に対する動き値を計算する。
より具体的には、プロセッサ32は、移動体MBを被写体とするピクセル領域において、移動体MBに対応するピクセルの第1動きベクトルと、移動体MBを被写体としないピクセル領域(一例として、背景領域)におけるピクセルの第2動きベクトルと、を計算する。プロセッサ32は、第1動きベクトルから第2動きベクトルを減算することにより、差分ベクトルを計算する。
プロセッサ32は、差分ベクトルの大きさが所定の閾値以上になった(または超過した)時刻をカーブ走行開始時刻Tr1として特定し、且つ、カーブ走行開始時刻Tr1の後に差分ベクトルの大きさが閾値以下になった(または未満になった)時刻をカーブ走行終了時刻Tr2として特定してもよい。
無論、撮像された画像の情報に基づくカーブ走行開始時刻Tr1およびカーブ走行終了時刻Tr2の特定手法のほか、画像内での移動体MBの認識手法および移動体MBの右折または左折の行動特定手法は特に限定されない。
変形例3によれば、移動体MBにイメージセンサ23が配置されていなくても、変形例2と同様の効果を得ることができる。
また、変形例3によれば、加速度センサ21、角速度センサ22、及び、イメージセンサ23の少なくとも1つが移動体MBに配置されている場合、加速度センサ21、角速度センサ22、及び、イメージセンサ23の少なくとも1つから得られた情報、及び、曲率半径の推定の対象となる移動体MBの外部に配置されたイメージセンサISによって取得された画像の組合せを用いて、対象位置情報を特定することにより、曲率半径の推定の精度を更に向上させることができる。
(6)本実施形態の小括
本実施形態について小括する。
本実施形態の第1態様は、
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得する位置情報取得手段(例えば、ステップS130を実行するプロセッサ32)と、
移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するセンサ情報取得手段(例えば、ステップS130を実行するプロセッサ32)と、
センサ情報を参照して、移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するカーブ走行期間特定手段(例えば、ステップS1301を実行するプロセッサ32)と、
取得した位置情報の中から、特定したカーブ走行期間に対応する複数の対象位置情報を特定する対象位置特定手段(例えば、ステップS1302を実行するプロセッサ32)と、を備える、情報処理装置(例えば、サーバ30)である。
第1態様によれば、GPSモジュールによって取得された位置情報の中から、カーブ走行期間に対応する対象位置情報を特定し、且つ、特定された対象位置情報を参照してカーブ走行期間に対応する複数の対象位置情報を特定する。これにより、移動体MBの走行状態の推定の精度を向上させることができる。
本実施形態の第2態様は、
複数の対象位置情報、及び特定されたカーブ走行期間を参照して、カーブ走行期間における移動体による走行の曲率半径を推定する曲率半径推定手段(例えば、ステップS1303を実行するプロセッサ32)をさらに備える、情報処理装置(例えば、サーバ30)である。
第2態様によれば、GPSモジュールによって取得された位置情報を参照して、曲率半径を推定する。これにより、移動体MBのカーブ走行の曲率半径の推定の精度を向上させることができる。
本実施形態の第3態様は、
センサ情報は、移動体MBの重心点を通る鉛直軸回りの角速度を含み、
カーブ走行期間特定手段は、複数のセンサ情報の角速度の時間変化を参照して、カーブ走行期間を特定する、
情報処理装置(例えば、サーバ30)である。
第3態様によれば、進行方向(X方向)への回転行列Rdの影響を受けないヨーレートの時間変化に基づくカーブ走行期間を考慮して、対象位置情報を特定する。つまり、ヨーレートの時間変化に基づいて、曲率半径を推定する。これにより、曲率半径の推定の精度を更に向上させることができる。
本実施形態の第4態様は、
走行情報は、移動体MBの重心点を通る鉛直軸及び移動体MBの重心点を通る幅方向の軸回りの加速度を含み、
カーブ走行期間特定手段は、複数のセンサ情報の加速度の時間変化を参照して、カーブ走行期間を特定する、
情報処理装置(例えば、サーバ30)である。
第4態様によれば、加速度の時間変化に基づくカーブ走行期間を考慮して、対象位置情報を特定する。つまり、加速度の時間変化に基づいて、曲率半径を推定する。これにより、曲率半径の推定の精度を更に向上させることができる。
本実施形態の第5態様は、
走行情報は、移動体MBの走行に関する画像を含み、
カーブ走行期間特定手段は、
画像を解析することにより、移動体MBの走行の特徴量を抽出し、
抽出された特徴量の時間変化を参照して、カーブ走行期間を特定する、
情報処理装置(例えば、サーバ30)である。
第5態様によれば、移動体MBの走行に関する画像の特徴量に基づくカーブ走行期間を考慮して、対象位置情報を特定する。これにより、走行状態の推定の精度を更に向上させることができる。
本実施形態の第6態様は、
移動体MBの走行に関する画像は、移動体MBの内部に配置されたイメージセンサ23から取得される、
情報処理装置(例えば、サーバ30)である。
第6態様によれば、移動体MBの内部に配置されたイメージセンサ23を用いて走行状態を推定する。これにより、走行状態の推定の精度を更に向上させることができる。
本実施形態の第7態様は、
移動体MBの走行に関する画像は、移動体MBの外部に配置されたイメージセンサ23から取得される、
情報処理装置(例えば、サーバ30)である。
第7態様によれば、移動体MBの外部に配置されたイメージセンサ23を用いて走行状態を推定する。これにより、走行状態の推定の精度を更に向上させることができる。
本実施形態の第8態様は、
移動体MBの走行に関する画像は、移動体MBとは異なる移動体MBaに配置されたイメージセンサISから取得される、
情報処理装置(例えば、サーバ30)である。
第8態様によれば、走行状態の推定の対象となる移動体MBとは異なる移動体MBaに配置されたイメージセンサISを用いて、移動体MBの走行状態を推定する。これにより、走行状態の推定の精度を更に向上させることができる。
本実施形態の第9態様は、
画像に含まれる移動体の画像を参照して、移動体MBを識別する移動体識別情報を特定する手段を備え、
移動体識別情報と、カーブ走行開始時刻と、カーブ走行終了時刻と、曲率半径と、を関連付けて記憶する手段を備える、
情報処理装置(例えば、サーバ30)である。
第9態様によれば、移動体MBの画像に基づいて移動体識別情報を特定し、且つ、特定された移動体識別情報と、カーブ走行開始時刻と、カーブ走行終了時刻と、曲率半径と、を関連付けて記憶する。これにより、移動体毎に、曲率半径のログを記録することができる。
本実施形態の第10態様は、
移動体MBは、手動運転型移動体であり、
カーブ走行期間は、手動運転型移動体における運転者によるハンドル操作が開始された時刻、及び、運転者によるハンドル操作が終了した時刻に基づいて規定される、
情報処理装置(例えば、サーバ30)である。
第10態様によれば、手動運転型車両において、走行状態の推定の精度を向上させることができる。
本実施形態の第11態様は、
移動体MBは、自動運転型移動体であり、
カーブ走行期間は、自動運転型移動体のプロセッサによるカーブ走行制御が開始された時刻、及び、プロセッサによるカーブ走行制御が終了した時刻に基づいて規定される、
情報処理装置(例えば、サーバ30)である。
第11態様によれば、自動運転型車両において、走行状態の推定の精度を向上させることができる。
本実施形態の第12態様は、
コンピュータ(例えば、プロセッサ32)を、
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得する位置情報取得手段(例えば、ステップS130を実行するプロセッサ32)、
移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するセンサ情報取得手段(例えば、ステップS130を実行するプロセッサ32)、
センサ情報を参照して、移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するカーブ走行期間特定手段(例えば、ステップS1301を実行するプロセッサ32)、及び、
取得した位置情報の中から、特定したカーブ走行期間に対応する複数の対象位置情報を特定する対象位置特定手段(例えば、ステップS1302を実行するプロセッサ32)、
として機能させるためのプログラムである。
本実施形態の第13態様は、
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得するステップ(例えば、ステップS130)と、
移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するステップ(例えば、ステップS130)と、
センサ情報を参照して、移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するステップ(例えば、ステップS1301)と、
取得した位置情報の中から、特定したカーブ走行期間に対応する複数の対象位置情報を特定するステップ(例えば、ステップS1302)と、を含む、
情報処理方法である。
(7)その他の変形例
その他の変形例を説明する。
記憶装置11は、ネットワークNWを介して、クライアント装置10と接続されてもよい。記憶装置31は、ネットワークNWを介して、サーバ30と接続されてもよい。
上記の情報処理の各ステップは、クライアント装置10及びサーバ30の何れでも実行可能である。
例えば、クライアント装置10が上記の情報処理の全てのステップを実行可能である場合、クライアント装置10は、サーバ30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。
本実施形態は、運転者が手動で操作する移動体(以下「手動運転型移動体」という)、及び、自動で走行制御が行われる(例えば、移動体MBに配置されたプロセッサにより操作が行われる)移動体(以下「自動運転型移動体」という)の何れにも適用可能である。
手動運転型移動体の場合、カーブ走行期間は、ハンドル操作が開始された時刻、及び、ハンドル操作が終了した時刻によって規定される。
自動運転型移動体の場合、カーブ走行期間は、カーブ走行制御が開始された時刻、及び、カーブ走行制御が終了した(つまり、カーブ走行制御から直進走行制御に移行した)時刻によって規定される。この場合、ステップS1304は省略可能である。ステップS131において、プロセッサ32は、移動体MBの走行を制御するコンピュータから走行制御(右折又は左折)に関する情報(以下「走行制御情報」という)を取得する。プロセッサ32は、判定情報データベース(図7)の「方向」フィールドに、走行制御情報を格納する。
なお、上記の実施形態では、クライアント装置10及びセンサユニット20の要素をそれぞれに説明したが、例えば、センサユニット20の一部または全部の機能(例えば、GPSモジュール24による機能)をクライアント装置10側で代わりに実現することとしてもよい。さらに、サーバ30における記憶装置31に記憶されるプログラム及びデータの一部または全部をクライアント装置10における記憶装置11で代わりに記憶し管理(例えば、読み込み、書き込み等)されることとしてもよいし、逆にクライアント装置10における記憶装置11に記憶されるプログラム及びデータの一部または全部をサーバ30における記憶装置31で記憶し管理されることとしてもよい。同様に、サーバ30におけるプロセッサ32による処理の一部または全部をクライアント装置10で代わりに行ってもよいし、逆にクライアント装置10におけるプロセッサ12による処理の一部または全部をサーバ30で代わりに行ってもよい。つまり、プログラム及びデータを記憶する場所、及び処理を行う装置は特に限定されない。
以上、本発明の実施形態について詳細に説明したが、本発明の範囲は上記の実施形態に限定されない。また、上記の実施形態は、本発明の主旨を逸脱しない範囲において、種々の改良や変更が可能である。また、上記の実施形態及び変形例は、組合せ可能である。
1 :情報処理システム
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
20 :センサユニット
21 :加速度センサ
22 :角速度センサ
23 :イメージセンサ
24 :GPSモジュール
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース

Claims (8)

  1. 情報処理システムにおける情報処理方法は、
    移動体の走行に関する画像情報を、当該画像情報が取得された時刻と関連づけて取得することと、
    前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出することと、
    前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻及びカーブ走行終了時刻を特定することと、
    を含む
  2. 前記移動体の走行に関する画像情報は、前記移動体の内部に配置されたイメージセンサから取得される、
    請求項に記載の情報処理方法
  3. 前記移動体の走行に関する画像情報は、前記移動体の外部に配置されたイメージセンサから取得される、
    請求項に記載の情報処理方法
  4. 前記移動体の走行に関する画像情報は、前記移動体とは異なる移動体に配置されたイメージセンサから取得される、
    請求項に記載の情報処理方法
  5. 前記画像情報に含まれる前記移動体の画像情報を参照して、前記移動体を識別する移動体識別情報を特定することと
    前記移動体識別情報と、前記特定されたカーブ走行開始時刻及びカーブ走行終了時刻のうち少なくとも1つに関する情報と、を関連づけて記憶することと、
    さらに含む、請求項1乃至請求項4の何れかに記載の情報処理方法
  6. 情報処理システムにおける情報処理方法は、
    GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得することと、
    移動体の走行に関する画像情報を、当該画像情報が取得された時刻である走行時刻と関連づけて取得することと、
    前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出することと、
    前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定することと、
    前記取得した位置情報の中から、前記特定したカーブ走行期間に対応する複数の対象位置情報を特定することと、
    前記複数の対象位置情報及び前記カーブ走行期間を参照して、前記カーブ走行期間における前記移動体による走行の曲率半径を算出することと、
    を含む
  7. コンピュータに、
    移動体の走行に関する画像情報を、当該画像情報が取得された時刻と関連づけて取得することと、
    前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出することと、
    前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻及びカーブ走行終了時刻を特定することと、
    を実行させる、プログラム。
  8. 移動体の走行に関する画像情報を、当該画像情報が取得された時刻と関連づけて取得する取得部と、
    前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出する抽出部と、
    前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻及びカーブ走行終了時刻を特定する特定部と、
    を備える、情報処理装置。
JP2021514202A 2019-04-17 2020-04-15 情報処理装置、プログラム、及び、情報処理方法 Active JP7079041B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019078453 2019-04-17
JP2019078453 2019-04-17
JP2019142930 2019-08-02
JP2019142930 2019-08-02
PCT/JP2020/016589 WO2020213649A1 (ja) 2019-04-17 2020-04-15 情報処理装置、プログラム、及び、情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2020213649A1 JPWO2020213649A1 (ja) 2020-10-22
JP7079041B2 true JP7079041B2 (ja) 2022-06-01

Family

ID=72837253

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021514202A Active JP7079041B2 (ja) 2019-04-17 2020-04-15 情報処理装置、プログラム、及び、情報処理方法

Country Status (2)

Country Link
JP (1) JP7079041B2 (ja)
WO (1) WO2020213649A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324560A (ja) 2000-05-16 2001-11-22 Sony Corp ナビゲーション装置、およびgps受信機
JP2003162799A (ja) 2001-11-28 2003-06-06 Hitachi Ltd 車両の走行制御方法及び装置
JP2012008999A (ja) 2010-05-26 2012-01-12 Mitsubishi Electric Corp 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法
JP2015001812A (ja) 2013-06-14 2015-01-05 パナソニック株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2016132374A (ja) 2015-01-20 2016-07-25 トヨタ自動車株式会社 衝突回避制御装置
JP2017090339A (ja) 2015-11-13 2017-05-25 株式会社デンソー 位置記録装置
JP2018055141A (ja) 2016-09-26 2018-04-05 日立オートモティブシステムズ株式会社 移動体軌道予測システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001324560A (ja) 2000-05-16 2001-11-22 Sony Corp ナビゲーション装置、およびgps受信機
JP2003162799A (ja) 2001-11-28 2003-06-06 Hitachi Ltd 車両の走行制御方法及び装置
JP2012008999A (ja) 2010-05-26 2012-01-12 Mitsubishi Electric Corp 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法
JP2015001812A (ja) 2013-06-14 2015-01-05 パナソニック株式会社 画像処理装置、画像処理方法、および画像処理プログラム
JP2016132374A (ja) 2015-01-20 2016-07-25 トヨタ自動車株式会社 衝突回避制御装置
JP2017090339A (ja) 2015-11-13 2017-05-25 株式会社デンソー 位置記録装置
JP2018055141A (ja) 2016-09-26 2018-04-05 日立オートモティブシステムズ株式会社 移動体軌道予測システム

Also Published As

Publication number Publication date
JPWO2020213649A1 (ja) 2020-10-22
WO2020213649A1 (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
CN110136199B (zh) 一种基于摄像头的车辆定位、建图的方法和装置
CN112567201B (zh) 距离测量方法以及设备
CN109215433B (zh) 用于自动驾驶仿真的基于视觉的驾驶场景生成器
CN109690623B (zh) 用于识别场景中的相机的姿势的系统和方法
KR102126621B1 (ko) 자율 주행 차량을 위한 시스템 지연 보정 제어 방법
KR101975728B1 (ko) 자율 주행 차량을 위한 사이드슬립 보상 제어 방법
EP3138078B1 (en) Speed-up template matching using peripheral information
KR101960140B1 (ko) 자율 주행 차량 내에서 증강 가상 현실 콘텐츠를 제공하는 시스템 및 방법
JP6456902B2 (ja) リアルタイム交通情報に基づいて自律走行車においてコンテンツを提供するシステムおよび方法
JP6494589B2 (ja) リアルタイムで動的に決定された感知に基づいて自律走行車においてコンテンツを提供するシステムおよび方法
WO2020168667A1 (zh) 基于共享slam地图的高精度定位方法及系统
CN108139884A (zh) 模拟自动驾驶车辆移动的物理模型和结合机器学习的方法
KR20180052673A (ko) 자율 주행 차량 제어를 위한 시스템 지연 추정 방법
CN113916243A (zh) 目标场景区域的车辆定位方法、装置、设备和存储介质
JP2018083612A (ja) 自律走行車のコマンド遅延を決定するための方法
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
JP2015207186A (ja) 携帯端末用プログラム、携帯端末、自動車運転特性診断システム、自動車加速度算出方法
CN111127584A (zh) 建立视觉地图的方法和装置、电子设备和存储介质
US10019805B1 (en) Detecting vehicle movement through wheel movement
JPWO2020039937A1 (ja) 位置座標推定装置、位置座標推定方法およびプログラム
WO2022062480A1 (zh) 移动设备的定位方法和定位装置
US20230106961A1 (en) Camera initialization for lane detection and distance estimation using single-view geometry
KR20200140003A (ko) 관성 측정 유닛에 대한 캘리브레이션 장치 및 방법
US20220222870A1 (en) Map driven augmented reality
EP3885706A1 (en) Real-time rem localization error correction by consumer automated vehicles

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211006

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20211021

AA64 Notification of invalidation of claim of internal priority (with term)

Free format text: JAPANESE INTERMEDIATE CODE: A241764

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220218

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220513

R150 Certificate of patent or registration of utility model

Ref document number: 7079041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150