JP7079041B2 - 情報処理装置、プログラム、及び、情報処理方法 - Google Patents
情報処理装置、プログラム、及び、情報処理方法 Download PDFInfo
- Publication number
- JP7079041B2 JP7079041B2 JP2021514202A JP2021514202A JP7079041B2 JP 7079041 B2 JP7079041 B2 JP 7079041B2 JP 2021514202 A JP2021514202 A JP 2021514202A JP 2021514202 A JP2021514202 A JP 2021514202A JP 7079041 B2 JP7079041 B2 JP 7079041B2
- Authority
- JP
- Japan
- Prior art keywords
- moving body
- information
- curve
- time
- traveling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 49
- 238000003672 processing method Methods 0.000 title claims description 9
- 230000008859 change Effects 0.000 claims description 21
- 238000000605 extraction Methods 0.000 claims 2
- 239000000284 extract Substances 0.000 claims 1
- 230000001133 acceleration Effects 0.000 description 41
- 238000012986 modification Methods 0.000 description 28
- 230000004048 modification Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 18
- 238000000034 method Methods 0.000 description 17
- 239000011159 matrix material Substances 0.000 description 14
- 230000004044 response Effects 0.000 description 13
- 238000001514 detection method Methods 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 8
- 230000005484 gravity Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 239000005436 troposphere Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/095—Predicting travel path or likelihood of collision
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
- B60W40/06—Road conditions
- B60W40/072—Curvature of the road
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Navigation (AREA)
- Traffic Control Systems (AREA)
Description
例えば、再表2010-073300号公報には、速度検出部によって測定された走行速度と、ヨーレート検出部によって測定された回転角速度と、を用いて曲率半径を推定する技術が開示されている。
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得する位置情報取得手段と、
前記移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するセンサ情報取得手段と、
前記センサ情報を参照して、前記移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するカーブ走行期間特定手段と、
前記取得した位置情報の中から、前記特定したカーブ走行期間に対応する複数の対象位置情報を特定する対象位置特定手段と、を備える、情報処理装置である。
・X軸:移動体の重心点を通る進行方向の軸
・Y軸:移動体の重心点を通る進行方向に対して直交する幅方向の軸
・Z軸:移動体の重心点を通る鉛直軸
情報処理システムの構成を説明する。図1は、本実施形態の情報処理システムの構成を示すブロック図である。図2は、図1の情報処理システムの機能ブロック図である。
クライアント装置10及びサーバ30は、ネットワーク(限定でなく例として、インターネット又はイントラネット)NWを介して接続される。
センサユニット20は、クライアント装置10に接続される。
クライアント装置10及びセンサユニット20は、本実施形態では移動体MBに配置されることとしているが、この形態に限られない。クライアント装置10は、センサユニット20からネットワーク経由等で必要なデータを受信することができる限りは、移動体MB外に配置されてもよい。
・四輪車
・二輪車
・船舶
・飛行体(一例として、ドローン)
・パーソナルモビリティ
クライアント装置10の構成を説明する。
・OS(Operating System)のプログラム
・情報処理を実行するアプリケーション(例えば、ウェブブラウザ)のプログラム
・情報処理において参照されるデータベース
・情報処理を実行することによって得られるデータ(つまり、情報処理の実行結果)
入力デバイスは、限定でなく例として、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、限定でなく例として、ディスプレイである。
サーバ30の構成を説明する。
・OSのプログラム
・情報処理を実行するアプリケーションのプログラム
・情報処理において参照されるデータベース
・情報処理の実行結果
入力デバイスは、限定でなく例として、キーボード、ポインティングデバイス、タッチパネル、又は、それらの組合せである。
出力デバイスは、限定でなく例として、ディスプレイである。
センサユニット20の構成を説明する。
・X軸方向の加速度
・Y軸方向の加速度
・Z軸方向の加速度
・X軸回りの角速度
・Y軸回りの角速度
・Z軸回りの角速度(以下「ヨーレート」という)
本実施形態の概要について説明する。図3は、本実施形態の概要の説明図である。
サーバ30は、複数のセンサ情報を参照して、カーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定する。
サーバ30は、複数の位置情報の中から、カーブ走行期間に対応する複数の対象位置情報を特定する。
本実施形態のデータベースを説明する。以下のデータベースは、記憶装置31に記憶される。
本実施形態の移動体情報データベースを説明する。図4は、本実施形態の移動体情報データベースのデータ構造を示す図である。
移動体情報データベースは、「移動体ID」フィールドと、「移動体属性」フィールドと、「オーナID」フィールドと、を含む。各フィールドは、互いに関連付けられている。
本実施形態の走行ログ情報データベースを説明する。図5は、本実施形態の走行ログ情報データベースのデータ構造を示す図である。
走行ログ情報データベースは、「走行ログID」フィールドと、「走行時刻」フィールドと、「加速度」フィールドと、「角速度」フィールドと、「画像」フィールドと、を含む。各フィールドは、互いに関連付けられている。
走行ログ情報データベースは、移動体IDに関連付けられている。
本実施形態の位置ログ情報データベースを説明する。図6は、本実施形態の位置ログ情報データベースのデータ構造を示す図である。
位置ログ情報データベースは、「位置ログID」フィールドと、「位置時刻」フィールドと、「位置」フィールドと、を含む。各フィールドは、互いに関連付けられている。
位置ログ情報データベースは、移動体IDに関連付けられている。
本実施形態の判定情報データベースを説明する。図7は、本実施形態の判定情報データベースのデータ構造を示す図である。
判定情報データベースは、「判定ログID」フィールドと、「走行ログID」フィールドと、「位置ログID」フィールドと、「判定結果」フィールドと、を含む。各フィールドは、互いに関連付けられている。
判定情報データベースは、移動体識別情報に関連付けられている。
参照走行ログは、カーブに進入したときの走行ログ情報の走行ログ識別情報、及び、カーブから出たときの走行ログ情報の走行ログ識別情報の組合せである。
走行ログ情報データベース(図5)における「走行ログID」フィールド(図7)の情報に関連付けられた「走行時刻」フィールドの組合せは、移動体MBがカーブ走行を開始したときの走行時刻、及び、移動体MBがカーブ走行を終了したときの走行時刻を示している。
参照位置ログは、カーブに進入したときの位置ログ情報の位置ログ識別情報、及び、カーブから出たときの位置ログ情報の位置ログ識別情報の組合せである。
位置ログ情報データベース(図6)における「位置ログID」フィールド(図7)の情報に関連付けられた「位置時刻」フィールドの情報の組合せは、移動体MBがカーブに進入したときの位置時刻、及び、移動体MBがカーブから出たときの位置時刻を示している。
本実施形態の情報処理を説明する。
本実施形態のカーブ走行の判定処理を説明する。図8は、本実施形態のカーブ走行の判定処理のシーケンス図である。図9は、図8の判定の処理の詳細なフローチャートである。図10は、図8の走行情報の取得の説明図である。図11は、図8のカーブ走行期間の特定の説明図である。図12は、図8の曲率半径の推定の説明図である。
具体的には、プロセッサ12は、移動体MBに配置されたセンサユニット20から、移動体MBの走行に関する走行情報を取得する。走行情報は、例えば、以下の情報を含む。
・加速度センサ21による検出結果(加速度センサ21の座標系(以下「加速度センサ座標系」という)における移動体MBの加速度)
・角速度センサ22による検出結果(角速度センサ22のセンサ座標系(以下「角速度センサ座標系」という)における移動体MBの角速度)
・イメージセンサ23によって撮像された画像(移動体MBの車内及び車外の少なくとも1つの画像)
・加速度センサ21、角速度センサ22、及び、イメージセンサ23による検出時刻(つまり、走行時刻)
Am(x,y,z) = Rd * Rh * As(x,y,z) …(式1)
・Rh:水平面上への回転行列
・Rd:進行方向(X方向)への回転行列
ωm = Rd * Rh * ωs …(式2)
なお、回転行列Rhおよび回転行列Rdは移動体におけるセンサユニット20の設置状態に応じて値が変化してしまう可能性があるため、回転行列Rhおよび回転行列Rdの値を定期的なタイミング(例えば、毎日の所定の時刻、又は、移動体MBの起動のタイミングなど)で取得し、角速度センサ22による検出結果ωmの値を更新することが望ましい。例えば、クライアント装置10は、図示しない再計算指示部をさらに備える。再計算指示部は、所定の更新条件を満たす場合には、プロセッサ12に回転行列Rhおよび回転行列Rdの値を再計算し、且つ、角速度センサ22による検出結果ωmの値の更新を指示してもよい。
具体的には、プロセッサ12は、センサユニット20から、移動体MBの位置に関する位置情報を取得する。位置情報は、例えば、以下の情報を含む。
・GPSモジュール24による検出結果(移動体MBの位置情報)
・GPSモジュール24による検出時刻(つまり、位置時刻という)
具体的には、プロセッサ12は、判定リクエストデータをサーバ30に送信する。判定リクエストデータは、以下の情報を含む。
・記憶装置11に予め記憶された移動体識別情報
・ステップS110で取得された走行情報(走行時刻情報、加速度Am、角速度ωm、及び、画像)
・ステップS111で取得された位置情報(位置時刻情報、並びに、移動体MBの緯度及び経度の組合せを示す情報)
具体的には、プロセッサ32は、判定リクエストデータに含まれる位置情報を参照して、移動体MBの位置の時間変化を特定する。
プロセッサ32は、特定された時間変化に基づいて、移動体MBの速度Vgpsを計算する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる走行情報のうちヨーレートωmzの走行時刻毎の変化を示すヨーレート関数ωmz(Tr)を求める(図11)。
プロセッサ32は、例えば、ヨーレート関数ωmz(Tr)を参照して、ヨーレートωmzの値が上昇を開始する走行時刻(以下「カーブ走行開始時刻」という)Tr1と、ヨーレートωmzの値の減少が終了する走行時刻(以下「カーブ走行終了時刻」という)Tr2と、を特定する。または、例えば、ヨーレートωmzの微分値の絶対値が所定の閾値以上になった(または超過した)時刻をカーブ走行開始時刻Tr1とし、その後、ヨーレートωmzの微分値の絶対値が所定の閾値以下になった(または未満になった)時刻をカーブ走行終了時刻Tr2として特定してもよく、カーブ走行開始時刻Tr1およびカーブ走行終了時刻Tr2の特定手法は特に限定しない。
プロセッサ32は、ステップS1301で得られたカーブ走行開始時刻Tr1に、衛星とGPSモジュール24との間の通信におけるレイテンシによって決まる遅延時間ΔTを加算することにより、速度関数Vgps(Tgps)におけるカーブ走行開始時刻Tgps1を計算する。
プロセッサ32は、ステップS1301で得られたカーブ走行終了時刻Tr2に遅延時間ΔTを加算することにより、速度関数Vgps(Tgps)におけるカーブ走行終了時刻Tgps2を計算する。
プロセッサ32は、特定したカーブ走行期間Pcの長さをカーブ走行時間として特定する。
プロセッサ32は、カーブ走行終了時刻Tgps2における速度(以下「出車速度」という)Vgps(Tgps2)を計算する。
プロセッサ32は、カーブ走行開始時刻Tgps1からカーブ走行終了時刻Tgps2までの速度Vgps(Tgps)の平均速度を計算する。
具体的には、プロセッサ32は、位置ログ情報データベース(図6)を参照して、ステップS1301で得られたカーブ走行開始時刻Tgps1に関連付けられた位置情報(以下「カーブ走行開始位置情報」という)を特定する。
プロセッサ32は、位置ログ情報データベースを参照して、ステップS1301で得られたカーブ走行終了時刻Tgps2に関連付けられた位置情報(以下「カーブ終了位置情報」という)を特定する。
プロセッサ32は、位置ログ情報データベースを参照して、ステップS1301で得られたカーブ走行開始時刻Tgps1とカーブ走行終了時刻Tgps2との間に含まれる位置時刻情報に関連付けられた位置情報(以下「カーブ走行位置情報」という)を特定する。
カーブ走行の判定の対象となる位置情報(以下「対象位置情報」という)は、カーブ走行開始位置情報、カーブ走行位置情報、及び、カーブ終了位置情報の組合せである。
具体的には、プロセッサ32は、ステップS1301で得られた対象位置情報を参照して、ステップS1301で得られたカーブ走行期間Pcにおける移動体MBの位置の軌跡を推定する(図12B)。
プロセッサ32は、推定された軌跡の曲率半径R0を計算する。
ここで、推定された軌跡から曲率半径R0を計算する具体的な手法として、例えば、最小二乗法を用いて、推定された軌跡とのマッチング度が最も高い(誤差が最小となる)円弧モデルを算出し、その円弧モデルの半径を曲率半径R0と推定するといった手法が挙げられる。無論、曲率半径R0の計算手法はこれに限られず、その手法は特に限定されない。
この場合、図12Aに示すように、大量の位置情報の中からカーブ走行中の位置情報を抽出することは困難である。そのため、曲率半径R1は、実際のカーブ走行の曲率半径とは大きく異なる値になることがある。図12Aは、曲率半径R1が実際のカーブ走行の曲率半径より大きくなる例を示している。
これに対して、本実施形態では、ステップS1301においてカーブ走行期間が特定される。
この場合、図12Bに示すように、大量の位置情報の中からカーブ走行中の対象位置情報が抽出される。そのため、実際のカーブ走行に対応する曲率半径R0が得られる。
具体的には、プロセッサ32は、S1301で得られたヨーレート関数ωmz(Tr)のカーブ走行開始時刻Tr1からカーブ走行終了時刻Tr2までの値に基づいて、カーブ方向(右折又は左折)を判定する。
具体的には、プロセッサ32は、判定リクエストデータに含まれる移動体識別情報に関連付けられた走行ログ情報データベース(図5)に以下の情報を格納する。
・「走行ログID」フィールドには、ユニークな走行ログ識別情報が格納される。
・「走行時刻」フィールドには、判定リクエストデータに含まれる走行時刻情報が格納される。
・「加速度」フィールドには、判定リクエストデータに含まれる加速度の値が格納される。
・「角速度」フィールドには、判定リクエストデータに含まれる角速度の値が格納される。
・「画像」フィールドには、判定リクエストデータに含まれる画像が格納される。
・「位置ログID」フィールドには、ユニークな位置ログ識別情報が格納される。
・「位置時刻」フィールドには、判定リクエストデータに含まれる位置時刻情報が格納される。
・「位置」フィールドには、判定リクエストデータに含まれる位置情報が格納される。
・「判定ログID」フィールドには、ユニークな判定ログ識別情報が格納される。
・「走行ログID」フィールドには、走行ログ情報データベース(図5)において、カーブ走行開始時刻Tr1からカーブ走行終了時刻Tr2までの間の期間に関連付けられた走行ログ識別情報が格納される。
・「位置ログID」フィールドには、位置ログ情報データベース(図6)において、対象位置情報に関連付けられた位置ログ識別情報が格納される。
・「方向」フィールドには、S1304で得られたカーブ方向情報が格納される。
・「カーブ走行時間」フィールドには、ステップS1301で得られたカーブ走行時間が格納される。
・「曲率半径」フィールドには、ステップS1303で得られた曲率半径R0の値が格納される。
・「入車速度」フィールドには、ステップS1301で得られた入車速度の値が格納される。
・「出車速度」フィールドには、ステップS1301で得られた出車速度の値が格納される。
・「平均速度」フィールドには、ステップS1301で得られた平均速度の値が格納される。
本実施形態のカーブ走行情報の提示処理を説明する。図13は、本実施形態のカーブ走行情報の提示処理のシーケンス図である。図14は、図13の情報処理において表示される画面例を示す図である。
具体的には、プロセッサ12は、画面P10(図14)をディスプレイに表示する。
フィールドオブジェクトF10は、曲率半径の推定の対象となる移動体MBの移動体識別情報のユーザ入力を受け付けるオブジェクトである。
操作オブジェクトB10は、フィールドオブジェクトF10に入力されたユーザ入力に基づく検索リクエストを実行させるためのユーザ指示を受け付けるオブジェクトである。
具体的には、プロセッサ32は、検索リクエストデータに含まれる移動体識別情報に関連付けられた走行ログ情報データベース(図5)の「曲率半径」フィールドの値を、検索の対象となる曲率半径(以下「対象曲率半径」という)として特定する。
具体的には、プロセッサ32は、検索レスポンスデータをクライアント装置10に送信する。検索レスポンスデータは、以下の情報を含む。
・ステップS131で特定された移動体識別情報
・ステップS1301で特定されたカーブ走行開始時刻Tr1
・ステップS1301で特定されたカーブ走行終了時刻Tr2
・ステップS1304で得られたカーブ方向
・ステップS1301で得られたカーブ走行時間
・ステップS1303で得られた曲率半径
・ステップS1301で得られた入車速度
・ステップS1301で得られた出車速度
具体的には、プロセッサ12は、画面P11(図14)をディスプレイに表示する。
各表示オブジェクトA11には、以下の情報が表示される。
・検索レスポンスデータに含まれる移動体識別情報
・検索レスポンスデータに含まれるカーブ走行開始時刻
・検索レスポンスデータに含まれるカーブ走行終了時刻
・検索レスポンスデータに含まれるカーブ方向
・検索レスポンスデータに含まれるカーブ走行期間
・検索レスポンスデータに含まれる曲率半径
・検索レスポンスデータに含まれる入車速度
・検索レスポンスデータに含まれる出車速度
・検索レスポンスデータに含まれる平均速度
本実施形態の変形例を説明する。
変形例1を説明する。変形例1は、加速度センサ21によって検出された加速度を用いて移動体MBの曲率半径を計算する例である。図15は、変形例1のカーブ走行期間の特定の説明図である。
プロセッサ32は、加速度関数Am(Tr)を参照して、加速度Amの値が上昇を開始する走行時刻(以下「カーブ走行開始時刻」という)Tr1と、加速度Amの値の減少が終了する走行時刻(以下「カーブ走行終了時刻」という)Tr2と、を特定する。
変形例2を説明する。変形例2は、イメージセンサ23によって撮像された画像を用いて移動体MBの曲率半径を計算する例である。図16は、変形例2の概要の説明図である。
プロセッサ32は、車外の風景の変化を参照して、カーブ走行開始時刻Tr1と、カーブ走行終了時刻Tr2と、を特定する。
例えば、イメージセンサ23は移動体MBの内部からフロントガラスに向けて設置され、且つ、一定の頻度(例えば、30fps)で移動体MBの外部(例えば、前方)の画像を撮像するように構成される。
ここで、プロセッサ32は、イメージセンサ23により撮像された画像の画像特徴量を解析する。
プロセッサ32は、動きベクトルの大きさ(例えば、フロントガラス領域またはその内部の小領域の動きベクトルの大きさ)が所定の閾値以上になった(または超過した)時刻をカーブ走行開始時刻Tr1として特定し、且つ、カーブ走行開始時刻Tr1の後に動きベクトルの大きさが閾値以下になった(または未満になった)時刻をカーブ走行終了時刻Tr2として特定してもよい。
また、イメージセンサ23は移動体MBの外部に設置されていてもよく、この場合は、画像内の任意の領域における動きベクトルの大きさについて同様の処理を行う。
無論、撮像された画像の情報に基づくカーブ走行開始時刻Tr1およびカーブ走行終了時刻Tr2の特定手法はこれらに特に限定されない。
変形例3を説明する。変形例3は、移動体MBの外部に配置されたイメージセンサによって撮像された画像を用いて移動体MBの曲率半径を計算する例である。図17は、変形例3の概要の説明図である。
・移動体MBの走行環境に存在する構造物(一例として、電柱、信号機、歩道橋、及び、建築物)
・移動体MBとは異なる移動体(一例として、二輪車、四輪車、鉄道、ドローン、航空機、船舶、パーソナルモビリティ、人工衛星、及び、歩行者が所持するモバイル端末の少なくとも1つ)
プロセッサ32は、走行位置の変化を参照して、カーブ走行開始時刻Tr1と、カーブ走行終了時刻Tr2と、を特定する。
ここで、プロセッサ32は、イメージセンサISにより撮像された画像の画像特徴量を解析する。
より具体的には、プロセッサ32は、移動体MBを被写体とするピクセル領域において、移動体MBに対応するピクセルの第1動きベクトルと、移動体MBを被写体としないピクセル領域(一例として、背景領域)におけるピクセルの第2動きベクトルと、を計算する。プロセッサ32は、第1動きベクトルから第2動きベクトルを減算することにより、差分ベクトルを計算する。
無論、撮像された画像の情報に基づくカーブ走行開始時刻Tr1およびカーブ走行終了時刻Tr2の特定手法のほか、画像内での移動体MBの認識手法および移動体MBの右折または左折の行動特定手法は特に限定されない。
本実施形態について小括する。
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得する位置情報取得手段(例えば、ステップS130を実行するプロセッサ32)と、
移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するセンサ情報取得手段(例えば、ステップS130を実行するプロセッサ32)と、
センサ情報を参照して、移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するカーブ走行期間特定手段(例えば、ステップS1301を実行するプロセッサ32)と、
取得した位置情報の中から、特定したカーブ走行期間に対応する複数の対象位置情報を特定する対象位置特定手段(例えば、ステップS1302を実行するプロセッサ32)と、を備える、情報処理装置(例えば、サーバ30)である。
複数の対象位置情報、及び特定されたカーブ走行期間を参照して、カーブ走行期間における移動体による走行の曲率半径を推定する曲率半径推定手段(例えば、ステップS1303を実行するプロセッサ32)をさらに備える、情報処理装置(例えば、サーバ30)である。
センサ情報は、移動体MBの重心点を通る鉛直軸回りの角速度を含み、
カーブ走行期間特定手段は、複数のセンサ情報の角速度の時間変化を参照して、カーブ走行期間を特定する、
情報処理装置(例えば、サーバ30)である。
走行情報は、移動体MBの重心点を通る鉛直軸及び移動体MBの重心点を通る幅方向の軸回りの加速度を含み、
カーブ走行期間特定手段は、複数のセンサ情報の加速度の時間変化を参照して、カーブ走行期間を特定する、
情報処理装置(例えば、サーバ30)である。
走行情報は、移動体MBの走行に関する画像を含み、
カーブ走行期間特定手段は、
画像を解析することにより、移動体MBの走行の特徴量を抽出し、
抽出された特徴量の時間変化を参照して、カーブ走行期間を特定する、
情報処理装置(例えば、サーバ30)である。
移動体MBの走行に関する画像は、移動体MBの内部に配置されたイメージセンサ23から取得される、
情報処理装置(例えば、サーバ30)である。
移動体MBの走行に関する画像は、移動体MBの外部に配置されたイメージセンサ23から取得される、
情報処理装置(例えば、サーバ30)である。
移動体MBの走行に関する画像は、移動体MBとは異なる移動体MBaに配置されたイメージセンサISから取得される、
情報処理装置(例えば、サーバ30)である。
画像に含まれる移動体の画像を参照して、移動体MBを識別する移動体識別情報を特定する手段を備え、
移動体識別情報と、カーブ走行開始時刻と、カーブ走行終了時刻と、曲率半径と、を関連付けて記憶する手段を備える、
情報処理装置(例えば、サーバ30)である。
移動体MBは、手動運転型移動体であり、
カーブ走行期間は、手動運転型移動体における運転者によるハンドル操作が開始された時刻、及び、運転者によるハンドル操作が終了した時刻に基づいて規定される、
情報処理装置(例えば、サーバ30)である。
移動体MBは、自動運転型移動体であり、
カーブ走行期間は、自動運転型移動体のプロセッサによるカーブ走行制御が開始された時刻、及び、プロセッサによるカーブ走行制御が終了した時刻に基づいて規定される、
情報処理装置(例えば、サーバ30)である。
コンピュータ(例えば、プロセッサ32)を、
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得する位置情報取得手段(例えば、ステップS130を実行するプロセッサ32)、
移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するセンサ情報取得手段(例えば、ステップS130を実行するプロセッサ32)、
センサ情報を参照して、移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するカーブ走行期間特定手段(例えば、ステップS1301を実行するプロセッサ32)、及び、
取得した位置情報の中から、特定したカーブ走行期間に対応する複数の対象位置情報を特定する対象位置特定手段(例えば、ステップS1302を実行するプロセッサ32)、
として機能させるためのプログラムである。
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得するステップ(例えば、ステップS130)と、
移動体の走行に関するセンサ情報を、当該センサ情報が検出された時刻である走行時刻と関連づけて取得するステップ(例えば、ステップS130)と、
センサ情報を参照して、移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定するステップ(例えば、ステップS1301)と、
取得した位置情報の中から、特定したカーブ走行期間に対応する複数の対象位置情報を特定するステップ(例えば、ステップS1302)と、を含む、
情報処理方法である。
その他の変形例を説明する。
例えば、クライアント装置10が上記の情報処理の全てのステップを実行可能である場合、クライアント装置10は、サーバ30にリクエストを送信することなく、スタンドアロンで動作する情報処理装置として機能する。
手動運転型移動体の場合、カーブ走行期間は、ハンドル操作が開始された時刻、及び、ハンドル操作が終了した時刻によって規定される。
自動運転型移動体の場合、カーブ走行期間は、カーブ走行制御が開始された時刻、及び、カーブ走行制御が終了した(つまり、カーブ走行制御から直進走行制御に移行した)時刻によって規定される。この場合、ステップS1304は省略可能である。ステップS131において、プロセッサ32は、移動体MBの走行を制御するコンピュータから走行制御(右折又は左折)に関する情報(以下「走行制御情報」という)を取得する。プロセッサ32は、判定情報データベース(図7)の「方向」フィールドに、走行制御情報を格納する。
10 :クライアント装置
11 :記憶装置
12 :プロセッサ
13 :入出力インタフェース
14 :通信インタフェース
20 :センサユニット
21 :加速度センサ
22 :角速度センサ
23 :イメージセンサ
24 :GPSモジュール
30 :サーバ
31 :記憶装置
32 :プロセッサ
33 :入出力インタフェース
34 :通信インタフェース
Claims (8)
- 情報処理システムにおける情報処理方法は、
移動体の走行に関する画像情報を、当該画像情報が取得された時刻と関連づけて取得することと、
前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出することと、
前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻及びカーブ走行終了時刻を特定することと、
を含む。 - 前記移動体の走行に関する画像情報は、前記移動体の内部に配置されたイメージセンサから取得される、
請求項1に記載の情報処理方法。 - 前記移動体の走行に関する画像情報は、前記移動体の外部に配置されたイメージセンサから取得される、
請求項1に記載の情報処理方法。 - 前記移動体の走行に関する画像情報は、前記移動体とは異なる移動体に配置されたイメージセンサから取得される、
請求項1に記載の情報処理方法。 - 前記画像情報に含まれる前記移動体の画像情報を参照して、前記移動体を識別する移動体識別情報を特定することと、
前記移動体識別情報と、前記特定されたカーブ走行開始時刻及びカーブ走行終了時刻のうち少なくとも1つに関する情報と、を関連づけて記憶することと、
をさらに含む、請求項1乃至請求項4の何れかに記載の情報処理方法。 - 情報処理システムにおける情報処理方法は、
GPS(Global Positioning System)モジュールによって取得される移動体の位置情報を、当該位置情報が取得された時刻である位置時刻と関連づけて取得することと、
移動体の走行に関する画像情報を、当該画像情報が取得された時刻である走行時刻と関連づけて取得することと、
前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出することと、
前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻からカーブ走行終了時刻までのカーブ走行期間を特定することと、
前記取得した位置情報の中から、前記特定したカーブ走行期間に対応する複数の対象位置情報を特定することと、
前記複数の対象位置情報及び前記カーブ走行期間を参照して、前記カーブ走行期間における前記移動体による走行の曲率半径を算出することと、
を含む。
- コンピュータに、
移動体の走行に関する画像情報を、当該画像情報が取得された時刻と関連づけて取得することと、
前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出することと、
前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻及びカーブ走行終了時刻を特定することと、
を実行させる、プログラム。 - 移動体の走行に関する画像情報を、当該画像情報が取得された時刻と関連づけて取得する取得部と、
前記画像情報を解析することにより、前記移動体の走行の特徴量を抽出する抽出部と、
前記抽出された特徴量の時間変化を参照して、前記移動体のカーブ走行開始時刻及びカーブ走行終了時刻を特定する特定部と、
を備える、情報処理装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019078453 | 2019-04-17 | ||
JP2019078453 | 2019-04-17 | ||
JP2019142930 | 2019-08-02 | ||
JP2019142930 | 2019-08-02 | ||
PCT/JP2020/016589 WO2020213649A1 (ja) | 2019-04-17 | 2020-04-15 | 情報処理装置、プログラム、及び、情報処理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2020213649A1 JPWO2020213649A1 (ja) | 2020-10-22 |
JP7079041B2 true JP7079041B2 (ja) | 2022-06-01 |
Family
ID=72837253
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021514202A Active JP7079041B2 (ja) | 2019-04-17 | 2020-04-15 | 情報処理装置、プログラム、及び、情報処理方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP7079041B2 (ja) |
WO (1) | WO2020213649A1 (ja) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001324560A (ja) | 2000-05-16 | 2001-11-22 | Sony Corp | ナビゲーション装置、およびgps受信機 |
JP2003162799A (ja) | 2001-11-28 | 2003-06-06 | Hitachi Ltd | 車両の走行制御方法及び装置 |
JP2012008999A (ja) | 2010-05-26 | 2012-01-12 | Mitsubishi Electric Corp | 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法 |
JP2015001812A (ja) | 2013-06-14 | 2015-01-05 | パナソニック株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2016132374A (ja) | 2015-01-20 | 2016-07-25 | トヨタ自動車株式会社 | 衝突回避制御装置 |
JP2017090339A (ja) | 2015-11-13 | 2017-05-25 | 株式会社デンソー | 位置記録装置 |
JP2018055141A (ja) | 2016-09-26 | 2018-04-05 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
-
2020
- 2020-04-15 JP JP2021514202A patent/JP7079041B2/ja active Active
- 2020-04-15 WO PCT/JP2020/016589 patent/WO2020213649A1/ja active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001324560A (ja) | 2000-05-16 | 2001-11-22 | Sony Corp | ナビゲーション装置、およびgps受信機 |
JP2003162799A (ja) | 2001-11-28 | 2003-06-06 | Hitachi Ltd | 車両の走行制御方法及び装置 |
JP2012008999A (ja) | 2010-05-26 | 2012-01-12 | Mitsubishi Electric Corp | 道路形状推定装置及びコンピュータプログラム及び道路形状推定方法 |
JP2015001812A (ja) | 2013-06-14 | 2015-01-05 | パナソニック株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
JP2016132374A (ja) | 2015-01-20 | 2016-07-25 | トヨタ自動車株式会社 | 衝突回避制御装置 |
JP2017090339A (ja) | 2015-11-13 | 2017-05-25 | 株式会社デンソー | 位置記録装置 |
JP2018055141A (ja) | 2016-09-26 | 2018-04-05 | 日立オートモティブシステムズ株式会社 | 移動体軌道予測システム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2020213649A1 (ja) | 2020-10-22 |
WO2020213649A1 (ja) | 2020-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110136199B (zh) | 一种基于摄像头的车辆定位、建图的方法和装置 | |
CN112567201B (zh) | 距离测量方法以及设备 | |
CN109215433B (zh) | 用于自动驾驶仿真的基于视觉的驾驶场景生成器 | |
CN109690623B (zh) | 用于识别场景中的相机的姿势的系统和方法 | |
KR102126621B1 (ko) | 자율 주행 차량을 위한 시스템 지연 보정 제어 방법 | |
KR101975728B1 (ko) | 자율 주행 차량을 위한 사이드슬립 보상 제어 방법 | |
EP3138078B1 (en) | Speed-up template matching using peripheral information | |
KR101960140B1 (ko) | 자율 주행 차량 내에서 증강 가상 현실 콘텐츠를 제공하는 시스템 및 방법 | |
JP6456902B2 (ja) | リアルタイム交通情報に基づいて自律走行車においてコンテンツを提供するシステムおよび方法 | |
JP6494589B2 (ja) | リアルタイムで動的に決定された感知に基づいて自律走行車においてコンテンツを提供するシステムおよび方法 | |
WO2020168667A1 (zh) | 基于共享slam地图的高精度定位方法及系统 | |
CN108139884A (zh) | 模拟自动驾驶车辆移动的物理模型和结合机器学习的方法 | |
KR20180052673A (ko) | 자율 주행 차량 제어를 위한 시스템 지연 추정 방법 | |
CN113916243A (zh) | 目标场景区域的车辆定位方法、装置、设备和存储介质 | |
JP2018083612A (ja) | 自律走行車のコマンド遅延を決定するための方法 | |
JP6520740B2 (ja) | 物体検出方法、物体検出装置、およびプログラム | |
JP2015207186A (ja) | 携帯端末用プログラム、携帯端末、自動車運転特性診断システム、自動車加速度算出方法 | |
CN111127584A (zh) | 建立视觉地图的方法和装置、电子设备和存储介质 | |
US10019805B1 (en) | Detecting vehicle movement through wheel movement | |
JPWO2020039937A1 (ja) | 位置座標推定装置、位置座標推定方法およびプログラム | |
WO2022062480A1 (zh) | 移动设备的定位方法和定位装置 | |
US20230106961A1 (en) | Camera initialization for lane detection and distance estimation using single-view geometry | |
KR20200140003A (ko) | 관성 측정 유닛에 대한 캘리브레이션 장치 및 방법 | |
US20220222870A1 (en) | Map driven augmented reality | |
EP3885706A1 (en) | Real-time rem localization error correction by consumer automated vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211006 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20211021 |
|
AA64 | Notification of invalidation of claim of internal priority (with term) |
Free format text: JAPANESE INTERMEDIATE CODE: A241764 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220222 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220331 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220401 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220512 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220513 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7079041 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |