JP7173373B2 - 同期装置、同期方法、および同期プログラム - Google Patents

同期装置、同期方法、および同期プログラム Download PDF

Info

Publication number
JP7173373B2
JP7173373B2 JP2021554125A JP2021554125A JP7173373B2 JP 7173373 B2 JP7173373 B2 JP 7173373B2 JP 2021554125 A JP2021554125 A JP 2021554125A JP 2021554125 A JP2021554125 A JP 2021554125A JP 7173373 B2 JP7173373 B2 JP 7173373B2
Authority
JP
Japan
Prior art keywords
data
time
series
sensor
image sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021554125A
Other languages
English (en)
Other versions
JPWO2021084896A5 (ja
JPWO2021084896A1 (ja
Inventor
忠至 横田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Publication of JPWO2021084896A1 publication Critical patent/JPWO2021084896A1/ja
Publication of JPWO2021084896A5 publication Critical patent/JPWO2021084896A5/ja
Application granted granted Critical
Publication of JP7173373B2 publication Critical patent/JP7173373B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/11Pitch movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/112Roll movement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/12Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to parameters of the vehicle itself, e.g. tyre models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C15/00Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path
    • G08C15/06Arrangements characterised by the use of multiplexing for the transmission of a plurality of signals over a common path successively, i.e. using time division
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L7/00Arrangements for synchronising receiver with transmitter
    • H04L7/0016Arrangements for synchronising receiver with transmitter correction of synchronization errors
    • H04L7/0033Correction by delay
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo or light sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/14Yaw
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/16Pitch
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/18Roll

Description

関連出願の相互参照
この出願は、2019年11月1日に日本に出願された特許出願第2019-200222号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
この明細書における開示は、複数のセンサの検出データを同期する技術に関する。
特許文献1には、受信した時刻情報に基づいて複数のセンサ間の時刻を同期する技術が開示されている。特許文献1のシステムでは、NTPサーバから受信した時刻情報に基づいて、各センサの時刻データを補正する。
特開2008-51761号公報
ところで、イメージセンサの検出データと、他のセンサとの検出データとの同期においては、イメージセンサによる検出タイミングに合わせて検出データ同士を同期させることが望まれている。しかし、特許文献1の技術では、受信した時刻情報に基づいて、イメージセンサの検出タイミングの時刻を特定することが困難であった。したがって、特許文献1の技術では、検出データ同士を正確に同期させることができなかった。
開示される目的は、検出データ同士を正確に同期可能な同期装置、同期方法、および同期プログラムを提供することである。
この明細書に開示された複数の態様は、それぞれの目的を達成するために、互いに異なる技術的手段を採用する。また、請求の範囲に記載した括弧内の符号は、ひとつの態様として後述する実施形態に記載の具体的手段との対応関係を示す一例であって、技術的範囲を限定するものではない。
開示された同期装置のひとつは、イメージセンサを含む複数のセンサを搭載する車両において用いられる同期装置であって、車両の運動状態に関するデータとして、イメージセンサによる検出データに含まれる時系列データ、およびイメージセンサ以外の他センサによる検出データに含まれる時系列データを取得するセンサ情報取得部と、時系列データ同士のマッチングに必要なずらし時間を算出するずらし時間算出部と、ずらし時間に基づいて、イメージセンサによる検出データと、他センサによる検出データとを同期させる同期部と、を備え、センサ情報取得部は、イメージセンサによる時系列の画像データから抽出された特徴点の変化量に基づく時系列の角速度データを、イメージセンサによる検出データに含まれる時系列データとして取得し、車両に作用する慣性力から車両の角速度を検出する慣性センサによる時系列の角速度データを、他センサによる検出データに含まれる時系列データとして取得し、同期部は、イメージセンサによる検出データを基準として、慣性センサによる検出データを、ずらし時間だけ遅らせる。
開示された同期方法のひとつは、イメージセンサを含む複数のセンサを搭載する車両において用いられ、プロセッサによって実行される同期方法であって、車両の運動状態に関するデータとして、イメージセンサによる検出データに含まれる時系列データ、およびイメージセンサ以外の他センサによる検出データに含まれる時系列データを取得する取得プロセスと、時系列データ同士のマッチングに必要なずらし時間を算出する算出プロセスと、ずらし時間に基づいて、イメージセンサによる検出データと、他センサによる検出データとを同期させる同期プロセスと、を含み、取得プロセスでは、イメージセンサによる時系列の画像データから抽出された特徴点の変化量に基づく時系列の角速度データを、イメージセンサによる検出データに含まれる時系列データとして取得し、車両に作用する慣性力から車両の角速度を検出する慣性センサによる時系列の角速度データを、他センサによる検出データに含まれる時系列データとして取得し、同期プロセスでは、イメージセンサによる検出データを基準として、慣性センサによる検出データを、ずらし時間だけ遅らせる。
開示された同期プログラムのひとつは、イメージセンサを含む複数のセンサを搭載する車両において用いられ、記憶媒体に格納され、プロセッサに実行させる命令を含む同期プログラムであって、命令は、車両の運動状態に関するデータとして、イメージセンサによる検出データに含まれる時系列データ、およびイメージセンサ以外の他センサによる検出データに含まれる時系列データを取得させる取得プロセスと、時系列データ同士のマッチングに必要なずらし時間を算出させる算出プロセスと、ずらし時間に基づいて、イメージセンサによる検出データと、他センサによる検出データとを同期させる同期プロセスと、を含み、取得プロセスでは、イメージセンサによる時系列の画像データから抽出された特徴点の変化量に基づく時系列の角速度データを、イメージセンサによる検出データに含まれる時系列データとして取得させ、車両に作用する慣性力から車両の角速度を検出する慣性センサによる時系列の角速度データを、他センサによる検出データに含まれる時系列データとして取得させ、同期プロセスでは、イメージセンサによる検出データを基準として、慣性センサによる検出データを、ずらし時間だけ遅らせる。
この開示によれば、イメージセンサの検出データに基づく時系列データと、他センサの検出データに基づく時系列データとのマッチングに必要なずらし時間に基づいて、検出データ同士が同期される。ずらし時間の算出にイメージセンサの検出データが用いられることにより、イメージセンサの検出タイミングに合わせて相対的に他センサの検出データが同期されることとなる。故に、イメージセンサの検出タイミングに対するより正確な検出データの同期が可能となる。以上により、検出データ同士を正確に同期可能な同期装置、同期方法、および同期プログラムが提供され得る。
同期装置を含むシステムを示す図である。 同期装置が実行する同期方法の一例を示すフローチャートである。 図2のサブルーチン処理を示すフローチャートである。 図3の処理を示すイメージ図である。
(第1実施形態)
第1実施形態の同期装置100について、図1~図4を参照しながら説明する。同期装置100は、車両に搭載された電子制御装置である。同期装置100は、車両に搭載された複数のセンサによる検出データ間の時刻を同期させる。時刻同期された複数の検出データは、例えば車両の自己位置推定において利用される。同期装置100は、IMU10、カメラ20、および自己位置推定装置200と通信バス等を介して接続されている。
IMU10は、車両に作用する慣性力を検出する車載センサである。IMU10は、例えば3軸ジャイロセンサおよび3軸加速度センサを有する6軸のモーションセンサによって提供される。IMU10は、3軸ジャイロセンサによって車両のヨー方向、ピッチ方向、およびロール方向に作用する各角速度を検出可能である。すなわち、IMU10は、車両の運動状態に関するデータとして、後述のイメージセンサ21と同じ状態量に関するデータを検出可能なセンサである。また、IMU10は、3軸加速度センサによって車両の前後方向、上下方向、および左右方向に作用する各加速度を検出する。IMU10は、各ジャイロセンサおよび各加速度センサの計測結果を、IMU10による検出データ(慣性データ)として、同期装置100に逐次出力する。IMU10は、「他センサ」の一例である。
カメラ20は、イメージセンサ21によって車両周辺の所定範囲を所定のフレームレートで撮像した画像データ、および画像データの解析結果の少なくとも一方を検出データとして出力する撮像デバイスである。カメラ20は、例えば車両の前方を撮像範囲として車両の所定位置に固定されている。カメラ20は、例えば、フロントウインドウの上端部、ルームミラー付近、またはインストルメントパネル上面部等に取り付けられている。
カメラ20は、図示しないレンズユニットと、イメージセンサ21と、制御部22とを備える。レンズユニットは撮像範囲からの光像をイメージセンサ21の受光面上に結像させる。イメージセンサ21は、撮像範囲の画像を撮像する撮像素子である。イメージセンサ21は、受光面上に結像した光を電気信号に変換する。イメージセンサ21は、CCDセンサまたはCMOSセンサ等により提供される。イメージセンサ21は、電気信号を制御部22に逐次出力する。イメージセンサ21は、継続的な画像の撮像により、IMU10にて検出される状態量と同じ状態量である角速度を、車両の運動状態を示すデータとして検出可能なセンサである。角速度は、後述の角速度算出プログラムにより、画像から解析される。
制御部22は、プロセッサ23、メモリ24、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ23は、演算処理のためのハードウェアである。プロセッサ23は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも一種類をコアとして含む。
メモリ24は、コンピュータにより読み取り可能なプログラムおよびデータ等を非一時的に格納または記憶する、例えば半導体メモリ、磁気媒体および光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリ24は、プロセッサ23によって実行される種々のプログラムを格納している。
制御部22は、イメージセンサ21による撮像時の露光状態を含めたイメージセンサ21の撮像作動を制御する。具体的には、制御部22は、イメージセンサ21における画素の電子シャッタのタイミングを調整して露光時間を制御し、読み出しラインを選択し、選択された読み出しラインに該当する画素の行選択および列選択を実行して信号を取得する。または、制御部22は、各画素の信号を一括して取得してもよい。制御部22は、イメージセンサ21から出力された電気信号を画像処理し、実景の画像データを生成する。
また、制御部22は、角速度算出プログラムの実行により、画像処理機能と協働して車両のヨー方向、ピッチ方向、ロール方向の各角速度を算出する角速度算出機能を備えている。制御部22は、例えば、角速度の算出にビジュアルオドメトリを用いる。具体的には、制御部22は、時系列の画像データから特徴点を抽出し、当該特徴点のフレーム毎の座標の変化量に基づき角速度を算出する。制御部22にて算出される角速度には、少なくともピッチ方向の角速度(ピッチレート)およびロール方向の角速度(ロールレート)が含まれている。制御部22は、画像データおよび対応する角速度データを、カメラ20による検出データとして同期装置100に逐次提供する。
自己位置推定装置200は、車両の自己位置を推定する電子制御装置である。自己位置推定装置200は、制御部22と同様に、プロセッサ201、メモリ202、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。自己位置推定装置200では、メモリ202に格納された自己位置推定プログラムに含まれる複数の命令をプロセッサ201にて実行することで、自己位置推定機能を実現する。例えば、自己位置推定装置200は、IMU10による検出データに基づくデッドレコニングによって車両の移動量を予測する。そして、自己位置推定装置200は、カメラ20による検出データと、高精度地図の地物情報とのマッチングによって、車両の横および前後位置の補正量を算出する。自己位置推定装置200は、これらの情報を組み合わせることで、車両の現在位置および進行方位を、自己位置情報として推定する。推定された自己位置情報は、例えば自動運転または高度運転支援における車両の走行制御等に利用される。
同期装置100は、複数の車載センサからの検出データを処理し、当該検出データを必要とするECU等の車載装置に提供する電子制御装置である。同期装置100は、プロセッサ101、メモリ102、入出力インターフェース、およびこれらを接続するバス等を備えたコンピュータを主体として含む構成である。プロセッサ101は、演算処理のためのハードウェアである。プロセッサ101は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)およびRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも一種類をコアとして含む。
メモリ102は、コンピュータにより読み取り可能なプログラムおよびデータ等を非一時的に格納または記憶する、例えば半導体メモリ、磁気媒体および光学媒体等のうち、少なくとも一種類の非遷移的実体的記憶媒体(non-transitory tangible storage medium)である。メモリ102は、後述の同期プログラム等、プロセッサ11によって実行される種々のプログラムを格納している。
プロセッサ101は、メモリ102に格納された同期プログラムに含まれる複数の命令を、実行する。これにより同期装置100は、運転支援するための機能ブロックを、複数構築する。このように同期装置100では、運転支援するためにメモリ102に格納されたプログラムが複数の命令をプロセッサ101に実行させることで、複数の機能ブロックが構築される。具体的に、同期装置100には、センサ情報取得部110、ずらし時間算出部120、および同期部130等の機能部が構築される。
センサ情報取得部110は、IMU10およびカメラ20から出力された検出データを取得する。特に、センサ情報取得部110は、各検出データに含まれる時系列の角速度データを取得する。
具体的には、センサ情報取得部110は、IMU10から出力された角速度データを時系列にバッファリングし、IMU10による時系列の角速度データとして時系列データAを生成する。さらに、センサ情報取得部110は、カメラ20から出力された角速度データを時系列にバッファリングし、カメラ20による時系列の角速度データとして時系列データBを生成する。時系列データA,Bの各値は、タイマやリアルタイムクロック等により規定される時刻情報と対応付けられている。時刻情報は、同期装置100にて設定されてもよいし、IMU10およびカメラ20、または他のECU等にて設定されたものであってもよい。各時系列データA,Bは、少なくともピッチレートデータおよびロールレートデータを含んでいる。なお、センサ情報取得部110は、IMU10およびカメラ20、または他のECUにて生成された時系列データA,Bを取得してもよい。センサ情報取得部110は、時系列データA,Bを所定の周期ごとに生成し、ずらし時間算出部120へと提供する。
ずらし時間算出部120は、時系列データAと、時系列データBとのマッチングに必要なずらし時間を算出する。ここでマッチングとは、各時系列データA,Bが時刻軸上で実質的に一致することを意味する。具体的には、ずらし時間算出部120は、時系列データA,Bのいずれか一方を初期時刻から時間的にずらした場合に、時系列データA,B同士の類似度が最も大きくなる時間のずれ幅を、ずらし時間として探索する。ずらし時間の探索において、ずらし時間算出部120は、例えば時系列データA,B同士が一致する尤度を、類似度を示すパラメータとする。ここで尤度は、時系列データA,B同士が一致する確率を示す値である。この場合、尤度が大きいほど類似度が大きいため、ずらし時間算出部120は、尤度の最も大きいずらし時間を探索する。
ずらし時間算出部120は、所定の周期ごとに生成された複数組の時系列データA,Bに関して、各組ごとにずらし時間の候補値tを算出する。ずらし時間算出部120は、この各組ごとに算出された複数の候補値tから、実際のデータ同期に利用するずらし時間を決定する。例えば、ずらし時間算出部120は、複数の候補値tの中央値を算出し、当該中央値をずらし時間とする。ずらし時間算出部120は、算出したずらし時間を、同期部130へと提供する。
同期部130は、ずらし時間に基づいて、カメラ20の検出データと、IMU10の検出データとを同期させる。例えば、同期部130は、カメラ20の検出データを基準として、IMU10の検出データをずらし時間だけ遅らせることで、同期を行う。すなわち、カメラ20の検出データの時刻情報は変更されず、IMU10の検出データの時刻情報が、ずらし時間だけ遅れた時刻に補正される。同期部130は、同期済みの各検出データを、自己位置推定装置200等に逐次提供する。
なお、同期部130は、ずらし時間を検出データ間の同期情報として出力する構成であってもよい。この場合、自己位置推定装置200が、センサフュージョン処理の前処理として、ずらし時間に基づく検出データの時刻情報を補正する。この場合には、同期情報の出力が、同期部130による検出データ間の時刻のずれの補正に相当する。
次に、機能ブロックの共同により、同期装置100が実行する同期方法のフローを、図4を参照しつつ、図2および図3に従って以下に説明する。なお、後述するフローにおいて「S」とは、プログラムに含まれた複数命令によって実行される、フローの複数ステップを意味する。
まずS10では、センサ情報取得部110にて、IMU10およびカメラ20から提供された検出データに含まれる角速度のデータをバッファリングし、時系列データA,Bを生成する。次にS20では、ずらし時間算出部120にて、生成した時系列データA,Bに基づいて、ずらし時間の候補値tを決定する。
S20の処理について図3および図4を参照して詳記する。図3のフローチャートは、S20におけるサブルーチン処理を示す。図4のグラフは、横軸を時刻、縦軸を角速度として各時系列データA,Bをプロットしたものである。まず図3のS21では、時系列データAに含まれる値から任意の注目点at,iを設定し、当該注目点at,iと時刻の近い時系列データBにおける2点を選択する(図4の上段参照)。
次に、S22にて、選択した時系列データBの2点間を補間線Liにより補間する(図4の中段参照)。例えば、S22では、スプライン曲線または3次関数曲線等の所定の補間曲線によって、2点間が補間される。または、直線によって2点間が補間されてもよい。次に、S23では、注目点at,iから時刻軸に垂線Lpを下した場合の、垂線Lpと補間線Liとが交わる点を、時系列データBにおける比較点bt,iに設定する(図4の下段参照)。換言すれば、S22およびS23にて、注目点at,iと同時刻に検出したと仮定した場合の時系列データBの値が推定される。
次に、S24では、時系列データAの全ての注目点に対して比較点が設定されたか否かを判定する。比較点の設定されていない注目点が残っている場合には、ステップS21に戻る。一方で、全ての注目点に対して比較点が設定されたと判定されると、S25へと進む。
S25では、注目点群と比較点群との尤度が最大となるずらし時間を、類似度の最も大きい候補値tとして決定する。例えば、S25では、尤度が最大値Rmaxとなるような候補値tが、以下の数式(1)に基づき探索される。この場合、尤度は、正規化相互相関の大きさとして算出される。
Figure 0007173373000001
候補値tが算出されると、S26へと進む。なお、注目点を設定する時系列データと、比較点を設定する時系列データは、逆であってもよい。
S26では、算出した候補値tの数が、予め設定された所定数に到達したか否かを判定する。到達していないと判定されると、S27へと進む。S27では、次の時系列データA,B、すなわち直前の処理で候補値tの算出に利用した時系列データA,Bと異なる時刻における時系列データA,Bを準備する。S27の処理を実行すると、S21へと戻り、次の時系列データA,Bに基づいて、新たなずらし時間の候補値tを算出する。
一方で、S25にて、候補数が所定数に到達したと判定されると、S28へと進む。S28では、複数の候補値tの中央値を、ずらし時間として算出する。次に、図3のサブルーチンを終了して図2のS30へと進む。S30では、同期部130にて、IMU10による検出データの時刻をずらし時間だけ遅らせることで、検出データ同士を同期する。次に、S40では、同期部130にて、同期済みの検出データを自己位置推定装置200に出力することで、一連の処理を終了する。
なお、上述のS10が「取得プロセス」、S20が「算出プロセス」、S30が「同期プロセス」の一例である。
次に第1実施形態の同期装置100のもたらす作用効果について説明する。
同期装置100は、イメージセンサ21による検出データに基づく時系列データと、他センサとしてのIMU10による検出データに基づく時系列データとのマッチングに必要なずらし時間を算出する。そして、同期装置100は、ずらし時間に基づいて、イメージセンサ21による検出データと、IMU10による検出データとを同期させる。これによれば、イメージセンサ21の検出データに基づいてずらし時間が算出されるので、イメージセンサ21の検出タイミングに合わせて検出データ同士が同期され得る。故に、より正確な同期が可能な同期装置100が提供され得る。また、これにより、測位衛星からの測位信号を利用することなくセンサ間の同期が可能となる。
また、センサ情報取得部110の取得する時系列データには、車両の角速度データが含まれる。角速度は、加速度や速度等、車両の運動状態に関する他のパラメータに比較して、時間的な変動が激しい、特徴的な時系列データとなり得る。故に、時系列データA,B同士の類似度がより高いずらし時間を算出し易くなる。したがって、同期のロバスト性をより高めることができる。
加えて、角速度データには、車両のピッチレートデータが含まれる。ピッチレートデータは、ロールレートデータおよびヨーレートデータに比較して、走行に伴う車両の姿勢変化を大きく反映し得る。故に、時系列データが、時間的な変動のより激しいものとなり得る。したがって、同期のロバスト性が一層向上し得る。
さらに、時系列データとして、ピッチレートデータとロールレートデータとが取得される。ロールレートデータは、ヨーレートデータと比較して走行に伴う車両の姿勢変化を大きく反映し得る。したがって、ピッチレートデータに加えてロールレートデータをずらし時間の算出に利用することで、同期のロバスト性がさらに向上し得る。
また、カメラ20による検出データを基準にして、慣性センサであるIMU10による検出データをずらし時間だけ遅らせることによれば、遅れが発生し易いカメラ20による検出データに、IMU10による検出データの時刻を合わせることができる。
また、ずらし時間の候補値ごとに時系列データA,B同士の類似度が算出され、当該類似度の最も大きい候補値がずらし時間として採用される。これによれば、時系列データA,B同士がマッチングするずらし時間が、時系列データA,B同士の類似度により算出され得る。したがって、より正確な検出データ同士の同期が可能となる。
さらに、時系列データA,B同士が一致する尤度の大きさが類似度として算出され、尤度の最も大きい候補値が、ずらし時間として採用される。これによれば、時系列データA,B同士がマッチングするずらし時間が、時系列データA,B同士の一致する尤度の大きさに基づき算出され得る。
(第2実施形態)
第2実施形態では、第1実施形態における同期装置100の変形例について説明する。第2実施形態においてずらし時間算出部120は、時系列データA,B同士が一致する尤度最大となる時間に代えて、時系列データA,B同士の残差が最小となる時間を、ずらし時間の候補値として算出する。この場合、例えばずらし時間算出部120は、時系列データA,Bの値同士の差分値を時刻ごとに算出し、当該差分値または差分値に基づく値の総和を示すパラメータを、残差を示す値とする。
具体的には、ずらし時間算出部120は、第1実施形態と同様に注目点群に対応する比較点群を設定した後、S25にて以下の数式(2)に基づき、データ間の差分二乗和が最小値S1minとなる候補値tを探索する。
Figure 0007173373000002
または、ずらし時間算出部120は、以下の数式(3)に基づき、データ間の差分絶対値和が最小値S2minとなる候補値tを探索してもよい。
Figure 0007173373000003
以上のように、ずらし時間算出部120は、時系列データA,B同士の残差が最小となる時間を、ずらし時間の候補値として算出可能である。この場合、ずらし時間算出部120は、尤度の大きさに基づいて候補値を算出する場合と比較して、計算量を抑制することができる。
(他の実施形態)
この明細書における開示は、例示された実施形態に制限されない。開示は、例示された実施形態と、それらに基づく当業者による変形態様を包含する。例えば、開示は、実施形態において示された部品および/または要素の組み合わせに限定されない。開示は、多様な組み合わせによって実施可能である。開示は、実施形態に追加可能な追加的な部分をもつことができる。開示は、実施形態の部品および/または要素が省略されたものを包含する。開示は、ひとつの実施形態と他の実施形態との間における部品および/または要素の置き換え、または組み合わせを包含する。開示される技術的範囲は、実施形態の記載に限定されない。開示されるいくつかの技術的範囲は、請求の範囲の記載によって示され、さらに請求の範囲の記載と均等の意味及び範囲内での全ての変更を含むものと解されるべきである。
上述の実施形態において、同期装置100は、カメラ20から角速度データを取得するとした。これに代えて、同期装置100は、カメラ20から画像データを取得し、当該画像データを解析することで、角速度データを生成する構成であってもよい。
上述の実施形態において、同期装置100は、車両のピッチレートおよびロールレートを利用してセンサ間同期を実行するとしたが、センサ間同期に利用する運動状態のデータは、これに限定されない。同期装置100は、ピッチレート、ロールレート、およびヨーレートのうち、少なくとも1つ以上の時系列データを利用してずらし時間を算出することができる。また、同期装置100は、車両の加速度、または速度等の時系列データを利用してずらし時間を算出してもよい。同期装置100は、車両の運動状態に関連するデータであれば、いずれのデータであってもずらし時間の算出に利用することができる。
上述の実施形態において、同期装置100は、イメージセンサ21を有するカメラ20の画像データを検出データとして取得するとした。これに代えて、同期装置100は、イメージセンサ21を有するLIDARによる点群データを検出データとして取得してもよい。
上述の実施形態において、同期装置100は、カメラ20の検出データとIMU10の検出データとを同期させるとした。これに代えて、同期装置100は、カメラ20の検出データと、LIDARまたは他のカメラの検出データとを同期させる構成であってもよい。また、同期装置100は、LIDARの検出データとIMU10の検出データとを同期させる構成であってもよい。
上述の実施形態において、ずらし時間算出部120は、複数のずらし時間の候補の中央値を、ずらし時間として算出するとした。これに代えて、ずらし時間算出部120は、複数の候補の平均値をずらし時間として算出する構成であってもよい。また、ずらし時間算出部120は、所定の時間間隔ごとに設定された投票値に、算出した候補値を投票し、投票された候補値の数の最も多い投票値をずらし時間として算出してもよい。この場合、ずらし時間算出部120は、候補値の投票先を、候補値を丸め込んだ場合に当該候補値が該当する投票値とすればよい。
同期装置100は、デジタル回路およびアナログ回路のうち少なくとも一方をプロセッサとして含んで構成される、専用のコンピュータであってもよい。ここで特にデジタル回路とは、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、SOC(System on a Chip)、PGA(Programmable Gate Array)、およびCPLD(Complex Programmable Logic Device)等のうち、少なくとも一種類である。またこうしたデジタル回路は、プログラムを格納したメモリを、備えていてもよい。
同期装置100は、1つのコンピュータ、またはデータ通信装置によってリンクされた一組のコンピュータ資源によって提供され得る。例えば、上述の実施形態における同期装置100の提供する機能の一部は、他のECUによって実現されてもよい。

Claims (13)

  1. イメージセンサ(21)を含む複数のセンサ(10,21)を搭載する車両において用いられる同期装置であって、
    前記車両の運動状態に関するデータとして、前記イメージセンサによる検出データに含まれる時系列データ、および前記イメージセンサ以外の他センサによる検出データに含まれる時系列データを取得するセンサ情報取得部(110)と、
    前記時系列データ同士のマッチングに必要なずらし時間を算出するずらし時間算出部(120)と、
    前記ずらし時間に基づいて、前記イメージセンサによる前記検出データと、前記他センサによる前記検出データとを同期させる同期部(130)と、
    を備え、
    前記センサ情報取得部は、前記イメージセンサによる時系列の画像データから抽出された特徴点の変化量に基づく時系列の角速度データを、前記イメージセンサによる前記検出データに含まれる前記時系列データとして取得し、前記車両に作用する慣性力から前記車両の角速度を検出する慣性センサによる時系列の角速度データを、前記他センサによる前記検出データに含まれる前記時系列データとして取得し、
    前記同期部は、前記イメージセンサによる前記検出データを基準として、前記慣性センサによる前記検出データを、前記ずらし時間だけ遅らせる同期装置。
  2. 前記センサ情報取得部は、前記車両のピッチレートデータを含む前記角速度データを取得する請求項に記載の同期装置。
  3. 前記センサ情報取得部は、前記ピッチレートデータに加えて、前記車両のロールレートデータを取得する請求項に記載の同期装置。
  4. 前記ずらし時間算出部は、前記ずらし時間の候補値を複数設定して前記候補値ごとの前記時系列データ同士の類似度を算出し、前記類似度が最も大きくなる前記候補値を、前記ずらし時間に採用する請求項1から請求項のいずれか1項に記載の同期装置。
  5. 前記ずらし時間算出部は、前記時系列データ同士が一致する尤度の大きさを前記類似度として算出し、前記尤度が最も大きくなる前記候補値を前記ずらし時間に採用する請求項に記載の同期装置。
  6. 前記ずらし時間算出部は、前記時系列データ同士の残差の大きさを前記類似度として算出し、前記残差が最も小さくなる候補値を前記ずらし時間に採用する請求項に記載の同期装置。
  7. イメージセンサ(21)を含む複数のセンサ(10,21)を搭載する車両において用いられ、プロセッサ(101)によって実行される同期方法であって、
    前記車両の運動状態に関するデータとして、前記イメージセンサによる検出データに含まれる時系列データ、および前記イメージセンサ以外の他センサによる検出データに含まれる時系列データを取得する取得プロセス(S10)と、
    前記時系列データ同士のマッチングに必要なずらし時間を算出する算出プロセス(S20)と、
    前記ずらし時間に基づいて、前記イメージセンサによる前記検出データと、前記他センサによる前記検出データとを同期させる同期プロセス(S30)と、
    を含み、
    前記取得プロセスでは、前記イメージセンサによる時系列の画像データから抽出された特徴点の変化量に基づく時系列の角速度データを、前記イメージセンサによる前記検出データに含まれる前記時系列データとして取得し、前記車両に作用する慣性力から前記車両の角速度を検出する慣性センサによる時系列の角速度データを、前記他センサによる前記検出データに含まれる前記時系列データとして取得し、
    前記同期プロセスでは、前記イメージセンサによる前記検出データを基準として、前記慣性センサによる前記検出データを、前記ずらし時間だけ遅らせる同期方法。
  8. 前記取得プロセスでは、前記車両のピッチレートデータを含む前記角速度データを取得する請求項に記載の同期方法。
  9. 前記取得プロセスでは、前記ピッチレートデータに加えて、前記車両のロールレートデータを取得する請求項に記載の同期方法。
  10. 前記算出プロセスでは、前記ずらし時間の候補値を複数設定して前記候補値ごとの前記時系列データ同士の類似度を算出し、前記類似度が最も大きくなる前記候補値を、前記ずらし時間に採用する請求項から請求項のいずれか1項に記載の同期方法。
  11. 前記算出プロセスでは、前記時系列データ同士の相互相関の大きさを前記類似度として算出し、前記相互相関が最も大きくなる候補値を前記ずらし時間に採用する請求項10に記載の同期方法。
  12. 前記算出プロセスでは、前記時系列データ同士の残差の大きさを前記類似度として算出し、前記残差が最も小さくなる候補値を前記ずらし時間に採用する請求項10に記載の同期方法。
  13. イメージセンサ(21)を含む複数のセンサ(10,21)を搭載する車両において用いられ、記憶媒体(102)に格納され、プロセッサ(101)に実行させる命令を含む同期プログラムであって、
    前記命令は、
    前記車両の運動状態に関するデータとして、前記イメージセンサによる検出データに含まれる時系列データ、および前記イメージセンサ以外の他センサによる検出データに含まれる時系列データを取得させる取得プロセス(S10)と、
    前記時系列データ同士のマッチングに必要なずらし時間を算出させる算出プロセス(S20)と、
    前記ずらし時間に基づいて、前記イメージセンサによる前記検出データと、前記他センサによる前記検出データとを同期させる同期プロセス(S30)と、
    を含み、
    前記取得プロセスでは、前記イメージセンサによる時系列の画像データから抽出された特徴点の変化量に基づく時系列の角速度データを、前記イメージセンサによる前記検出データに含まれる前記時系列データとして取得させ、前記車両に作用する慣性力から前記車両の角速度を検出する慣性センサによる時系列の角速度データを、前記他センサによる前記検出データに含まれる前記時系列データとして取得させ、
    前記同期プロセスでは、前記イメージセンサによる前記検出データを基準として、前記慣性センサによる前記検出データを、前記ずらし時間だけ遅らせる同期プログラム。
JP2021554125A 2019-11-01 2020-09-02 同期装置、同期方法、および同期プログラム Active JP7173373B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019200222 2019-11-01
JP2019200222 2019-11-01
PCT/JP2020/033249 WO2021084896A1 (ja) 2019-11-01 2020-09-02 同期装置、同期方法、および同期プログラム

Publications (3)

Publication Number Publication Date
JPWO2021084896A1 JPWO2021084896A1 (ja) 2021-05-06
JPWO2021084896A5 JPWO2021084896A5 (ja) 2022-03-02
JP7173373B2 true JP7173373B2 (ja) 2022-11-16

Family

ID=75715041

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021554125A Active JP7173373B2 (ja) 2019-11-01 2020-09-02 同期装置、同期方法、および同期プログラム

Country Status (4)

Country Link
US (1) US20220254165A1 (ja)
JP (1) JP7173373B2 (ja)
CN (1) CN114600417B (ja)
WO (1) WO2021084896A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230406447A1 (en) * 2022-06-16 2023-12-21 Tien Hsin Industries Co., Ltd. Bicycle derailleur system

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023176621A1 (ja) * 2022-03-14 2023-09-21 パイオニア株式会社 推定装置、システム、推定方法、およびプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162654A1 (en) 2002-08-01 2004-08-19 Jianbo Lu System and method for determining a wheel departure angle for a rollover control system with respect to road roll rate and loading misalignment
JP2007327873A (ja) 2006-06-08 2007-12-20 Tokyo Gas Co Ltd 地震記録データの同期化処理方法
US20180372498A1 (en) 2017-06-21 2018-12-27 Caterpillar Inc. System and method for determining machine state using sensor fusion

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6488860B2 (ja) * 2015-04-28 2019-03-27 株式会社豊田中央研究所 勾配推定装置及びプログラム
CN106370180B (zh) * 2016-08-29 2019-06-04 常州市钱璟康复股份有限公司 基于动态时间规整算法的惯性传感器初始位置识别方法
JP6710644B2 (ja) * 2017-01-05 2020-06-17 株式会社東芝 動作解析装置、動作解析方法およびプログラム
CN109186592B (zh) * 2018-08-31 2022-05-20 腾讯科技(深圳)有限公司 用于视觉惯导信息融合的方法和装置以及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162654A1 (en) 2002-08-01 2004-08-19 Jianbo Lu System and method for determining a wheel departure angle for a rollover control system with respect to road roll rate and loading misalignment
JP2007327873A (ja) 2006-06-08 2007-12-20 Tokyo Gas Co Ltd 地震記録データの同期化処理方法
US20180372498A1 (en) 2017-06-21 2018-12-27 Caterpillar Inc. System and method for determining machine state using sensor fusion

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大石 庸平 他 Yohei OISHI et al.,先進運転支援のためのレーダとカメラを用いた物体認識の高速化に関する検討 Sensor Fusion Algorithm with,電子情報通信学会技術研究報告 Vol.115 No.517 IEICE Technical Report,日本,一般社団法人電子情報通信学会 The Institute of Ele,2016年03月17日,pp. 25-30

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230406447A1 (en) * 2022-06-16 2023-12-21 Tien Hsin Industries Co., Ltd. Bicycle derailleur system
US11952080B2 (en) * 2022-06-16 2024-04-09 Tien Hsin Industries Co., Ltd. Bicycle derailleur system

Also Published As

Publication number Publication date
WO2021084896A1 (ja) 2021-05-06
CN114600417A (zh) 2022-06-07
CN114600417B (zh) 2024-04-26
US20220254165A1 (en) 2022-08-11
JPWO2021084896A1 (ja) 2021-05-06

Similar Documents

Publication Publication Date Title
JP6717534B2 (ja) ローリングシャッターを伴うステレオ支援
US11181379B2 (en) System and method for enhancing non-inertial tracking system with inertial constraints
US20220254165A1 (en) Synchronization device, synchronization method, and non-transitory tangible computer readable storage medium
CN111436216A (zh) 用于彩色点云生成的方法和系统
US11223764B2 (en) Method for determining bias in an inertial measurement unit of an image acquisition device
JP6594180B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
US20120281146A1 (en) Image processing device, image processing method, and program for image processing
US20180075614A1 (en) Method of Depth Estimation Using a Camera and Inertial Sensor
US11042984B2 (en) Systems and methods for providing image depth information
JP7231054B2 (ja) 誤差推定装置、誤差推定方法、誤差推定プログラム
CN114217665A (zh) 一种相机和激光雷达时间同步方法、装置及存储介质
WO2021070814A1 (ja) 同期装置、同期方法、同期プログラム
CN113091756A (zh) 位置推定装置、以及位置推定方法
CN115760636A (zh) 激光雷达点云的畸变补偿方法、装置、设备及存储介质
WO2020019116A1 (zh) 多源数据建图方法、相关装置及计算机可读存储介质
US20220244394A1 (en) Movement amount estimation device, movement amount estimation method, movement amount estimation program, and movement amount estimation system
JP2022190173A (ja) 位置推定装置
US20190246068A1 (en) Display control device
JP6602089B2 (ja) 画像処理装置及びその制御方法
CN109073387B (zh) 一种多地图对齐的方法、装置、终端及存储介质
EP3396620B1 (en) Display control device and display control method
US11282223B2 (en) Signal processing apparatus, signal processing method, and imaging apparatus
JP2018147241A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Haddadi et al. Evaluation of Monocular Visual-Inertial SLAM: Benchmark and Experiment
CN113379911A (zh) Slam方法、slam系统及智能机器人

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221017

R151 Written notification of patent or utility model registration

Ref document number: 7173373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151