JP2024501731A - 複数カメラによる速度測定方法及び速度測定装置 - Google Patents

複数カメラによる速度測定方法及び速度測定装置 Download PDF

Info

Publication number
JP2024501731A
JP2024501731A JP2023540732A JP2023540732A JP2024501731A JP 2024501731 A JP2024501731 A JP 2024501731A JP 2023540732 A JP2023540732 A JP 2023540732A JP 2023540732 A JP2023540732 A JP 2023540732A JP 2024501731 A JP2024501731 A JP 2024501731A
Authority
JP
Japan
Prior art keywords
camera
images
matching
image
mobile platform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023540732A
Other languages
English (en)
Inventor
張暁林
王磊
楊冬冬
粱泓
李嘉茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Eyevolution Technology Co Ltd
Original Assignee
Anhui Eyevolution Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Eyevolution Technology Co Ltd filed Critical Anhui Eyevolution Technology Co Ltd
Publication of JP2024501731A publication Critical patent/JP2024501731A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/36Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light
    • G01P3/38Devices characterised by the use of optical means, e.g. using infrared, visible, or ultraviolet light using photographic means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/337Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本発明は、S1:移動プラットフォーム上に設けられた、相対位置が固定されたカメラセットにおける各カメラの位置をキャリブレーションするステップ;S2:カメラセットにおける各カメラの同期画像シーケンス、またタイムスタンプを記録するステップ;及び、S3:カメラセットの各カメラによって撮影された画像のマッチングの処理をし、得られた2つの画像のマッチング結果が第1閾値よりも大きい場合、2つの画像の位置変換行列を計算し、前記2つの画像を撮影するカメラの前記移動プラットフォームに対する位置関係に基づいて、移動プラットフォームの位置変換行列を取得し、最後に、位置変換行列及び2つの画像の撮影時間間隔に基づいて、移動プラットフォームの速度情報を計算するステップ;を含む複数カメラによる速度測定方法及び測定装置を提供する。互いに異なるカメラで撮影された画像のマッチングの処理をして、移動プラットフォームの速度を計算することにより、単一のカメラで速度を測定する際の撮影距離と画像重畳度の矛盾を解決して、精度の高い移動速度情報を取得することができる。【選択図】 図1

Description

本発明は、速度測定技術分野に関し、特に、複数カメラによる速度測定方法及び速度測定装置に関する。
情報電子、自動制御などの技術の継続的な発展に伴い、ロボットは既に人々の生産と生活に関与している。そのうち、移動・環境認識・搬送などの機能を有する移動ロボットは、その代表として様々な業界で広く用いられている。家庭用の掃除ロボットだけでなく、産業的に汎用されているAGV(無人搬送車)、スマートフォークリフト、またはホテルや病院向けのサービスロボットも移動ロボットの技術を具体的にしたものである。
移動ロボットをうまく制御するためには、ロボット自体の速度をリアルタイムで取得することが技術的問題となっている。現在使用されている技術的手段は、ほとんどの移動ロボットが左右車輪速度測定ロータリーエンコーダーで速度を測定する方法を採用している。しかしながら、この方法は、本質的に実環境とフィードバックを形成することができない。そのため、車輪がスリップする場合、車輪が地面に接地せず浮いている場合、移動ロボットの正確な速度測定できず、自己位置と運行状況推定に誤りが生じ、最終的に未知のエラーにつながる。これはロボットの動作の安全性及び安定性において大きな課題となっている。
本発明の目的は、速度の測定が正確であり、また外部の影響を受けない複数カメラによる速度測定方法及び速度測定装置を提供することにある。
上記の目的を達成するために、本発明は、
S1:移動プラットフォーム上に設けられた、相対位置が固定されたカメラセットにおける各カメラの位置をキャリブレーションして、各カメラの間の位置関係、及び各カメラと移動プラットフォームとの間の位置関係を取得するステップ ;
S2:前記カメラセットにおける各カメラの同期画像シーケンスを取得し、前記同期画像シーケンスのタイムスタンプを記録するステップ;及び
S3:前記カメラセットにおける各カメラによって撮影された画像のマッチングの処理をし、得られた2つの画像のマッチング結果が第1閾値よりも大きい場合、前記2つの画像の位置変換行列を計算し、前記2つの画像を撮影するカメラの間の位置関係、前記移動プラットフォームに対する前記2つの画像を撮影するカメラの位置関係、及び前記2つの画像の位置変換行列に基づいて、前記2つの画像の撮影時間間隔における前記移動プラットフォームの位置変換行列を計算し、最後に、前記移動プラットフォームの位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォームの速度情報を計算するステップ;を含む複数カメラによる速度測定方法を提供する。
好ましくは、前記ステップS3は、具体的には、
S31:現在の時刻における前記移動プラットフォームの位置情報を取得し、現在の時刻における前記移動プラットフォームの位置情報及び前記移動プラットフォームに対する第1カメラの位置関係に基づいて、現在の時刻における前記第1カメラの第1位置を計算するステップ;
S32:前記第1位置に基づいて、他のカメラが画像を撮影する際の第2位置をトラバースし、前記第2位置と前記第1位置との間の距離が第2閾値未満である場合、探索に成功したと判断し、前記第1位置及び前記第2位置に対応する撮影画像をそれぞれ探索画像及び候補画像と記録し、前記探索画像及び候補画像のタイムスタンプを記録した後、ステップS33に進むステップ;
S33:前記探索画像と前記候補画像のマッチングを行い、得られたマッチング結果が前記第1閾値よりも大きい場合、マッチングに成功したと判断し、前記探索画像と前記候補画像の位置変換行列を計算した後、ステップS34に進むステップ;及び
S34:前記探索画像と前記候補画像のカメラの間の位置関係と前記位置変換行列に基づいて、前記第1カメラの位置変換行列を計算し、その後、前記第1カメラの位置変換行列及び前記移動プラットフォームに対する前記第1カメラの位置関係に基づいて、前記移動プラットフォームの位置変換行列を計算し、最後に、前記移動プラットフォームの位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォームの速度情報を計算するステップ;
を含む。
好ましくは、現在の時刻における前記移動プラットフォームの位置情報を取得するステップは、
前記第1カメラの探索画像と前のフレーム画像をマッチングして、前記第1カメラの自己位置変換行列を取得し、前記自己位置変換行列、前記移動プラットフォームに対する前記第1カメラの位置関係に基づいて、前記移動プラットフォームの位置情報を取得するステップを含む。
好ましくは、前記第1カメラの探索画像と前のフレーム画像をマッチングして、前記第1カメラの自己位置変換行列を取得し、前記自己位置変換行列、前記移動プラットフォームに対する前記第1カメラの位置関係に基づいて、前記移動プラットフォームの位置情報を取得する時、各カメラのマッチング結果に基づいて各カメラに対応する重みを設定し、加重平均方法を使用して前記移動プラットフォームの位置情報を計算する。
好ましくは、前記マッチング方法は、2D画像特徴マッチング方法であり、前記2D画像特徴マッチング方法は、2つの画像の特徴点を抽出して、速やかにマッチングすることにより、2つの画像の位置変換行列を計算する。
好ましくは、前記マッチング方法は、2D画像周波数領域情報マッチング方法であり、前記2D画像周波数領域情報マッチング方法は、フーリエ-メリン変換アルゴリズムを通じて2つの画像の回転、並進、及びスケールファクタを計算し、さらに2つの画像の位置変換行列を計算する。
好ましくは、前記マッチング方法は、3Dマッチング方法であり、前記3Dマッチング方法は、2つの画像に対応する3D点座標を通じて空間における3自由度の位置姿勢及び速度を計算し、さらに2つの画像の位置変換行列を計算する。
好ましくは、位置センサを介して現在の時刻における前記移動プラットフォームの位置情報を直接取得する。
好ましくは、ステップS32またはS33を実行する時に、探索またはマッチングに失敗すると、ステップS35に進み、前記ステップS35は、具体的には:
現在の時刻における前記移動プラットフォームの位置情報、前の時刻における位置情報、及び現在の時刻と前の時刻の撮影時間間隔を取得して、前記被写体に対する前記カメラセットの速度を推定するステップを含む。
上記の目的を達成するために、本発明は、
被写体に対して移動可能な移動プラットフォームと、
前記移動プラットフォーム上に設けられる少なくとも2つのカメラを含み、各カメラの間の相対位置が固定されているカメラセットと、
上記のような複数カメラによる速度測定方法を実行するように配置されるプロセッサと、を含む複数カメラによる速度測定装置をさらに提供する。
好ましくは、前記カメラセットは、前記カメラとマッチングする光源を備え、
近赤外線光源と、それとマッチングし、前記近赤外線光源の放射光の波長を透過可能なレンズを備えたカメラ、
または、遠赤外線光源と、それとマッチングする遠赤外線カメラ、
または、紫外線光源と、それとマッチングする紫外線カメラ、
または、偏光光源と 、それとマッチングし、前記偏光を透過可能なレンズを備えたカメラを含む。
好ましくは、各カメラの画像撮影時刻は同期するか、または各カメラの撮影時間はタイムスタンプを有する。
好ましくは、前記複数カメラによる速度測定装置は、前記移動プラットフォーム上に設けられるキャリブレーションツールをさらに含み、前記キャリブレーションツールは、各カメラの間の相対位置関係及び前記移動プラットフォームに対する各カメラの位置関係をキャリブレーションする。
好ましくは、前記キャリブレーションツールは、チェッカーボード、レーザー距離計、レーザーレーダ、TOFセンサ、またはエンコーダである。
好ましくは、前記カメラセットは、少なくとも一対の双眼カメラを含む。
好ましくは、カメラセットは、前記移動プラットフォームの主な移動方向に沿って配置される少なくとも2つのTOFカメラを含む。
好ましくは、前記カメラセットは、前記移動プラットフォームの主な移動方向に沿って配置される少なくとも一対のラインスキャンカメラを含む。
好ましくは、前記カメラセットは、少なくとも1つのグローバルシャッターエリアカメラをさらに含み、前記プロセッサは、前記グローバルシャッターエリアカメラによって撮影された画像を前記ラインスキャンカメラによって撮影された画像と比較して、前記ラインスキャンカメラによって撮影された画像を補正するようにすることができる。
好ましくは、取得された2つの画像のマッチング結果が第1閾値未満である場合、前記プロセッサは、現在の時刻における移動プラットフォームの位置情報、前の時刻の位置情報、及び現在の時刻と前の時刻との撮影時間間隔に基づいて、前記被写体に対する前記カメラセットの速度を推定することができる。
好ましくは、前記複数カメラによる速度測定装置は、互いに異なる被写体の間の距離を計測するための少なくとも1つのレーザービーム計測器をさらに含む。
好ましくは、前記レーザービーム計測器は、ラインレーザービーム計測器または十字線状 レーザービーム計測器である。
本発明は、異なるカメラで撮影された画像のマッチングを処理することにより、類似性の高い2つの画像を取得する複数カメラによる速度測定方法及び速度測定装置を提供する。前記2つの画像の測定距離が最も短く、画像の重畳度が最大であるので、前記複数カメラによる速度測定方法によって計算された前記移動プラットフォームの速度情報の精度が単一カメラによる連続的な画像追跡によって計算された被写体の速度情報の精度よりも高くなる。また、本発明に係る複数カメラによる速度測定方法及び複数カメラによる速度測定装置は、実環境とフィードバックを形成して、車輪がスリップしたり、車輪が架空された場合に、ロボットが誤って判断するという問題を解決する。
本発明の実施形態に係る複数カメラによる速度測定方法のステップ図である。 本発明の実施形態に係る複数カメラによる速度測定方法のフローチャートである。 本発明の実施形態に係る複数カメラによる速度測定装置の構造を示す図である。 本発明の実施形態に係る探索画像及び候補画像を示す図である。
本発明における通常の技術者は、添付図面は本発明をよりよく理解するためのものであって、本発明の範囲を限定するものではないことを理解するはずである。
背景技術で説明したように、現在使用されている技術的手段は、ほとんどの移動ロボットが左右車輪速度測定ロータリーエンコーダーで速度を測定する方法を採用している。しかしながら、この方法は、本質的に実環境とフィードバックを形成することができない。そのため、車輪がスリップする場合、車輪が地面に接地せず浮いている場合、移動ロボットの正確な速度測定できず、自己位置と運行状況推定に誤りが生じ、最終的に未知のエラーにつながる。これはロボットの動作の安全性及び安定性において大きな課題となっている。
カメラを地面に向けて地面画像の動画からカメラの移動速度を計算することは非常に有効な方法として知られている。ただし、速度測定の精度は、演算された2つの画像を比較するための撮影位置距離と画像の重畳度によって決められるので、如何に2つの画像の撮影距離を縮小し、2つの画像の重畳度を向上させるかが視覚的速度測定性能を増強させる面で重要な要素となっている。一台のカメラの可視面積が限られているため、このカメラで撮影する2つの画像の撮影場所が遠く離れるほど、2つの画像の重畳度が低下し、さらに視覚的速度測定の正確度に影響を与える。
これに基づいて、本発明は、相対位置が固定された少なくとも2つのカメラを用いて撮影し、互いに異なるカメラの間の画像を比較することにより、精度の高い移動速度情報を取得する複数カメラによる速度測定方法及び速度測定装置を提供する。
以下、本発明の目的、利点、及び特徴をより明確にするために、添付図面及び具体的な実施形態を結合して本発明についてさらに詳しく説明する。図面は非常に簡略化された形で提供され、必ずしも正確な縮尺で描かれておらず、本発明に係る実施形態をより便利で、且つ明確に説明するためのものであることに留意されたい。図面に示されている構造は、通常、実際の構造の一部である。特に、各図はそれぞれ開示したい主なポイントが異なるため、異なる縮尺で描かれていることがあり得る。
本発明で用いられる、単数形の「一」、「1つ」及び「当該」という用語は、明確に示さない限り、複数の対象を含む。例えば、本発明で用いられる、「または」という用語は、通常、明確に示さない限り、「及び/または」を含む意味で用いられる。例えば、本発明で用いられる、「いくつかの」という用語は、通常、明確に示さない限り、「少なくとも1つ」の意味で用いられる。例えば、本発明で用いられる、「少なくとも2つ」という用語は、通常、明確に示さない限り、「2つ以上」の意味で用いられる。さらに、「第1」、「第2」及び「第3」という用語の使用は、説明のために用いられるだけであり、相対的な重要性を示すまたは示唆するものとして、または説明する技術的特徴の数量を暗黙的に示すものとして解釈されるべきではない。故に、「第1」、「第2」及び「第3」で限定されている特徴は、その特徴の1つまたは少なくとも2つの存在を明示的または暗示的に示すことになる。
本発明の技術的思想は、現在のロボットにおいて速度測定の真実性及び正確性問題を解決する複数カメラによる速度測定方法及び速度測定装置を提供することである。
前記複数カメラによる速度測定方法は、
S1:移動プラットフォーム上に設けられた、相対位置が固定されたカメラセットにおける各カメラの位置をキャリブレーションして、各カメラの間の位置関係、及び各カメラと移動プラットフォームとの間の位置関係を取得するステップ;
S2:前記カメラセットにおける各カメラの同期画像シーケンスを取得し、前記同期画像シーケンスのタイムスタンプを記録するステップ;及び
S3:前記カメラセットにおける各カメラによって撮影された画像のマッチングの処理をし、得られた2つの画像のマッチング結果が第1閾値よりも大きい場合、前記2つの画像の位置変換行列を計算し、前記2つの画像を撮影するカメラの間の位置関係、前記移動プラットフォームに対する前記2つの画像を撮影するカメラの位置関係、及び前記2つの画像の位置変換行列に基づいて、前記2つの画像の撮影時間間隔における前記移動プラットフォームの位置変換行列を取得し、最後に、前記移動プラットフォームの位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォームの速度情報を計算するステップ;を含む。
本発明の他の形態として、前記複数カメラによる速度測定装置は、
被写体に対して移動可能な移動プラットフォームと、
前記移動プラットフォーム上に設けられる少なくとも2つのカメラを含み、各カメラの間の相対位置が固定されているカメラセットと、
上記のような複数カメラによる速度測定方法を実行するように配置されるプロセッサと、を含む。
このように配置されることにより、各カメラで撮影された画像のマッチングを処理することにより、類似性の高い2つの画像を取得し、類似性の高い2つの画像の測定距離が最も短く、画像の重畳度が最大であるので、前記複数カメラによる速度測定方法によって計算された前記移動プラットフォームの速度情報の精度が単一カメラによる連続的な画像追跡によって計算された被写体の速度情報の精度よりも高くなる。また本発明に係る複数カメラによる速度測定方法及び複数カメラによる速度測定装置は、実環境とフィードバックを形成して、車輪がスリップしたり、車輪が架空された場合にロボットが誤って判断するという問題を解決する。
以下、添付図面を参照して説明する。
図1~3に示すように、図1は、本発明の実施形態に係る複数カメラによる速度測定方法のステップ図であり、図2は、本発明の実施形態に係る複数カメラによる速度測定方法のフローチャートであり、図3は、本発明の実施形態に係る複数カメラによる速度測定装置の構造を示す図である。
本実施形態は、
S1:移動プラットフォーム111上に設けられた相対位置が固定されたカメラセット101における各カメラ102の位置をキャリブレーションして、各カメラ102の間の位置関係、及び各カメラ102と移動プラットフォーム111との間の位置関係を取得するステップ;
S2:前記カメラセット101における各カメラ102の同期画像シーケンスを取得し、前記同期画像シーケンスのタイムスタンプを記録するステップ;及び
S3:前記カメラセット101の各カメラ102によって撮影された画像のマッチングの処理をし、得られた2つの画像のマッチング結果が第1閾値よりも大きい場合、前記2つの画像の位置変換行列を計算し、前記2つの画像を撮影したカメラ102の間の位置関係、前記2つの画像の位置変換行列、前記移動プラットフォーム111に対する前記2つの画像を撮影したカメラ102の位置関係に基づいて、前記2つの画像の撮影時間間隔における前記移動プラットフォーム111の位置変換行列を取得し、最後に、前記移動プラットフォーム111の位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォーム111の速度情報を計算するステップ;を含む複数カメラによる速度測定方法を提供する。
本実施形態において、図3を参照すると、前記複数カメラ102による速度測定装置は、
被写体に対して移動可能な移動プラットフォーム111と、
前記移動プラットフォーム111上に設けられる少なくとも2つのカメラ102を含み、各カメラ102の間の相対位置が固定されているカメラセット101と、
上記のような複数カメラ102による速度測定方法を実行するように配置されるプロセッサ110と、を含む。
まず、ステップS1を実行して、カメラセット101における各カメラ102の位置をキャリブレーションして、各カメラ102の間の位置関係、及び各カメラ102と移動プラットフォーム111の位置関係を得る。位置キャリブレーションを行う際には、まず、世界座標系W及び移動プラットフォーム111の車体座標系Cを確立する必要がある。前記世界座標系Wは、任意の点を原点とすることができ、前記車体座標系Cは前記移動プラットフォーム111の中心を原点とする。本実施形態で、用いられる座標系は右手座標系であり、移動プラットフォーム111に向かう前進方向をX軸とし、移動プラットフォーム111に向かう右側方向をY軸とし、垂直に地面に向かう方向をZ軸とする。
前記移動プラットフォーム111の移動速度は、2次元平面の並進及び回転のみを考慮し、そのため、位置情報は水平面のみを考慮して示す。移動プラットフォーム111及びカメラセット101における各カメラ102の位置は世界座標系Wで表される。ここで、移動プラットフォーム111の位置は、その物理的中心で表される。カメラセット101における各カメラ102の位置は、カメラ102を中心として表される。
具体的には、時刻tにおける移動プラットフォーム111の位置の座標をc(x,y)とし、角度をθとすると、世界座標系Wにおいて、前記移動プラットフォーム111の位置行列は次のように表される。
移動プラットフォーム111に対するカメラセット101における各カメラ102の位置は固定されており、移動プラットフォーム111に対するi番目のカメラ102の位置関係はPciで表すことができる。ここで、i=1,2,・・・,Mであり、Mは、カメラセット101におけるカメラ102の数である。
ここで、θciは、移動プラットフォーム111に対するi番目のカメラ102の角度であり、△xci及び△yciは、移動プラットフォーム111の車体座標系Cにおけるi番目のカメラ102の座標である。
本実施形態では、チェッカーボード、レーザー距離計、レーザーレーダ、TOFセンサまたはエンコーダによって、各カメラ102の間の相対位置関係、及び前記移動プラットフォーム111に対する各カメラ102の位置関係をキャリブレーションすることができる。
次に、ステップS2を実行して、前記カメラセット101における各カメラ102の同期画像シーケンスを取得し、且つ同期取得画像のタイムスタンプを記録する。本実施形態では、時刻tにおいて、カメラセット101における各カメラ102は、画像F を同期的に取得する(i=1,2,・・・,M)。ここで、F は、時刻tにおけるi番目のカメラ102で取得した画像データを表し、Mは、カメラセット101におけるカメラ102の台数を表す。前記同期画像データを取得するとともに、前記同期画像に対応するタイムスタンプtを取得する。
次に、ステップS3を実行して、前記カメラセット101におけるカメラ102で撮影した画像のマッチングの処理をし、得られた2つの画像のマッチング結果が第1閾値よりも大きい場合、前記2つの画像の位置変換行列を計算し、また、前記2つの画像を撮影したカメラ102の間の位置関係、前記2つの画像の位置変換行列、及び前記移動プラットフォーム111に対する前記カメラ102の位置関係に基づいて、前記2つの画像の撮影時間間隔における前記移動プラットフォーム111の位置変換行列を取得し、最後に、前記移動プラットフォーム111の位置変化行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォーム111の速度情報を計算する。
さらに、前記ステップS3は、
S31:現在の時刻における前記移動プラットフォーム111の位置情報を取得し、現在の時刻における前記移動プラットフォーム111の位置情報及び前記移動プラットフォーム111に対する第1カメラ102の位置関係に基づいて、現在の時刻における前記第1カメラ102の第1位置を計算するステップ;
S32:前記第1位置に基づいて、他のカメラ102が画像を撮影する時の第2位置をトラバースし、前記第2位置と前記第1位置との間の距離が第2閾値未満である場合、探索に成功したと判断し、前記第1位置及び前記第2位置に対応する撮影画像をそれぞれ探索画像及び候補画像と記録し、前記探索画像及び候補画像のタイムスタンプを記録した後、ステップS33に進むステップ;
S33:前記探索画像と前記候補画像のマッチングを行い、得られたマッチング結果が前記第1閾値よりも大きい場合、マッチングに成功したと判断し、前記探索画像と前記候補画像の位置変換行列を計算した後、ステップS34に進むステップ;及び
S34:前記探索画像と前記候補画像のカメラ101の間の位置関係と前記位置変換行列に基づいて、前記第1カメラ102の位置変換行列を計算し、その後、前記第1カメラ102の位置変換行列及び前記移動プラットフォーム111に対する前記第1カメラ102の位置関係に基づいて、前記移動プラットフォーム111の位置変換行列を計算し、最後に、前記移動プラットフォーム111の位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォーム111の速度情報を計算するステップ;を含む。
具体的には、ステップS2を実行した後、続いてステップS31を実行して、現在の時刻における前記移動プラットフォーム111の位置情報を取得し、各カメラ102に探索画像及び対応する位置情報を記憶するようにする。
さらに、現在の時刻における前記移動プラットフォーム111の位置情報を取得するステップは、具体的には、
前記第1カメラ102の探索画像と前のフレーム画像をマッチングして、前記第1カメラ102の自己位置変換行列を取得し、前記自己位置変換行列、前記移動プラットフォーム111に対する前記第1カメラ102の位置関係に基づいて、前記移動プラットフォーム111の位置情報を取得するステップを含む。
即ち、移動プラットフォーム111の位置は、カメラセット101における各カメラ102によって推定することができる。例えば、カメラセット101における各カメラ102に対して、時刻tにおいてあるカメラ102で撮影した画像F を取得した後、当該カメラ102の探索画像F と前のフレーム画像F k-1をマッチングして計算して、当該カメラ102の自己位置変換行列を得る。
本実施形態の第1好ましい例として、前記マッチング方法は、2D画像特徴マッチング方法であり、前記2D画像特徴マッチング方法は、2つの画像の特徴点を抽出して、速やかにマッチングすることにより、2つの画像の位置変換行列P k,k-1を計算する。P k,k-1は、時刻tk-1及びtにおけるi番目のカメラ102の位置変換行列を表す。
本実施形態の第2好ましい例として、前記マッチング方法は、2D画像周波数領域情報マッチング方法であり、前記2D画像周波数領域情報マッチング方法は、フーリエ-メリン変換アルゴリズムを通じて2つの画像の回転、並進、及びスケールファクタを計算し、さらに2つの画像の位置変換行列P k,k-1を取得する。
本実施形態の第3好ましい例として、前記マッチング方法は、3Dマッチング方法であり、前記3Dマッチング方法は、2つの画像に対応する3D点座標を通じて空間における3自由度の位置姿勢及び速度を計算し、さらに2つの画像の位置変換行列P k,k-1を取得する。例えば、i番目のカメラ102がTOFカメラ102、またはレーザー距離計、または単線レーザーレーダ、または多線レーザーレーダ装置を備える場合、画像データは深度情報を含み、3Dマッチング方法を利用してi番目のカメラ102の現在の位置を推定することができる。反復最近接点(ICP)方法を用いて2つの画像に対応する3D点座標を通じて空間における3自由度の位置姿勢変換を計算するか、または前の時刻における画像の3D座標と現在の時刻における画像の2D座標を用いて、PnPアルゴリズムを利用して2つの画像の位置変換行列P k,k-1を取得する。
i番目のカメラ102によって時刻tで計算された前後フレーム画像の位置変換行列P k,k-1は移動プラットフォーム111の位置変換関係P k,k-1に変換され、剛体変換によって、次のような位置変換関係を有する。
ci -1は、Pciの逆行列であり、Pciは、既知の移動プラットフォーム111に対するi番目のカメラ102の位置関係であるので、位置変換行列P k,k-1を通じて移動プラットフォーム111の位置変換行列P k,k-1を直接計算することができる。
時刻tにおける移動プラットフォーム111の位置P は、時刻tk-1における移動プラットフォーム111の位置P k-1及び位置変換行列P k,k-1によって計算することができ、計算式は次の通りである。
各カメラ102について、時刻tにおける移動プラットフォーム111の位置P と移動プラットフォーム111に対するi番目のカメラ102の位置関係に基づいて、時刻tにおける当該カメラ102の位置を得る。計算式は次の通りである。
各カメラ102は、現在の時刻において撮影された探索画像F を保存し、時刻tにおける当該探索画像F に対応するカメラ102の位置はP である。
本実施形態において、位置センサを介して、現在の時刻における前記移動プラットフォーム111の位置情報を直接取得することもでき、前記位置センサは、エンコーダ、慣性素子または走行距離計を含むが、これらに限定されない。
さらに、前記第1カメラ102の探索画像と前のフレーム画像に対してマッチングをして、前記第1カメラ102の自己位置変換行列を得、前記自己位置変換行列、前記移動プラットフォーム111に対する前記第1カメラ102の位置関係に基づいて前記移動プラットフォーム111の位置情報を計算する時、各カメラ102のマッチング結果に基づいて各カメラ102に対応する重みを設定し、加重平均方法を使用して前記移動プラットフォーム111の位置情報を計算する。
即ち、カメラセット101におけるi番目のカメラ102を用いて、式(3)及び(4)により得られた前後フレーム画像のマッチング結果と位置変換行列に基づいて一つの移動プラットフォーム111の位置P を推定することができる。移動プラットフォーム111の位置の精度を向上させるために、各カメラ102によって得られた計算結果(例えば、移動プラットフォーム111の位置P )に基づいて加重平均を実行することができる。ここで、加重平均の重みは、各カメラ102のマッチング結果によって決められる。
時刻tにおける各カメラ102のマッチング結果をそれぞれSとすると、各カメラ102の対応するP の重みは、それぞれ以下の通りであり、
ここで、jは1,2,...,Mである。
時刻tにおける移動プラットフォーム111の位置は、次のように計算される。
加重平均方法によって得られる移動プラットフォーム111の位置の精度がより高い。
各カメラ102に探索画像及びそれに対応する位置情報を保存した後、ステップS32を実行し、各カメラ102は、カメラ102の現在の位置P に基づいて、過去の時刻で現在位置における他のカメラ102の候補画像を探索して選択する。時刻tにおけるカメラセット101の各カメラ102の位置P は、他のカメラの全ての候補画像の位置P k’をトラバースし、P k’は時刻tk’におけるl番目のカメラ102(l≠i)の位置である。距離P と最も近いP k’が次の関係を満たす場合、
ここで、Dは第2閾値、つまり所定の距離閾値である。
対応する画像F k’は、l番目のカメラ102の候補画像であり、前記候補画像のタイムスタンプtk’を記録する。
探索に成功した後、ステップS33を実行し、前記探索画像と前記候補画像のマッチングを行う。
マッチング結果が以下の関係を満たす場合:
i,l k,k’は、探索画像F と候補画像F k’のマッチングスコアであり、εは第1閾値、つまり、所定のスコア閾値である。
得られたマッチング結果が前記第1閾値よりも大きい場合、マッチングに成功したと判断し、前記探索画像と前記候補画像の位置変換行列を計算する。
式(4)によって、探索画像及び候補画像が得られる位置変換行列は、以下の関係を満たす。
マッチングに成功した候補画像が存在する場合、ステップS34に進む。ステップS34では、前記探索画像と前記候補画像のカメラ102の間の位置関係、及び前記探索画像と前記候補画像の位置変換行列に基づいて、前記第1カメラ102の位置変換行列を計算し、その後、前記第1カメラ102の位置変換行列及び前記移動プラットフォーム111に対する前記第1カメラ102の位置関係に基づいて、前記移動プラットフォーム111の位置変換行列を計算し、最終的に、移動プラットフォーム111の位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォーム111の速度情報を計算する。
図4を参照すると、図4は、本発明の実施形態に係る探索画像及び候補画像を示す図であり、前記探索画像及び前記候補画像に対応するカメラ102の間の位置関係は固定されている。
時刻t及びtk’におけるi番目のカメラ102の位置変換行列P k,k’は以下を満たす:
式(10)によって、i番目のカメラ102の探索画像F とその候補画像F k’との間の位置偏差Pi,l k,k’を計算することができ、i番目のカメラ102とl番目のカメラ102との間の相対位置関係Pliは既知のものであり(ここで、時刻tk’におけるl番目のカメラ102の位置P k’も既知のものである)、式(11)によってP k,k’を計算することができる。
さらに、式(3)P k,k’=Pci×P k,k’×Pci -1によって、i番目のカメラ102によって計算された時刻t及び時刻tk’における移動プラットフォーム111の位置変化を得ることができる。時刻tでi番目のカメラ102で撮影された探索画像F とl番目のカメラ102で撮影された候補画像F k’は、測定距離が最も短く、画像重畳度が最大であるので、Pi,m k,k’の計算精度が単一のカメラ102による連続的な画像追跡よりも高くなり、さらに、P k,k’とP k,k’の計算精度が高くなるようにする。
k,k’を式(1)によって行列形式に分解すると、
時刻tでi番目のカメラ102によって計算された移動プラットフォーム111の移動速度Vは、次のように表される。
前記移動プラットフォーム111の移動速度Vは、前記被写体に対する前記カメラセット101の速度である。
同じ理由により、式(6)のマッチング重みによって、より正確な移動速度を求めることができる。式は次の通りである。
さらに、ステップS32またはS33を実行する時、探索またはマッチングに失敗すると、S35に進み、前記ステップS35は、具体的には:
現在の時刻における前記移動プラットフォーム111の位置情報、前の時刻の位置情報、及び現在の時刻と前の時刻の撮影時間間隔(撮影時間差)を取得して、前記被写体に対する前記カメラセット101の速度を推定するステップを含む。
即ち、カメラセット101における全てのカメラ102が候補画像を見つけられない場合、即ち、どのカメラ102も式(8)を満たす候補画像を見つけられない場合、探索に失敗したと判断し、ステップS35に進む。そうでない場合、探索に成功した判断し、ステップS33に進む。または、全ての候補画像がマッチングに失敗する場合も、同様に、ステップS35に進む。ステップS31によって現在の時刻における前記移動プラットフォーム111の位置情報P 、前の位置情報P k-1及び現在の時刻と前の時刻の撮影時間差(t-tk-1)を取得することができ、さらに、隣接する2つの時刻における移動プラットフォーム111の位置変換行列を取得することができ、式は具体的に次の通りである。
もちろん、式(3)によってP k,k-1を直接得ることもできる。前記P 及びP k-1は、式(7)によって計算することもできる。
k,k-1を行列形式に分解すると、
最後に、時刻tにおける移動プラットフォーム111の移動速度が得られ、次のように表される。
本発明の実施形態では、各カメラ102によって撮影された画像のマッチングを処理することにより、類似度の高い2つの画像が得られ、前記2つの画像は測定距離が最も短く、画像の重畳度が最大であるので、計算された移動プラットフォーム111の速度情報の精度が単一カメラ102による連続的な画像追跡によって得られる被写体の速度情報の精度よりも高くなるようにする。
これに基づいて、図2を参照すると、本発明の実施形態は、
被写体に対して移動可能な移動プラットフォーム111と、
前記移動プラットフォーム111上に設けられる少なくとも2つのカメラ102を含み、各カメラ102の間の相対位置が固定されているカメラセット101と、
上記のような複数カメラ102による速度測定方法を実行するように配置されるプロセッサ110と、を含む複数カメラ102による速度測定装置をさらに提供する。
本実施形態において、前記カメラセット101は、前記カメラ102とマッチングする光源103を備え、
近赤外線光源103と、それとマッチングし、前記近赤外線光源103の放射光の波長を透過可能なレンズを備えたカメラ102、
または、遠赤外線光源103とそれとマッチングする遠赤外線カメラ102、
または、紫外線光源103とそれとマッチングする紫外線カメラ102、
または、偏光光源103と、それとマッチングし、前記偏光を透過可能なレンズを備えたカメラ102を含む。
本実施形態において、各カメラ102の画像撮影時刻は同期するか、または、各カメラ102の撮影時間はタイムスタンプを有し、移動速度を容易に計算するように、前記タイムスタンプは前記プロセッサ110によってリアルタイムで取得することができる。
本実施形態において、前記複数カメラ102による速度測定装置は、前記移動プラットフォーム111上に設けられるキャリブレーションツールをさらに含み、前記キャリブレーションツールは、各カメラ102の間の相対位置関係及び前記移動プラットフォーム111の中心に対する各カメラ102の位置関係をキャリブレーションし、前記位置関係は前記プロセッサ110によって取得することができる。
さらに、前記キャリブレーションツールは、チェッカーボード、レーザー距離計、レーザーレーダ、TOFセンサ、またはエンコーダである。
本実施形態の第1好ましい例として、前記カメラセット101は、少なくとも一対の双眼カメラを含む。前記双眼カメラは、カメラセット101が画像における各点の距離に基づいてカメラセット101の空間における3自由度以上の位置姿勢及び速度を計算することができるように、共通の視野を含み、3次元画像を得ることができる双眼カメラを指す。
本実施形態の第2好ましい例として、前記カメラセット101は、前記移動プラットフォーム111の主な移動方向に沿って配置された少なくとも2つのTOFカメラを含むことにより、前後2つのカメラのマッチングに用いられる画像が立体画像であることを保証し、画像をマッチングした後には、撮影対象の距離及び/または形状に応じて、より高い精度が得られるようにする。
本実施形態の第3好ましい例として、前記カメラセット101は、前記移動プラットフォーム111の主な移動方向に沿って配置された少なくとも一対のラインスキャンカメラを含み、前記各対ラインスキャンカメラの画像を比較してもカメラセット101の速度情報を得ることができる。
好ましくは、前記カメラセット101は、少なくとも1つのグローバルシャッターエリアカメラをさらに含み、前記プロセッサ110は、前記グローバルシャッターエリアカメラによって撮影された画像を前記ラインスキャンカメラによって撮影された画像と比較して、前記ラインスキャンカメラによって撮影された画像を補正するようにすることができる。
さらに、前記複数カメラによる速度測定装置は、互いに異なる被写体の間の距離を計測するための少なくとも1つのレーザービーム計測器をさらに含む。
さらに、前記レーザービーム計測器は、ラインレーザービーム計測器または十字線状レーザービーム計測器である。
本実施形態において、前記プロセッサ110は、互いに異なるカメラの画像を比較することにより高精度の速度情報を取得することができ、また、各カメラの前後連続する画像を通じて速度情報を取得することができ、この情報は、互いに異なるカメラによって撮影された、マッチングに利用可能な画像の出現時間を大略に計算して、マッチング速度を向上させることができる。
本実施形態では、取得された2つの画像のマッチング結果が第1閾値未満である場合、前記プロセッサ110は、現在の時刻における移動プラットフォーム111の中心の位置情報、前の時刻の位置情報、及び現在の時刻と前の時刻の撮影時間差に基づいて、前記被写体に対する前記カメラセット101の速度を推定することができる。
上述したように、本発明に係る実施形態は、異なるカメラで撮影された画像のマッチングを処理することにより、類似性の高い2つの画像を取得する複数カメラによる速度測定方法及び速度測定装置を提供するが、前記2つの画像の測定距離が最も短く、画像の重畳度が最大であるので、前記複数カメラによる速度測定方法によって計算された前記移動プラットフォームの速度情報の精度が単一カメラによる連続的な画像追跡によって計算された被写体の速度情報の精度よりも高くなる。また、本発明に係る複数カメラによる速度測定方法及び複数カメラによる速度測定装置は、実環境とフィードバックを形成して、車輪がスリップしたり、車輪が架空された場合に、ロボットが誤って判断するという問題を解決する。
上記した説明は、本発明の最良の実施形態を示すものであり、本発明に対して何らの制限を与えるものではない。当業者は、本発明の技術的手段の範囲を逸脱しない範囲ないで、上記した技術内容を利用して本発明の技術的手段に対して多くの可能な変更及び装飾または同等の変更を施すことが出来る。従って、本発明の技術的手段の内容の範囲内で、本発明の技術思想に基づいて上記した実施形態に対する如何なる簡単な修正、均等な変化及び装飾は何れも本発明の技術的手段により保護される範囲内に属するとすべきである。
101 カメラセット
102 カメラ
103 光源
110 プロセッサ
111 移動プラットフォーム
W 世界座標系
C 中心座標系

Claims (21)

  1. S1:移動プラットフォーム上に設けられた、相対位置が固定されたカメラセットにおける各カメラの位置をキャリブレーションして、各カメラの間の位置関係、及び各カメラと移動プラットフォームとの間の位置関係を取得するステップ;
    S2:前記カメラセットにおける各カメラの同期画像シーケンスを取得し、また、前記同期画像シーケンスのタイムスタンプを記録するステップ;及び
    S3:前記カメラセットにおける各カメラによって撮影された画像のマッチングの処理をし、得られた2つの画像のマッチング結果が第1閾値よりも大きい場合、前記2つの画像の位置変換行列を計算し、前記2つの画像を撮影するカメラの間の位置関係、前記移動プラットフォームに対する前記2つの画像を撮影するカメラの位置関係、及び前記2つの画像の位置変換行列に基づいて、前記2つの画像の撮影時間間隔における前記移動プラットフォームの位置変換行列を取得し、最後に、前記移動プラットフォームの位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォームの速度情報を計算するステップ;を含む、ことを特徴とする複数カメラによる速度測定方法。
  2. 前記ステップS3が、
    S31:現在の時刻における前記移動プラットフォームの位置情報を取得し、現在の時刻における前記移動プラットフォームの位置情報及び前記移動プラットフォームに対する第1カメラの位置関係に基づいて、現在の時刻における前記第1カメラの第1位置を計算するステップ;
    S32:前記第1位置に基づいて、他のカメラが画像を撮影する際の第2位置をトラバースし、前記第2位置と前記第1位置との間の距離が第2閾値未満である場合、探索に成功したと判断し、前記第1位置及び前記第2位置に対応する撮影画像をそれぞれ探索画像及び候補画像と記録し、前記探索画像及び候補画像のタイムスタンプを記録した後、ステップS33に進むステップ;
    S33:前記探索画像と前記候補画像のマッチングを行い、得られたマッチング結果が前記第1閾値よりも大きい場合、マッチングに成功したと判断し、前記探索画像と前記候補画像の位置変換行列を計算した後、ステップS34に進むステップ;及び
    S34:前記探索画像と前記候補画像のカメラの間の位置関係と前記位置変換行列に基づいて、前記第1カメラの位置変換行列を計算し、その後、前記第1カメラの位置変換行列及び前記移動プラットフォームに対する前記第1カメラの位置関係に基づいて、前記移動プラットフォームの位置変換行列を計算し、最後に、前記移動プラットフォームの位置変換行列及び前記2つの画像の撮影時間間隔に基づいて、前記移動プラットフォームの速度情報を計算するステップ;を含む、ことを特徴とする請求項1に記載の複数カメラによる速度測定方法。
  3. 現在の時刻における前記移動プラットフォームの位置情報を取得するステップが、前記第1カメラの探索画像と前のフレーム画像をマッチングして、前記第1カメラの自己位置変換行列を取得し、前記自己位置変換行列、前記移動プラットフォームに対する前記第1カメラの位置関係に基づいて、前記移動プラットフォームの位置情報を取得するステップを含む、ことを特徴とする請求項2に記載の複数カメラによる速度測定方法。
  4. 前記第1カメラの探索画像と前のフレーム画像をマッチングして、前記第1カメラの自己位置変換行列を取得し、前記自己位置変換行列、前記移動プラットフォームに対する前記第1カメラの位置関係に基づいて、前記移動プラットフォームの位置情報を取得する時、各カメラのマッチング結果に基づいて各カメラに対応する重みを設定し、加重平均方法を使用して前記移動プラットフォームの位置情報を計算する、ことを特徴とする請求項3に記載の複数カメラによる速度測定方法。
  5. 前記マッチング方法は、2D画像特徴マッチング方法であり、前記2D画像特徴マッチング方法は、2つの画像の特徴点を抽出して、速やかにマッチングすることにより、2つの画像の位置変換行列を計算する、ことを特徴とする請求項1または4に記載の複数カメラによる速度測定方法。
  6. 前記マッチング方法は、2D画像周波数領域情報マッチング方法であり、前記2D画像周波数領域情報マッチング方法は、フーリエ-メリン変換アルゴリズムを通じて2つの画像の回転、並進、及びスケールファクタを計算し、さらに2つの画像の位置変換行列を計算する、ことを特徴とする請求項1または4に記載の複数カメラによる速度測定方法。
  7. 前記マッチング方法は、3Dマッチング方法であり、前記3Dマッチング方法は、2つの画像に対応する3D点座標を通じて空間における3自由度の位置姿勢及び速度を計算し、さらに2つの画像の位置変換行列を計算する、ことを特徴とする請求項1または4に記載の複数カメラによる速度測定方法。
  8. 位置センサを介して現在の時刻における前記移動プラットフォームの位置情報を直接取得する、ことを特徴とする請求項2に記載の複数カメラによる速度測定方法。
  9. ステップS32またはS33を実行する時に、探索またはマッチングに失敗すると、ステップS35に進み、前記ステップS35は、現在の時刻における前記移動プラットフォームの位置情報、前の時刻における位置情報、及び現在の時刻と前の時刻の撮影時間間隔を取得して、前記移動プラットフォームの速度情報を推定するステップを含む、ことを特徴とする請求項2に記載の複数カメラによる速度測定方法。
  10. 被写体に対して移動可能な移動プラットフォームと、
    前記移動プラットフォーム上に設けられる少なくとも2つのカメラを含み、各カメラの間の相対位置が固定されているカメラセットと、
    請求項1~8のいずれか一項に記載の複数カメラによる速度測定方法を実行するように配置されるプロセッサと、を含む、ことを特徴とする複数カメラによる速度測定装置。
  11. 前記カメラセットは、前記カメラとマッチングする光源を備え、
    近赤外線光源と、それとマッチングし、前記近赤外線光源の放射光の波長を透過可能なレンズを備えたカメラ、
    または、遠赤外線光源と、それとマッチングする遠赤外線カメラ、
    または、紫外線光源と、それとマッチングする紫外線カメラ、
    または、偏光光源と、それとマッチングし、前記偏光を透過可能なレンズを備えたカメラを含む、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  12. 各カメラの画像撮影時刻は同期するか、または各カメラの撮影時間はタイムスタンプを有する、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  13. 前記複数カメラによる速度測定装置は、前記移動プラットフォーム上に設けられるキャリブレーションツールをさらに含み、前記キャリブレーションツールは、各カメラの間の相対位置関係及び前記移動プラットフォームに対する各カメラの位置関係をキャリブレーションする、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  14. 前記キャリブレーションツールは、チェッカーボード、レーザー距離計、レーザーレーダ、TOFセンサ、またはエンコーダである、ことを特徴とする請求項13に記載の複数カメラによる速度測定装置。
  15. 前記カメラセットは、少なくとも一対の双眼カメラを含む、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  16. 前記カメラセットは、前記移動プラットフォームの主な移動方向に沿って配置される少なくとも2つのTOFカメラを含む、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  17. 前記カメラセットは、前記移動プラットフォームの主な移動方向に沿って配置される少なくとも一対のラインスキャンカメラを含む、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  18. 前記カメラセットは、少なくとも1つのグローバルシャッターエリアカメラをさらに含み、前記プロセッサは、前記グローバルシャッターエリアカメラによって撮影された画像を前記ラインスキャンカメラによって撮影された画像と比較して、前記ラインスキャンカメラによって撮影された画像を補正するようにすることができる、ことを特徴とする請求項17に記載の複数カメラによる速度測定装置。
  19. 取得された前記2つの画像のマッチング結果が第1閾値未満である場合、前記プロセッサは、現在の時刻における移動プラットフォームの位置情報、前の時刻の位置情報、及び現在の時刻と前の時刻との撮影時間間隔に基づいて、前記移動プラットフォームの速度情報を推定することができる、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  20. 前記複数カメラによる速度測定装置は、互いに異なる被写体の間の距離を計測するための少なくとも1つのレーザービーム計測器をさらに含む、ことを特徴とする請求項10に記載の複数カメラによる速度測定装置。
  21. 前記レーザービーム計測器は、ラインレーザービーム計測器または十字線状レーザービーム計測器である、ことを特徴とする請求項20に記載の複数カメラによる速度測定装置。
JP2023540732A 2021-06-30 2022-03-22 複数カメラによる速度測定方法及び速度測定装置 Pending JP2024501731A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202110748440.5 2021-06-30
CN202110748440.5A CN113504385B (zh) 2021-06-30 2021-06-30 复数相机测速方法及测速装置
PCT/CN2022/082190 WO2023273427A1 (zh) 2021-06-30 2022-03-22 复数相机测速方法及测速装置

Publications (1)

Publication Number Publication Date
JP2024501731A true JP2024501731A (ja) 2024-01-15

Family

ID=78009851

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023540732A Pending JP2024501731A (ja) 2021-06-30 2022-03-22 複数カメラによる速度測定方法及び速度測定装置

Country Status (4)

Country Link
US (1) US20240085448A1 (ja)
JP (1) JP2024501731A (ja)
CN (1) CN113504385B (ja)
WO (1) WO2023273427A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113504385B (zh) * 2021-06-30 2023-07-14 安徽爱观视觉科技有限公司 复数相机测速方法及测速装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102519481B (zh) * 2011-12-29 2013-09-04 中国科学院自动化研究所 一种双目视觉里程计实现方法
CN104268882A (zh) * 2014-09-29 2015-01-07 深圳市热活力科技有限公司 基于双线阵摄像头的高速运动物体检测与测速方法及系统
JP6485964B2 (ja) * 2015-09-10 2019-03-20 オプティトラック・ジャパン株式会社 モーションキャプチャー方法及びモーションキャプチャーシステム
CN105825518B (zh) * 2016-03-31 2019-03-01 西安电子科技大学 基于移动平台拍摄的序列图像快速三维重建方法
CN106370884B (zh) * 2016-09-09 2019-12-24 成都通甲优博科技有限责任公司 基于双目相机计算机视觉技术的车辆测速方法
JP7137464B2 (ja) * 2018-12-26 2022-09-14 株式会社デンソーアイティーラボラトリ カメラキャリブレーション装置、カメラキャリブレーション方法、およびプログラム
CN110322702B (zh) * 2019-07-08 2020-08-14 中原工学院 一种基于双目立体视觉系统的车辆智能测速方法
WO2021184218A1 (zh) * 2020-03-17 2021-09-23 华为技术有限公司 一种相对位姿标定方法及相关装置
CN112381886B (zh) * 2020-11-16 2024-04-09 深圳市洲明科技股份有限公司 基于多相机的三维场景重建方法、存储介质及电子设备
CN113504385B (zh) * 2021-06-30 2023-07-14 安徽爱观视觉科技有限公司 复数相机测速方法及测速装置

Also Published As

Publication number Publication date
CN113504385B (zh) 2023-07-14
WO2023273427A1 (zh) 2023-01-05
CN113504385A (zh) 2021-10-15
US20240085448A1 (en) 2024-03-14

Similar Documents

Publication Publication Date Title
KR102085228B1 (ko) 깊이 센서의 깊이 보정을 위한 이미지 처리방법 및 그 장치
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
US10823552B2 (en) Method for the three dimensional measurement of moving objects during a known movement
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
May et al. Robust 3D-mapping with time-of-flight cameras
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
EP2733457B1 (en) Position and orientation calibration method and apparatus
US7724379B2 (en) 3-Dimensional shape measuring method and device thereof
CN112785702A (zh) 一种基于2d激光雷达和双目相机紧耦合的slam方法
JP6782903B2 (ja) 自己運動推定システム、自己運動推定システムの制御方法及びプログラム
WO2018227576A1 (zh) 地面形态检测方法及系统、无人机降落方法和无人机
CN103020952A (zh) 信息处理设备和信息处理方法
WO2011005783A2 (en) Image-based surface tracking
US11222433B2 (en) 3 dimensional coordinates calculating apparatus and 3 dimensional coordinates calculating method using photo images
JP2022089269A (ja) キャリブレーション装置およびキャリブレーション方法
CN108413917A (zh) 非接触式三维测量系统、非接触式三维测量方法及测量装置
US11295478B2 (en) Stereo camera calibration method and image processing device for stereo camera
CN113012224A (zh) 定位初始化方法和相关装置、设备、存储介质
JP2024501731A (ja) 複数カメラによる速度測定方法及び速度測定装置
KR100773271B1 (ko) 단일 카메라를 이용한 이동 로봇의 위치 측정 방법
CN117406234A (zh) 基于单线激光雷达与视觉融合的目标测距和追踪的方法
Vestena et al. A weighted closed-form solution for RGB-D data registration
Li et al. Extrinsic calibration between a stereoscopic system and a LIDAR with sensor noise models
KR20240062709A (ko) 차량에 탑재된 카메라 교정 방법 및 이를 위한 탈부착 교정 장치
JP2023176361A (ja) 移動体制御システムおよび移動体制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240712