JP2024075525A - 情報処理装置、情報処理方法、及び較正用ターゲット - Google Patents

情報処理装置、情報処理方法、及び較正用ターゲット Download PDF

Info

Publication number
JP2024075525A
JP2024075525A JP2021060257A JP2021060257A JP2024075525A JP 2024075525 A JP2024075525 A JP 2024075525A JP 2021060257 A JP2021060257 A JP 2021060257A JP 2021060257 A JP2021060257 A JP 2021060257A JP 2024075525 A JP2024075525 A JP 2024075525A
Authority
JP
Japan
Prior art keywords
calibration
sensor
distance
data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021060257A
Other languages
English (en)
Inventor
友希 鴇崎
和憲 神尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2021060257A priority Critical patent/JP2024075525A/ja
Priority to PCT/JP2022/001613 priority patent/WO2022209166A1/ja
Publication of JP2024075525A publication Critical patent/JP2024075525A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】センサ間の配置関係を精度よく較正することが可能な情報処理装置、情報処理方法、及び較正用ターゲットを提供すること。【解決手段】本技術の一形態に係る情報処理装置は、較正処理部を具備する。前記較正処理部は、測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する。【選択図】図3

Description

本技術は、立体形状の測定等に用いられる複数のセンサ間の配置を較正する処理に適用可能な情報処理装置、情報処理方法、及び較正用ターゲットに関する。
特許文献1には、3次元情報及び全方位画像を取得可能なアクティブセンサの位置及び姿勢を推定する方法について記載されている。この方法では、アクティブセンサが取得した全方位画像から、アクティブセンサの現在位置における全方位エッジヒストグラムが算出される。この結果を参照地点での全方位エッジヒストグラムと比較することで、参照地点に対する移動方向と回転角度が算出される。これにより、アクティブセンサの位置及び姿勢を推定することが可能となっている(特許文献1の明細書段落[0025][0038][0053][0108]図3等)。
特開2004-132933号公報
近年では、測距センサや画像センサ等を組み合わせて立体形状等を測定する技術が開発されている。このように、複数のセンサを用いる場合には、各センサ間の相対的な位置や姿勢を適正に較正することが重要となる。このため、センサ間の配置関係を精度よく較正する技術が求められている。
以上のような事情に鑑み、本技術の目的は、センサ間の配置関係を精度よく較正することが可能な情報処理装置、情報処理方法、及び較正用ターゲットを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、較正処理部を具備する。
前記較正処理部は、測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する。
この情報処理装置では、測距センサ及び他のセンサにより、複数の凹状パターンが設けられた較正用ターゲットを測定したデータから、各センサの配置関係を表す較正パラメータが算出される。各凹状パターンの底面部及び縁面部は、測距センサの測定光に対する反射率が高い。これにより、測距センサは凹状パターンの形状を精度よく測定することが可能となり、各センサの配置関係を表す較正パラメータの算出精度が向上する。この結果、センサ間の配置関係を精度よく較正することが可能となる。
前記複数の凹状パターンは、前記底面部及び前記縁面部が平面となるように構成されてもよい。
前記複数の凹状パターンは、前記底面部が円形状となるように、かつ前記縁面部が平面視で前記底面部と中心が一致する円環形状となるように構成されてもよい。
前記測距センサは、前記較正用ターゲットの各点に対する距離を表す第1の距離データを出力してもよい。この場合、前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第1の距離データが表す距離を較正した第1の較正距離情報を算出し、前記第1の較正距離情報に基づいて、前記配置関係を表す較正パラメータを算出してもよい。
前記較正処理部は、前記第1の距離データを平滑化し、前記平滑化された前記第1の距離データに基づいて前記第1の較正距離情報を算出してもよい。
前記他のセンサは、対象を可視光により撮影する可視カメラであり、前記較正用ターゲットを前記可視光により撮影した可視画像データを出力してもよい。
前記複数の凹状パターンは、前記底面部及び前記縁面部の色が、第1の色となるように構成されてもよい。この場合、前記較正用ターゲットは、前記複数の凹状パターンが配置され、前記可視光による撮影において前記第1の色とは異なる第2の色となる領域を含む平面状の配置面を有してもよい。
前記配置面は、前記複数の凹状パターンを除く領域が前記第2の色に着色されてもよい。
前記配置面は、前記第1の色及び前記第2の色で交互に着色された複数の矩形領域により格子状に分割された格子模様を有してもよい。この場合、前記複数の凹状パターンは、前記複数の矩形領域の各々に少なくとも1つ配置されてもよい。
前記第1の色は、白色であってもよい。この場合、前記第2の色は、黒色であってもよい。
前記第1の色は、前記測定光の反射光の強度が前記測距センサの測定レンジに収まる範囲で、前記第2の色に対するコントラストが最大となるように設定されてもよい。
前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力してもよい。この場合、前記較正処理部は、前記可視画像データと前記反射強度データとに基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果を前記第1の較正距離情報に基づいて補正してもよい。
前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力してもよい。この場合、前記較正処理部は、前記第1の較正距離情報に基づいて前記可視画像データと前記反射強度データとの間の視差補正を実行し、前記視差補正の結果に基づいて前記配置関係を表す較正パラメータを算出してもよい。
前記他のセンサは、前記測定光を照射する他の測距センサであり、前記較正用ターゲットの各点に対する距離を表す第2の距離データを出力してもよい。
前記較正用ターゲットは、前記複数の凹状パターンが配置される球面状の配置面を有してもよい。
前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第2の距離データが表す距離を較正した第2の較正距離情報を算出してもよい。
前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果に基づいて前記測距センサ及び前記他の測距センサの各内部パラメータを補正してもよい。
前記測距センサ及び前記他の測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データをそれぞれ出力してもよい。この場合、前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記測距センサ及び前記他の測距センサから出力された各反射強度データに関する視点変換を実行し、前記視点変換の結果に基づいて前記配置関係を表す較正パラメータを算出してもよい。
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出することを含む。
本技術の一形態に係る較正用ターゲットは、測定光を照射する測距センサを含む複数のセンサ間の配置関係を較正するために用いられる較正用ターゲットであって、複数の凹状パターンを具備する。
前記複数の凹状パターンは、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の測定光に対する反射率が所定の閾値よりも高くなるように構成される。
本技術の第1の実施形態に係る3次元測定システムの構成例を示すブロック図である。 3次元測定システムの概要を示す模式図である。 キャリブレーションボードの構成例を示す模式図である。 キャリブレーションボードを測定したデータの一例を示す模式図である。 3Dセンサの特性を説明するためのデータの一例である。 比較例として挙げるキャリブレーションパターンの一例を示す模式図である。 キャリブレーションボードの他の構成例を示す模式図である。 キャリブレーションボードの他の構成例を示す模式図である。 キャリブレーションパラメータについて説明するための模式図である。 カメラセンサ間の配置関係を較正する処理について説明する模式図である。 ステレオ撮影におけるデプス値と視差との関係を示す模式図である。 キャリブレーション処理の一例を示すフローチャートである。 キャリブレーション処理の処理フローの一例を示すブロック図である。 キャリブレーション処理の処理フローの他の一例を示すブロック図である。 比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。 第2の実施形態に係る3次元測定システムの構成例を示すブロック図である。 3次元測定システムの動作の概要を示す模式図である。 キャリブレーションマーカーの構成例を示す模式図である。 キャリブレーション処理の一例を示すフローチャートである。 キャリブレーション処理の処理フローの一例を示すブロック図である。 キャリブレーション処理の処理フローの他の一例を示すブロック図である。 比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
[3次元測定システムの構成]
図1は、本技術の第1の実施形態に係る3次元測定システムの構成例を示すブロック図である。図2は、3次元測定システム100の概要を示す模式図である。
3次元測定システム100は、3Dセンサ11と、2Dセンサ12と、記憶部13と、コントローラ20とを有する。3次元測定システム100は、3Dセンサ11及び2Dセンサ12を用いて3次元空間にある測定対象1を撮影する2D-3Dステレオ撮影を行うシステムである。本実施形態では、測定対象1の立体形状及び外観等を含む3次元情報が測定される。
3Dセンサ11及び2Dセンサ12は、互いに異なる方向から共通の測定対象1を測定することができるように配置される。
3Dセンサ11及び2Dセンサ12は、例えば個別の筐体に収められた独立したセンサユニットとして構成されてもよい。この場合、各センサはそれぞれ自由に配置可能である。あるいは、3Dセンサ11及び2Dセンサ12が一つの筐体に収められてもよい。この場合、例えばスマートフォン等の端末装置や、据え置き型の測定装置に各センサが設けられる。
3次元測定システム100では、キャリブレーション処理と、モデル生成処理とが実行される。図2の左側及び右側には、キャリブレーション処理及びモデル生成処理を行う際の測定の様子がそれぞれ模式的に図示されている。
キャリブレーション処理は、3Dセンサ11及び2Dセンサ12によりキャリブレーションボード30を測定して、各センサにより測定されるデータの位置合わせを行う処理である。この処理では、主に3Dセンサ11及び2Dセンサ12の配置関係(相対的な位置及び姿勢)を較正するキャリブレーションパラメータ25が算出される。本実施形態では、キャリブレーションボード30は、較正用ターゲットに相当する。
モデル生成処理は、3Dセンサ11及び2Dセンサ12により測定された測定対象1の3次元情報を用いて、測定対象1の3Dモデル26を生成する処理である。この処理では、キャリブレーション処理により算出されたキャリブレーションパラメータ25を用いて、各センサのデータの位置合わせが行われる。
以下では、3次元測定システム100の構成について具体的に説明する。
3Dセンサ11は、測定対象1に測定光2を照射して、測定対象1で反射された反射光3を測定することで、測定対象1の各点に対する距離を測定するアクティブ測距センサである。本実施形態では、3Dセンサ11は、測定光を照射する測距センサに相当する。
測定光2としては、典型的には赤外光(IR:Infrared)が用いられる。図2に示すように、3Dセンサ11は、赤外光を照射する光源14(赤外線LED等)と、測定対象1で反射した赤外光を検出するイメージセンサ15(IRイメージセンサ等)とを用いて構成される。
3Dセンサ11としては、例えばToF(Time of Flight)方式のデプスカメラが用いられる。ToF方式とは、測定対象1に照射された測定光2が反射光3となってセンサに返ってくるまでの時間差を計測することで、測定対象1の各点に対する距離(デプス値)を測定する検出方式である。
本実施形態では、測定光2と反射光3との位相差に基づいてデプス値を測定するiToF(indirect Time of Flight)方式の3Dセンサ11が用いられる。また例えば、測定光2を照射してから反射光3が返ってくるまでの時間を直接検出するdToF(direct Time of Flight)方式の3Dセンサ11が用いられてもよい。この他、3Dセンサ11の具体的な構成は限定されず、光(測定光2)を照射して距離を測定する任意のセンサが3Dセンサ11として用いられてよい。
3Dセンサ11は、測定対象1の各点に対する距離を表す距離データを出力する。ここで距離データとは、例えば3Dセンサ11を基準とするカメラ座標における、測定点までの奥行き(デプス値)を表すデータである。例えば、3Dセンサ11では、イメージセンサ15の画素ごとにデプス値が検出される。このデプス値のデータが、距離データ(デプス画像)となる。
また3Dセンサ11は、測定対象1の各点における測定光2の反射強度を表す反射強度データを出力する。例えば、3Dセンサ11では、イメージセンサ15の画素ごとに反射光3の強度が検出される。この反射光3の強度を表すデータが、反射強度データ(反射強度画像)となる。
2Dセンサ12は、測定対象1を可視光4により撮影する可視カメラであり、測定対象1を可視光4により撮影した可視画像データを出力する。可視画像データは、カラーの動画像や静止画像のデータであり、測定対象1の外観を表す可視情報となる。本実施形態では、2Dセンサ12は、測距センサとは異なる他のセンサの一例であり、対象を可視光により撮影する可視カメラに相当する。
2Dセンサ12としては、CMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラを用いることが可能である。また2Dセンサ12として、ズーム機能や各種の光学フィルタ等を備えるデジタルカメラが用いられてもよい。この他、測定対象1を可視光4により撮影可能な任意の構成が採用されてよい。
記憶部13は、不揮発性の記憶デバイスである。記憶部13としては、例えばSSD(Solid State Drive)等の固体素子を用いた記録媒体や、HDD(Hard Disk Drive)等の磁気記録媒体が用いられる。この他、記憶部13として用いられる記録媒体の種類等は限定されず、例えば非一時的にデータを記録する任意の記録媒体が用いられてよい。
記憶部13には、3次元測定システム100の全体の動作を制御するための制御プログラムが記憶される。制御プログラムは、本実施形態に係るプログラムであり、記憶部13は、プログラムが記録されているコンピュータが読み取り可能な記録媒体に相当する。
また記憶部13には、上記したキャリブレーションパラメータ25のデータや、キャリブレーションボード30の形状や寸法等のデータ、3Dモデル26のデータ等が記憶される。この他、記憶部13には、3次元測定システム100の動作に必要な任意のデータが記憶される。
コントローラ20は、3次元測定システム100が有する各ブロックの動作を制御する。コントローラ20は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部13に記憶されている制御プログラムをRAMにロードして実行することにより、種々の処理が実行される。本実施形態では、コントローラ20は、情報処理装置に相当する。
コントローラ20として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。また例えばGPU(Graphics Processing Unit)等のプロセッサがコントローラ20として用いられてもよい。
本実施形態では、コントローラ20のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして、較正処理部21、及びモデル生成部22が実現される。そしてこれらの機能ブロックにより、本実施形態に係る情報処理方法が実行される。なお各機能ブロックを実現するために、IC(集積回路)等の専用のハードウェアが適宜用いられてもよい。
較正処理部21は、キャリブレーション処理を実行して、3Dセンサ11と2Dセンサ12との配置関係(センサ間の相対的な位置及び姿勢)を較正する。具体的には、各センサの配置関係を表すキャリブレーションパラメータ25が算出される。
上記したように、キャリブレーションパラメータ25は、3Dセンサ11及び2Dセンサ12が出力する各データの位置合わせに用いるパラメータである。例えば、各センサにより測定された測定対象のデータを共通の座標系に変換する変換行列に用いられるパラメータがキャリブレーションパラメータ25となる。
図9等を参照して説明するように、キャリブレーションパラメータ25には、内部パラメータと、外部パラメータとが含まれる。内部パラメータは、3Dセンサ11及び2Dセンサ12の特性に応じて定まるパラメータである。外部パラメータは、3Dセンサ11及び2Dセンサ12の位置・姿勢に応じて定まるパラメータである。
キャリブレーション処理では、3Dセンサ11と2Dセンサ12との配置関係を表すキャリブレーションパラメータ25として、外部パラメータが算出される。
また、内部パラメータとしては、例えば各センサの特性に応じて予め設定された値が用いられる。なお、内部パラメータを算出する処理や内部パラメータを補正する処理等が実行されてもよい。
本実施形態では、較正処理部21は、3Dセンサ11により、キャリブレーションボード30を測定したデータと、2Dセンサ12により、キャリブレーションボード30を測定したデータとに基づいて、3Dセンサ11と2Dセンサ12との配置関係を表すキャリブレーションパラメータ25(外部パラメータ)を算出する。
図2の左側に示すように、キャリブレーション処理では、3Dセンサ11及び2Dセンサ12により、共通のキャリブレーションボード30が測定される。
この測定では、3Dセンサ11は、キャリブレーションボード30の各点に対する距離を表す距離データを出力する。また、3Dセンサ11は、キャリブレーションボード30の各点における測定光2の反射強度を表す反射強度データを出力する。
また、2Dセンサ12は、キャリブレーションボード30を可視光4により撮影した可視画像データを出力する。
これらのデータは、較正処理部21により読み込まれ、キャリブレーション処理が実行される。すなわち、較正処理部21は、3Dセンサ11が測定したキャリブレーションボード30の距離データ及び反射強度データと、2Dセンサ12が測定したキャリブレーションボード30の可視画像データとに基づいて、外部パラメータを算出する。
本実施形態において、3Dセンサ11から出力されるキャリブレーションボード30の距離データは、第1の距離データに相当する。
モデル生成部22は、3Dセンサ11及び2Dセンサ12が測定した測定対象1のデータから、測定対象1の3Dモデル26を生成する。
例えば、3Dセンサ11により測定された測定対象1の距離データに基づいて、測定対象1の立体形状を表す3Dモデル26が生成される。また2Dセンサ12により測定された測定対象1の可視画像データに基づいて、3Dモデル26の各部の色が設定される。
これらの処理では、例えば可視画像データの各画素の色を、距離データ(3Dモデル26)上の適正な位置に配色する必要がある。このようなデータの位置合わせに、キャリブレーション処理で算出されたキャリブレーションパラメータ25が用いられる。これにより、精度よくカラーリングされた測定対象1の3Dモデル26等を生成することが可能となる。
[キャリブレーションボードの構成]
図3は、キャリブレーションボード30の構成例を示す模式図である。図3Aは、キャリブレーションボード30の外観の一例を示す斜視図である。図3B及び図3Cは、キャリブレーションボード30に設けられる凹状パターン32の一例を示す斜視図である。
キャリブレーションボード30は、ボード本体31と、ボード本体31に設けられた複数の凹状パターン32とを有する。
ボード本体31は、キャリブレーションボード30を構成する平板状の部材である。ボード本体31の一方の主面は、複数の凹状パターン32が形成される配置面33となる。このようにキャリブレーションボード30は、複数の凹状パターン32が配置される平面状の配置面33を有する。
キャリブレーションボード30は、ボード本体31の配置面33(複数の凹状パターン32)側が3Dセンサ11及び2Dセンサ12に向くように配置して用いられる。
複数の凹状パターン32は、それぞれ凹部34を有する。凹部34は、配置面33に設けられたくぼみであり、底面部35と、側面部36とを有する。底面部35は、凹部34の底面を形成し、側面部36は、底面部35と配置面33とをつなぐ側面を形成する。
また、各凹状パターン32には、各々の凹部34を囲む縁面部37が設けられる。縁面部37は、凹部34の縁を囲むように配置面33上に形成された領域である。
これらの凹状パターン32を複数配置することで、配置面33には苗床スタイルのキャリブレーションチャートが形成される。
図3Aに示す例では、キャリブレーションボード30の上段及び下段にそれぞれ4つの凹状パターン32が配置され、その間の中段には3つの凹状パターン32が配置される。各凹状パターン32は、例えば三角格子状に配置される。
凹状パターン32の数や、配置等は限定されない。例えば各凹状パターン32が正方格子状、あるいは六方格子状に配置されてもよい。
また、各凹部34の深さΔ、すなわち底面部35と縁面部37との距離は、例えば3Dセンサ11の距離分解能よりも大きく設定される。またΔは、凹部34の平面サイズ(底面部35の直径等)に合わせて設定されてもよい。例えば凹部34の深さΔは、凹部34の平面サイズの半分以下となるように設定される。また各凹部34の深さΔは、一定であってもよいし、凹部34ごとに異なる深さΔが設定されてもよい。この他、3Dセンサ11の特性や凹部34の平面サイズ等に応じて凹部34の深さΔが適宜設定されてよい。
底面部35及び縁面部37は、測定光2に対する反射率が所定の閾値よりも高くなるように構成される。ここで測定光2に対する反射率とは、例えば配置面33に対して測定光2を垂直に入射した場合に、測定光2の強度に対する反射光3の強度の割合である。
具体的には、底面部35及び縁面部37の色や材質が、測定光2に対して所定の閾値よりも高い反射率となるように選択される。なお側面部36は、典型的には底面部35及び縁面部37と同様の色や材質となるように構成される。他の色や材質が用いられてもよい。
上記したように、3Dセンサ11では、反射光3を検出することで測定対象1に対する距離が測定される。このとき、対象の反射率が低く、反射光3の強度が低い場合には、後述するように、測定対象1に対する距離を適正に測定できない場合がある(図5参照)。一方で、対象の反射率が十分に高く、反射光3の強度が十分に高い場合には、測定対象1に対する距離を精度よく測定することが可能である。
所定の閾値は、例えばキャリブレーション処理において、キャリブレーションボード30を測定した場合に、3Dセンサ11を用いて底面部35及び縁面部37の各点に対する距離が適正に算出できるように設定される。例えば、底面部35及び縁面部37において距離を算出するために必要な強度の反射光3を発生させる最小の反射率が、所定の閾値として設定される。この場合、底面部35及び縁面部37の反射率は、上記した最小の反射率よりも高く設定されるため、キャリブレーション処理では、底面部35及び縁面部37の各点に対する距離を適正に測定することが可能となる。
この他、所定の閾値を設定する方法は限定されず、例えば底面部35及び縁面部37の各点に対する距離が適正に測定可能となる範囲で、所定の閾値が適宜設定されてよい。
このようにキャリブレーションボード30は、各々が凹部34を有し、凹部34の底面部35及び凹部34を囲む縁面部37の測定光2に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン32を有する。
これにより、3Dセンサ11の測定結果(距離データ)から、底面部35及び縁面部37の各点に対する距離を適正に算出することが可能となる。さらに、底面部35と縁面部37との距離、すなわち凹部34の深さΔを基準にすることで、3Dセンサ11で測定した距離(デプス値)を精度よく較正することが可能となる。このように、複数の凹状パターン32が設けられたキャリブレーションボード30は、3Dセンサ11により測定される距離を較正するためのくぼみ(凹部34)を有するくぼみチャートとなる。
図3B及び図3Cに示すように、複数の凹状パターン32は、底面部35及び縁面部37が平面となるように構成される。具体的には、底面部35は、配置面33と平行な平面となるように構成される。また縁面部37は、配置面33上の平面として構成される。従って、底面部35及び縁面部37(配置面)は、互いに平行な平面となる。
このように、底面部35及び縁面部37を平面とすることで、3Dセンサ11は平面を測距することになる。この場合、底面部35及び縁面部37に余分な立体構造が含まれないため、例えば底面部35と縁面部37との距離(凹部34の深さΔ)を容易に算出することが可能となる。
また、複数の凹状パターン32は、底面部35が円形状となるように、かつ縁面部37が平面視で底面部35と中心が一致する円環形状となるように構成される。すなわち、各凹状パターン32は、中央部分に円形のくぼみがある円チャートとなり、測距円として機能する。
このように各凹状パターン32を円チャートとすることで、円を検出する画像解析等により、各凹状パターン32の特徴点を容易に検出することが可能となる。ここで、凹状パターン32の特徴点とは、例えば円環形状の縁面部37の中心の位置である。
また凹状パターン32の特徴点に対する距離(デプス値)を算出する場合には、フラットな底面部35及び縁面部37の距離情報を用いることが可能である。
本実施形態では、複数の凹状パターン32は、底面部35及び縁面部37の色が、第1の色となるように構成される。第1の色は、例えば測定光2に対する反射率が所定の閾値よりも高くなるように設定された色である。これにより、例えば3Dセンサ11による各凹状パターン32に対する測距精度が向上する。
また配置面33は、可視光4による撮影において第1の色とは異なる第2の色となる領域を含むように構成される。第2の色は、典型的には、第1の色とのコントラストが高くなるように設定された色である。これにより、例えば2Dセンサ12が撮影した可視画像データでは、第1の色となる各凹状パターン32(底面部35及び縁面部37)と、第2の色となる他の領域とが色分けされ、各凹状パターン32を容易に検出することが可能となる。
図3に示す例では、配置面33は、複数の凹状パターン32を除く領域が第2の色に着色される。以下では、配置面33において各凹状パターン32を除く領域(各凹状パターン32を囲む領域)を、ベース領域38と記載する。
この場合、全ての凹状パターン32が第2の色に着色されたベース領域38で囲まれることになる。これにより、例えば可視画像データから各凹状パターン32を検出する処理は、第2の色に着色された領域(ベース領域38)から第1の色に着色された円形の領域(凹状パターン32)を抽出する処理となる。
また、図3に示す例では、第1の色は、白色に設定され、第2の色は、黒色に設定される。従ってキャリブレーションボード30は、黒地に白い円が配列された円チャートとなる。この白色及び黒色の組み合わせは、例えば可視画像データにおけるコントラストが最も高くなる組み合わせである。これにより、各凹状パターン32の検出精度を十分に高めることが可能となる。
第1の色及び第2の色は、他の色に設定されてもよい。例えば、第1の色を白色とした場合、測定光2の反射率が高いために、3Dセンサ11(イメージセンサ15)で検出される反射光3の強度(反射強度データ)が、測定レンジを超えて飽和する可能性がある。このため、第1の色の輝度を下げて灰色(グレー)にしてもよい。
なお、第1の色の輝度を下げた場合、第2の色(ここでは黒色)とのコントラストが低下する可能性がある。すなわち、第1の色の反射率と、第1の色及び第2の色のコントラストとは、トレードオフの関係となっている。
このため、第1の色は、測定光2の反射光3の強度が3Dセンサ11の測定レンジに収まる範囲で、第2の色に対するコントラストが最大となるように設定されてもよい。これにより、3Dセンサ11が測定する反射強度データを飽和させることなく、2Dセンサ12により撮影される可視画像データにおいて高いコントラストを維持することが可能となる。
この他、第1の色及び第2の色を設定する方法は限定されない。
図4は、キャリブレーションボード30を測定したデータの一例を示す模式図である。図4Aは、2Dセンサ12によりキャリブレーションボード30を測定した可視画像データ40である。図4Bは、3Dセンサ11によりキャリブレーションボード30を測定した反射強度データ41である。また図4Cは、3Dセンサ11によりキャリブレーションボード30を測定した距離データ42(デプス画像)である。
図4B及び図4Cに示すように、反射強度データ41及び距離データ42は、ともに3Dセンサ11を用いて取得されるデータである。このため、データ上のキャリブレーションボード30の姿勢は同じである。一方で、図4Aに示す可視画像データ40は、2Dセンサ12を用いて取得されるデータであるため、キャリブレーションボード30の姿勢は図4B及び図4Cとは異なる。
なお各データにおいて、キャリブレーションボード30の背景となる部分のデータは、斜線の領域により省略して図示されている。
図4Aに示すように、キャリブレーションボード30の可視画像データ40では、各凹状パターン32は第1の色(白色)となり、ベース領域38は第2の色(黒色)となる。このように可視画像データ40において、キャリブレーションボード30は、略白黒のコントラストの高い画像となる。
これにより、各凹状パターン32と、ベース領域38とのコントラストが高くなり、凹状パターン32を精度よく識別することが可能となる。
図4Bでは、キャリブレーションボード30の各点における測定光2の反射強度(反射光3の強度)がグレースケールを用いて模式的に図示されている。ここでは、グレースケールの色が明るいほど、反射強度が高くなるように図示されている。
本実施形態では、凹状パターン32が白色に設定され、ベース領域38が黒色に設定される。この場合、凹状パターン32における反射強度は、ベース領域38における反射強度よりも高くなる。これにより、各凹状パターン32の反射強度と、ベース領域38の反射強度とのコントラストが高くなり、凹状パターン32を精度よく識別することが可能となる。
図4Cでは、キャリブレーションボード30の各点に対する距離(デプス値)がグレースケールを用いて模式的に図示されている。ここでは、グレースケールの色が明るいほど、距離が近くなるように図示されている。
例えば縁面部37(図中の点線で囲まれた円環状の領域)とベース領域38とは、同じ配置面33上の領域である。このため、キャリブレーションボード30の全面にわたって各点の距離が適正に算出された場合、図4Cに示すように、距離データ42では各凹状パターン32の縁面部37とベース領域38との境界で距離の値(デプス値)が不連続に変化することはない。
一方で、各凹状パターン32の底面部35は、配置面33に対して内側に凹んでいるため、配置面33(縁面部37及びベース領域38)よりも距離が遠くなる。
図3を参照して説明したように、縁面部37及び底面部35では、各点に対する距離が適正に測定可能となるように測定光2に対する反射率が設定される。従って、仮にベース領域38において測定光2に対する反射率が低く測距精度が低下するような場合であっても、各凹状パターン32では、縁面部37及び底面部35の各点に対する距離を精度よく検出可能である。
さらに、縁面部37と底面部35とのデプス差は、キャリブレーションボード30に設定された凹部34の深さΔを参照して較正することが可能である。これにより、高精度な距離情報を各凹状パターン32ごとに算出することが可能となる。
図5は、3Dセンサ11の特性を説明するためのデータの一例である。図5A及び図5Bは、それぞれ3Dセンサ11を用いて人物28を測定した反射強度画像45(反射強度データ)及びデプス画像46(距離データ)である。
ここでは、図5A及び図5Bを参照して、3Dセンサ11の特性について説明する。
測定光2が照射された物体からの反射光3を信号としてとらえる3Dセンサ11では、被写体が低反射物体である場合、反射光3の光量が小さく、感度が低下する可能性がある。そのため、低反射物体を測定した場合には、そのデプス値が正しく測定できないといった場合があり得る。
例えば測定光2と反射光3から位相差を介して間接的に時間差を求めるiToF方式や反射光3の到達時間から時間差を求めるdToF方式では、黒色の物体のような低反射物体の感度が低くなる特性がある。
例えば図5Aでは、人物28の奥にオブジェクト29が置かれており、オブジェクト29の一部は人物28の頭部により部分的に遮られている。この反射強度画像45では、人物28の髪の毛の部分において、反射強度が低くなっている。すなわち、髪の毛は測定光2にとって低反射物体であると言える。
さらに図5Bでは、人物28の髪の毛の部分のデプス値が大幅に高くなっている。例えば、髪の毛の部分のデプス値は、髪の毛よりも奥にあるオブジェクト29のデプス値よりも高い。この場合、実際には手前にある髪の毛の部分が、オブジェクト29よりも奥側にあることになってしまう。
このように、3Dセンサ11で反射強度の低い物体を測定した場合、そのデプス値が正しく捉えられなくなる可能性がある。
図6は、比較例として挙げるキャリブレーションパターンの一例を示す模式図である。図6A及び図6Bは、一般に可視カメラの位置・姿勢の較正に用いられるキャリブレーションパターン47a及び47bを示す模式図である。
キャリブレーションパターン47aは、白色及び黒色の正方形が交互に配列されたチェスボード型の白黒チャートである。このようなパターンを用いて可視カメラの位置・姿勢を較正する場合、特徴点として各正方形のコーナー(エッジ)が検出される。
キャリブレーションパターン47bは、白地の領域に黒色の円が三角格子状に配列されたサークルグリッド型の白黒チャートである。このようなパターンでは、特徴点として黒色の円の中心が検出される。
このように、可視光により対象を撮影する可視カメラを較正する場合、可視光で撮影可能なパターンから精度よく特徴点を検出する必要があり、コントラストの高いチャートが用いられる。
一方で、3Dセンサ11は、低反射物体の感度が低く、黒色の部分ではセンサ感度が低下する可能性がある。また3Dセンサ11による測距は、典型的にはフラットな領域で行われる。例えば図6A及び図6Bに示す白黒チャートにおいて、正方形のコーナー(エッジ)や黒色の円の中心での測距は、フラットな領域ではあるものの、黒色の測距精度が低いため較正には適していない。
これに対し、図3及び図4を参照して説明したように、本実施形態に係るキャリブレーションボード30には、複数の凹状パターン32が設けられる。各凹状パターン32は、底面部35及び縁面部37の測定光2に対する反射率は、所定の閾値よりも高くなるように構成される。
従って、各凹状パターン32(底面部35及び縁面部37)は、3Dセンサ11から照射される測定光2を十分に反射可能な高反射物体となる。このため、3Dセンサ11は、各凹状パターン32を精度よく測距することが可能となる。
また、3Dセンサ11により測定される距離データ42については、各凹状パターン32の凹部34の深さΔを基準にした較正が可能である。すなわちキャリブレーションボード30を用いることで、既知のデプス値Δで較正された高精度な距離情報を算出することが可能となる。
さらに、キャリブレーションボード30では、凹状パターン32(底面部35及び縁面部37)は測定光2に対する反射率が高い第1の色(白色等)に着色され、ベース領域38は第1の色に対してコントラストの高い第2の色(黒色等)に着色される。
従って、図4Aに示すように、2Dセンサ12によりキャリブレーションボード30を撮影した可視画像データ40では、凹状パターン32とベース領域38とのコントラストが十分に高くなる。これにより、可視画像データ40から凹状パターン32を構成する白い円(縁面部37)の領域を精度よく分離することが可能となり、凹状パターン32の特徴点(縁面部37の中心の位置等)を精度よく検出することが可能となる。
また、図4Bに示すように、3Dセンサ11によりキャリブレーションボード30を測定した反射強度データ41では、凹状パターン32の反射強度とベース領域38の反射強度とのコントラストが十分に高くなる。これにより、可視画像データ40と同様に、反射強度データ41から凹状パターン32(縁面部37)の領域を精度よく分離することが可能となり、その特徴点を精度よく検出することが可能となる。
このようにキャリブレーションボード30は、アクティブセンサである3Dセンサ11と、可視カメラである2Dセンサ12の双方で使用可能なターゲットとなっている。またキャリブレーションボード30を測定して得られるデータには、2次元的な位置を表すデータ(可視画像データ40及び反射強度データ41)に加え、デプス値を表すデータ(距離データ42)が含まれる。とくに、デプス値は、凹部34の深さΔを基準に較正できるため、非常に精度が高いデータとなる。
これにより、例えば可視画像データ40と反射強度データ41との位置合わせに、高精度なデプス値を用いることが可能となり、2Dセンサ12及び3Dセンサ11の配置関係を精度よく較正することが可能となる。
[キャリブレーションボードの他の構成]
図7及び図8は、キャリブレーションボードの他の構成例を示す模式図である。図7及び図8に示すキャリブレーションボード50a及び50bの配置面33には、格子模様51が設けられる。
格子模様51は、第1の色及び第2の色で交互に着色された複数の矩形領域52により格子状に分割された模様である。図7及び図8では、第1の色は、白色であり、第2の色は、黒色である。従って、格子模様51は、白黒の矩形領域52が格子状に交互に配置されたチェスボード型のパターンとなる。なお、矩形領域52は、典型的には正方形の領域であるが、例えば長方形の領域であってもよい。
また、複数の凹状パターン32は、複数の矩形領域52の各々に少なくとも1つ配置される。すなわち、各矩形領域52には、1つ以上の凹状パターン32がそれぞれ設けられる。
図7に示す例では、各矩形領域52に、凹状パターン32が1つ配置される。この場合、例えば黒色の矩形領域52に設けられた凹状パターン32(縁面部37)の中心が特徴点として検出される。また黒色の矩形領域52のコーナー(エッジ)も特徴点として検出可能である。
これにより、凹状パターン32以外の部分でも特徴点を検出することが可能であり、例えば可視画像データ40と反射強度データ41とのマッチング精度を高めることが可能となる。
図8に示す例では、各矩形領域52に、凹状パターン32が4つ配置される。ここでは、各矩形領域52内に格子状に並んだ2×2の凹状パターン32が設けられる。このように、矩形領域52に複数の凹状パターン32が配置されてもよい。
凹状パターン32を増やすことで、デプス値を計測・較正可能なポイントが増加する。これにより、距離情報のデータ点が増えるため、2Dセンサ12及び3Dセンサ11の位置合わせ精度を高めることが可能となる。
[キャリブレーション処理]
以下では、3Dセンサ11と2Dセンサ12との配置関係を較正するキャリブレーション処理について説明する。
図9は、キャリブレーションパラメータについて説明するための模式図である。
以下では、3Dセンサ11及び2Dセンサがそれぞれ単一のカメラセンサ(ピンホールカメラ)と見做せるものとして説明する。
図9には、ワールド座標6と、カメラ座標7と、スクリーン座標8とが模式的に図示されている。ワールド座標6は、実空間に存在する物体の位置を表す3次元座標である。カメラ座標7は、カメラセンサを基準に設定される3次元座標であり、カメラセンサの位置・姿勢に応じて変化する。スクリーン座標8は、カメラセンサにより撮影される画像(スクリーン平面)内での位置を表す2次元座標である。
ここで、ワールド座標6上の点P(px、py、pz)がカメラセンサにより撮影され、スクリーン座標8上の点Ps(u、v)になったとする。この場合、点Pと点Psとの関係は、以下に示す(1)式を用いて表される。
(1)
(1)式の左辺の3×3の行列は、カメラセンサの内部行列Kであり、カメラ座標7上の点をスクリーン座標8へ変換する変換行列である。
fは、カメラセンサの焦点距離を表すパラメータである。
aは、カメラセンサのアスペクト比を表すパラメータである。
sは、カメラセンサのスキュー歪みを表すパラメータである。
x及びcyは、カメラセンサの画像中心の座標を表すパラメータである。
内部行列Kに含まれるこれらのパラメータは、カメラセンサ(3Dセンサ11及び2Dセンサ)の特性に応じて定まる内部パラメータである。内部パラメータの自由度は5である。
(1)式の左辺の3×4の行列は、カメラセンサの外部行列Mであり、ワールド座標6上の点をカメラ座標7へ変換する変換行列である。
11、R21、R31、R12、R22、R32、R13、R23、R33は、カメラセンサのワールド座標6上の姿勢を表すパラメータであり、3×3の回転行列Rを構成する。R11~R33は、例えば3次元座標の各軸周りの回転量を用いて表すことが可能であり、自由度は3となる。
x、ty、tzは、カメラセンサのワールド座標6上の相対的な位置を表すパラメータであり、並進ベクトルTを構成する。tx、ty、tzは、例えば3次元座標の各軸方向の並進量をあらわし、自由度は3となる。
このように、外部行列Mは、回転行列Rと並進ベクトルTとを組み合わせた行列であり、M=[RT]と表される。また外部行列Mに含まれるこれらのパラメータは、カメラセンサ(3Dセンサ11及び2Dセンサ12)の位置・姿勢に応じて定まる外部パラメータである。外部パラメータの自由度は6である。
図10は、カメラセンサ間の配置関係を較正する処理について説明する模式図である。
図10には、2つのカメラセンサC0及びC1により実空間上の点Pが撮影される様子が模式的に図示されている。カメラセンサC0及びC1の一方は3Dセンサ11に対応し、他方は2Dセンサ12に対応する。ここでは、カメラセンサC0及びC1により撮影される画像データ48a及び48b上の点Pの位置をそれぞれP0(u0、v0)及びP1(u1、v1)と記載する。
例えば、(1)式から、P0(u0、v0)及びP1(u1、v1)は、カメラセンサC0の変換行列(内部行列K0及び外部行列M0)及びカメラセンサC1の変換行列(内部行列K1及び外部行列M1)を用いて対応付けることが可能である。すなわち、P0(u0、v0)=E・P1(u1、v1)を満たす変換行列EをK0、M0、K1、及びM1から算出できる。変換行列Eは、例えばエピポーラ幾何等で用いられる基本行列に対応する。
ここで、内部行列K0及びK1が既知のパラメータである場合、行列Eを算出する処理は、カメラセンサC0の外部行列M0=[R00]と、カメラセンサC1の外部行列M1=[R11]を算出する処理となる。なお、R0及びT0は、それぞれカメラセンサC0の回転行列及び並進ベクトルであり、R1及びT1は、それぞれカメラセンサC1の回転行列及び並進ベクトルである。
例えば、図10に示すように、カメラセンサC0のカメラ座標7をワールド座標6として扱った場合、回転量及び並進量は0となり、R0=I及びT0=0と見做すことができる。従って、変換行列Eは、カメラセンサC0の位置・姿勢を基準としたカメラセンサC1の回転行列R1及び並進ベクトルT1により表される。
この場合、R1及びT1は、カメラセンサC0に対するカメラセンサC1の相対的な回転量及び並進量を表す外部パラメータ、すなわちカメラセンサC0とカメラセンサC1との配置関係(相対的な位置及び姿勢)を表す外部パラメータとなる。
本実施形態で実行されるキャリブレーション処理は、キャリブレーションボード30を測定した3Dセンサ11及び2Dセンサ12のデータをもとに、3Dセンサ11及び2Dセンサ12間の相対的な位置及び姿勢を表す回転行列及び並進ベクトル(変換行列E)を算出する処理となる。
なお、キャリブレーション処理として、例えば3Dセンサ11の外部行列と、2Dセンサ12の外部行列とをそれぞれ個別に算出する処理が実行されてもよい。この場合、各センサの外部行列から相対的な位置及び姿勢を表す回転行列及び並進ベクトルを算出可能である。
またキャリブレーション処理では、例えば可視画像データ40及び反射強度データ41から複数の特徴点が検出され、物理的に同一の特徴点のペアを探索する対応点探索が実行される。そして対応付けができた各特徴点の座標をもとに、各パラメータを含む連立方程式が複数生成される。この連立方程式を最小二乗法や非線形最適化法(ニュートン法やマーカート法)等の手法により解くことで、各外部パラメータが算出される。
なお、可視画像データ40及び反射強度データ41は、スクリーン面に投影された投影画像である。このような投影画像には、2次元の位置情報しか含まれていない。このため、投影画像だけを使用したキャリブレーションでは、外部パラメータの算出精度が低くなる可能性がる。
また3Dセンサ11により測定された距離情報を用いて、外部パラメータを算出する方法も考えられる。しかしながら、仮に図6等に示すような可視カメラ用のキャリブレーションパターンでは、3Dセンサ11の黒色の領域に対する測定精度が低下するという特性のために、精度のよいデプス値を用いることが困難である。
そこで、本実施形態では、キャリブレーションボード30の各点に対する距離データ42(距離情報)を利用して、キャリブレーション処理が実行される。上記したように、キャリブレーションボード30には、既知のデプス段差(凹部34)を持つ複数の凹状パターン32が設けられる。これにより、凹部34の深さΔを絶対値(絶対デプス値)として、各特徴点に対する距離を較正することが可能となる。この結果、高精度な距離情報を使ったキャリブレーション処理が可能となる。
また、精度の高いデプス値を用いることで、例えばカメラ座標7の奥行き方向の変化に係る外部パラメータを予め算出することが可能となる。これにより、例えば可視画像データ40及び反射強度データ41の対応点を用いて算出する必要がある外部パラメータの数が減少する。これにより、最適化処理等が安定し、外部パラメータ全体の算出精度を向上することが可能となる。
以下では、3Dセンサ11により測定される距離データ42を、キャリブレーション処理に適用する方法について説明する。
図11は、ステレオ撮影におけるデプス値と視差との関係を示す模式図である。図11には、カメラセンサC0及びC1によるステレオ撮影の様子が模式的に図示されている。ここでは、カメラセンサC0及びC1の光軸が平行となっている。
ステレオ撮影では、各カメラセンサC0及びC1により測定された画像データに三角測量の原理を適用することで、画像データに映る実空間上の点Pに対する距離(デプス値)が算出される。この場合、点Pのデプス値(depth)は、baseline/disparityに比例する。ここで、baselineは、各カメラセンサC0及びC1の間隔であり、disparityは、点Pに対する各画像データにおける視差である。
このように、デプス値及び視差は互いに反比例の関係にある。また点Pのデプス値がわかれば、各カメラセンサC0及びC1が撮影する画像データにおける点Pの視差(ステレオ撮影された画像内での点Pの位置の違い)が算出できるともいえる。
本実施形態では、距離データ42として測定されたデプス値と視差との関係から、3Dセンサ11が測定する反射強度データ41と2Dセンサ12が測定する可視画像データ40との間の視差を補正する処理が実行される。これにより、視差が補正されたデータを使って外部パラメータを算出することが可能となり、各パラメータの算出精度を大幅に向上することが可能となる。
図12は、キャリブレーション処理の一例を示すフローチャートである。
まず、3Dセンサ11及び2Dセンサ12により、キャリブレーションボード30が測定される(ステップ101)。
例えば、3Dセンサ11及び2Dセンサ12の測定範囲にキャリブレーションボード30が配置される。3Dセンサ11により、キャリブレーションボード30に測定光2が照射され、その反射光3が測定される。また2Dセンサ12により、可視光4が検出されキャリブレーションボード30が撮影される。
次に、較正処理部21により、3Dセンサ11及び2Dセンサ12から出力されたデータが取得される(ステップ102)。具体的には、3Dセンサ11から出力された反射強度データ41及び距離データ42と、2Dセンサ12から出力された可視画像データ40とが適宜読み込まれる。
なお、各センサによる測定は、典型的には、キャリブレーションボード30の位置や姿勢を変えて複数回行われる。
次に、較正処理部21により、距離データ42が較正される(ステップ103)。本実施形態では、較正処理部21により、複数の凹状パターン32ごとに、凹部34の深さΔを基準として距離データ42が表す距離を較正した較正距離情報Zが算出される。
本実施形態では、3Dセンサ11により測定された距離データ42を較正して算出される較正距離情報Zは、第1の較正距離情報に相当する。
例えば、3Dセンサ11による測定では、3Dセンサ11のデプス方向(カメラ座標のZ方向)に対してキャリブレーションボード30が傾斜している。この傾斜を補正することで、凹状パターン32を直交方向から見たデプス値が算出可能である。この場合、底面部35に対するデプス値z0と縁面部37に対するデプス値z1との差(z0-z1)が、凹部34の深さΔに対応する。従って、例えばΔ=α(z0-z1)を満たす較正係数αを算出することで、Δを基準に較正された直交方向から見たデプス値(αz0及びαz1)が得られる。このデプス値に傾斜を戻す補正を行うことで、距離データ42を較正した較正距離情報が算出される。
このようなデプス値の較正処理が、各凹状パターン32ごとに実行される。
この他、距離データ42を較正可能な任意の処理が実行されてよい。
また本実施形態では、凹状パターン32の特徴点ごとに、Δを基準に較正されたデプス値が算出される。
凹状パターン32の特徴点としては、例えば縁面部37の中心点が用いられる。縁面部37の中心点は、配置面33と同一面にある中空上の点である。この場合、特徴点のデプス値は、較正された底面部35及び縁面部37のデプス値から算出される。
なお凹状パターン32の特徴点として、底面部35の中心点等が用いられてもよい。
次に、較正処理部21により、キャリブレーションパラメータ25が算出される(ステップ104)。本実施形態では、較正処理部21により、上記した較正距離情報に基づいて、配置関係を表すキャリブレーションパラメータ25(外部パラメータ)が算出される。
例えば、図11を参照して説明したデプス値と視差との関係から、反射強度データ41と可視画像データ40との間の視差が補正可能である。較正処理部21では、このような視差を補正する処理を組み合わせて、外部パラメータが算出される。
以下では、キャリブレーション処理の内容についてより具体的に説明する。
図13は、キャリブレーション処理の処理フローの一例を示すブロック図である。
図13に示す例では、較正処理部21により、可視画像データ40と反射強度データ41とに基づいて外部パラメータが算出され、当該算出結果が較正距離情報Zに基づいて補正される。この処理は、一度算出した外部パラメータを、較正距離情報Zを参照して再度補正する再帰型の処理となっている。
まず、距離データ42を処理するフローについて説明する。
較正処理部21により、3Dセンサ11から距離データ42が読み込まれ、各凹状パターン32(測距円)内のデプス値が平滑化される(ステップ201)。例えば、距離データ42に対して、平滑化フィルタが適用される。これにより、ノイズとなるデータが除去され、凹状パターン32の底面部35や縁面部37をデプス値がスムーズにつながったフラットな領域として扱うことが可能となる。
平滑化された距離データ42(距離情報)が読み込まれる(ステップ202)。
ステップ201及びステップ202の処理は、例えば図12に示すステップ102において、距離データ42を取得する処理に対応する。
距離データ42が凹状パターン32(測距円)ごとに較正され、較正距離情報Zが算出される(ステップ203)。距離データ42の較正は、図12のステップ103で説明した処理である。例えば較正距離情報Zとして、複数の凹状パターン32の特徴点ごとに、凹部34の深さΔを基準に較正されたデプス値が算出される。
特徴点の検出には、例えば円を検出する任意の画像解析処理(例えばハフ変換処理等)が用いられる。なお後述する対応点探索の結果から特徴点の位置が参照されてもよい。
このように、本実施形態では、較正処理部21により、距離データ42を平滑化し、平滑化された距離データ42に基づいて較正距離情報Zが算出される。これにより、ノイズによる影響等を抑制し、フラットな領域での測距精度が向上し、高精度な較正距離情報Zを算出することが可能となる。
また、複数の凹状パターン32(測距円)ごとに、絶対デプスΔによる較正が可能である。このため、各点に対する測距精度を十分に向上することが可能となる。
次に、可視画像データ40及び反射強度データ41を処理するフローについて説明する。
較正処理部21により、2Dセンサ12から可視画像データ40が読み込まれ(ステップ204)、3Dセンサ11から反射強度データ41が読み込まれる(ステップ205)。
ステップ204及びステップ205の処理は、例えば図12に示すステップ102において、可視画像データ40及び反射強度データ41を取得する処理に対応する。
また以下で説明するステップ206~ステップ210の処理は、例えば図12に示すステップ104の処理に対応する。
可視画像データ40及び反射強度データ41に対して、対応点探索処理が実行される(ステップ206)。対応点探索処理は、可視画像データ40及び反射強度データ41から物理的に同一の箇所(対応点)を検出する処理である。例えば、それぞれのデータからキャリブレーションボード30の特徴点、すなわち複数の凹状パターン32の特徴点が検出される。そして、互いに同一となる特徴点がそれぞれ特定される。
なお図7及び図8に示すように格子模様51を備えるキャリブレーションボード50a及び50bが用いられる場合には、矩形領域52のコーナーやエッジを特徴点として検出し、そこから対応点が探索されてもよい。対応点探索処理の具体的な方法は限定されず、特徴点を検出・マッチングする任意の画像解析処理が用いられてよい。
対応点の検出結果に基づいて、キャリブレーションパラメータ25が算出される(ステップ207)。ここでは、ステレオ撮影を行う各センサの相対的な位置及び姿勢を表す外部パラメータが算出される(図9及び図10参照)。例えば、各対応点の座標を用いて、反射強度データ41上の座標を可視画像データ40上の座標に変換する回転行列R及び並進ベクトルTについての連立方程式が生成される。そして最小二乗法等を用いて、R及びTに含まれる外部パラメータが算出される。
キャリブレーションパラメータ25を用いて、可視画像データ40及び反射強度データ41に対して平行化処理が実行される(ステップ208)。ここで平行化処理とは、例えば可視画像データ40及び反射強度データ41を平行なステレオ撮影(図11参照)により得られたデータとなるように補正する処理である。平行化された各データは、例えば3Dセンサ11と2Dセンサ12とが、各々の光軸を平行にして光軸に垂直な方向に平行移動した配置関係となる状態で測定されたデータと見做すことができる。
例えばステップ207で算出された回転行列R及び並進ベクトルTに基づいて、可視画像データ40及び反射強度データ41を平行化する行列が算出され、当該行列を使って、各データの平行化処理が実行される。
平行化処理は、例えばステップ206で検出された対応点、すなわち各データにおける凹状パターン32の特徴点に対して実行される。これにより、演算量を削減することが可能となる。もちろん、可視画像データ40及び反射強度データ41の全画素に対して平行化処理が実行されてもよい。
較正距離情報Zに基づいて視差補正処理が実行される(ステップ209)。ここでは、例えば平行化された可視画像データ40及び反射強度データ41の対応点に対して、較正距離情報Zに基づいて視差が算出される。そして各対応点の位置が視差の値に応じて移動される。各対応点の視差の算出には、例えば図11等を参照して説明したデプス値と視差との関係が用いられる。
視差補正処理では、例えば平行化された反射強度データ41の対応点について視差が算出され、各対応点が移動される。この結果、反射強度データ41の対応点と、可視画像データ40の対応点との視差による不一致が低減される。なお、可視画像データ40について視差が補正されてもよいし、反射強度データ41及び可視画像データ40の両者について視差が補正されてもよい。
このように、視差補正処理では、較正されたデプス値を使って高精度な視差補正が可能である。また視差補正の精度が高いため、以降の処理を安定して実行することが可能となりロバスト性が向上する。
視差補正処理の結果から、位置合わせ誤差が算出される(ステップ210)。ここでは、例えば視差補正処理後の可視画像データ40の対応点と反射強度データ41の対応点との誤差(各対応点のずれ量)が算出される。
位置合わせ誤差は、ステップ207で算出されたキャリブレーションパラメータ25(外部パラメータ)を補正するための参照値として用いられる。例えば、回転行列R及び並進ベクトルが、位置合わせ誤差が最小化されるように補正される。これにより、可視画像データ40と反射強度データ41とを略一致するように変換させることが可能な外部パラメータが算出される。
このように、位置合わせ誤差によって補正されたキャリブレーションパラメータ25を用いて、位置合わせ済みの反射強度データ41(強度画像)と位置合わせ済みの可視画像データ40(可視画像)が算出される。
なお、キャリブレーションパラメータ25を補正するためのフィードバック処理は、複数回実行されてもよい。これにより、十分に高精度なキャリブレーションパラメータ25を算出することが可能となる。
図14は、キャリブレーション処理の処理フローの他の一例を示すブロック図である。
図14に示す例では、較正処理部21により、較正距離情報Zに基づいて可視画像データ40と反射強度データ41との間の視差補正が実行され、視差補正の結果に基づいて外部パラメータが算出される。この処理は、予め較正距離情報Zを用いて視差補正処理をしたデータから外部パラメータを算出する一括型の処理となっている。
図14に示すステップ301~305までの処理は、例えば図13に示すステップ201~205までの処理と同様に実行される。
すなわち、キャリブレーションボード30を測定した可視画像データ40、反射強度データ41、及び距離データ42が読み込まれる。また距離データ42は凹状パターン32ごとに較正され、較正距離情報Zが算出される。
可視画像データ40と反射強度データ41との間の視差を補正する視差補正処理が実行される(ステップ306)。
例えば反射強度データ41の全ての画素について、較正距離情報Zに基づいて視差が算出される。そして、各画素に対応する点の位置が視差の値に応じて移動される。また例えば、反射強度データ41から特徴点が検出され、各特徴点の視差が補正されてもよい。また、可視画像データ40について視差が補正されてもよいし、反射強度データ41及び可視画像データ40の両者について視差が補正されてもよい。
このように、平行化されていないデータについても、較正されたデプス値(較正距離情報Z)を用いることで高精度な視差補正が可能である。
またステップ306では、キャリブレーションボード30に設けられた凹状パターン32のデプス段差(凹部34)を利用して、各センサの相対的な位置及び姿勢を表す外部パラメータのうち、距離方向(奥行き方向)の移動に係るパラメータが算出される。例えば(1)式に示す回転行列Rの成分で表すと、pzに作用するR13、R23、R33の各パラメータが、凹部34の深さΔ(絶対デプス値)を基準に算出される。
これにより、未知のキャリブレーションパラメータ25が減少し、他のパラメータの算出処理を安定して実行することが可能となり、ロバスト性を向上することが可能となる。
視差補正処理により補正された可視画像データ40及び反射強度データ41に対して、対応点探索処理が実行される(ステップ307)。この処理は、例えば図13に示すステップ206の処理と同様に実行される。
例えば可視画像データ40及び反射強度データ41に含まれる各凹状パターン32の特徴点から、同一となる特徴点(対応点)が特定される。ここでは視差補正後のデータが用いられるため、対応点の探索を容易に行うことが可能である。
対応点の検出結果に基づいて、距離方向の移動に係るパラメータ以外の外部パラメータが算出される(ステップ308)。ここでは、上記した距離方向の移動に係るパラメータを既知のパラメータとして、回転行列R及び並進ベクトルTについての連立方程式から、他のパラメータが算出される。この処理では、例えば図13のステップ207で行われる外部パラメータの算出処理と比べて、未知のパラメータの数が少ない。これにより、安定して他のパラメータを算出することが可能となる。
キャリブレーションパラメータ25を用いて、可視画像データ40及び反射強度データ41に対して位置合わせ処理が実行される(ステップ309)。位置合わせ処理は、例えば可視画像データ40及び反射強度データ41のうち一方のデータをステップ308で算出された回転行列R及び並進ベクトルTに基づいて変換する処理である。
視差補正後のデータから算出された外部パラメータ(R及びT)には、視差補正の結果が反映されている。従ってこのような外部パラメータを用いて変換されたデータは、対応点の位置が略一致するデータとなる。これにより、位置合わせ済みの反射強度データ41(強度画像)と位置合わせ済みの可視画像データ40(可視画像)を算出することが可能となる。
以上、本実施形態に係るコントローラ20では、3Dセンサ11及び2Dセンサ12により、複数の凹状パターン32が設けられたキャリブレーションボード30を測定したデータから、各センサの配置関係を表すキャリブレーションパラメータ25(外部パラメータ)が算出される。各凹状パターン32の底面部35及び縁面部37は、3Dセンサ11の測定光に対する反射率が高い。これにより、3Dセンサ11は凹状パターン32の形状を精度よく測定することが可能となり、各センサの配置関係を表すキャリブレーションパラメータ25の算出精度が向上する。この結果、センサ間の配置関係を精度よく較正することが可能となる。
図15は、比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。ここでは、例えば図6等を参照して説明した可視カメラ用のキャリブレーションパターンを用いて、2Dセンサ12及び3Dセンサ11の配置関係が較正される。
上記したように、白黒のキャリブレーションパターンに対する3Dセンサ11による測距精度は、測定光2の反射率が低いために低下する可能性があるため、この処理では距離データは用いられない。
例えば可視画像データと反射強度データとが取得されると、各データの対応点が探索され、その結果に基づいて2Dセンサ12及び3Dセンサ11の配置関係を表す外部パラメータが算出される。また外部パラメータを用いて可視画像データと反射強度データとが平行化される。これは、例えば2台の可視カメラを用いた2D-2Dステレオ撮影で用いられるキャリブレーション処理となっている。
このように、アクティブ測距センサ(3Dセンサ11)と可視カメラ(2Dセンサ12)等のパッシブセンサとの3次元空間上の相対的な位置キャリブレーションを行う際に、パッシブセンサで一般的に使用される白黒のキャリブレーションパターン用いる方法が考えられる。この場合、iToFセンサのようなアクティブ測距センサでは黒色でのデプス精度が低いため距離データを用いることができない。従って、2D-3Dステレオ撮影であるにも関わらず、上記のように2D-2Dステレオ撮影のキャリブレーション手法を用いることになる。
一般に、画像データの対応点のみから算出される視差情報やZ情報は、例えば測距センサにより測定される距離データと比べて精度が低い。このため、外部パラメータの算出精度が低下し、各センサ間の位置合わせ精度が低くなる。
また、ジャイロ等を搭載したIMU(Inertial Measurement Unit)やGPS等の他のセンサを用いる方法も考えられるが、位置合わせに必要な精度を得るには、測定精度が粗いという欠点がある。
本実施形態では、底面部35及び縁面部37の測定光2に対する反射率が高い複数の凹状パターン32を備えるキャリブレーションボード30が用いられる。これにより、測距対象となる凹状パターン32において、十分な反射光3が発生するため、測距精度を十分に確保することが可能となる。
また凹状パターン32(凹部34)の深さΔを基準に、距離データ42を較正することが可能となる。これにより、距離データ42の精度が大幅に向上し、距離データ42をキャリブレーション処理に用いることが可能となる。
3Dセンサ11の距離データ42を用いることで、外部パラメータを算出する処理は、2次元の画像データ(可視画像データ40及び反射強度データ41)に加え3次元の距離データ42を用いた2D-3Dキャリブレーション処理となる。この結果、例えば画像データに対して視差補正を行うことや、パラメータの数を減らすといったことが可能となる。これにより、高精度な外部パラメータを算出することが可能となり、位置合わせの精度やロバスト性を向上することが可能となる。この結果、2D-3Dステレオ撮影により生成される3Dモデル26の精度を十分に向上することが可能となる。
このように、3Dセンサ11が測定する距離データ42(形状情報)と、2Dセンサ12が測定する可視画像データ40(可視情報)とを用いて3Dモデル26を生成する技術は、例えばエンタテイメント、医療、拡張現実(AR)等の様々な分野での応用が期待される。一例として、対象物の認識や形状モデリングが可能であり、自動運転やロボットの環境認識等に応用可能である。また実空間の物体と仮想オブジェクトとのインタラクションを実現する際にも3Dモデル26が有効である。またユーザの手の3Dモデル26を利用したユーザインターフェースを実現することも可能である。また被写体の3Dモデル26を構成することで、レンズ効果を模倣するレンズエミュレーションや、撮影後に照明を調整するライティング処理等が可能となる。
このような3Dモデル26を用いるアプリケーションに本技術を適用することで、アプリケーションの動作精度等を十分に向上することが可能となる。
<第2の実施形態>
本技術に係る第2の実施形態の3次元測定システムについて説明する。これ以降の説明では、上記の実施形態で説明した3次元測定システム100における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
上記の実施形態では、アクティブ測距センサ(3Dセンサ)とパッシブセンサ(2Dセンサ)との間の配置関係が較正された。本技術は、アクティブ測距センサ間の配置関係の較正にも適用可能である。
[3次元測定システムの構成]
図16は、第2の実施形態に係る3次元測定システムの構成例を示すブロック図である。図17は、3次元測定システム200の動作の概要を示す模式図である。
3次元測定システム200は、3Dセンサ211aと、3Dセンサ211bと、記憶部213と、コントローラ220とを有する。3次元測定システム200は、2つの3Dセンサ211a及び211bを用いて3次元空間にある測定対象1を撮影する3D-3D撮影を行うシステムである。本実施形態では、3Dセンサ211a及び211bにより測定されたデータを統合して、測定対象1の立体形状が再構成される。
本構成は、複数の3Dセンサを用いて測定対象1を測定する全方位マルチカメラシステム等に適用可能である。
3Dセンサ211a及び211bは、互いに異なる方向から共通の測定対象1を測定することができるように配置される。各センサは個別に配置可能なセンサユニットでもよいし、共通の筐体に収められてもよい。
3次元測定システム200では、キャリブレーション処理と、モデル生成処理とが実行される。図17の左側及び右側には、キャリブレーション処理及びモデル生成処理を行う際の測定の様子がそれぞれ模式的に図示されている。
キャリブレーション処理は、3Dセンサ211a及び211bによりキャリブレーションマーカー60を測定して、各センサにより測定されるデータの位置合わせを行う処理である。この処理では、主に3Dセンサ211a及び3Dセンサ211bの配置関係(相対的な位置及び姿勢)を較正するキャリブレーションパラメータ25が算出される。本実施形態では、キャリブレーションマーカー60は、較正用ターゲットに相当する。
モデル生成処理は、3Dセンサ211a及び211bにより測定された測定対象1の3次元情報を用いて、測定対象1の3Dモデル26を生成する処理である。この処理では、キャリブレーション処理により算出されたキャリブレーションパラメータ25を用いて、各センサのデータの位置合わせが行われる。
以下では、3次元測定システム200の構成について具体的に説明する。
3Dセンサ211a及び211bは、測定対象1に測定光2を照射して、測定対象1で反射された反射光3を測定することで、測定対象1の各点に対する距離を測定するアクティブ測距センサである。
3Dセンサ211a及び211bは、測定対象1の各点に対する距離を表す距離データ(デプス画像)をそれぞれ出力する。また3Dセンサ211a及び211bは、測定対象1の各点における測定光2の反射強度を表す反射強度データ(反射強度画像)をそれぞれ出力する。
3Dセンサ211a及び211bは、例えば図1等を参照して説明した3Dセンサ211と同様に構成される。なお3Dセンサ211a及び211bとして完全に同じセンサを用いる必要はなく、各センサの構成が異なっていてもよい。
本実施形態では、3Dセンサ211aは、測定光を照射する測距センサに相当する。また、3Dセンサ211bは、測距センサとは異なる他のセンサの一例であり、測定光を照射する他の測距センサに相当する。
記憶部213は、不揮発性の記憶デバイスである。記憶部213には、3次元測定システム200の全体の動作を制御するための制御プログラムが記憶される。また記憶部213には、キャリブレーションパラメータ25のデータや、キャリブレーションマーカー60の形状や寸法等のデータ、3Dモデル26のデータ等が記憶される。
コントローラ220は、3次元測定システム200が有する各ブロックの動作を制御する。本実施形態では、コントローラ220のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして、較正処理部221、及びモデル生成部222が実現される。
較正処理部221は、キャリブレーション処理を実行して、3Dセンサ211aと3Dセンサ211bとの配置関係を較正する。
具体的には、較正処理部221は、3Dセンサ211aにより、キャリブレーションマーカー60を測定したデータと、3Dセンサ211bにより、キャリブレーションマーカー60を測定したデータとに基づいて、3Dセンサ211aと3Dセンサ211bとの配置関係を表すキャリブレーションパラメータ25(外部パラメータ)を算出する。
図17の左側に示すように、キャリブレーション処理では、3Dセンサ211a及び3Dセンサ211bにより、共通のキャリブレーションマーカー60が測定される。
この測定では、3Dセンサ211aは、キャリブレーションマーカー60の各点に対する距離を表す距離データを出力する。また、3Dセンサ211aは、キャリブレーションマーカー60の各点における測定光2の反射強度を表す反射強度データを出力する。
同様に、3Dセンサ211bは、キャリブレーションマーカー60の各点に対する距離を表す距離データを出力する。また、3Dセンサ211aは、キャリブレーションマーカー60の各点における測定光2の反射強度を表す反射強度データを出力する。
較正処理部221は、3Dセンサ211a及び211bの各々から出力されるキャリブレーションマーカー60の距離データ及び反射強度データに基づいて、外部パラメータを算出する。
以下では、3Dセンサ211aから出力されるキャリブレーションマーカー60の距離データ及び反射強度データを、第1の距離データ及び第1の反射強度データと記載する。また3Dセンサ211bから出力されるキャリブレーションマーカー60の距離データ及び反射強度データを、第2の距離データ及び第2の反射強度データと記載する。
モデル生成部222は、3Dセンサ211a及び211bが測定した測定対象1のデータから、測定対象1の3Dモデル26を生成する。
例えば、3Dセンサ211a及び211bにより測定された測定対象1の距離データが統合され測定対象1の立体形状を表す3Dモデル26が生成される。これは、3Dセンサ211aが測定した立体形状と、3Dセンサ211bが測定した立体形状とをスムーズにつながるように結合させる処理である。
立体形状のデータ(距離データ)は、例えば3次元の点群として処理される。各3Dセンサ211a及び211bが測定した点群の位置合わせには、キャリブレーション処理で算出されたキャリブレーションパラメータ25が用いられる。これにより、測定対象1の立体形状を広範囲にわたって精度よく再現する3Dモデル26等を生成することが可能となる。
[キャリブレーションマーカー60の構成]
図18は、キャリブレーションマーカー60の構成例を示す模式図である。
キャリブレーションマーカー60は、マーカー本体61と、マーカー本体61に設けられた複数の凹状パターン62とを有する。
マーカー本体61は、キャリブレーションマーカー60を構成する球体状の部材である。従って、マーカー本体61は、どの方向から撮影しても円として撮影されるため、それ自体がマーカーとして機能する。例えばマーカー本体61の中心は、キャリブレーションマーカー60の特徴点として用いられる。
マーカー本体61の表面は、複数の凹状パターン62が形成される配置面63となる。このようにキャリブレーションマーカー60は、複数の凹状パターン62が配置される球面状の配置面63を有する。
図18には、マーカー本体61を1つの方向から見た外観が模式的に図示されている。複数の凹状パターン62は、球面上の配置面63の全体にわたって配置され、例えば図18に示す側とは反対側にも複数の凹状パターン62が形成される。
複数の凹状パターン62は、それぞれ凹部64を有する。凹部64は、球面上の配置面63に設けられたくぼみであり、底面部65と、側面部66とを有する。凹部64の深さ方向は、典型的には球体状のマーカー本体61の中心に向かう方向(配置面63の法線方向)である。
また、各凹状パターン62において、各々の凹部64を囲む領域は、縁面部67となる。図18では、縁面部67に対応する領域が点線を用いて模式的に図示されている。
本実施形態では、底面部65及び縁面部67は、測定光2に対する反射率が所定の閾値よりも高くなるように構成される。所定の閾値は、例えば図3等を参照して説明した方法により設定される。
すなわち、キャリブレーションマーカー60は、各々が凹部64を有し、凹部64の底面部65及び凹部64を囲む縁面部67の測定光2に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン62を有する。
これにより、各3Dセンサ211a及び211bの測定結果(第1の距離データ及び第2の距離データ)から、底面部65及び縁面部67の各点に対する距離を適正に算出することが可能となる。さらに、凹部64の深さΔを基準にすることで、各3Dセンサ211a及び211bで測定した距離(デプス値)を精度よく較正することが可能となる。
図18に示すキャリブレーションマーカー60は、全体として測定光2に対する反射率が所定の閾値よりも高くなるように構成される。すなわち、凹状パターン62の底面部65及び縁面部67のみならず、他の部分についても同様の反射率が設定される。これにより、各3Dセンサ211a及び211bは、キャリブレーションマーカー60全体の立体形状を精度よく測定することが可能となる。
また複数の凹状パターン62は、例えば底面部65及び縁面部67が平面となるように構成される。この場合、例えば図3B及び図3Cに示す凹状パターン62が、球体状のマーカー本体61に埋め込まれたような形状となる。底面部65及び縁面部67を平面とすることで、凹状パターン62ごとの測距精度が向上する。
なお、底面部65のみが平面となるように構成されてもよい。この場合、縁面部67は、球面上の配置面63と一致する曲面となる。このような構成であっても、凹部64の縁に対する底面部65の深さをΔとして、デプス値を較正することが可能となる
また、複数の凹状パターン62は、底面部65が円形状となるように、かつ縁面部67が平面視で底面部65と中心が一致する円環形状となるように構成される。すなわち、各凹状パターン62は、中央部分に円形のくぼみがある円チャートとなり、測距円として機能する。これにより、各凹状パターン62の特徴点を容易に検出することが可能となる。
キャリブレーション処理では、例えば単体のキャリブレーションマーカー60を用いてキャリブレーション処理が実行される。この場合、キャリブレーションマーカー60自身の形状(各凹状パターン62の中心位置)を基準にして、3Dセンサ211a及び211bの配置関係が較正される。また、複数の凹状パターン62を個別に識別する必要があるため、各々の配置位置を識別することが可能なように、各凹状パターン62の位置やサイズが設定される。
また例えば、所定の保持具に固定された複数のキャリブレーションマーカー60が用いられてもよい。これにより、全体で1つの較正用ターゲットが構成される。この場合、各キャリブレーションマーカー60の位置(マーカー本体61の中心位置)を基準にして、3Dセンサ211a及び211bの配置関係が較正される。
以下では、主に単体のキャリブレーションマーカー60を用いてキャリブレーション処理を行う場合について説明する。
[キャリブレーション処理]
図19は、キャリブレーション処理の一例を示すフローチャートである。
まず、3Dセンサ211a及び3Dセンサ211bにより、キャリブレーションマーカー60が測定される(ステップ401)。次に、較正処理部221により、3Dセンサ211a及び3Dセンサ211bから出力されたデータが取得される(ステップ402)。
具体的には、3Dセンサ211aから出力された第1の反射強度データ及び第1の距離データと、3Dセンサ211bから出力された第2の反射強度データ及び第2の距離データとが適宜読み込まれる。この測定は、例えばキャリブレーションマーカー60の位置や姿勢を変えて複数回行われる。
次に、較正処理部221により、距離データが較正される(ステップ403)。本実施形態では、3Dセンサ211a及び211bが測定した第1及び第2の距離データがそれぞれ較正される。
具体的には、較正処理部221により、複数の凹状パターン62ごとに、凹部64の深さΔを基準として第1の距離データが表す距離を較正した第1の較正距離情報Z1が算出される。また、較正処理部221により、複数の凹状パターン62ごとに、凹部64の深さΔを基準として第2の距離データが表す距離を較正した第2の較正距離情報Z2が算出される。
第1及び第2の距離データを較正する処理は、基本的には図12のステップ103で説明した方法と同様である。ここでは、例えば底面部65を直交方向から見たデプス値となるように傾斜が補正され、底面部65と縁面部67とのデプス値の差が、凹部64の深さΔと一致するように、デプス値が補正される。このデプス値に傾斜を戻す補正を行うことで、距離データを較正した較正距離情報が算出される。
このようなデプス値の較正処理が、各凹状パターン62ごとに実行される。
また本実施形態では、凹状パターン62の特徴点ごとに、Δを基準に較正されたデプス値が算出される。凹状パターン62の特徴点としては、例えば縁面部67の中心点や底面部65の中心点等が用いられる。
次に、較正処理部221により、キャリブレーションパラメータ25が算出される(ステップ404)。ここでは、3Dセンサ211aと3Dセンサ211bとの配置関係を表すキャリブレーションパラメータ25(外部パラメータ)が算出される。この外部パラメータを算出する処理に、上記した第1の較正距離情報Z1と第2の較正距離情報Z2とが用いられる。
以下では、キャリブレーション処理の内容についてより具体的に説明する。
図20は、キャリブレーション処理の処理フローの一例を示すブロック図である。
図13に示す例では、較正処理部221により、第1の較正距離情報Z1及び第2の較正距離情報Z2に基づいて外部パラメータが算出され、当該算出結果に基づいて3Dセンサ211a及び3Dセンサ211bの各内部パラメータが補正される。
この処理は、各較正距離情報Z1及びZ2を用いて生成された高精度な外部パラメータを用いて、各センサの内部パラメータの精度を高めるカスケード型の処理となっている。
まず、第1の距離データと第2の距離データを用いた処理について説明する。
較正処理部221により、3Dセンサ211aから第1の距離データが読み込まれ、それぞれ平滑化される(ステップ501)。そして平滑化された第1の距離データが読み込まれる(ステップ502)。
第1の距離データが凹状パターン62(測距円)ごとに較正され、第1の較正距離情報Z1が算出される(ステップ503)。この処理は、図19のステップ403で説明した処理である。例えば第1の較正距離情報Z1として、複数の凹状パターン62の特徴点ごとに、凹部64の深さΔを基準に較正されたデプス値が算出される。
またステップ501~503と同様に、ステップ501'~503'が実行され、第2の距離データから、第2の較正距離情報Z2が算出される。
第1の較正距離情報Z1及び第2の較正距離情報Z2に基づいて、外部パラメータ(カメラ姿勢パラメータ)が算出される(ステップ504)。
第1の較正距離情報Z1及び第2の較正距離情報Z2は、例えば3Dセンサ211a及び3Dセンサ211bのカメラ座標における3次元点群データである。ここでは、例えば2つの点群データZ1及びZ2についての位置合わせ(点群マッチング)が行われる。
Z1及びZ2は、絶対デプス値Δにより較正されているため、焦点距離等の内部パラメータに応じた歪みや、対応点間の相対的な距離のずれ等は存在しない。従ってZ1及びZ2に含まれる各データ点(特徴点等)を回転・並進させることで、両データを重ね合わせることが可能である。マッチング処理では、このような回転・並進を実現する回転行列R及び並進ベクトルTが外部パラメータとして算出される。
マッチング処理の具体的な方法は限定されず、例えばロバスト推定やICP(Iterative Closest Point)等のマッチング手法が適宜用いられてよい。
このように較正された点群データZ1及びZ2に対して、3次元空間での位置合わせを行うことで外部パラメータの算出精度を大幅に向上することが可能となる。
次に、第1の反射強度データと第2の反射強度データとを用いた処理について説明する。
較正処理部221により、3Dセンサ211aから第1の反射強度データが読み込まれる(ステップ505)。そして第1の反射強度データが、3Dセンサ211aの内部パラメータを用いて補正される(ステップ506)。この補正は、例えば3Dセンサ211aの特性(焦点距離等)に応じた歪みを補正する処理である。
またステップ505及び506と同様に、ステップ505'及び506'が実行され、3Dセンサ211bの内部パラメータを用いて、第2の反射強度データが補正される。
外部パラメータを用いて、3次元再構成処理が実行される(ステップ507)。3次元再構成処理では、キャリブレーションマーカー60の三次元形状が復元される。具体的には、内部パラメータにより補正された第1及び第2の反射強度データと外部パラメータによって変換された点群データ(第1及び第2の較正距離情報Z1及びZ2)とが統合された3次元形状データが算出される。
また、3次元再構成処理では、内部パラメータにより補正された第1及び第2の反射強度データが、さらに外部パラメータを用いて変換される。すなわち第1及び第2の反射強度データは、互いに重なるように再構成された画像データとなる。
3次元形状データ及び再構成された第1及び第2の反射強度データは、3次元信号として出力される。
3次元信号に対して、位置合わせ誤差が算出される(ステップ508)。ここでは、例えば3次元形状データにおける3Dセンサ211a及び3Dセンサ211bにより測定されたデータ点の間の誤差(各データ点のずれ量)が算出される。また例えば、再構成された第1及び第2の反射強度データにおける対応点の誤差(各対応点のずれ量)が算出される。
上記したように、ステップ504で算出される外部パラメータは、絶対デプス値Δを基準に較正された点群データから算出される。このように絶対値を表す高精度デプスを用いて推定した外部パラメータにより3次元再構成処理を行っていることから、残っている3次元点群上の誤差(位置合わせ誤差)は、略内部パラメータによる補正が原因であると考えられる。そこで、位置合わせ誤差は、各3Dセンサ211a及び211bの内部パラメータを補正するための参照値としてステップ506及び506'の処理にフィードバックされる。
例えば、各内部パラメータは、位置合わせ誤差が最小化されるように補正される。
このように、位置合わせ誤差によって補正された内部パラメータを用いて、第1及び第2の反射強度データが再度補正される。またこの補正結果をもとに、3次元再構成処理が再度実行される。この結果、キャリブレーションマーカー60の3次元形状を高精度に再構成した3次元形状データが算出される。また、互いに略一致するように変換された位置合わせ済みの第1及び第2の反射強度データが算出される。
このように3Dセンサ211a及び211bによる3D-3D撮影では、距離データの3次元点群上での位置合わせが可能である。特に、絶対値で較正された距離データから外部パラメータを算出することで、外部パラメータの精度が向上する。図20に示す例では、このような外部パラメータを基準に内部パラメータが補正される。これは、距離データのデプス精度を高める事で内部パラメータによるキャリブ性能を上げる処理であると言える。
これにより、非常に高精度なキャリブレーションパラメータ25(内部パラメータ及び外部パラメータ)を算出することが可能となる。
図21は、キャリブレーション処理の処理フローの他の一例を示すブロック図である。
図21に示す例では、較正処理部221により、第1の較正距離情報Z1及び第2の較正距離情報Z2に基づいて3Dセンサ211a及び3Dセンサ211bから出力された各反射強度データに関する視点変換を実行し、視点変換の結果に基づいて外部パラメータが算出される。この処理は、予め第1及び第2の較正距離情報Z1及びZ2を用いて視点変換処理をしたデータから外部パラメータを算出する一括型の処理となっている。
図21に示すステップ601~603(ステップ601'~603')までの処理は、例えば図20に示すステップ501~503(ステップ501'~503')までの処理と同様に実行される。また、ステップ604(ステップ604')の処理は、例えば図20に示すステップ605(ステップ605')の処理と同様に実行される
すなわち、キャリブレーションマーカー60を測定した第1及び第2の反射強度データ、及び第1及び第2の距離データが読み込まれる。また第1及び第2の距離データは凹状パターン62ごとに較正され、第1及び第2の較正距離情報Z1及びZ2が算出される。
第1の反射強度データ及び第2の反射強度データに関する視点変換処理が実行される(ステップ605)。
上記したように、第1及び第2の較正距離情報Z1及びZ2は、較正された点群データである。この点群データZ1及びZ2に対する回転処理や並進処理を、第1及び第2の反射強度データに反映させることで、各反射強度データの視点を変換することが可能である。
ここでは、第1及び第2の反射強度データの対応点が探索しやすくなるように、各データの視点が適宜変換される。
またステップ605では、キャリブレーションマーカー60に設けられた凹状パターン62のデプス段差(凹部64)を利用して、各センサの相対的な位置及び姿勢を表す外部パラメータのうち、距離方向(奥行き方向)の移動に係るパラメータ(例えばR13、R23、R33)が算出される。
これにより、未知のキャリブレーションパラメータ25が減少し、他のパラメータの算出処理を安定して実行することが可能となり、ロバスト性を向上することが可能となる。
3次元対応点探索処理が実行される(ステップ606)。この処理は、例えば視点変換された第1の反射強度データ及び第2の反射強度データから物理的に同一の箇所(対応点)を検出する処理である。なお対応点の探索には、第1及び第2の較正距離情報Z1及びZ2が用いられてもよい。すなわち、画像データと点群データとを用いて、3次元的に対応点が探索される。ここでは視点変換後のデータが用いられるため、対応点の探索を容易に行うことが可能である。
対応点の検出結果に基づいて、距離方向の移動に係るパラメータ以外の外部パラメータが算出される(ステップ606)。ここでは、上記した距離方向の移動に係るパラメータを既知のパラメータとして、回転行列R及び並進ベクトルTについての連立方程式から、他のパラメータが算出される。未知のパラメータの数が少ないため、安定して他のパラメータを算出することが可能となる。
キャリブレーションパラメータ25を用いて、3次元再構成処理が実行される(ステップ608)。3次元再構成処理は、例えば図20のステップ507で説明した処理と同様の処理である。ここでは、外部パラメータを用いて、キャリブレーションマーカー60の3次元形状データと、互いに略一致するように変換された位置合わせ済みの第1及び第2の反射強度データとが算出される。
図22は、比較例として挙げるキャリブレーション処理の処理フローを示すブロック図である。ここでは、例えば凹状パターン62を持たない立体的なキャリブレーションマーカー等を用いて、3Dセンサ211a及び211bの配置関係が較正される。3Dセンサ211a及び211bから出力される距離データがそのまま外部パラメータの算出処理に用いられる。また、各3Dセンサ211a及び211bが測定した反射強度データが内部パラメータで補正され、外部パラメータの算出処理に用いられる。この算出処理では、例えば点群データである距離データのマッチング処理と、画像データである各反射強度データとの対応点探索処理とを組み合わせて、外部パラメータが算出される。
図22に示す例では、各距離データは較正されておらず、相対距離を表すデータである。また距離データにはセンサ固有の歪み等が含まれている。また各反射強度データの対応点のみから算出される視差情報やZ情報は精度が高くない。このため、外部パラメータの算出精度が低下し、最終的に構成される3次元形状データ等の精度が低下する恐れがある。
本実施形態では、底面部65及び縁面部67の測定光2に対する反射率が高い複数の凹状パターン62を備えるキャリブレーションマーカー60が用いられる。これにより、各凹状パターン62を高精度に測定することが可能となる。また凹状パターン62(凹部64)の深さΔを基準に、3Dセンサ211a及び211bが測定する第1及び第2の距離データを較正することが可能となる。これにより、各距離データの精度が大幅に向上する。
凹みのあるキャリブレーションマーカー60を用いることで、精度の高いデプス情報(第1及び第2の較正距離情報Z1及びZ2)を利用することが可能となる。これにより、高精度な視点変換を行うことや、パラメータの数を減らすといったことが可能となり、外部パラメータの算出精度を向上させることが可能となる。この結果、3Dセンサ211a及び211bの配置関係を精度よく較正することが可能となる。
また精度の高い外部パラメータを利用して、各3Dセンサ211a及び211bの内部パラメータを補正することが可能となる。これにより、各センサにおける歪み等も適正に補正することが可能となる。
このように、本実施形態では、絶対デプス値Δで較正された高精度な距離情報を利用することで、位置合わせ、カメラポジションの較正、及び歪補正等の性能を向上させるキャリブレーション処理を実現することが可能となる。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
上記では、主に凹状パターンが円チャートとなる場合について説明した。これに限定されず、例えば三角形型や四角形型等の多角形型の凹状パターンが用いられてもよい。また、底面部と縁面部との平面形状は必ずしも相似とならなくてもよい。例えば円形の底面部と四角形型の縁面部とを組み合わせた凹状パターン等が用いられてもよい。
この他、凹状パターンのデザインは限定されず、例えば少なくとも1つの特徴点を検出可能となるような任意のデザインが用いられてよい。
また3D-3Dステレオ撮影で用いられるキャリブレーションマーカーは、球体形状でなくてもよい。例えば、立方体形状や、直方体形状のマーカーが用いられてもよい。この他角柱形状、角錐形状、円錐形状等のマーカーが用いられてもよい。この他マーカーの外形は限定されない。いずれにしろ、マーカーの表面には、様々な方位から撮影可能となるように、複数の凹状パターンが適宜配置される。
上記の実施形態では、主にToF方式の3Dセンサについて説明した。これに限定されず、例えば対象の所定のパターンを投影して形状を測定するストラクチャードライト等が用いられもよい。この場合、所定のパターンの投影光が測定光となり、凹状パターンの底面部及び縁面部は投影光を適正に反射可能なように構成される。ストラクチャードライトを用いた場合であっても、凹状パターンの深さΔにより距離データを較正することが可能であり、他のセンサとの配置関係を精度よく較正することが可能となる。
また、較正用ターゲットとして、凹状パターンに代えて凸状のパターンを備えるターゲットが用いられてもよい。例えば図3に示すキャリブレーションボード30において、底面部となる部分が配置面から突出して突出面を形成するようなパターンが用いられてもよい。このような場合であっても、縁面部と突出面とのデプス差を絶対デプス値として、距離データを較正することが可能である。
以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
本開示において、「同じ」「等しい」「直交」等は、「実質的に同じ」「実質的に等しい」「実質的に直交」等を含む概念とする。例えば「完全に同じ」「完全に等しい」「完全に直交」等を基準とした所定の範囲(例えば±10%の範囲)に含まれる状態も含まれる。
なお、本技術は以下のような構成も採ることができる。
(1)測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する較正処理部
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記複数の凹状パターンは、前記底面部及び前記縁面部が平面となるように構成される
情報処理装置。
(3)(1)又は(2)に記載の情報処理装置であって、
前記複数の凹状パターンは、前記底面部が円形状となるように、かつ前記縁面部が平面視で前記底面部と中心が一致する円環形状となるように構成される
情報処理装置。
(4)(1)から(3)のうちいずれか1つに記載の情報処理装置であって、
前記測距センサは、前記較正用ターゲットの各点に対する距離を表す第1の距離データを出力し、
前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第1の距離データが表す距離を較正した第1の較正距離情報を算出し、前記第1の較正距離情報に基づいて、前記配置関係を表す較正パラメータを算出する
情報処理装置。
(5)(4)に記載の情報処理装置であって、
前記較正処理部は、前記第1の距離データを平滑化し、前記平滑化された前記第1の距離データに基づいて前記第1の較正距離情報を算出する
情報処理装置。
(6)(4)又は(5)のうちいずれか1つに記載の情報処理装置であって、
前記他のセンサは、対象を可視光により撮影する可視カメラであり、前記較正用ターゲットを前記可視光により撮影した可視画像データを出力する
情報処理装置。
(7)(6)に記載の情報処理装置であって、
前記複数の凹状パターンは、前記底面部及び前記縁面部の色が、第1の色となるように構成され、
前記較正用ターゲットは、前記複数の凹状パターンが配置され、前記可視光による撮影において前記第1の色とは異なる第2の色となる領域を含む平面状の配置面を有する
情報処理装置。
(8)(7)に記載の情報処理装置であって、
前記配置面は、前記複数の凹状パターンを除く領域が前記第2の色に着色される
情報処理装置。
(9)(7)に記載の情報処理装置であって、
前記配置面は、前記第1の色及び前記第2の色で交互に着色された複数の矩形領域により格子状に分割された格子模様を有し、
前記複数の凹状パターンは、前記複数の矩形領域の各々に少なくとも1つ配置される
情報処理装置。
(10)(7)から(9)のうちいずれか1つに記載の情報処理装置であって、
前記第1の色は、白色であり、
前記第2の色は、黒色である
情報処理装置。
(11)(7)から(10)のうちいずれか1つに記載の情報処理装置であって、
前記第1の色は、前記測定光の反射光の強度が前記測距センサの測定レンジに収まる範囲で、前記第2の色に対するコントラストが最大となるように設定される
情報処理装置。
(12)(6)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
前記較正処理部は、前記可視画像データと前記反射強度データとに基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果を前記第1の較正距離情報に基づいて補正する
情報処理装置。
(13)(6)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
前記較正処理部は、前記第1の較正距離情報に基づいて前記可視画像データと前記反射強度データとの間の視差補正を実行し、前記視差補正の結果に基づいて前記配置関係を表す較正パラメータを算出する
情報処理装置。
(14)(4)又は(5)に記載の情報処理装置であって、
前記他のセンサは、前記測定光を照射する他の測距センサであり、前記較正用ターゲットの各点に対する距離を表す第2の距離データを出力する
情報処理装置。
(15)(14)に記載の情報処理装置であって、
前記較正用ターゲットは、前記複数の凹状パターンが配置される球面状の配置面を有する
情報処理装置。
(16)(14)又は(15)に記載の情報処理装置であって、
前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第2の距離データが表す距離を較正した第2の較正距離情報を算出する
情報処理装置。
(17)(16)に記載の情報処理装置であって、
前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果に基づいて前記測距センサ及び前記他の測距センサの各内部パラメータを補正する
情報処理装置。
(18)(16)に記載の情報処理装置であって、
前記測距センサ及び前記他の測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データをそれぞれ出力し
前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記測距センサ及び前記他の測距センサから出力された各反射強度データに関する視点変換を実行し、前記視点変換の結果に基づいて前記配置関係を表す較正パラメータを算出する
情報処理装置。
(19)測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する
ことをコンピュータシステムが実行する情報処理方法。
(20)測定光を照射する測距センサを含む複数のセンサ間の配置関係を較正するために用いられる較正用ターゲットであって、
各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン
を具備する較正用ターゲット。
1…測定対象
2…測定光
3…反射光
4…可視光
11、211a、211b…3Dセンサ
12…2Dセンサ
13、213…記憶部
20、220…コントローラ
21、221…較正処理部
30、50a、50b…キャリブレーションボード
32、62…凹状パターン
35、65…底面部
37、67…縁面部
38…ベース領域
40…可視画像データ
41…反射強度データ
42…距離データ
51…格子模様
52…矩形領域
60…キャリブレーションマーカー
100、200…3次元測定システム

Claims (20)

  1. 測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する較正処理部
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記複数の凹状パターンは、前記底面部及び前記縁面部が平面となるように構成される
    情報処理装置。
  3. 請求項1に記載の情報処理装置であって、
    前記複数の凹状パターンは、前記底面部が円形状となるように、かつ前記縁面部が平面視で前記底面部と中心が一致する円環形状となるように構成される
    情報処理装置。
  4. 請求項1に記載の情報処理装置であって、
    前記測距センサは、前記較正用ターゲットの各点に対する距離を表す第1の距離データを出力し、
    前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第1の距離データが表す距離を較正した第1の較正距離情報を算出し、前記第1の較正距離情報に基づいて、前記配置関係を表す較正パラメータを算出する
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記較正処理部は、前記第1の距離データを平滑化し、前記平滑化された前記第1の距離データに基づいて前記第1の較正距離情報を算出する
    情報処理装置。
  6. 請求項4に記載の情報処理装置であって、
    前記他のセンサは、対象を可視光により撮影する可視カメラであり、前記較正用ターゲットを前記可視光により撮影した可視画像データを出力する
    情報処理装置。
  7. 請求項6に記載の情報処理装置であって、
    前記複数の凹状パターンは、前記底面部及び前記縁面部の色が、第1の色となるように構成され、
    前記較正用ターゲットは、前記複数の凹状パターンが配置され、前記可視光による撮影において前記第1の色とは異なる第2の色となる領域を含む平面状の配置面を有する
    情報処理装置。
  8. 請求項7に記載の情報処理装置であって、
    前記配置面は、前記複数の凹状パターンを除く領域が前記第2の色に着色される
    情報処理装置。
  9. 請求項7に記載の情報処理装置であって、
    前記配置面は、前記第1の色及び前記第2の色で交互に着色された複数の矩形領域により格子状に分割された格子模様を有し、
    前記複数の凹状パターンは、前記複数の矩形領域の各々に少なくとも1つ配置される
    情報処理装置。
  10. 請求項7に記載の情報処理装置であって、
    前記第1の色は、白色であり、
    前記第2の色は、黒色である
    情報処理装置。
  11. 請求項7に記載の情報処理装置であって、
    前記第1の色は、前記測定光の反射光の強度が前記測距センサの測定レンジに収まる範囲で、前記第2の色に対するコントラストが最大となるように設定される
    情報処理装置。
  12. 請求項6に記載の情報処理装置であって、
    前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
    前記較正処理部は、前記可視画像データと前記反射強度データとに基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果を前記第1の較正距離情報に基づいて補正する
    情報処理装置。
  13. 請求項6に記載の情報処理装置であって、
    前記測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データを出力し、
    前記較正処理部は、前記第1の較正距離情報に基づいて前記可視画像データと前記反射強度データとの間の視差補正を実行し、前記視差補正の結果に基づいて前記配置関係を表す較正パラメータを算出する
    情報処理装置。
  14. 請求項4に記載の情報処理装置であって、
    前記他のセンサは、前記測定光を照射する他の測距センサであり、前記較正用ターゲットの各点に対する距離を表す第2の距離データを出力する
    情報処理装置。
  15. 請求項14に記載の情報処理装置であって、
    前記較正用ターゲットは、前記複数の凹状パターンが配置される球面状の配置面を有する
    情報処理装置。
  16. 請求項14に記載の情報処理装置であって、
    前記較正処理部は、前記複数の凹状パターンごとに、前記凹部の深さを基準として前記第2の距離データが表す距離を較正した第2の較正距離情報を算出する
    情報処理装置。
  17. 請求項16に記載の情報処理装置であって、
    前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記配置関係を表す較正パラメータを算出し、当該算出結果に基づいて前記測距センサ及び前記他の測距センサの各内部パラメータを補正する
    情報処理装置。
  18. 請求項16に記載の情報処理装置であって、
    前記測距センサ及び前記他の測距センサは、前記較正用ターゲットの各点における前記測定光の反射強度を表す反射強度データをそれぞれ出力し、
    前記較正処理部は、前記第1の較正距離情報及び前記第2の較正距離情報に基づいて前記測距センサ及び前記他の測距センサから出力された各反射強度データに関する視点変換を実行し、前記視点変換の結果に基づいて前記配置関係を表す較正パラメータを算出する
    情報処理装置。
  19. 測定光を照射する測距センサにより、各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の前記測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターンを有する較正用ターゲットを測定したデータと、前記測距センサとは異なる他のセンサにより、前記較正用ターゲットを測定したデータとに基づいて、前記測距センサと前記他のセンサとの配置関係を表す較正パラメータを算出する
    ことをコンピュータシステムが実行する情報処理方法。
  20. 測定光を照射する測距センサを含む複数のセンサ間の配置関係を較正するために用いられる較正用ターゲットであって、
    各々が凹部を有し、前記凹部の底面部及び前記凹部を囲む縁面部の測定光に対する反射率が所定の閾値よりも高くなるように構成された複数の凹状パターン
    を具備する較正用ターゲット。
JP2021060257A 2021-03-31 2021-03-31 情報処理装置、情報処理方法、及び較正用ターゲット Pending JP2024075525A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021060257A JP2024075525A (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理方法、及び較正用ターゲット
PCT/JP2022/001613 WO2022209166A1 (ja) 2021-03-31 2022-01-18 情報処理装置、情報処理方法、及び較正用ターゲット

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021060257A JP2024075525A (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理方法、及び較正用ターゲット

Publications (1)

Publication Number Publication Date
JP2024075525A true JP2024075525A (ja) 2024-06-04

Family

ID=83458620

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021060257A Pending JP2024075525A (ja) 2021-03-31 2021-03-31 情報処理装置、情報処理方法、及び較正用ターゲット

Country Status (2)

Country Link
JP (1) JP2024075525A (ja)
WO (1) WO2022209166A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002202122A (ja) * 2001-01-05 2002-07-19 Olympus Optical Co Ltd 2次元距離画像センサのキャリブレーション方法
JP5224319B2 (ja) * 2007-07-23 2013-07-03 富士フイルム株式会社 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP6456783B2 (ja) * 2015-06-29 2019-01-23 富士フイルム株式会社 配筋測定装置
US10510155B1 (en) * 2019-06-11 2019-12-17 Mujin, Inc. Method and processing system for updating a first image generated by a first camera based on a second image generated by a second camera

Also Published As

Publication number Publication date
WO2022209166A1 (ja) 2022-10-06

Similar Documents

Publication Publication Date Title
US11003897B2 (en) Three-dimensional real face modeling method and three-dimensional real face camera system
US10979694B2 (en) Information processing apparatus, method, and storage medium
CN111566437B (zh) 三维测量系统以及三维测量方法
WO2021140886A1 (ja) 三次元モデル生成方法、情報処理装置およびプログラム
CN108474658B (zh) 地面形态检测方法及系统、无人机降落方法和无人机
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP5633058B1 (ja) 3次元計測装置及び3次元計測方法
JP5070435B1 (ja) 3次元相対座標計測装置およびその方法
CN106127745A (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
JP2012504771A (ja) 三次元及び距離の面間推定を与えるための方法及びシステム
JP6282098B2 (ja) キャリブレーション装置及び方法
US10713810B2 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
CN111145269B (zh) 一种鱼眼相机与单线激光雷达的外方位元素的标定方法
JP6580761B1 (ja) 偏光ステレオカメラによる深度取得装置及びその方法
CN110419208B (zh) 成像系统、成像控制方法、图像处理设备和计算机可读介质
JP2009284188A (ja) カラー撮像装置
US20210150744A1 (en) System and method for hybrid depth estimation
US11803982B2 (en) Image processing device and three-dimensional measuring system
KR20190130407A (ko) 전방위 카메라의 캘리브레이션을 위한 장치 및 방법
JP6237032B2 (ja) 色と三次元形状の計測方法及び装置
Furferi et al. A RGB-D based instant body-scanning solution for compact box installation
JP2018009927A (ja) 画像処理装置、画像処理方法及びプログラム
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP7414090B2 (ja) 撮像装置および撮像装置の制御方法
JP6486083B2 (ja) 情報処理装置、情報処理方法及びプログラム