JP6824833B2 - 距離データ生成システム、距離データ生成方法及びプログラム - Google Patents

距離データ生成システム、距離データ生成方法及びプログラム Download PDF

Info

Publication number
JP6824833B2
JP6824833B2 JP2017123535A JP2017123535A JP6824833B2 JP 6824833 B2 JP6824833 B2 JP 6824833B2 JP 2017123535 A JP2017123535 A JP 2017123535A JP 2017123535 A JP2017123535 A JP 2017123535A JP 6824833 B2 JP6824833 B2 JP 6824833B2
Authority
JP
Japan
Prior art keywords
distance data
distance
cover
data
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017123535A
Other languages
English (en)
Other versions
JP2019007830A (ja
Inventor
宏俊 吉澤
宏俊 吉澤
慎一郎 園田
慎一郎 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017123535A priority Critical patent/JP6824833B2/ja
Publication of JP2019007830A publication Critical patent/JP2019007830A/ja
Application granted granted Critical
Publication of JP6824833B2 publication Critical patent/JP6824833B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は距離データ生成システム、距離データ生成方法、補正データ算出方法及びプログラムに係り、特にカメラの前面に曲面を有するカバーが設けられた距離データ生成システム、距離データ生成方法、補正データ算出方法及びプログラムに関する。
複数のカメラを使用したステレオ測距により、被写体の距離情報(距離画像)を取得する深度センサが知られている。このような深度センサにおける測距手法には、以下の2つが一般的である。
1つは、製造工程において予め測距キャリブレーションを行い、キャリブレーションデータに基づいて、使用環境下での距離を測定する手法である。もう1つは、使用環境下にて画像取得を行い、その場で距離を測定する手法である。
特許文献1には、複数のレンズを介して複数の画像情報を取得する撮像手段と、複数の画像情報に基づいて測距対象に対する測距を行う測距制御手段と、少なくとも一つの発光部を有し、任意の投光面に少なくとも一つのスポット光を形成可能な光源と、を備え、測距制御手段は、投光面に形成したスポットまでの距離に基づいて、測距対象に対する測距結果を校正することで、信頼性の高いキャリブレーションを行う測距装置が開示されている。
ここで、カメラの前面に、曲面を有する曲面カバーを配置した状況を考える。この曲面カバーの配置により、カメラに入射する光に光線歪みが発生し、カメラから取得される画像は、曲面カバーのない状態の画像から歪むことが想定される。
キャリブレーションデータに基づいて距離を測定する手法において、測距キャリブレーションは、曲面カバーが配置されていない状態で実施される。このため、任意の使用環境下における視差情報が、キャリブレーション測定時のデータと曲面カバー配置時のデータとにおいて異なるという状況が生じる。
また、使用環境下にて画像取得を行い、その場で距離を測定する手法においても、取得画像から距離を算出する処理過程は、曲面カバーの配置されていない状態で構築されている。このため、任意の使用環境下における視差情報からの測定距離が、曲面カバーの有無により異なるという状況が生じる。
このように、カメラの前面に曲面カバーを配置すると、測定距離に誤差が生じるという課題があった。
このような課題に対し、特許文献2には、撮像装置によって得られた画像データを記憶する画像メモリと、画像メモリに記憶された画像データのうち少なくとも小数点部のみの座標データを補正するための、座標に関する補正データを差分形式で記憶する補正データメモリと、画像メモリに記憶された画像データから補正対象となる画像データを抽出する抽出手段と、抽出手段によって抽出された画像データを補正データメモリに記憶された補正データに基づいて補正する補正手段とを備え、補正データメモリは、座標原点から補正対象となる画像データの座標までを差分データの形式で記憶すると共に、補正手段は、補正データメモリに記憶された差分データを座標軸別に加算して新しい座標データを算出することで、CCD(Charge-Coupled Device)カメラの前面に曲面形状のガラス板等の光学系があって、前方画像が歪んで撮像されても、その補正が容易にできる技術が開示されている。
特開2015−185947号公報 特開2000−322565号公報
しかしながら、特許文献2に記載の技術のように、画像データの座標データを補正する処理は、処理に時間がかかり、煩雑で非効率であるという問題点があった。
本発明はこのような事情に鑑みてなされたもので、曲面を有するカバーの影響による誤差を効率よく補正する距離データ生成システム、距離データ生成方法、補正データ算出方法及びプログラムを提供することを目的とする。
上記目的を達成するために距離データ生成システムの一の態様は、被写体をそれぞれ異なる視点から撮影する一対のカメラと、被写体と一対のカメラとの間に設けられた曲面を有するカバーと、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成する距離データ生成部と、複数の第1距離データのカバーの影響による誤差をそれぞれ補正する画像データ上の複数の位置に対応した補正データを記憶する記憶部と、複数の第1距離データを複数の補正データに基づいてそれぞれ補正して画像データ上の複数の位置に対応した第2距離データを取得する補正部と、を備える。
本態様によれば、複数の第1距離データを複数の補正データに基づいてそれぞれ補正して画像データ上の複数の位置に対応した第2距離データを取得するようにしたので、曲面を有するカバーの影響による誤差を効率よく補正することができる。
被写体に投光パターンを照射するパターン照射部を備えることが好ましい。これにより、第1距離データを適切に生成することができる。
一対のカメラは赤外線カメラであり、カバーは赤外線を透過し、パターン照射部は赤外線により投光パターンを照射することが好ましい。これにより、使用者に視認させずに第1距離データを生成することができる。
カバーは半球殻状であることが好ましい。本実施形態は半球殻状のカバーに好適であり、半球殻状のカバーの影響による誤差を効率よく補正することができる。
カバーは表面に複数の曲面による凹凸を有してもよい。本実施形態は表面に複数の曲面による凹凸を有するカバーに好適であり、表面に複数の曲面による凹凸を有するカバーの影響による誤差を効率よく補正することができる。
補正データは、第1距離データを画素毎又は領域毎に補正する変換行列であることが好ましい。曲面を有するカバーの影響による誤差を画素毎又は領域毎に効率よく補正することができる。
一対のカメラの光軸が平行であることが好ましい。これにより、被写体の視差に関する第1距離データを適切に生成することができる。
上記目的を達成するために距離データ生成方法の一の態様は、被写体をそれぞれ異なる視点から撮影する一対のカメラと被写体との間に曲面を有するカバーを設け、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成する距離データ生成工程と、第1距離データのカバーの影響による誤差を補正する補正データを記憶部から取得し、第1距離データを補正データに基づいて補正して画像データ上の複数の位置に対応した第2距離データを取得する補正工程と、を備える。
本態様によれば、複数の第1距離データを複数の補正データに基づいてそれぞれ補正して画像データ上の複数の位置に対応した第2距離データを取得するようにしたので、曲面を有するカバーの影響による誤差を効率よく補正することができる。
上記目的を達成するためにプログラムの一の態様は、被写体をそれぞれ異なる視点から撮影する一対のカメラと被写体との間に曲面を有するカバーを設け、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成する距離データ生成機能と、第1距離データのカバーの影響による誤差を補正する補正データを記憶部から取得し、第1距離データを補正データに基づいて補正して画像データ上の複数の位置に対応した第2距離データを取得する補正機能と、をコンピュータに実行させる。
本態様によれば、複数の第1距離データを複数の補正データに基づいてそれぞれ補正して画像データ上の複数の位置に対応した第2距離データを取得するようにしたので、曲面を有するカバーの影響による誤差を効率よく補正することができる。
上記目的を達成するために補正データ算出方法の一の態様は、被写体をそれぞれ異なる視点から撮影する一対のカメラと被写体との間に曲面を有するカバーを配置し、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成する第1距離データ生成工程と、一対のカメラと被写体との間の距離である複数の第2距離データを取得する第2距離データ取得工程と、複数の位置に対応した被写体の視差に関する第1距離データ及び複数の第2距離データに基づいて複数の位置に対応した被写体の視差に関する第1距離データのカバーの影響による誤差をそれぞれ補正する複数の補正データを算出する算出工程と、算出した複数の補正データを記憶部に記憶させる記憶工程と、を備える。
本態様によれば、一対のカメラと被写体との間に曲面を有するカバーを配置し、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成し、一対のカメラと被写体との間の距離である複数の第2距離データを取得し、第1距離データのカバーの影響による誤差をそれぞれ補正する複数の補正データを算出して記憶部に記憶させるようにしたので、曲面を有するカバーの影響による誤差を補正する補正データを適切に算出することができる。
上記目的を達成するためにプログラムの一の態様は、被写体をそれぞれ異なる視点から撮影する一対のカメラと被写体との間に曲面を有するカバーを配置し、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成する第1距離データ生成機能と、一対のカメラと被写体との間の距離である複数の第2距離データを取得する第2距離データ取得機能と、複数の位置に対応した被写体の視差に関する第1距離データ及び複数の第2距離データに基づいて複数の位置に対応した被写体の視差に関する第1距離データのカバーの影響による誤差をそれぞれ補正する複数の補正データを算出する算出機能と、算出した複数の補正データを記憶部に記憶させる記憶機能と、をコンピュータに実行させる。
本態様によれば、一対のカメラと被写体との間に曲面を有するカバーを配置し、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成し、一対のカメラと被写体との間の距離である複数の第2距離データを取得し、第1距離データのカバーの影響による誤差をそれぞれ補正する複数の補正データを算出して記憶部に記憶させるようにしたので、曲面を有するカバーの影響による誤差を補正する補正データを適切に算出することができる。
本発明によれば、曲面を有するカバーの影響による誤差を効率よく補正することができる。
ステレオ測距を用いた深度センサの動作原理を示す図 左側カメラ及び右側カメラの前面に曲面カバーを備えた深度センサを示す図 深度センサの正面図 測定対象物に照射されたランダムパターンを左側カメラ及び右側カメラにおいてそれぞれ撮影した画像を示す図 深度センサの主要部の内部構成を示すブロック図 左側カメラ及び右側カメラでそれぞれ撮影した画像を示す図 特徴点の変位量を示す図 深度センサの変換行列を算出するための評価系を示す図 左側カメラ及び右側カメラでそれぞれ撮影した画像を示す図 画像を分割した各領域を示す図 変位量算出処理の結果を示すグラフ 変位量算出処理の結果を示すグラフ 変位量算出処理の結果を示すグラフ 変位量算出処理の結果を示すグラフ 撮影距離と変位量との関係を示すグラフ 変位量算出処理の結果を示すグラフ 変位量算出処理の結果を示すグラフ 変位量算出処理の結果を示すグラフ 変位量算出処理の結果を示すグラフ 撮影距離と変位量との関係を示すグラフ 図15のグラフと図20のグラフとを重ねて示したグラフ 図21に示したグラフに近似曲線を重ねて示したグラフ 複数の凹凸面を有する曲面カバーの側面図 左側カメラ及び右側カメラでそれぞれ撮影した画像とその重複領域を示す図
以下、添付図面に従って本発明の好ましい実施形態について詳説する。
<深度センサの動作原理>
図1は、ステレオ測距を用いた深度センサ10の動作原理を示す図である。
深度センサ10は、一対のカメラである左側カメラ12及び右側カメラ18を備えている。左側カメラ12及び右側カメラ18は、X方向に一定の距離だけ離して配置されており、測定対象物をそれぞれ異なる視点から撮影する。
左側カメラ12は、レンズ14及び撮像素子16を有している。また、右側カメラ18は、レンズ20及び撮像素子22を有している。左側カメラ12及び右側カメラ18は、光軸が平行に配置されている。
レンズ14及びレンズ20は、入射した被写体光を透過して撮像素子16及び撮像素子22にそれぞれ導く。撮像素子16及び撮像素子22は、ともに二次元的に複数の光電変換素子が配列されたイメージセンサである。撮像素子16及び撮像素子22は、レンズ14及びレンズ20を介して入射した被写体光をそれぞれ受光して、画像信号に変換する。
深度センサ10において測定対象物Oと深度センサ10との間の距離Zを測定するには、左側カメラ12及び右側カメラ18において測定対象物O(被写体の一例)を撮影すればよい。ここでは、図1に示すように、測定対象物Oが撮像素子16のX座標のXに、撮像素子22のX座標のXに、それぞれ撮像されている。
深度センサ10の左側カメラ12及び右側カメラ18の間の距離である基線長をb、左側カメラ12及び右側カメラ18の焦点距離をfとすると、距離Zは、下記の式1で表すことができる。
=b×f/(X−X) …(式1)
ここで、左側カメラ12及び右側カメラ18の視差によって生じる測定対象物OのX座標の差分(X−X)を、測定対象物Oの画像上の変位量と呼ぶ。
このように、左側カメラ12及び右側カメラ18において測定対象物Oを撮影し、測定対象物Oの画像上の変位量を算出することで、測定対象物Oと深度センサ10との間の距離を測定することができる。
<曲面カバーを有する深度センサ>
図2は、左側カメラ12及び右側カメラ18の前面、すなわち測定対象物Oと左側カメラ12及び右側カメラ18との間に、曲面を有する曲面カバー24を備えた深度センサ10を示す図である。ここでは、曲面カバー24は透明な材料で構成され、半球殻状を有している。
測定対象物Oから左側カメラ12及び右側カメラ18に入射する被写体光は、曲面カバー24に入射する際に屈折する。この屈折の影響により、左側カメラ12及び右側カメラ18において測定対象物Oを撮影すると、図2に示すように、測定対象物Oが撮像素子16のX座標のXに、撮像素子22のX座標のXに、それぞれ撮像される。
したがって、測定対象物Oと深度センサ10との間の距離Zは、下記の式2により算出される。
=b×f/(X−X) …(式2)
このように、左側カメラ12及び右側カメラ18の前面に曲面カバー24を配置すると、曲面カバー24の影響を受け、測定対象物Oの画像上の変位量が変化し、測定対象物Oとの距離に誤差が生じる。この例では、測定対象物Oが深度センサ10から距離Zだけ離れたOの位置に誤認される。
<深度センサの構成>
本実施形態に係る深度センサ50(距離データ生成システムの一例)について説明する。図3は、深度センサ50の正面図である。ここでは、深度センサ50として、インテル社製RealSense(登録商標)R200を用いている。
図3に示すように、深度センサ50はX方向が102mm、Y方向が9.5mmの筐体52を備えている。筐体52の正面には、左側カメラ54、右側カメラ56、RGB(Red Green Blue)カメラ58、及び赤外線レーザープロジェクタ60が設けられている。また、筐体52の正面には、図3では図示されない曲面を有する曲面カバー70(図5参照)が配置されている。
左側カメラ54及び右側カメラ56は、測定対象物の表面で反射された赤外波長域の光を受光し、赤外線画像を撮影する赤外線カメラである。左側カメラ54及び右側カメラ56は、X方向に一定の距離だけ離して配置されており、測定対象物をそれぞれ異なる視点から撮影する。
RGBカメラ58は、測定対象物の表面で反射された可視光波長域の光を赤、緑、及び青の3領域に分割して受光し、赤、緑、及び青のカラー画像を撮影する可視光カメラである。
赤外線レーザープロジェクタ60は、測定対象物に対して赤外線によるランダムパターン(投光パターンの一例)を照射するパターン照射部である。図4は、測定対象物に照射されたランダムパターンを左側カメラ54で撮影した画像100L、及び右側カメラ56で撮影した画像100Rを示す図である。図4に示すように、画像100L及び画像100Rは、ランダムパターンが視差を有して撮影された画像となる。
<深度センサの内部構成>
図5は、深度センサ50の主要部の内部構成を示すブロック図である。深度センサ50は、前述の左側カメラ54、右側カメラ56の他、曲面カバー70、距離データ生成部72、記憶部74、補正部76、及び入出力部78を備えている。
左側カメラ54は、レンズ62及び撮像素子64を有している。また、右側カメラ56は、レンズ66及び撮像素子68を有している。左側カメラ54及び右側カメラ56の焦点距離はfである。左側カメラ54及び右側カメラ56は、光軸が平行に配置されている。左側カメラ54及び右側カメラ56の基線長はbである。
レンズ62及びレンズ66は、測定対象物から入射した被写体光を透過して撮像素子64及び撮像素子68にそれぞれ導く。撮像素子64及び撮像素子68は、二次元的に複数の赤外線光電変換素子が配列されたイメージセンサである。撮像素子64及び撮像素子68は、レンズ62及びレンズ66を介して入射した赤外波長域の光をそれぞれ受光して、画像信号に変換する。
曲面カバー70は、赤外線を透過する材料で構成され、半球殻状を有する。曲面カバー70は、レンズ62及びレンズ66と測定対象物との間に配置されている。測定対象物から入射した被写体光は、曲面カバー70を介してレンズ62及びレンズ66に入射する。
撮像素子64及び撮像素子68から出力される画像信号は、それぞれ距離データ生成部72に入力される。距離データ生成部72は、一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した被写体の視差に関する第1距離データを生成する。
第1距離データの生成のために、距離データ生成部72は、まず撮像素子64から出力される画像信号から左側画像を生成し、撮像素子68から出力される画像信号から右側画像を生成する。さらに、距離データ生成部72は、左側画像及び右側画像から測定対象物の画像上の変位量を算出する。
図6は、左側カメラ54において撮影した画像102L及び右側カメラ56において撮影した画像102Rを示す図である。ここでは、画像102Lから測定対象物の特徴点104Lが、画像102Rから特徴点104Lに対応する測定対象物の特徴点104Rが、それぞれ抽出されている。
距離データ生成部72は、この特徴点同士の画像上での距離を求める。すなわち、画像102L及び画像102Rを重ねた際の特徴点104L及び104RのX位置座標間の距離を求める。このX位置座標間の距離が変位量である。
図7は、特徴点104L及び104RのX位置座標間の距離である変位量ΔXを示す図である。距離データ生成部72は、測定対象物の画像上の変位量に基づいて、画像上の複数の位置に対応した測定対象物の視差に関する第1距離データを生成する(距離データ生成工程の一例)。
図5の説明に戻り、記憶部74は、距離データにおける曲面カバー70の影響を補正するための画素毎又は領域毎の複数の補正データである変換行列を記憶している。変換行列の詳細については後述する。
補正部76は、距離データ生成部72が算出した複数の第1距離データを、記憶部74から読み出した変換行列に基づいてそれぞれ補正し、画像上の複数の位置に対応した複数の第2距離データを取得する(補正工程の一例)。
入出力部78は、液晶パネル等の図示されない表示部を備えている。補正部76は、補正した第2距離データを、測定対象物から深度センサ50までの距離として入出力部78に出力する。入出力部78は、表示部に距離を表示する。
また、入出力部78は、コンピュータ80等の外部機器と通信するための通信インターフェースを備えている。
<補正データ算出方法>
前述したように、本実施形態に係る深度センサ50は、左側カメラ54及び右側カメラ56により取得される画像から生成された第1距離データに対して、任意の変換行列からなる補正データによる補正を行い、曲面カバー70の影響を排除した第2距離データを算出する。
曲面カバー70が配置されていない状態における測定対象物との距離Zは、式1を用いて取得することができる。距離Zは、深度センサの測定値ではなく、定規等の他の計測器によって取得することもできる。また、曲面カバー70が配置された状態における撮影測定対象物との距離Zは、式2を用いて取得することができる。距離Zと距離Zとが、同じ測定対象物との距離を測定した結果であれば、曲面カバー70による影響を補正する補正データをaとすると、
=a×Z …(式3)
と表すことができる。
左側カメラ54及び右側カメラ56によって撮影した画像をX方向にm分割、Y方向にn分割の計m×n領域にそれぞれ分割することで、式3により分割した領域毎の補正データa〜am×nを取得することができる。ここでは、分割した領域毎の補正データを要素とするm行n列の対角行列の変換行列Hとして表す。すなわち、変換行列Hは、以下の式4で表すことができる。
曲面カバ−70が配置された状態で測定したm×nの領域毎の測定対象物との距離を各要素とした一次元のベクトル行列をZ、m×nの領域毎の測定対象物との真の距離を各要素とした一次元のベクトル行列をZとすると、変換行列Hにより、ベクトル行列Zとベクトル行列Zの転置行列Z との関係は、以下の式5で表すことができる。
=H×Z …(式5)
以下、曲面カバー70による影響を補正するための変換行列Hの算出方法について説明する。本実施形態では、入出力部78を介して接続されたコンピュータ80(図5参照)において変換行列Hを算出する例を説明するが、変換行列Hは距離データ生成部72等の深度センサ50内部において算出してもよい。
図8は、深度センサ50の変換行列Hを算出するための評価系を示す図である。図8に示すように、深度センサ50を、XY平面に平行な壁面108に左側カメラ54及び右側カメラ56の光軸を向けて設置する。深度センサ50とXZ平面に平行な床110との間の距離は、80cmである。
また、床110には、直方体物体112が設置されている。直方体物体112は、XY平面に平行な物体面112Aが深度センサ50に向けられている。直方体物体112は、背面が壁面108に接しており、直方体物体112のZ方向長さは、65cmである。すなわち、物体面112Aは、壁面108よりも65cmだけ深度センサ50に近い位置に配置される。
ここでは、深度センサ50との距離の均一性を保持する観点から、壁面108及び物体面112AをXY平面に平行かつ平板としたが、XY平面に平行かつ平板に限定するものではない。
この評価系において、深度センサ50の前面に曲面カバー70を配置しない状態、及び配置した状態の対象物までの距離(撮影距離)と変位量との関係を取得し、それぞれの関係から変換行列Hを算出する。
まず、コンピュータ80において、深度センサ50の前面に曲面カバー70を配置しない状態における撮影距離と変位量との関係を取得する。このために、深度センサ50は、赤外線レーザープロジェクタ60において、壁面108及び直方体物体112に対して赤外線によるランダムパターンを照射する。そして、左側カメラ54及び右側カメラ56において、この照射されたランダムパターンを撮影する。
図9は、壁面108と深度センサ50との距離を150cmに設定した場合に、左側カメラ54で撮影した画像114Lと、右側カメラ56で撮影した画像114Rとを示す図である。画像114L及び114Rは、ともに図中上側には壁面108に照射されたランダムパターンが、下側には物体面112Aに照射されたランダムパターンが撮影されている。
図10は、画像114L及び画像114Rをそれぞれ分割する各領域を示す図である。コンピュータ80は、図10に示すように、画像114L及び画像114Rを縦方向に4分割、横方向に4分割し、領域dst11〜dst14、dst21〜dst24、dst31〜dst34、及びdst41〜dst44の計16領域にそれぞれ分割する。さらに、コンピュータ80は、画像114L及び画像114Rのそれぞれ対応する領域において特徴点抽出を行い、特徴点同士の変位量を算出する。特徴点の抽出には、公知のAKAZE(Accelerated KAZE)を用いた。
この領域毎の変位量算出処理を、補正精度を向上させる観点から、3点以上の設定距離について行うことが好ましい。ここでは、壁面108と深度センサ50との距離を100cm、125cm、150cm、175cm、及び200cmに設定して行う(第2距離データ取得工程の一例)。なお、それぞれの設定距離において、物体面112Aと深度センサ50の距離は、35cm、60cm、85cm、110cm、及び135cmである。
図11〜図14は、それぞれ図10に示す領域dst11、dst22、dst33、及びdst44におけるコンピュータ80の変位量算出処理の結果を示すグラフである。図11〜図14において、横軸は特徴点の変位量、縦軸は特徴点の画像上のY座標(画像の縦方向位置)を示し、単位はそれぞれ画素である。
図15は、図11〜図14に示す変位量算出処理の結果からコンピュータ80において求めた、撮影距離と変位量との関係を示すグラフである。図15において、横軸は撮影距離であり単位はcm、縦軸は変位量であり単位は画素である。図11〜図14における任意の特徴点の変位量は、変位量軸に対してプロットが集中している値とした。多くのはずれ値は、AKAZEの感度が高いことから生じるものである。
なお、ここでは、図10に示す4つの領域dst11、dst22、dst33、及びdst44における変位量算出処理結果を用いて撮影距離と変位量との関係を求めたが、図10に示す領域dst11〜dst44の全16領域の変位量算出処理結果を用いて求めてもよい。
以上のように、コンピュータ80によって、深度センサ50の前面に曲面カバー70を配置しない状態における撮影距離と変位量との関係を取得する。
次に、コンピュータ80において、深度センサ50の前面に曲面カバー70を配置した状態における撮影距離と変位量との関係を取得する(第1距離データ生成工程の一例)。ここでは、曲面カバー70として、透明アクリル樹脂からなる曲率半径100mm、厚み2.3mmの透明半球のものを使用した。
図16〜図19は、それぞれ図10に示す領域dst11、dst22、dst33、及びdst44におけるコンピュータ80の変位量算出処理の結果を示すグラフである。図16〜図19において、横軸は特徴点の変位量、縦軸は特徴点の画像上のY座標(画像の縦方向位置)を示し、単位はそれぞれ画素である。図16〜図19における任意の特徴点の変位量は、変位量軸に対してプロットが集中している値とした。
図20は、図16〜図19に示す変位量算出処理の結果からコンピュータ80において求めた、撮影距離と変位量との関係を示すグラフである。図20において、横軸は撮影距離であり単位はcm、縦軸は変位量であり単位は画素である。
以上のように、コンピュータ80によって、深度センサ50の前面に曲面カバー70を配置した状態における撮影距離と変位量との関係を取得する。
図21は、図15に示した深度センサ50の前面に曲面カバー70を配置しない状態における撮影距離と変位量との関係、及び図20に示した曲面カバー70を配置した状態における撮影距離と変位量との関係を重ねて示したグラフである。図21に示すように、曲面カバー70の影響により、両者の関係は同一にならない。
変換行列Hの算出は、まずコンピュータ80において、2つの関係をそれぞれ表す近似曲線を求める。横軸をx軸、縦軸をy軸とすると、ここでは、曲面カバー70を配置しない状態における関係の近似曲線の近似式はy=9785.9x−0.972、曲面カバー70を配置した状態における関係の近似曲線の近似式はy=6660.6x−0.861、と表すことができる。
図22は、図21に示したグラフに、前述の2つの近似曲線を重ねて示したグラフである。続いて、コンピュータ80において、この2つの近似曲線を用いて、曲面カバー70を配置した状態の変位量から算出した距離を正しい距離に変換するための補正データを求める(算出工程の一例)。例えば、曲面カバー70を配置した場合に変位量が100画素であったとすると、近似曲線により距離は126cmと算出されるが、実際には111cmである。したがって、この場合の補正データaは、a=111/126である。補正データは、変位量毎に求めてもよい。
このように求めた補正データを各要素とした変換行列Hを生成し、記憶部74(図5参照)に記憶させる(記憶工程の一例)。この変換行列Hを用いて、曲面カバー70を配置した状態で測定した距離を補正することにより、曲面カバーの影響を排除した正しい距離を算出することができる。
ここでは、図10に示す16領域に共通する補正データを求めた。すなわち、この補正データをaとすると、式4及び式5において、m=4、n=4、a=a=…=a16=aである。分割領域毎に図22に示すグラフ及び近似曲線を求めることで、分割領域毎の補正データ(a、a、…、am×n)をそれぞれ求めることも可能である。
<深度センサの他の態様>
左側カメラ54及び右側カメラ56としては、画像を取得できるものであれば特に限定されない。例えば、可視光領域の画像を撮像できるカメラを用いることができる。赤外線パターンを投影する場合には、赤外線を撮像できるカメラであればよい。また、左側カメラ54及び右側カメラ56の光軸は、平行でなくてもよい。
深度センサ50の設置条件としては、視差情報を取得できる構成であれば特に限定されない。深度センサとしては、インテル社製RealSense(登録商標)の他、マイクロソフト社製Kinect(登録商標)等を用いることも可能である。
曲面カバー70の材料としては、視差情報を取得するために用いる波長帯の光が通過するものであれば特に限定されない。視差情報を取得するために用いる波長が近赤外領域である場合には、例えばアクリル、ポリカーボネート、又はPET(polyethylene terephthalate:ポリエチレンテレフタレート)等を用いることができる。また、アクリル、ポリカーボネート、又はPET等の赤外線を透過する材料を用いた際に、着色のために赤外線を透過する顔料を入れると、屈折率がさらに大きくなる。この屈折率の増大により、光線歪みの影響がさらに大きくなるため、補正の必要性がさらに向上する。
曲面カバー70の形状は、単一の曲面による凹凸面のみ有する場合でもよいし、複数の曲面による凹凸面を有していてもよい。図23は、複数の凹凸面を有する曲面カバー70の側面図の一例である。図23に示すように、この例では、曲面カバー70の測定対象物側70A及びカメラ側70Bの両方に、複数の曲面からなる凹凸面が形成されている。複数の凹凸面は、測定対象物側70A又はカメラ側70Bのいずれか一方に形成されていてもよい。
変換行列Hの列数m及び行数nは、図10に示す画像のX方向及びY方向の分割数と等しく、任意の数を適宜選択することができる。変換行列Hの最小分割数は、1である。すなわち、m=n=1であり、画像全体の測定距離を均一に補正する場合に相当する。また、最大分割数は、左側カメラ54及び右側カメラ56の撮影画像の重複領域の画素数である。すなわち、測定距離を画素毎に補正する場合に相当する。画素毎の補正データは、全ての画素において変位量を演算するのではなく、隣接する画素の補正データを補間することによって求めてもよい。
図24は、左側カメラ54において撮影した画像106L及び右側カメラ56において撮影した画像106Rと、画像106L及び画像106Rの重複した領域の画像である画像106Wを示す図である。
左側カメラ54及び右側カメラ56の2つのカメラを用いて撮影する場合、それぞれのカメラで撮影される領域のうち共通となる重複領域と一方のカメラでしか撮像できない非重複領域とが発生する。この重複領域が、距離情報を取得することができる距離情報取得領域となる。画像106WのX方向の画素数をm、Y方向の画素数をnとした場合が、変換行列Hの最大分割数である。
<その他>
上記の距離データ生成方法及び補正データ算出方法は、コンピュータに距離データ生成機能、補正機能、第1距離データ生成機能、第2距離データ取得機能、算出機能、及び記憶機能を実現させるためのプログラムとして構成し、このプログラムを記憶したCD−ROM(Compact Disk-Read Only Memory)等の非一時的な記録媒体を構成することも可能である。
ここまで説明した実施形態において、例えば、距離データ生成部72、及び補正部76等の各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、次に示すような各種のプロセッサ(processor)である。各種のプロセッサには、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU(Central Processing Unit)、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種又は異種の2つ以上のプロセッサ(例えば、複数のFPGA、あるいはCPUとFPGAの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第1に、サーバ及びクライアント等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組合せで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、各種のプロセッサを1つ以上用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)である。
本発明の技術的範囲は、上記の実施形態に記載の範囲には限定されない。各実施形態における構成等は、本発明の趣旨を逸脱しない範囲で、各実施形態間で適宜組み合わせることができる。
10 深度センサ
12 左側カメラ
14 レンズ
16 撮像素子
18 右側カメラ
20 レンズ
22 撮像素子
24 曲面カバー
50 深度センサ
52 筐体
54 左側カメラ
56 右側カメラ
58 RGBカメラ
60 赤外線レーザープロジェクタ
62 レンズ
64 撮像素子
66 レンズ
68 撮像素子
70 曲面カバー
70A 測定対象物側
70B カメラ側
72 距離データ生成部
74 記憶部
76 補正部
78 入出力部
80 コンピュータ
100L 画像
100R 画像
102L 画像
102R 画像
104L 特徴点
104R 特徴点
106L 画像
106R 画像
106W 画像
108 壁面
110 床
112 直方体物体
112A 物体面
114L 画像
114R 画像

Claims (8)

  1. 被写体をそれぞれ異なる視点から撮影する一対のカメラと、
    前記被写体と前記一対のカメラとの間に設けられた曲面を有するカバーであって、前記カメラに設けられたカバーと、
    前記一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した前記被写体の視差に関する第1距離データを生成する距離データ生成部と、
    前記複数の第1距離データの前記カバーの影響による誤差をそれぞれ補正する前記画像データ上の複数の位置に対応した補正データを記憶する記憶部と、
    前記複数の第1距離データを前記複数の補正データに基づいてそれぞれ補正して前記画像データ上の複数の位置に対応した第2距離データを取得する補正部と、
    前記被写体に投光パターンを照射するパターン照射部と、
    を備えた距離データ生成システム。
  2. 前記一対のカメラは赤外線カメラであり、
    前記カバーは赤外線を透過し、
    前記パターン照射部は赤外線により前記投光パターンを照射する請求項に記載の距離データ生成システム。
  3. 前記カバーは半球殻状である請求項1又は2に記載の距離データ生成システム。
  4. 前記カバーは表面に複数の曲面による凹凸を有する請求項1からのいずれか1項に記載の距離データ生成システム。
  5. 前記補正データは、前記第1距離データを画素毎又は領域毎に補正する変換行列である請求項1からのいずれか1項に記載の距離データ生成システム。
  6. 前記一対のカメラの光軸が平行である請求項1からのいずれか1項に記載の距離データ生成システム。
  7. 被写体をそれぞれ異なる視点から撮影する一対のカメラと前記被写体との間に曲面を有するカバーであって、前記カメラのカバーを設け、前記一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した前記被写体の視差に関する第1距離データを生成する距離データ生成工程と、
    前記第1距離データの前記カバーの影響による誤差を補正する補正データを記憶部から取得し、前記第1距離データを前記補正データに基づいて補正して前記画像データ上の複数の位置に対応した第2距離データを取得する補正工程と、
    前記被写体に投光パターンを照射するパターン照射工程と、
    を備える距離データ生成方法。
  8. 被写体をそれぞれ異なる視点から撮影する一対のカメラと前記被写体との間に曲面を有するカバーであって、前記カメラのカバーを設け、前記一対のカメラが出力する一対の画像データから画像データ上の複数の位置に対応した前記被写体の視差に関する第1距離データを生成する距離データ生成機能と、
    前記第1距離データの前記カバーの影響による誤差を補正する補正データを記憶部から取得し、前記第1距離データを前記補正データに基づいて補正して前記画像データ上の複数の位置に対応した第2距離データを取得する補正機能と、
    前記被写体に投光パターンを照射するパターン照射機能と、
    をコンピュータに実行させるプログラム。
JP2017123535A 2017-06-23 2017-06-23 距離データ生成システム、距離データ生成方法及びプログラム Active JP6824833B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017123535A JP6824833B2 (ja) 2017-06-23 2017-06-23 距離データ生成システム、距離データ生成方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017123535A JP6824833B2 (ja) 2017-06-23 2017-06-23 距離データ生成システム、距離データ生成方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019007830A JP2019007830A (ja) 2019-01-17
JP6824833B2 true JP6824833B2 (ja) 2021-02-03

Family

ID=65029570

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017123535A Active JP6824833B2 (ja) 2017-06-23 2017-06-23 距離データ生成システム、距離データ生成方法及びプログラム

Country Status (1)

Country Link
JP (1) JP6824833B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116538918B (zh) * 2023-04-07 2024-08-27 钛玛科(北京)工业科技有限公司 锂电池材料测量校正方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3868048B2 (ja) * 1997-01-23 2007-01-17 ビステオン・ジャパン株式会社 物体認識装置
JP2003002138A (ja) * 2001-06-19 2003-01-08 Toshiba Corp 車載後方監視方法およびその装置
JP6127958B2 (ja) * 2013-12-19 2017-05-17 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP2019007830A (ja) 2019-01-17

Similar Documents

Publication Publication Date Title
US10043290B2 (en) Image processing to enhance distance calculation accuracy
JP6855587B2 (ja) 視点から距離情報を取得するための装置及び方法
US20200219277A1 (en) Multi-modal depth mapping
WO2018161466A1 (zh) 深度图像获取系统和方法
US9383549B2 (en) Imaging system
CN112384167B (zh) 用于在相机中生成动态投影图案的设备、方法和系统
US9667944B2 (en) Imaging optical system and 3D image acquisition apparatus including the imaging optical system
US20140168424A1 (en) Imaging device for motion detection of objects in a scene, and method for motion detection of objects in a scene
US10887576B2 (en) Light field data representation
US20120134537A1 (en) System and method for extracting three-dimensional coordinates
US20160084650A1 (en) Optical sensor and optical sensor system
CN105721854B (zh) 摄像装置及其便携式终端以及使用摄像装置的摄像方法
JP2015049200A (ja) 計測装置、方法及びプログラム
US20210150744A1 (en) System and method for hybrid depth estimation
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
JP2008249431A (ja) 3次元画像補正方法及びその装置
JP2019045299A (ja) 3次元情報取得装置
JP6824833B2 (ja) 距離データ生成システム、距離データ生成方法及びプログラム
US11481917B2 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
KR101857977B1 (ko) 플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법
US12069227B2 (en) Multi-modal and multi-spectral stereo camera arrays
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
US11882259B2 (en) Light field data representation
CN116601455A (zh) 具有具备重叠视野的传感器的三维扫描仪
WO2020047692A1 (en) 3-d intraoral scanner using light field imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200602

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200730

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210113

R150 Certificate of patent or registration of utility model

Ref document number: 6824833

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250