JP6735615B2 - 情報処理装置、情報処理装置の制御方法およびプログラム - Google Patents

情報処理装置、情報処理装置の制御方法およびプログラム Download PDF

Info

Publication number
JP6735615B2
JP6735615B2 JP2016129134A JP2016129134A JP6735615B2 JP 6735615 B2 JP6735615 B2 JP 6735615B2 JP 2016129134 A JP2016129134 A JP 2016129134A JP 2016129134 A JP2016129134 A JP 2016129134A JP 6735615 B2 JP6735615 B2 JP 6735615B2
Authority
JP
Japan
Prior art keywords
information
image
matching
pattern
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016129134A
Other languages
English (en)
Other versions
JP2018004357A5 (ja
JP2018004357A (ja
Inventor
久義 降籏
久義 降籏
鈴木 雅博
雅博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016129134A priority Critical patent/JP6735615B2/ja
Priority to US15/623,615 priority patent/US10713810B2/en
Publication of JP2018004357A publication Critical patent/JP2018004357A/ja
Publication of JP2018004357A5 publication Critical patent/JP2018004357A5/ja
Application granted granted Critical
Publication of JP6735615B2 publication Critical patent/JP6735615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/759Region-based matching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)

Description

本発明は、情報処理装置、情報処理装置の制御方法およびプログラムに関する。
従来、ステレオカメラにより撮影された2枚の画像上で各領域の対応をブロックマッチングなどの方法により計算し、求めた対応関係を用いて三角測量の原理に基づき物体表面までの距離を計測する技術が知られている。一般にブロックマッチングでは画像上の各部位を平面のブロックに近似してマッチングを行う。しかし、ステレオカメラを利用する距離の計測方法では、例えば白い紙など特徴の少ない物体を対象とする場合、ブロックマッチングの精度が低下することがある。
これに対し、非特許文献1では、テクスチャパターンを物体の表面に投影して表面に2次元的な特徴を付与し、ステレオカメラで当該物体を撮影した画像を使用したブロックマッチングにより、物体の表面までの距離を計測する技術が開示されている。
Manabu Hashimoto, and Kazuhiko Sumi, "3-D Object Recognition Based on Integration of Range Image and Gray-scale", British Machine Vision Conference(BMVC), 2001. R. Y. Tsai, "A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses" IEEE Journal of Robotics and Automation, vol.RA-3, no.4, 1987. R. A. Newcombe, S. Izadi, O. Hilliges, D. Molyneaux, D. Kim, A. J. Davison, P. Kohli, J. Shotton, S. Hodges, and A. Fitzgibbon. KinectFusion: Real-Time Dense Surface Mapping and Tracking. ISMAR 2011. M. Bleyer, C. Rhemann, and C. Rother. PatchMatch Stereo - Stereo Matching with Slanted Support Windows. Proc. BMVC 2011
しかしながら、非特許文献1に記載の技術では、細い形状や小さな形状など、凹凸の激しい形状の場合は平面のブロックに近似することが難しくなり、距離計測の精度が低下する可能性があるという課題がある。
本発明は、上記の課題に鑑みてなされたものであり、物体の形状に依存せずに距離計測を高精度に行うための技術を提供することを目的とする。
上記の目的を達成する本発明に係る情報処理装置は、
投影装置が物体に投影するパターンを制御する制御手段と、
前記パターンが投影された前記物体を撮影する複数の撮影装置により複数の時間にそれぞれ撮影された複数の画像を取得する取得手段と、
前記複数の撮影装置によりそれぞれ撮影された画像間において、画像の画素値の時間変化の情報を用いてマッチングを行うことにより、前記物体の距離情報を計測する計測手段と、
前記物体と撮影装置との間の複数の時間における相対的な位置姿勢の情報を取得する位置姿勢取得手段と、
を備え
前記計測手段は、前記複数の時間における前記位置姿勢の情報に基づいて、物体の撮影装置に対する位置姿勢の変化に合わせて、前記複数の画像において前記マッチングを行う画素を選択し、当該選択した画素の画素値の時間変化の情報を用いて前記マッチングを行うことを特徴とする。
本発明によれば、物体の形状に依存せずに距離計測を高精度に行うことが可能となる。
本発明に係るテクスチャパターンの変化の例を示す図である。 一般的なブロックマッチングの方法を説明する図である。 第1の実施形態に係るブロックマッチングの方法を説明する図である。 第1の実施形態に係る情報処理装置の構成を示す図である。 第1の実施形態に係る情報処理装置の処理手順を示すフローチャートである。 第2の実施形態に係るブロックマッチングの方法を説明する図である。 第2の実施形態に係るブロックマッチングの方法を説明するもう1つの図である。 第2の実施形態に係る情報処理装置の構成を示す図である。 第2の実施形態に係る情報処理装置の処理手順を示すフローチャートである。 第3の実施形態に係るブロックマッチングの方法を説明する図である。 第3の実施形態に係る情報処理装置の構成を示す図である。 第3の実施形態に係る情報処理装置の処理手順を示すフローチャートである。 第1の変形例に係る投影装置の構成を示す図である。
以下、図面を参照しながら実施形態を説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
(第1の実施形態)
本実施形態では、時間経過に応じてテクスチャを変化させたテクスチャパターンをプロジェクタにより物体へ投影し、ステレオカメラにより当該物体を撮影する。そして撮影した画像について、画像の画素値の時間変化の情報を用いてマッチングを行うことにより、物体までの距離を計測する例を説明する。テクスチャパターンの変化の一例を、図1のテクスチャパターン110、120、130に示す。テクスチャパターン110、120、130は、時間の変化に応じて、ドットの位置を変えたパターンである。
<一般的なブロックマッチング>
まず、一般的なブロックマッチングについて説明する。一般的なブロックマッチングでは、画像上の2次元の輝度分布の情報に基づいてマッチングを行う。例えば、画像上の物体の各部位を平面のブロックに近似してマッチングを行う。なお、マッチングを正確に行うためには、一定以上の輝度分布の情報が必要であり、そのためには、ブロックのサイズは一定以上に設定する必要がある。しかし、平面のブロックに近似しにくい凹凸の激しい形状を有する物体を計測対象とする場合、距離の計測精度が低下する可能性がある。
図2は、一般的なブロックマッチングに基づく距離の計測方法を説明する図である。図2の211と212は、ステレオカメラで撮影した画像を示す。213は、距離の計測に利用するブロックを示す。214は、ブロックのマッチングを行う範囲を示す。215は、マッチングに利用するブロック213内の画素1つ1つを示す。215の複数の四角形の色は、各画素の輝度値を示す。215が示すように、一般的なブロックマッチングでは、画像のブロック内の2次元座標に含まれる画素(空間的な情報)を手掛かりにマッチングを行う。ここで、「空間的」な情報とは、画像の座標軸(x軸とy軸)方向に分布する情報であることを表す。216は、マッチングに利用するブロック213内の画素の座標を、時間軸(time)と空間軸(space)において表わす図である。216のspace軸は、空間的な2次元のx軸とy軸を簡単のため1本にまとめた軸である。215と216が示すように、一般的なブロックマッチングでは、ある特定の時間の空間的な情報のみを利用して、マッチングを行う。
<一実施形態に係るブロックマッチング>
これに対し、本実施形態では、テクスチャパターンの変化による、画像上の画素の時間的な輝度変化(画素値の変化)の情報を更に使用してマッチングを行う。ここでは、画素の時間的な輝度変化の情報を加えた分、ブロックの空間的なサイズを小さく設定できる。空間的に小さなサイズのブロックであれば、凹凸の激しい形状に対しても、平面の近似が可能になるため、精度を落とすことなく距離を計測できる。
図3は、本実施形態に係るブロックマッチングの方法を説明する図である。図3の221と222は、ステレオカメラで撮影した画像群を示す。221と222は、異なる時刻に撮影した画像を並べた状態を示している。223は、マッチングに利用するブロックを示す。本実施形態におけるブロックは、画像の空間的なサイズを小さくするために、時刻の異なる画像の画素の情報も利用する。本実施形態では、ブロックの空間的なサイズは1画素とする。224は、ブロックのマッチングを行う範囲を示す。225は、マッチングに利用するブロック内の画素1つ1つを示す。226は、マッチングに利用するブロック223内の画素の座標を、時間軸(time)と空間軸(space)について表す。225と226が示すように、本実施形態では、画像上の画素の時間的な輝度変化を利用して、マッチングを行う。
本実施形態では、画像上の画素の時間的な輝度変化の情報を加えてマッチングを行うことで、ブロックの空間的なサイズを小さく設定できる。空間的に小さなサイズのブロックであれば、凹凸の激しい形状に対しても、平面の近似が可能になるため、高精度に距離を計測できる。
<情報処理システムの構成>
次に、本実施形態に係る情報処理システムの構成例について説明する。図4に示すように、情報処理システムは、情報処理装置310と、投影装置410と、撮影装置420,430とを備えている。500は計測対象となる物体である。情報処理装置310は、パターン変化制御部311、画像取得部312、及び計測部313を備えている。投影装置410は、画像の入力に応じてテクスチャパターンを物体500に向けて投影するプロジェクタである。撮影装置420,430は、例えば濃淡画像を撮影する2台のカメラである。本実施形態では、投影装置410と、撮影装置420及び430とは、相対的に位置関係が固定されているものとする。
また、撮影装置420,430の焦点距離や主点位置、レンズ歪パラメータなどの内部パラメータ、撮影装置420と撮影装置430との相対的な位置姿勢を表わす外部パラメータは予め校正しておく。校正方法は公知の手法を用いればよく、非特許文献2に示す方法で校正できる。なお、撮影装置420と撮影装置430とは、水平に並べた状態で配置する。また、以降、撮影装置420を左眼I1の装置、撮影装置430を右眼I2の装置とも表記する。
続いて、情報処理装置310の構成について詳述する。パターン変化制御部311は、物体500に対してテクスチャパターンを投影する投影装置410を制御して、当該テクスチャパターンを時間経過に対して変化させる。
画像取得部312は、複数時刻tにおいて、撮影装置420,430で撮影した画像を取得する。ここで取得した画像は、マッチングにより距離を計測するために利用される。tは、画像を撮影した時刻(t=t0,t1,t2..,)を表わす。各時刻tにおいて、左眼I1の装置で撮影した画像はI1(t)、右目I2の装置で撮影した画像はI2(t)と表わす。また、画像上の画素値は、I1(t,u,v)、I2(t,u,v)と表わす。uとvは、画像上のx軸とy軸についての座標を表わす。座標の原点は画像の左上であり、画像の右向きをx軸、画像の下向きをy軸とする。
計測部313は、画像取得部312により取得した画像群に基づいて、左眼I1の装置により撮影された画像における距離マップD(tn)を計測する。ここで、tnは距離を算出する時刻を表す。また、距離マップD(tn)の各座標(u,v)における距離はD(tn,u,v)と表わす。距離D(tn,u,v)は、左眼I1の装置の光軸の向き(Z軸方向)についての長さを表わす1次元の数値である。計測部313では、まずステレオカメラ(撮影装置420,430)により撮影された画像の視差マップd(tn)を計測した後、視差マップを距離マップに変換する。視差マップd(tn)の各座標(u,v)の視差はd(tn,u,v)と表わす。視差d(tn,u,v)は、左眼I1の装置により撮影された画像上の座標(u,v)と対応する右眼I2の装置により撮影された画像上の座標との差を表わす1次元の数値である。
<処理>
次に、本実施形態に係る情報処理装置が実施する処理について説明する。図5は、本実施形態に係る情報処理装置310が実施する処理の手順を示すフローチャートである。
(ステップS611)
パターン変化制御部311は、投影装置410が物体500に対して投影するテクスチャパターンを制御する。この時、時間経過に応じてテクスチャパターンを変化させる。本実施形態では、テクスチャパターンとして、異なるランダムパターンをN枚用意し、撮影装置420及び撮影装置430の撮影タイミングに合わせて、ランダムパターンを切り替える制御を行う。
ランダムパターンは、例えば、パターンの輝度値(画素値)をランダムに変化させることにより生成する。異なるランダムパターンは、ランダムのシードを変えることにより生成でする。異なるランダムパターンの例が、図1に示した110、120、130である。図1の110、120、130は、パターン上にランダムに配置したドットの位置がそれぞれ異なっている。なお、本実施形態では、白いドットを高輝度に、背景を低輝度にしてランダムパターンを生成する。
(ステップS612)
画像取得部312は、各時刻tにおいて、撮影装置420,430により撮影された画像を取得する。本実施形態では、距離を算出する時刻をtnとして、時刻tnを含めた過去M枚分の画像を取得する。
(ステップS613)
計測部313は、複数の撮影装置420,430によりそれぞれ撮影されて画像取得部312により取得された画像群について、画像間の対応を画像の画素値の時間変化に基づいて探索することにより、左眼I1の画像における距離マップD(tn)を計測する。そして、距離マップD(tn)の計測によって物体500までの距離を計測する。
まず、左眼I1の画像上の各画素を順番に選択する。本実施形態では、ラスタスキャンの要領で、画像上の左上から右下に向けて順番に画素を選択する。以降、選択した画素の座標は(u,v)と表わす。
次に、左眼I1の画像上の座標(u,v)について、対応する右眼I2の画像上の座標を計測する。つまり、視差d(tn,u,v)を計測する。ここでは、視差の値を変数としたマッチングの整合度Eに基づいて、整合度Eが最も高くなる視差の値dを探索する。整合度Eは式(1)に示すSAD(Sum of Absolute Difference)に基づいて計算する。
Figure 0006735615
Figure 0006735615
式(1)の評価値である整合度Eは、左眼I1と右眼I2との間で比較する画素値が整合するほど高い値となる。ここでは、座標 (u,v) を中心とした座標(a,b)と時刻tについて、画素値の整合度の総和を計算する。Wは、マッチングに利用するブロックの空間的なサイズを表す。Mは、マッチングに利用するブロックの時間的なサイズを表す。関数Fは、注目する座標(x,y)と時刻tについて、視差dが示す2つの座標の画素値の差を計量する関数である。Fの詳細は、式(2)に示す。関数Fでは、時刻tの画像I1(t)と画像I2(t)について、座標(x,y)と座標(x-d,y)との画素値の差の絶対値を計量する。
本実施形態では、W=0として、ブロックの空間的なサイズは1画素として計算する。そのため、aとbの値は常に0であり、注目する座標(u,v)の周囲の画素は利用しない。一方、式(1)の1つ目(最も左)の総和(Σ)が示すように、時刻t-(M-1)から時刻tまでのM枚の画像の範囲で、注目する座標(u,v)における画素値を利用する。これにより、時間的な画素値の輝度変化が整合する視差dを与えたときに、整合度Eの値が高くなる。
以上説明した式(1)の整合度Eの計算式に基づいて、所定の範囲(dmin〜dmax)で視差dを変化させ、整合度Eの最も高くなる視差dを選択する。ここで選択したdは、以降、d(tn,u,v)と表記する。なお、dminとdmaxは、ステレオ画像の視差の下限と上限を表わす。dminとdmaxの値は、予め設定する固定値とする。
次に、視差d(tn,u,v)を距離D(tn,u,v)に変換する。撮影装置420と430の相対的な位置姿勢が既知の場合、視差と距離とは相互に変換できる。変換式の例を式(3)に示す。
Figure 0006735615
ここで、関数Aは視差を距離に変換する関数、Bは距離を視差に変換する関数を表わす。fはカメラの焦点距離、Lはステレオカメラ(撮影装置420,430)のベースライン(ステレオカメラの間隔)、Dは距離、dは視差を表わす。このうち、関数Aを利用して、視差d(tn,u,v)を距離D(tn,u,v)に変換する。以上の操作を、選択する画素の座標(u,v)を変えて行うことで、左眼I1の画像における距離マップD(tn)を計測する。
以上述べたように、本実施形態では、画像上の画素の時間的な輝度変化(画素値変化)の情報を加えてマッチングを行うことで、ブロックの空間的なサイズを小さく設定できる。空間的に小さなサイズのブロックであれば、凹凸の激しい形状に対しても、平面の近似が可能になるため、高精度に距離を計測できる。従って、物体の形状に依存せずに距離計測を高精度に行うことが可能となる。
(第2の実施形態)
本実施形態では、動的な条件における距離計測の方法を説明する。ここで、動的な条件とは、撮影装置と物体との相対的な位置姿勢が変化する場合を意味する。具体的には、本実施形態では撮影装置を動かす場合を考える。
動的な条件では、撮影の度に、物体の異なる位置の画素が観測されることになる。本実施形態では、この問題を解決するため、撮影装置の位置姿勢を計測し、画像上で観測される物体の位置の変化をキャンセルするようにマッチングに利用する座標を選択する例を説明する。
図6は、本実施形態のマッチング方法を説明する図である。図6の231と232は、ステレオカメラで撮影した画像を示す。231と232は、異なる時刻で撮影した画像の並べた状態を図示する。233は、マッチングに利用するブロックを示す。本実施形態では、本実施形態では、ブロックの空間的なサイズは1画素とする。234は、ブロックのマッチングを行う範囲を示す。235は、マッチングに利用する画素1つ1つを示す。235の複数の四角形の色は、各画素の輝度値を示す。236は、マッチングに利用するブロック233内の画素の座標を、時間軸(time)と空間軸(space)について表す。235と236が示すように、本実施形態のマッチングでは、単純に同一の座標の画素を選択するわけではなく、各時刻の位置姿勢に基づいて、画像上で観測される物体の位置の変化をキャンセルするように利用する画像上の座標を選択する。
図7は、具体的に、画像群からマッチングに利用する画素の座標を選択する例を表す。237は、撮影した画像群を表す。238は、画像上で観測される物体である。239は、物体の位置の変化をキャンセルするように、マッチングに利用する画素の座標を選択した結果を表す。ここで、物体にはテクスチャパターンを投影しているため、ここで選択した画素は、図6の235が示すように、輝度値には変化があり、この変化を特徴としてマッチングを行う。
<情報処理システムの構成>
次に、本実施形態に係る情報処理システムの構成例について説明する。本実施形態では、第1の実施形態とは情報処理装置の構成が異なる。図において、320は本実施形態の情報処理装置を示す。本実施形態では、投影装置410と撮影装置420,430とは相対的に位置関係が固定されているものとする。情報処理装置320は、パターン変化制御部321、画像取得部322、位置姿勢取得部323、及び計測部324を備えている。
本実施形態では、相対的に固定された投影装置410と撮影装置420,430とのセットを動かしながら物体500を観測する。
パターン変化制御部321及び画像取得部322は、第1の実施形態に係るパターン変化制御部311及び画像取得部312と同様の機能を有する。位置姿勢取得部323は、複数時刻tにおける撮影装置420の位置姿勢を取得する。ここで、位置姿勢は、時刻tnにおける撮影装置420の配置を基準座標系として、各時刻tにおける撮影装置420の位置姿勢を取得する。なお、位置姿勢は、具体的には3行3列の回転行列Rと、3行1列の並進ベクトルTとで構成される。
計測部324は、画像取得部322により取得された画像群に基づいて、左眼I1の画像における距離マップD(tn)を計測する。第1の実施形態とは異なり、計測部324は、視差を計測するためにマッチングを行う際に、それぞれの時刻の撮影装置420の位置姿勢に基づいて、マッチングに利用する画像上の座標を選択する。
<処理>
次に、本実施形態に係る情報処理装置が実施する処理について説明する。図9は、本実施形態に係る情報処理装置320が実施する処理の手順を示すフローチャートである。
本実施形態におけるパターン変化制御(ステップS621)と、画像取得(ステップS622)の処理は、第1の実施形態における処理と同じであるため、説明を省略する。以下、位置姿勢取得(ステップS623)と、計測(ステップS624)の処理を説明する。
(ステップS623)
位置姿勢取得部323は、各時刻tにおける撮影装置420の位置姿勢を取得する。本実施形態では、ICP(iterative closest point)に基づいて、位置姿勢を計測する方法を説明する。
まず、各時刻tにおける距離マップを1時刻だけの画像を利用して計測する。ここで、計測する距離マップをD'(t)と表わす。距離マップD'(t)は、例えば、画像の空間的な情報に基づく、一般的なブロックマッチングに基づいて計算できる。例えば、非特許文献1に記載の方法を利用できる。
次に、基準とする時刻tnでの距離マップD'(tn)に対して、各時刻tの距離マップD'(t)をICP(iterative closest point)を使って合わせることで、時刻tnにおける基準座標系に対する相対的な位置姿勢を計測する。ICP(iterative closest point)に基づく位置姿勢の計測方法は、非特許文献3に基づく方法などが利用できる。ここで、取得した各時刻tの回転行列と並進ベクトルはそれぞれR(t)、T(t)と表わす。
(ステップS624)
計測部324は、画像取得部322により取得された画像群に基づいて、左眼I1の画像における距離マップD(tn)を計測する。まず、左眼I1上の各画素を順番に選択する。本実施形態では、ラスタスキャンの要領で、画像上の左上から右下に向けて順番に選択する。以降、選択した座標は(u,v)と表わす。
次に、左眼I1上の座標(u,v)について、対応する右目I2上の座標を計測する。つまり、視差d(tn,u,v)を計測する。ここでは、視差の値を変えた時のマッチングの整合度Eに基づいて、整合度Eが最も高くなる視差の値dを探索する。整合度Eは式(4)に示すSAD(Sum of Absolute Difference)に基づいて計算する。
Figure 0006735615
Figure 0006735615
Figure 0006735615
Figure 0006735615
Figure 0006735615
Figure 0006735615
式(4)の評価値である整合度Eは、左眼I1と右眼I2との間で比較する画素値が整合するほど高い値となる。ここでは、座標 (u,v) を中心とした空間的な座標の位置(a,b)と時刻tについて、画素の整合度の総和を計算する。Wは、マッチングに利用するブロックの空間的なサイズを表す。Mは、マッチングに利用するブロックの時間的なサイズを表す。関数Gは、注目する座標(x,y)と時刻tについて、視差dが示す2つの座標の画素値の差を計量する関数である。関数Gの詳細は、式(5)に示す。関数Gでは、基準とする時刻tnにおける座標(x,y)と視差dの値に基づいて、時刻tの位置姿勢において選択する座標(Sx,Sy)と視差Sdを計算した後に、画素値を参照する。
具体的な計算を式(6)、式(7)、式(8)、式(9)に示す。ここで、式(7)の関数Oは、座標(x,y)と視差dの値を3次元座標に変換する関数を表わす。関数OのCx,Cyは撮影装置420の画像中心を表わすパラメータ、fは撮影装置420の焦点距離を表わす。Aは、視差を距離に変換する関数であり、詳細は式(3)に示した通りである。式(8)の関数Pは、時刻tの撮影装置420の位置姿勢に3次元座標Kを変換する関数を表わす。式(9)の関数Qは、3次元座標Kを画像上の2次元座標に変換する関数を表わす。関数QのKx、Ky、Kzは、3次元座標Kの各軸の成分を表わす。
式(6)では、関数O及び関数Pに基づいて、注目する座標(x,y)と視差の値から、時刻tにおける3次元座標を計算した後、関数Qに基づいて、時刻tにおける画像上の座標(Sx,Sy)を計算する。また、関数Bに基づいて、時刻tにおける視差Sdを計算する。関数Bは、距離を視差に変換する関数であり、詳細は式(3)に示した通りである。式(6)のPz(t,O(x,y,d))は、関数Pの示す3次元座標のZ軸の成分を表わす。
本実施形態では、W=0と与え、ブロックの空間的なサイズは1画素として計算する。一方、式(4)の1つ目の総和(Σ)が示すように、時刻tn-(M-1)から時刻tnまでのM枚の画像の範囲で、画素値の差を計算する。このとき、画素値の差を計量する2つの座標は、各時刻tの撮影装置420の位置姿勢に応じて選択する。以上説明した式(4)の整合度Eの計算式に基づいて、所定の範囲(dmin〜dmax)で視差dを変化させ、整合度Eが最も高くなる視差dを選択する。選択した視差dはd(t,u,v)と表記する。
次に、視差d(t,u,v)を距離D(t,u,v)に変換する。変換式は、式(3)に示した通りである。以上の操作を、選択する画素の座標(u,v)を変えて行うことで、左眼I1の画像における距離マップD(tn)を計測する。
以上述べたように、本実施形態では、複数時刻における計測対象の物体と撮影装置との相対的な位置姿勢を取得し、取得した位置姿勢に応じてマッチングに利用する画像上の座標を選択する。
これにより、計測対象の物体や撮影装置が動く条件においても、画像上の画素の時間的な輝度変化の情報を利用し、ブロックの空間的なサイズを小さく設定できる。空間的に小さなサイズのブロックであれば、凹凸の激しい形状に対しても、平面の近似が可能になるため、高精度に距離を計測できる。従って、物体の形状に依存せずに距離計測を高精度に行うことが可能となる。
(第3の実施形態)
本実施形態では、動的な条件における距離計測の方法を説明する。本実施形態でも、第2の実施形態と同様に撮影装置を動かす場合を考える。
第1及び第2の実施形態では、マッチングに利用するブロックのサイズを固定としていた。これに対し、本実施形態では、画像上の物体の各部位の動きの大きさに応じて、マッチングに利用するブロックの時空間的な形状(サイズ)を適切に選択する例を説明する。
具体的には、動きの大きい部位については空間的な情報の依存度を上げ、図10の241と251に示すようなブロックの形状(サイズ)を利用する。逆に、動きの小さい部位については時間的な情報の依存度を上げ、図10の243と253に示すような(第1の実施形態で説明した)ブロックの形状(サイズ)を利用する。また、動きの大きさが中程度の部位については、図10の242と252に示すようなブロックの形状(サイズ)を利用する。なお、ブロックの形状は、式(1)における、空間的なサイズWと時間的なサイズMにより調整できる。
<情報処理システムの構成>
次に、本実施形態に係る情報処理システムの構成例について説明する。本実施形態では、第1の実施形態とは情報処理装置の構成が異なる。図11において、330は本実施形態の情報処理装置を示す。本実施形態では、投影装置410と撮影装置420,430とは相対的に位置関係が固定されているものとする。情報処理装置330は、パターン変化制御部331、画像取得部332、時空間情報設定部333、及び計測部334を備えている。
本実施形態では、第2実施形態と同様に、相対的に固定された投影装置410と撮影装置420,430とのセットを動かしながら物体500を観測する場合を考える。パターン変化制御部331及び画像取得部332は、第1の実施形態に係るパターン変化制御部311及び画像取得部312と同様の機能を有する。
時空間情報設定部333は、シーンの動きの大きさに応じて、マッチングに利用するブロックの形状(サイズ)を設定する。具体的には、左眼I1の各座標(u,v)について、ブロックの空間的なサイズWと時間的なサイズMを設定する。
計測部334は、時空間情報設定部333で設定した形状(サイズ)のブロックを利用して、左眼I1の画像における距離マップD(tn)を計測する。
<処理>
次に、本実施形態に係る情報処理装置が実施する処理について説明する。図12は、本実施形態に係る情報処理装置330が実施する処理の手順を示すフローチャートである。
本実施形態におけるパターン変化制御(ステップS631)と、画像取得(ステップS632)の処理は、第1の実施形態における処理と同じであるため、説明を省略する。以下、時空間情報設定(ステップS633)と、計測(ステップS634)の処理を説明する。
(ステップS633)
時空間情報設定部333は、シーンの動きの大きさに応じて、マッチングに利用するブロックの形状(サイズ)を設定する。具体的には、左眼I1の各座標(u,v)について、ブロックの空間的なサイズWと時間的なサイズMを設定する。本実施形態では、各時刻tの距離マップに基づいて各座標(u,v)における動きの大きさを推定する。
まず、各時刻tにおける距離マップを1時刻だけの画像を利用して計測する。ここで、計測する距離マップをD'(t)と表わす。距離マップD'(t)は、例えば、画像の空間的な情報に基づく、一般的なブロックマッチングに基づいて計算できる。例えば、非特許文献1に基づく方法を利用できる。
次に、距離マップD'(t)とD'(t-1)の距離値の差を表わすマップH(t)を計量する。左眼I1の各座標(u,v)における距離値の差はH(t,u,v)と表わし、式(10)によって計算する。
Figure 0006735615
次に、左眼I1の各座標(u,v)について、ブロックの空間的なサイズWと時間的なサイズMを設定する。左眼I1の各座標(u,v)におけるサイズは、それぞれW(u,v)とM(u,v)と表わし、式(11)と式(12)によって計算する。
Figure 0006735615
Figure 0006735615
式(11)のWmaxは、マッチングブロックの空間的なサイズを表わす上限である。kは、動きの大きさに対する敏感度を表わす係数であり、kの値が大きいほど動きに対して空間的に大きなブロックを設定する。式(12)のMmaxは、マッチングブロックの時間的なサイズを表わす上限である。sは、動きの大きさに対する敏感度を表わす係数であり、sの値が大きいほど動きに対して時間的に小さいブロックを設定する。関数
Figure 0006735615
は、x以下の最大整数を表す関数である。例えば
Figure 0006735615
はMmax-s・H(t,u,v)以下の最大整数を示す。なお、Wmax、Mmax、k、sの値は、予め設定する固定値とする。
(ステップS634)
計測部334は、時空間情報設定部333で設定したブロックの形状(サイズ)を利用して、左眼I1の画像における距離マップD(tn)を計測する。ここでの処理の内容は、第1の実施形態と同様である。ただし、式(1)を使ってマッチングを行う際に、時空間情報設定部333で設定したブロックの形状(サイズ)を利用する。具体的には、式(1)のWとMの値に、式(11)と式(12)で計算したW(u,v)とM(u,v)の値を設定する。
以上述べたように、本実施形態では、画像上の物体の各部位の動きの大きさに応じて、マッチングに利用するブロックの時空間的な形状(サイズ)を適切に選択する。これにより、動きの大小によらず安定して、計測対象の物体までの距離を高精度に計測することが可能となる。
[第1の変形例:装置構成のバリエーション]
本変形例では、テクスチャパターンを変化させて投影するための投影装置のバリエーションについて説明する。第1〜第3の実施形態では、投影装置は、画像の入力に応じてテクスチャパターンを投影するプロジェクタである。具体的には、液晶プロジェクタやDMD(Digital Mirror Device)プロジェクタを用いる。ここでは、入力する画像を切り替えることで、異なるテクスチャパターンを投影する。ただし、本発明における投影装置は、計測対象となる物体の各部位で観測される輝度値を変化できる装置であれば、どのような装置でも良い。
ここで、図13の710、720、730は、投影装置のバリエーションを示す。ここでは、光源701と、光の入射に対してテクスチャパターンを生成する光学素子702とを用いて、光源701のオンオフ、光源701と光学素子702との相対的な位置や向きを変えることで、テクスチャパターンを変化させて投影する。
例えば、投影装置710に示すように、光源701と光学素子702とのセットを複数備え、発光する光源を切り替えることで投影するテクスチャパターンを変化させても良い。光源701は光を発光する装置であれば、どのような装置でも良い。光学素子702は、光の入力に対してテクスチャパターンを生成する素子であれば、どのような素子でも良い。具体的に、光源701と光学素子702の例としては、LED(Light Emitting Diode)の光源とテクスチャパターンのマスクでも良いし、レーザと回折光学素子(DOE:Diffractive Optical Eleme)でも良い。
また、投影装置720に示すように、複数の光源701と1つの光学素子702とを備え、光学素子702に入射する入射光の位置及び方向を変えることで、投影するテクスチャパターンを変化させても良い。また、投影装置730に示すように、ミラー703を備え、光学素子702に入射する光の位置及び方向を変えることで、投影されるテクスチャパターンを変化させても良い。また、光源701や光学素子702を物理的に動かすことにより、投影するテクスチャパターンを変化させても良い。投影装置自体を動かすことにより、投影するテクスチャパターンを変化させても良い。また、光源701の発光のオンオフを変化させることにより、投影するテクスチャパターンを変化させても良い。光源701の波長を変化させることにより、投影するテクスチャパターンを変化させても良い。さらに、これらを組み合わせて投影するテクスチャパターンを変化させても良い。
また、光源701と光学素子702の種類として、レーザと回折光学素子(DOE)を用いる場合、レーザの光の周波数を変えることにより、投影するテクスチャパターンを変化させても良い。周波数を変えると、回折光学素子(DOE)における回折の角度が変化し、テクスチャパターンの形状を変化させることができる。
投影するテクスチャパターンの画像を切り替える方法や、複数の投影モジュールを切り替える方法によれば、複数種類のテクスチャパターンを投影できる。この場合、テクスチャパターンの各部位の輝度値の時間変化を任意に設定できる。これにより、例えば、M系列などの擬似乱数に基づいて輝度値の時間変化をユニークに設定することで、マッチングの間違いを低減できる。
[第2の変形例:テクスチャパターンのバリエーション]
第1〜第3の実施形態では、テクスチャパターンの例として、図1の110、120、130に示すようなランダムパターンを利用している。ただし、本発明におけるテクスチャパターンは、空間的に輝度値の変化のあるパターンであれば、どのようなパターンでも良い。テクスチャパターンの空間的な輝度の分布ができるだけユニークになるように、M系列などの疑似乱数を利用して設定しても良い。図1に示す2値のパターンではなく、多値やカラーのパターンを利用しても良い。また、投影する光の波長は、可視光でもよいし、赤外光でも良い。1つの投影装置からパターンを投影しても良いし、同時に複数の投影装置を起動させてパターンを投影しても良い。
また、パターン変化制御部311,321,331は、計測対象となる物体の表面で観測される輝度値が変化する制御が可能であれば、どのような制御を行っても良い。具体的には、テクスチャパターンの模様の形状、模様の配置、投影の位置や角度、色、輝度値の少なくとも1つの要素を時間的に変化させる制御であれば、どのような制御を行っても良い。ランダムドットの配置を変えても良いし、ドット以外の模様に形状を変えても良い。投影装置を動かし、投影位置を変えることで、パターンを変化させても良い。
[第3の変形例:移動撮影におけるパターン変化制御なしの特殊例]
第2の実施形態では、パターン変化制御部321は計測対象となる物体500に投影させるテクスチャパターンを、時間経過に対して変化させていた。これは、計測対象となる物体500の各部位に投影される光を変化させることが目的であった。第2の実施形態では、この変化に基づいてマッチングを行っていた。
ただし、第2の実施形態のように、撮影装置420,430と投影装置410とが一体であり、さらに物体500と投影装置410との相対的な位置姿勢が変化する場合、1種類のテクスチャパターンであっても物体500の各部位に投影される光は変化する。この原理を利用する場合、第2の実施形態に示したようなパターン変化制御部はなくても良い。
[第4の変形例:位置姿勢取得部の処理のバリエーション]
位置姿勢取得部323は、物体500と撮影装置420との相対的な位置姿勢を取得する。第2の実施形態では、距離マップを利用したICP(iterative closest point)に基づく方法を説明した。ただし、位置姿勢の取得方法は、これ以外の方法でも良い。撮影装置に姿勢センサや位置センサを備えて、その計測値から取得しても良い。撮影装置をロボットで制御して、その制御値から取得しても良い。また、シーン中にマーカを配置して、それを撮影した画像情報に基づいて計測しても良い。また、非特許文献3に示されるような、SLAM (Simultaneous Localization and Mapping) を利用した方法により計測しても良い。
また、第2の実施形態では、撮影装置420を動かす場合を想定した。ただし、本発明の方法は、物体500と撮影装置420との相対的な位置姿勢を取得可能であれば、どのような動きの条件でも良い。物体500を動かしても良いし、物体500と撮影装置420の両方を動かしても良い。
[第5の変形例:時空間情報設定部の処理のバリエーション]
時空間情報設定部333は、シーンの動きの大きさに応じて、マッチングに利用するブロックの形状を設定する。第3の実施形態では、シーンの動きの大きさを、距離マップの時間変化に基づいて設定する。ただし、動きの大きさを計量する方法は、これ以外の方法でも良い。物体500や撮影装置に、動きセンサを取りつけて、その数値に応じて動きの大きさを設定しても良いし、ユーザが各時刻の動きの大きさを設定しても良い。また、投影装置のテクスチャパターンとは異なる波長域を観測する撮影装置を別途用意し、その画像の画素の輝度値の時間変化に基づいて設定しても良い。また、画像上の各座標(u,v)について動きの大きさを設定しても良いし、画像全体で1つの動きの大きさを設定しても良い。
また、時間的なサイズWと時間的なサイズMを変えた、複数種類のブロックの形状を用意し、各ブロックについてそれぞれ視差を変えて整合度を計算した際に、整合度の高くなるブロックの形状を採用して視差を推定しても良い。この場合、時空間情報設定部333では、ブロックの形状を設定する必要はない。
また、時空間情報の重要度を、サイズではなく、各座標の重要度として設定しても良い。具体的には、シーンの動きが大きい場合には、空間的には重みを変えず、基準時刻Tnから時間的に離れた画像上の座標の重要度を低く設定する。逆に、シーンの動きが小さい場合には、時間的には重みを変えず、注目する座標(u,v)から空間的に離れた座標の重要度を低く設定する。計測部334は、設定した重要度に基づいて、式(2)や式(5)の画素値の差に重みをかけ合わせることで、整合度を計算する。
[第6の変形例:距離計測のバリエーション]
第1〜第3の実施形態では、計測部313,324,334は、視差を変数として、整合度Eを最大にするような視差を探索的に計測する例を説明した。これに対し、視差と距離は相互に変換できるため、距離を変数として計測しても良い。本発明における計測部は、画像間で整合する視差や距離を計測できる方法であれば、どのような方法で計測を行っても良い。非特許文献4に示すようなランダム性を利用する視差の推定方法でも良いし、BP(Belief Propagation)やGC(Graph Cut)などの最適化を利用する計測方法を利用しても良い。計測部が計億する距離情報は、視差の値、距離の値、三次元座標の値のいずれかであってもよい。
また、第1〜第3の実施形態では、整合度の計算方法として、SADを利用する方法を説明した。ただし、整合度は、比較する画像上の領域が整合するほど、評価値が高くなるような計算方法であれば、どのような方法でも良い。SSD(Sum of Squared Difference)を利用しても良いし、NCC(Normalized Cross-Correlation)を利用しても良い。
[第7の変形例:時刻に関するバリエーション]
第1〜第3の実施形態では、距離を計測する時刻tnを基準として、時刻tn-(M-1)から時刻tnまでのM枚の画像を利用して、物体までの距離を計測していた。ただし、選択する時刻は、時間順にすべて利用する必要はない。とびとびの時刻の画像を選択しても良いし、離れた時刻の画像を選択しても良い。例えば、白トビや欠損の多い画像を取り除いて、画像を選択しても良い。または、いくつかの画像選択の組み合わせを変えて、マッチングの整合度が高くなる画像を選択しても良い。
また、距離を計測する時刻tnは、任意の時刻である。そのため、例えば、撮影した画像のすべての時刻について、距離マップを計測しても良い。
[第8の変形例:カメラ台数のバリエーション]
第1〜第3の実施形態では、2台の撮影装置420と430の間のマッチングによって距離を計測していた。しかし、本発明に係る方法では、撮影装置の台数は1台でも良い。この場合、撮影装置420の画像と投影装置410から投影するテクスチャパターンとが整合する距離をマッチングによって計測する。すなわち、撮影装置420の画像と投影装置410から投影するテクスチャパターンとの間の対応を画素値の時間変化に基づいて探索することにより、物体までの距離計測を実行する。また、撮影装置の2台より多くても良い。この場合、複数の視点の画像間で整合するような距離をマッチングによって計測する。
[第9の変形例:出力のバリエーション]
第1〜第3の実施形態では、左眼I1(撮影装置420)の視点を基準として、距離マップを計測していた。ただし、距離マップを計測する視点は、何れの視点でも良い。右眼I2(撮影装置430)の視点でも良いし、任意に設定する視点でも良い。また、本発明に係る出力結果は、視差でも良いし、距離値をさらに3次元位置に変換して出力した内容であっても良い。
[第10の変形例:出力結果の利用先について]
本発明によって出力した距離マップは、任意の用途に利用可能である。例えば、物体の認識、検査、位置姿勢の計測、モデリング、人体のジェスチャ認識、医療における診断、等の用途に利用しても良い。
<効果>
第1の実施形態では、画像上の画素の時間的な輝度変化の情報を加えてマッチングを行うことで、ブロックの空間的なサイズを小さく設定できる。空間的に小さなサイズのブロックであれば、凹凸の激しい形状に対しても、平面の近似が可能になるため、高精度に距離を計測できる。
第2の実施形態では、複数時刻における物体と撮影装置との相対的な位置姿勢を取得し、位置姿勢に応じてマッチングに利用する画像上の座標を選択する。これにより、物体や撮影装置が動く条件においても、画像上の画素の時間的な輝度変化の情報を利用し、ブロックの空間的なサイズを小さく設定できる。空間的に小さなサイズのブロックであれば、凹凸の激しい形状に対しても、平面の近似が可能になるため、高精度に距離を計測できる。
第3の実施形態では、画像上の物体の各部位の動きの大きさに応じて、マッチングに利用するブロックの時空間における形状(サイズ)を適切に選択する。これにより、動きの大小によらず安定して、物体の距離を高精度に計測することができる。
第1の変形例では、テクスチャパターンを変化させて投影する他の方法を説明した。特に、投影するテクスチャパターンの画像を切り替える方法や、複数の投影モジュールを切り替える方法によれば、複数種類のテクスチャパターンを投影できる。この場合、テクスチャパターンの各部位の輝度値の時間変化を任意にユニークに設定できるため、マッチングの間違いを低減できる。
<定義>
本発明において、物体に投影するテクスチャパターンは、空間的に輝度値の変化のあるパターンであれば、どのようなパターンでも良い。ランダムドットでも良いし、多値の輝度変化を持つパターンでも良い。
計測部は、撮影装置が撮影した画像間の対応を画素値の時間変化に基づいて探索することで物体への距離に関する情報を計測する方法であれば、どのような方法でも良い。画素値の時間変化に基づいて、ステレオの画像間でマッチングを行い整合度の高くなる距離値を探索する方法でも良いし、BP(Belief Propagation)などの最適化を適用して距離値を推定しても良い。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
310:情報処理装置、311:パターン変化制御部、312:画像処理部、313:計測部、410:投影装置、420,430:撮影装置、500:物体

Claims (11)

  1. 投影装置が物体に投影するパターンを制御する制御手段と、
    前記パターンが投影された前記物体を撮影する複数の撮影装置により複数の時間にそれぞれ撮影された複数の画像を取得する取得手段と、
    前記複数の撮影装置によりそれぞれ撮影された画像間において、画像の画素値の時間変化の情報を用いてマッチングを行うことにより、前記物体の距離情報を計測する計測手段と、
    前記物体と撮影装置との間の複数の時間における相対的な位置姿勢の情報を取得する位置姿勢取得手段と、
    を備え
    前記計測手段は、前記複数の時間における前記位置姿勢の情報に基づいて、物体の撮影装置に対する位置姿勢の変化に合わせて、前記複数の画像において前記マッチングを行う画素を選択し、当該選択した画素の画素値の時間変化の情報を用いて前記マッチングを行うことを特徴とする情報処理装置。
  2. 画像中における前記物体の動きの大きさに基づいて、前記マッチングに用いるブロックの時空間的な形状を設定する設定手段をさらに備え、
    前記計測手段は、前記設定手段により設定された形状のブロックに基づいて前記画像の画素値の時間変化の情報を用いた前記マッチングを行うことにより、前記距離情報を計測することを特徴とする請求項1に記載の情報処理装置。
  3. 投影装置が物体に投影するパターンを制御する制御手段と、
    前記パターンが投影された前記物体を撮影する複数の撮影装置により複数の時間にそれぞれ撮影された複数の画像を取得する取得手段と、
    前記複数の撮影装置によりそれぞれ撮影された画像間において、画像の画素値の時間変化の情報を用いてマッチングを行うことにより、前記物体の距離情報を計測する計測手段と、を備え、
    前記計測手段は、前記画像中における前記物体の動きが大きいほど、画素の画素値の時間変化の情報を用いることを抑制して、前記複数の撮影装置によりそれぞれ撮影された画像間においてマッチングを行うことにより、前記物体の距離情報を計測することを特徴とする情報処理装置。
  4. 前記設定手段は、前記物体の動きが小さいほど前記ブロックの時間的なサイズを大きく設定することを特徴とする請求項2に記載の情報処理装置。
  5. 前記投影装置は、1つ以上の光源と、光源からの光の入射に応じてパターンを生成する1つ以上の光学素子とを備え、
    前記制御手段は、前記光学素子への前記光源からの入射光の位置及び方向と、前記光源の発光のオンオフと、前記光源の波長とのうち少なくとも何れか1つを変化させることにより、前記パターンを変化させることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  6. 前記制御手段は、前記投影装置が前記物体に投影するパターンを変化させることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  7. 前記パターンはテクスチャパターンであることを特徴とする請求項1乃至の何れか1項に記載の情報処理装置。
  8. 前記距離情報は、視差の値、距離の値、三次元座標の値のいずれかであることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。
  9. 情報処理装置の制御方法であって、
    投影装置が物体に投影するパターンを制御する制御工程と、
    前記パターンが投影された前記物体を撮影する複数の撮影装置により複数の時間にそれぞれ撮影された複数の画像を取得する取得工程と、
    前記複数の撮影装置によりそれぞれ撮影された画像間において、画像の画素値の時間変化の情報を用いてマッチングを行うことにより、前記物体の距離情報を計測する計測工程と、
    前記物体と撮影装置との間の複数の時間における相対的な位置姿勢の情報を取得する位置姿勢取得工程と、
    を有し、
    前記計測工程では、前記複数の時間における前記位置姿勢の情報に基づいて、物体の撮影装置に対する位置姿勢の変化に合わせて、前記複数の画像において前記マッチングを行う画素を選択し、当該選択した画素の画素値の時間変化の情報を用いて前記マッチングを行うることを特徴とする情報処理装置の制御方法。
  10. 情報処理装置の制御方法であって、
    投影装置が物体に投影するパターンを制御する制御工程と、
    前記パターンが投影された前記物体を撮影する複数の撮影装置により複数の時間にそれぞれ撮影された複数の画像を取得する取得工程と、
    前記複数の撮影装置によりそれぞれ撮影された画像間において、画像の画素値の時間変化の情報を用いてマッチングを行うことにより、前記物体の距離情報を計測する計測工程と、を有し、
    前記計測工程では、前記画像中における前記物体の動きが大きいほど、画素の画素値の時間変化の情報を用いることを抑制して、前記複数の撮影装置によりそれぞれ撮影された画像間においてマッチングを行うことにより、前記物体の距離情報を計測することを特徴とする情報処理装置の制御方法。
  11. コンピュータを、請求項1乃至の何れか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2016129134A 2016-06-29 2016-06-29 情報処理装置、情報処理装置の制御方法およびプログラム Active JP6735615B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016129134A JP6735615B2 (ja) 2016-06-29 2016-06-29 情報処理装置、情報処理装置の制御方法およびプログラム
US15/623,615 US10713810B2 (en) 2016-06-29 2017-06-15 Information processing apparatus, method of controlling information processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016129134A JP6735615B2 (ja) 2016-06-29 2016-06-29 情報処理装置、情報処理装置の制御方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2018004357A JP2018004357A (ja) 2018-01-11
JP2018004357A5 JP2018004357A5 (ja) 2019-08-08
JP6735615B2 true JP6735615B2 (ja) 2020-08-05

Family

ID=60807645

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016129134A Active JP6735615B2 (ja) 2016-06-29 2016-06-29 情報処理装置、情報処理装置の制御方法およびプログラム

Country Status (2)

Country Link
US (1) US10713810B2 (ja)
JP (1) JP6735615B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224760A1 (ja) * 2021-04-19 2022-10-27 キヤノン株式会社 3次元計測装置、システム及び物品の製造方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6508617B2 (ja) * 2016-04-15 2019-05-08 京セラドキュメントソリューションズ株式会社 画像読取装置、画像読取方法及び画像読取プログラム
EP3264360A1 (en) * 2016-06-28 2018-01-03 Dassault Systèmes Dynamical camera calibration
US11727597B2 (en) * 2018-12-21 2023-08-15 Sony Group Corporation Calibrating volumetric rig with structured light
US11830223B2 (en) * 2019-04-08 2023-11-28 Nec Corporation Camera calibration apparatus, camera calibration method, and nontransitory computer readable medium storing program
TWI716111B (zh) * 2019-09-23 2021-01-11 大陸商北京集創北方科技股份有限公司 圖像採集品質評估方法及系統
KR102248248B1 (ko) * 2019-11-06 2021-05-04 주식회사 메디트 물체 표면의 3d 데이터를 획득하는 구조광 투영 광학 시스템

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1042273A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 三次元位置認識利用システム
JP3991501B2 (ja) * 1999-04-16 2007-10-17 コニカミノルタセンシング株式会社 3次元入力装置
JP2001338280A (ja) * 2000-05-30 2001-12-07 Nippon Telegr & Teleph Corp <Ntt> 3次元空間情報入力装置
JP2006098252A (ja) * 2004-09-30 2006-04-13 Brother Ind Ltd 3次元情報取得方法
US8964189B2 (en) * 2010-08-19 2015-02-24 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
WO2012046270A1 (en) * 2010-10-05 2012-04-12 Empire Technology Development Llc Generation of depth data based on spatial light pattern
JP5822463B2 (ja) * 2010-12-28 2015-11-24 キヤノン株式会社 三次元計測装置、三次元計測方法、およびプログラム
CA2780595A1 (en) * 2011-06-22 2012-12-22 Roman Palenychka Method and multi-scale attention system for spatiotemporal change determination and object detection
JP5986364B2 (ja) * 2011-10-17 2016-09-06 キヤノン株式会社 三次元形状計測装置、三次元形状計測装置の制御方法、およびプログラム
US9600744B2 (en) * 2012-04-24 2017-03-21 Stmicroelectronics S.R.L. Adaptive interest rate control for visual search
JP6363863B2 (ja) * 2014-04-15 2018-07-25 キヤノン株式会社 情報処理装置および情報処理方法
JP6420572B2 (ja) * 2014-06-13 2018-11-07 キヤノン株式会社 計測装置およびその方法
JP2016004382A (ja) * 2014-06-16 2016-01-12 トヨタ自動車株式会社 動き情報推定装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022224760A1 (ja) * 2021-04-19 2022-10-27 キヤノン株式会社 3次元計測装置、システム及び物品の製造方法

Also Published As

Publication number Publication date
US10713810B2 (en) 2020-07-14
US20180005405A1 (en) 2018-01-04
JP2018004357A (ja) 2018-01-11

Similar Documents

Publication Publication Date Title
JP6735615B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP6465789B2 (ja) デプスカメラの内部パラメータを算出するプログラム、装置及び方法
US10979694B2 (en) Information processing apparatus, method, and storage medium
JP5132832B1 (ja) 計測装置および情報処理装置
TWI480832B (zh) 用於三維感測的參考圖像技術
JP6363863B2 (ja) 情報処理装置および情報処理方法
JP6092530B2 (ja) 画像処理装置、画像処理方法
JP6786225B2 (ja) 画像処理装置、撮像装置および画像処理プログラム
JP2011123071A (ja) 撮像装置、オクルージョン領域の探索方法、及びプログラム
US9704255B2 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
García-Moreno et al. LIDAR and panoramic camera extrinsic calibration approach using a pattern plane
JP6589636B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
WO2004044522A1 (ja) 3次元形状計測方法およびその装置
JP6282377B2 (ja) 3次元形状計測システムおよびその計測方法
JP2022089269A (ja) キャリブレーション装置およびキャリブレーション方法
JP6969121B2 (ja) 撮像システム、画像処理装置および画像処理プログラム
JP2015049200A (ja) 計測装置、方法及びプログラム
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
JP2015059849A (ja) 色と三次元形状の計測方法及び装置
JP2018044942A (ja) カメラパラメータ算出装置、カメラパラメータ算出方法、プログラム、及び記録媒体
US20220358678A1 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
EP3988895B1 (en) Compensation of three-dimensional measuring instrument having an autofocus camera
KR101857977B1 (ko) 플래놉틱 카메라와 깊이 카메라를 결합한 영상 장치 및 영상 처리 방법
JP7369588B2 (ja) 撮像機器及び撮像方法
Sargeant et al. A method to achieve large volume, high accuracy photogrammetric measurements through the use of an actively deformable sensor mounting platform

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190625

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200615

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200714

R151 Written notification of patent or utility model registration

Ref document number: 6735615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151