JP2019500613A - 奥行き知覚3眼カメラシステム - Google Patents

奥行き知覚3眼カメラシステム Download PDF

Info

Publication number
JP2019500613A
JP2019500613A JP2018533803A JP2018533803A JP2019500613A JP 2019500613 A JP2019500613 A JP 2019500613A JP 2018533803 A JP2018533803 A JP 2018533803A JP 2018533803 A JP2018533803 A JP 2018533803A JP 2019500613 A JP2019500613 A JP 2019500613A
Authority
JP
Japan
Prior art keywords
camera
image
feature point
depth
difference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018533803A
Other languages
English (en)
Other versions
JP6681470B2 (ja
Inventor
サルバグニーニ ピエトロ
サルバグニーニ ピエトロ
ストッパ ミシェル
ストッパ ミシェル
ラフィ アッバース
ラフィ アッバース
Original Assignee
アキフィ,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アキフィ,インコーポレイティド filed Critical アキフィ,インコーポレイティド
Publication of JP2019500613A publication Critical patent/JP2019500613A/ja
Application granted granted Critical
Publication of JP6681470B2 publication Critical patent/JP6681470B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/001Constructional or mechanical details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Vascular Medicine (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Abstract

第1カメラ、第2カメラ、及び第3カメラを含む奥行きカメラシステムのキャリブレーションずれを検出する方法であって、前記第1カメラ、第2カメラ、及び第3カメラは、重畳視野を所定の方向に有し、前記方法では:特徴点を前記第1カメラで撮影される第1画像中に検出し;前記特徴点を前記第2カメラで撮影される第2画像中に検出し;前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず;第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及びキャリブレーションパラメータに従って特定し;第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記キャリブレーションパラメータに従って特定し;前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算する。

Description

本発明の実施形態の態様は、奥行きカメラシステムに関するものである。更に詳細には、本発明の実施形態の幾つかの態様は、複数台カメラを含む奥行きカメラシステム、及びキャリブレーションずれ(decalibration)を検出するシステム及び方法に関するものである。
良好な品質の高解像度奥行きデータを生成する必要性が、モバイル機器、家庭用娯楽機器、ゲーム機、ロボット、ドローン、拡張現実又は仮想現実(AR/VR)システム、自動車、セキュリティ機器などを含む多種多様な電子機器に関して益々大きくなっている。奥行きデータは、消費者市場及び工業市場の多くの撮像用途及び検出用途に使用される。
奥行き知覚カメラシステムを使用して、シーンを撮影し、シーンにおける各ピクセルの奥行き(又は、「z距離」)を推定することにより、「奥行きマップ」を生成することができる。一般には、奥行きカメラシステム(又は、「奥行きカメラ」)は、受動型奥行きカメラ及び能動型奥行きカメラに分類することができる。
能動型奥行きカメラは普通、光をシーンに放出する能動型照明部品又はプロジェクタを含む。広義には、これらのカメラは:変調照明拡散光をシーンに放出する能動型奥行き「飛行時間」型カメラ;及び照明パターンを放出してパターンをシーンに投影する能動型奥行き「構造化光」カメラを含む。当該パターンを使用して、一般的事例の視差を判定し(例えば、凹凸を凹凸の小さい物体に追加することにより、又は視差の判定結果を最適化することにより)、当該パターンにより、周囲照明光が弱い状態における(例えば、暗い環境における)操作も可能にする。受動型奥行きカメラシステムには、このような能動型照明部品が無い。
幾つかの奥行きカメラシステムはステレオビジョン技術を利用し、ステレオビジョン技術では、奥行きデータが、複数台カメラで撮影される画像中に検出される照合特徴点間の視差に基づいて算出される。2台以上のカメラを含む画像取得システムを使用することにより、投影パターンの偏りに対する堅牢性を高めることができ、更には、周囲照明光が強い状況における操作を可能にする(例えば、この状況では、能動型照明部品により投影されるパターンは、周囲光よりも明るい光を受光する場合に検出することができない)。
幾つかの奥行きカメラシステムはステレオビジョン技術を利用し、ステレオビジョン技術では、奥行きデータが、1台のカメラで撮影される画像中に検出される照合パターン特徴点間の視差、及び所謂構造化光照明法で投影される符号化パターンに基づいて算出される。以下に続く文章では、主題は、普及しているマルチカメラステレオシステムの観点から記載され、構造化光照明法は、システムの下位概念に相当すると考えることができる。
奥行き情報を算出すると、奥行きカメラシステムは、以下に更に詳細に説明されるように、既知のキャリブレーションパラメータを使用する。キャリブレーションパラメータは、奥行き計算が、これらのカメラの間の距離、及び互いに対するこれらのカメラの向き(例えば、光軸がなす角度、又はカメラの光学平面がなす角度)の影響を受けることを示している。
本発明の実施形態の態様は、複数台カメラを含む奥行きカメラシステムに関するものである。本発明の実施形態の態様は更に、複数台カメラのキャリブレーションずれが発生している状態を自動的に検出するシステム及び方法に関するものである。
本発明の1つの実施形態によれば、第1カメラ、第2カメラ、及び第3カメラを含む奥行きカメラシステム又は奥行きカラーカメラシステムのキャリブレーションずれを検出する方法であって、前記第1カメラ、第2カメラ、及び第3カメラは、実質的に重畳する重畳視野を所定の方向に有し、前記方法では:特徴点を前記第1カメラで撮影される第1画像中に検出し;前記特徴点を前記第2カメラで撮影される第2画像中に検出し;前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず;第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及び複数のキャリブレーションパラメータに従って特定し;第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記複数のキャリブレーションパラメータに従って特定し;前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算し;前記差異が閾値を上回ると、前記奥行きカメラシステムのキャリブレーションずれが発生していることを示す通知を出力する。
前記差異は、第1差異及び第2差異を含むことができ、前記差異を計算する際に:前記第2画像中の前記特徴点の前記検出位置と前記第1共役エピポーラ線との第1差異を計算し;前記第2画像中の前記特徴点の前記検出位置と前記第2共役エピポーラ線との第2差異を計算する。
前記方法では更に、前記第1共役エピポーラ線と前記第2共役エピポーラ線の交点の位置を計算し、前記差異を計算する際に、前記第2画像中の前記特徴点の前記検出位置と前記交点の前記位置との間の距離を計算する。
前記第1カメラ及び前記第2カメラは、不可視光を撮影するように構成することができ、前記第3カメラは、可視光を撮影するように構成することができる。
前記方法では更に、前記第1カメラと前記第2カメラとの間に配置される投影装置により、不可視光凹凸パターンを前記重畳視野の方向に放出する。
本発明の1つの実施形態によれば、奥行き知覚カメラシステムは:赤外線画像を撮影するように構成される第1カメラと;第2カメラと;前記第1カメラ及び第2カメラと同一直線上に位置しないように配置される第3カメラであって、前記第1カメラ、第2カメラ、及び第3カメラが、実質的に重畳する重畳視野を所定の方向に有し、前記第2カメラ及び第3カメラのうち少なくとも一方のカメラが、可視光画像を撮影するように構成され、前記第3カメラが、前記第1カメラ及び第2カメラから等距離に位置し、前記第3カメラが、前記第1カメラの解像度よりも解像度倍率rだけ高い解像度を有する、前記第3カメラと;画像を前記第1カメラ、前記第2カメラ、及び前記第3カメラから受信するように構成される画像信号プロセッサと、を含み、前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラのキャリブレーションずれを検出するように構成され、第1基線は、前記第2カメラと前記第1カメラとの間に延び、第2基線は、前記第2カメラと前記第3カメラとの間に延び、前記第1基線と前記第2基線とがなす角度αは略αoptimalであり、以下の関係
が成り立つ。
前記解像度倍率は1.0とすることができ、前記角度αは、26.0度〜44.3度の範囲とすることができる。前記角度αは、28.9度〜41.9度の範囲とすることができる。前記角度αは約35.6度とすることができる。
前記解像度倍率は2.0とすることができ、前記角度αは、21.4度〜53.4度の範囲とすることができる。
前記第1カメラ及び前記第2カメラは、不可視光を撮影するように構成することができ、前記第3カメラは、可視光を撮影するように構成することができる。
前記奥行き知覚カメラシステムは更に、前記第1カメラと前記第2カメラとの間に配置される投影装置を備え、前記投影装置は、不可視光凹凸パターンを前記重畳視野の方向に放出するように構成される。
前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラの前記キャリブレーションずれを:特徴点を前記第1カメラで撮影される第1画像中に検出し;前記特徴点を前記第2カメラで撮影される第2画像中に検出し;前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず;第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及び複数のキャリブレーションパラメータに従って特定し;第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記複数のキャリブレーションパラメータに従って特定し;前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算し;前記差異が閾値を上回ると、前記奥行きカメラシステムのキャリブレーションずれが発生していることを示す通知を出力することにより検出するように構成することができる。
前記差異は、第1差異及び第2差異を含むことができ、前記画像信号プロセッサは前記差異を:前記第2画像中の前記特徴点の前記検出位置と前記第1共役エピポーラ線との第1差異を計算し;前記第2画像中の前記特徴点の前記検出位置と前記第2共役エピポーラ線との第2差異を計算することにより計算するように構成することができる。
前記画像信号プロセッサは更に:前記第1共役エピポーラ線と前記第2共役エピポーラ線との交点の位置を計算し;前記差異を、前記第2画像中の前記特徴点の前記検出位置と前記交点の前記位置との間の距離を計算することにより計算するように構成することができる。
本発明の1つの実施形態によれば、モバイル機器は:ディスプレイと;赤外線画像を撮影するように構成される第1カメラであって、前記第1カメラが前記ディスプレイの第1辺縁に隣接する、前記第1カメラと;前記ディスプレイの前記第1辺縁に隣接する第2カメラと;前記第1カメラ及び第2カメラと同一直線上に位置しないように、かつ前記ディスプレイの第2辺縁に隣接するように配置される第3カメラであって、前記第1カメラ、第2カメラ、及び第3カメラが、実質的に重畳する重畳視野を有し、前記第2カメラ及び第3カメラのうち少なくとも一方のカメラが、可視光画像を撮影するように構成され、前記第3カメラが、前記第1カメラ及び第2カメラから等距離に位置し、前記第3カメラが、前記第1カメラの解像度よりも解像度倍率rだけ高い解像度を有する、前記第3カメラと;前記ディスプレイを制御し、画像を前記第1カメラ、前記第2カメラ、及び前記第3カメラから受信するように構成される画像信号プロセッサと、を含み、前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラのキャリブレーションずれを検出するように構成され、第1基線は、前記第2カメラと前記第1カメラとの間に延び、第2基線は、前記第2カメラと前記第3カメラとの間に延び、前記第1基線と前記第2基線とがなす角度αは略αoptimalであり、以下の関係
が成り立つ。
前記解像度倍率rは1.0とすることができ、前記角度αは、26.0度〜44.3度の範囲とすることができる。前記角度αは、28.9度〜41.9度の範囲とすることができる。前記解像度倍率rは2.0とすることができ、前記角度αは、21.4度〜53.4度の範囲とすることができる。
前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラの前記キャリブレーションずれを:特徴点を前記第1カメラで撮影される第1画像中に検出し;前記特徴点を前記第2カメラで撮影される第2画像中に検出し;前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず;第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及び複数のキャリブレーションパラメータに従って特定し;第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記複数のキャリブレーションパラメータに従って特定し;前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算し;前記差異が閾値を上回ると、前記第1カメラ、第2カメラ、及び第3カメラのキャリブレーションずれが発生していることを示す通知を出力することにより検出するように構成することができる。
添付の図面は、本明細書と一体となって、本発明の好適な実施形態を例示し、詳細な説明と一体となって、本発明の原理を説明するのに役立つようになっている。
図1は、空間中の所定のポイントを撮像する1つの実施形態による奥行き知覚カメラシステムの模式図である。 図2Aは、本発明の1つの実施形態による奥行き知覚カメラシステムを示すブロック図である。 図2Bは、本発明の1つの実施形態による3台のカメラを含む奥行き知覚カメラシステムの斜視図である。 図3は、2台のカメラの間の遮蔽を示している。 図4は、3台のカメラが同一直線上に位置している3眼システムの回転によるキャリブレーションずれを示している。 図5Aは、平行等位化を行なった後のカメラペアのピンホールモデルの模式図である。 図5Bは、平行等位化を行なった後の、かつカメラ群のうち1台のカメラが回転を経た後のカメラペアのピンホールモデルの模式図である。 図5Cは、キャリブレーションずれを発生させる変形を受ける前後の第1カメラの出力画像中の特徴点の位置x1、及び第2カメラの出力画像中の特徴点の位置x2及びx^2をそれぞれ模式的に示している。 図6は、同一直線上に位置していない3台のカメラの配置構成が異なる本発明の2つの異なる実施形態を示している。 図7は、カメラ群のうち1台のカメラのキャリブレーションずれが発生している本発明の1つの実施形態による3眼カメラシステムを示している。 図8は、本発明の1つの実施形態による奥行き知覚カメラシステムを示す模式図である。 図9A及び図9Bは、視差誤差を、1台のカメラのキャリブレーションずれが発生している、又はy軸線回りに回転するときの角度ψの関数として分析した結果を示すグラフである。 図9A及び図9Bは、視差誤差を、1台のカメラのキャリブレーションがずれている、又はy軸線回りに回転するときの角度ψの関数として分析した結果を示すグラフである。 図10は、本発明の1つの実施形態によるキャリブレーションずれ現象を検出する方法を示すフローチャートである。 図11A、図11B、及び図11Cは、本発明の実施形態による少なくとも3台のカメラを含む奥行きカメラシステムにおける遮蔽及びエピポーラ誤差検出の分析結果を示すグラフである。 図11A、図11B、及び図11Cは、本発明の実施形態による少なくとも3台のカメラを含む奥行きカメラシステムにおける遮蔽及びエピポーラ誤差検出の分析結果を示すグラフである。 図11A、図11B、及び図11Cは、本発明の実施形態による少なくとも3台のカメラを含む奥行きカメラシステムにおける遮蔽及びエピポーラ誤差検出の分析結果を示すグラフである。 図11Dは、カメラ群のうち2台のカメラが、長さ50mmの基線に沿って配置され、カメラ群のうち1台のカメラが、他の2台のカメラよりも高い解像度を有する、3台のカメラを備える本発明の1つの実施形態による奥行きカメラシステムの分析結果を示すグラフである。
以下の詳細な説明では、本発明の特定の好適な実施形態についてのみ、例を通して示し、説明する。当業者であれば理解できることであるが、本発明は、多くの異なる形態で具体化されてもよく、本明細書に記載される実施形態に限定されると解釈されるべきではない。同様の参照番号は、同様の構成要素を、本明細書全体を通じて指している。
一般的に言うと、立体視奥行きカメラシステムは、2台のカメラを含むことができ、これらのカメラは、互いに離間され、高剛性フレームのような共有構造に高剛性に取り付けられる。2台のカメラで撮像されるシーン中の特徴点の奥行きを検出するために、奥行きカメラシステムは、これらのカメラで撮影される画像群の各画像中の特徴点のピクセル位置を導出する。2つの画像中の特徴点間の距離は、物体の距離又は奥行きに反比例する視差と表記される(これは、物体を片方の眼で一度に見るときに物体が「ずれる」量を比較する場合の影響である−ずれの大きさは、物体が視認者の眼からどれだけ離れているかに依存し、物体がより近くなると、ずれがより大きくなり、物体がより遠くなると、ずれがより小さくなり、所定距離だけ離れた位置にある物体は、検出可能なずれがほとんど無いか、全くない)。
以下の説明では、奥行きカメラシステムの画像取得システムは、「マスター」カメラ及び1台以上の「スレーブ」カメラと表記することができる少なくとも2台のカメラを有していると表記することができる。一般的に言うと、推定奥行きマップ又は視差マップは、マスターカメラの視点に基づいて算出されるが、これらのカメラのいずれのカメラもマスターカメラとして使用してもよい。本明細書において使用されるように、master/slave、left/right、above/below、first/second/third、及びCAM1/CAM2/CAM3は、特に断らない限り、同じ意味に使用される。別の表現をすると、これらのカメラのうちいずれか1つのカメラは、マスターカメラ又はスレーブカメラとすることができ、カメラの右側にあるカメラを基準として左側にあるカメラに関する注意事項は、対称性により、他方の方向に当てはめることもできる。また、以下に提示される注意事項は、様々な台数のカメラに関しても有効である。
マスターカメラとスレーブカメラとの間の視差の大きさは、奥行きカメラシステムの物理特性によって異なり、物理特性として、カメラのピクセル解像度、カメラ間の距離、及びカメラの視野を挙げることができる。したがって、正確な奥行き測定値を生成するために、奥行きカメラシステム(又は、奥行き知覚カメラシステム)のキャリブレーションは、これらの物理特性に基づいて行なわれる。
幾つかの奥行きカメラシステムでは、これらのカメラは、カメラのイメージセンサの水平ピクセル行が略平行となるように配置することができる。画像修正技術を使用して、カメラのレンズの形状、及びカメラの向きの変化に起因する画像の歪みを吸収することができる。
また、照合特徴点を、重畳視野を有する複数台カメラを備える奥行きカメラシステムにおいて特定する作業は、エピポーラ線の近傍の領域に対する探索範囲を狭くすることにより加速することができる。更に詳細には、第1カメラによる画像中のピクセルは、第2カメラによる画像中のエピポーラ線分に後方投影することができ、エピポーラ線分は、元の視線光線の投影像の間に延びている。したがって、1つの画像中に検出される特徴点は、第2画像へのピクセルの投影像に対応するエピポーラ線に沿って発見することができるので、照合特徴点の探索範囲を、第2画像全体に跨る探索範囲ではなく、略直線状の探索範囲に限定することができる。これらの方法は、例えば Springer, 2010, p.467 et seq. に掲載された R.Szeliski. による“Computer Vision: Algorithms and Applications”と題する論文に更に詳細に記載されている。例えば、図1を参照すると、図1は、3台カメラシステム又は3眼カメラシステムを示しており、エピポーラ線131−2、131−3、132−1、及び133−1が、点線で図示されている。
図1は、空間中の所定のポイントを撮像する1つの実施形態による奥行き知覚カメラシステムの模式図である。図1を参照するに、第1カメラCAM1、第2カメラCAM2、及び第3カメラCAM3は、3次元空間(3D空間又はx−y−z空間)中のポイントpを撮像する。これらのカメラの各カメラは、撮像平面111,112,113(例えば、イメージセンサに対応する)及び中心ポイント121,122,123を有する。ポイントpは、それぞれの位置x1,x2,及びx3にある撮像平面111,112,113に投影される。カメラの中心と、これらのカメラの該当する撮像平面と、の間の仮想直線の交差ポイントには、白抜き円の記号が付されている。例えば、CAM1及びCAM2の中心121と中心122との間の直線は、これらのカメラの該当する撮像平面111及び112と、141−2及び142−1の位置で交差する。同様に、CAM1及びCAM3の中心121と中心123との間の直線は、これらのカメラの該当する撮像平面111及び113と、141−3及び143−1の位置で交差する。
カメラのキャリブレーションが、以下に更に詳細に説明される通りに行なわれる場合、撮像平面111上の位置x1は、3Dポイントpに対応する撮像平面112の共役エピポーラ線132−1に投影することができ、位置x2は、共役エピポーラ線132−1上に位置する。同様に、位置x2は、ポイントpに対応する撮像平面111の共役エピポーラ線131−2に投影することができ、位置x1は、共役エピポーラ線131−2上に位置する。同様に、撮像平面111上の位置x1は、ポイントpに対応する撮像平面113の共役エピポーラ線133−1に投影することができ、位置x3は、共役エピポーラ線133−1上に位置する。位置x3は、ポイントpに対応する撮像平面111の共役エピポーラ線131−3に投影することができ、位置x1は、共役エピポーラ線131−2上に位置する。したがって、以下に更に詳細に説明されるように、共役エピポーラ線は、画像群の各画像中の各位置に対応して、既知のキャリブレーションパラメータに基づいて特定することができる。
したがって、キャリブレーションが正しく行なわれると、CAM1の撮像平面111へのポイントpの投影像は、エピポーラ線131−2及び131−3の交点に位置する。
図1はまた、pを含む3Dシーンの他の構成部が更に、画像を撮像平面111,112,及び113上に有することを示しており、ポイントp1、及びpをp1に連結する線分I1に注目されたい。
カメラキャリブレーション情報は、入力画像を修正するために必要な情報となって、同等のカメラシステムのエピポーラ線が、平行等位化を行なった後の画像の走査線に一致するようになる。このような事例では、シーン中の3Dポイントは、平行等位化を行なった後のマスター画像中及びスレーブ画像中の同じ走査線インデックスに投影される。x1 及び x2 を、同等のマスターカメラ及び同等のスレーブカメラのぞれぞれのカメラ内の同じ3Dポイントpの画像の走査線上の座標とし、各カメラでは、これらの座標は、原点(光軸が焦点面と交わる交点)を中心とし、かつ平行等位化を行なった後の画像の走査線と平行な横軸を有する軸座標系を基準としている。上に説明したように、差異x1−x2は、視差と呼ばれ、dで指示される;視差は、修正カメラを基準とする3Dポイントの直交距離(すなわち、いずれかのカメラの光軸上へのポイントの直交投影線の長さ)に反比例する。
本発明の幾つかの実施形態では、奥行きカメラシステムは、2つの不可視光カメラと、1つの可視光カメラ又はカラーカメラと、を含み、システムは、カラーカメラの各カラーピクセルに関する奥行き推定結果を算出するように構成される。これらの実施形態では、不可視光及び可視光の両方を撮影することにより、奥行きカラー知覚カメラシステムを有効にすることができる(RGB−Dシステム又はRGB−Zシステムと表記される場合があり、RGBは「赤色緑色青色」を表わし、D又はZは、「奥行き」を表わしている)。幾つかの実施形態では、不可視光カメラは赤外線カメラとすることができる。別の表現をすると、通常の使用法では、奥行き情報をカラーカメラの視野から、奥行きカメラの視野からカラーカメラの視野に映し出される奥行き情報に「ゆがみを与える」ことにより取得する。ゆがみを与えることができるためには、カラーカメラのキャリブレーションが更に、奥行きカメラを基準にして行なわれる。また、カラーカメラは普通、不可視光カメラよりも多くのピクセル(又は、より高い解像度)を有し、追加カラー情報を奥行き計算アルゴリズムに与えて、システムの奥行き計算の全体精度を向上させることができる。更に、カラーカメラのカラー情報及び高解像度が使用される場合でも、第3カメラは、例えば2台のカメラしか使用しない場合に遮蔽される可能性があるシーンの一部の奥行きを与えることにより高精度の奥行き計算を可能にするのに役立つことができる。
上に説明したように、複数台カメラを使用する奥行きカメラシステムのキャリブレーションは通常、制御型環境の状況において行なわれて、互いに対するカメラの物理的位置及び向きの問題を解決するようになっている。例えば、高剛性フレームに取り付けられる複数台カメラは、互いに対して様々な向きになるように、かつ互いから様々な距離に位置するように配置することができる。取り付け作業時の不正確及び変動により、カメラの最終位置が奥行きカメラシステムごとに異なってしまう。したがって、キャリブレーション作業を行なってキャリブレーションパラメータを生成することにより、正確な奥行き測定結果をカメラの実際位置に基づいて算出することができ、キャリブレーション作業では、撮像平面の各撮像平面内のピクセル群に対応する複数の共役エピポーラ線を定義する。キャリブレーション作業では通常、キャリブレーション対象物(市松模様のように見える)の1つ以上の画像を既知の幾何学を用いて撮影し、撮像平面内の一連の3Dポイント及びこれらのポイントの(サブ)ピクセル位置の投影方程式を解く。幾つかのシステムでは、このキャリブレーションは、製造時(例えば、カメラシステムを組み付けた後)に行なわれ、キャリブレーション設定を装置に、エンドユーザに供給する前に書き込むことができる。
理想的なシナリオでは、製造時のキャリブレーションは、カメラ間の物理的関係が不変のままである環境において十分とすることができる。例えば、ビデオアーケード機の奥行きカメラシステムは、アーケードキャビネットに高剛性に取り付けることができ、アーケードキャビネットにより保護することができる。別の例として、家庭用ビデオゲームコンソールの奥行きカメラシステムは、テレビ画面に隣接して設置することができ、概して、システムの寿命全体を通じて、ほぼ静置することができる。
実際、多くの環境では、カメラ間の物理的関係は、大きな変化を装置の寿命全体に亘って受ける可能性がある。ビデオゲームアーケード機は、プレイヤーにより頻繁に酷使され、家庭用ビデオゲームコンソールの部品は、ひっくり返される、及び/又は踏みつけられる可能性がある。別の例として、スマートフォン、タブレット、ラップトップ、及び他の携帯型コンピューティング装置のようなモバイル機器又はモバイルコンピューティング装置は普通、集積型ディスプレイを含み、頻繁に落とされ、曲げられ、大きな温度変化を受け、様々な他のやり方で間違って扱われるので、モバイル機器に組み込まれる奥行きカメラシステムは、カメラが高剛性フレームに取り付けられる場合でも、キャリブレーションがずれてしまう。
その結果、モバイル機器に取り付けられる奥行きカメラシステム、又はスタンドアローン型ポータブル奥行きカメラシステムの複数台カメラは、必ずしも、同じ物理的関係を奥行きカメラシステムの寿命全体を通じて維持することができる訳ではない。例えば、図4に示すように、モバイル機器の永久的湾曲のような変形により、カメラの向きに変化が生じる可能性がある。これにより、カメラシステムのキャリブレーションがずれて、奥行きカメラシステムが、正確な奥行き情報を計算しなくなる。例えば、図4(c)に示す変形後の奥行きカメラシステムは、物体が実際に位置している位置よりもずっと遠く離れているものとして物体を計算する可能性がある。このキャリブレーションずれ、及び正確度低下により、キャリブレーションがずれている奥行きカメラシステムを使用してユーザジェスチャ入力を検出する場合の機能が低下するか、又は損なわれ、更には、ツールとして使用されて外界の物体のサイズ及び位置を測定する場合の誤差が非常に大きくなる。したがって、キャリブレーションがずれている状態を、好適には、ユーザが明示的な検証を行なうことなく検出可能になることが重要である。
再キャリブレーション作業が難しくなってしまうが、その理由は、製品を再キャリブレーション中に使用不能にする必要があるとともに、再キャリブレーションが、膨大な計算処理リソースを必要とするからである。したがって、再キャリブレーション作業が、カメラのキャリブレーションが実際にずれている場合に行なわれることが重要である。
これらの問題に鑑みて、本発明の実施形態は、複数台カメラを有する奥行きカメラシステムに関するものであり、これらのカメラを配置して、キャリブレーションがずれている状態を、奥行きマップの生成機能を高く維持しながら検出する。本発明の1つの実施形態は、これらの特性を有する3台カメラ(又は、3眼カメラ)システムに関するものである。
奥行きカメラシステムは、画像処理システムに組み込むことができる。本発明の多くの実施形態による画像処理システムは、多種多様なソフトウェア構成可能なコンピューティング装置を使用して実行することができ、コンピューティング装置として、(これらには限定されないが)パーソナルコンピュータ、タブレットコンピュータ、スマートフォン、エンベデッドデバイス、拡張現実(AR)機器及び仮想現実(VR)機器(例えば、ヘッドギア)を挙げることができ、(これらには限定されないが)テレビ、ディスクプレーヤ、セットトップボックス、及びゲームコンソールのようなコンシューマ電子機器を挙げることができる。本発明の1つの実施形態による画像処理システムを図2Aに示す。画像処理システム100は、画像信号プロセッサ(又は、カメラインタフェース)24及びディスプレイインタフェース26と通信するように構成されるプロセッサ22を含む。画像処理システムは更に、メモリ28を含み、メモリ28は、半導体記憶装置及び/又はディスク記憶装置を含む1つ以上の異なる種類のストレージの形態を採ることができる。図示の実施形態では、プロセッサ22は、メモリ28に格納されるオペレーティングシステム30を使用して構成される。
多くの実施形態では、プロセッサは、ビデオデータフレームを、画像信号プロセッサ24を介して少なくとも1台のカメラ(例えば、カメラCAM1,CAM2,及びCAM3)から受信する。カメラインタフェースは、特定の用途の要求に適する多種多様なインタフェースのいずれかとすることができ、当該インタフェースとして(これらには限定されないが)、オレゴン州ビーバートンにあるUSB−IF社が規定するUSB2.0インタフェース規格又はUSB3.0インタフェース規格、及び非営利団体MIPI Allianceが規定するMIPI−CSI2インタフェースを挙げることができる。複数の実施形態では、受信ビデオデータフレームは、3つの色チャネルの強度値として表わされるRGBカラーモデルを使用して表わされる画像データを含む。幾つかの実施形態では、受信ビデオデータフレームは、1つの色チャネルの強度値を使用して表わされる単色画像データを含む。幾つかの実施形態では、画像データは可視光を表わす。他の実施形態では、画像データは、(これらには限定されないが)スペクトルの赤外線領域、近赤外線領域、及び紫外線領域を含むスペクトルの非可視光領域(又は、不可視光領域)の光強度を表わしている。特定の実施形態では、画像データは、これに限定されないが、超音波信号を含む、他のソースにより生成される電気信号に基づいて生成することができる。幾つかの実施形態では、受信ビデオデータフレームは、Joint Photographic Experts Group が規定する Motion JPEG ビデオフォーマット(ISO/IEC JTC1/SC29/WG10)を使用して圧縮される。複数の実施形態では、ビデオデータフレームは、ブロックベースの映像符号化方式を使用して符号化され、映像符号化方式として、(これに限定されないが)ITU-T Video Coding Experts Group(VCEG)が ISO/IEC JTC1 Motion Picture Experts Group と一体となって開発した H.264/MPEG-4 Part 10(Advanced Video Coding:最新映像符号化)規格を挙げることができる。特定の実施形態では、画像処理システムは、生の画像データ(RAW image data)を受信する。
本発明の幾つかの実施形態では、奥行き知覚カメラシステムは、インタフェース40を含むことにより、当該システムをコンピュータのようなホストハードウェア装置に接続することができる。インタフェース40は、例えばUSB2.0接続又はUSB3.0接続とすることができる。
本発明の幾つかの実施形態は、カメラ群のうち1台以上のカメラで検出可能なスペクトル領域で発光するように構成される能動型照明プロジェクタ18を含む。例えば、1台以上の不可視光カメラ(例えば、2台の赤外線カメラCAM1及びCAM2)を含む本発明の実施形態では、能動型照明プロジェクタは、赤外光凹凸パターンを放出するように構成することができる。幾つかの実施形態では、能動型照明プロジェクタ18は、プロジェクタが放出するスペクトルに対応する光を検出するように構成されるカメラ群の間に配置される(カメラ群と同一直線上に配置される)。例えば、能動型照明プロジェクタが、赤外光を放出するように構成される実施形態では、プロジェクタは、2台の赤外線カメラの間に配置することができる。能動型照明プロジェクタ18は、発光ダイオード(LED)又はレーザのような光源を使用して実現することができ、光源は、パターンを生成するように構成される光学系に接続することができる。このようなシステムの例が、例えば「Systems and Methods for Reducing Z-Thickness and Zero-Order Effects in Depth Cameras」と題する米国特許出願第14/743,738号明細書、及び「3D Depth Sensor and Projection System and Methods of Operating Thereof」と題する米国特許出願第14/743,742号明細書に記載されており、これらの米国特許出願は共に、米国特許商標庁に2015年6月18日に出願され、これらの米国特許出願の開示内容全体が、参照により本明細書に援用される。
様々な実施形態では、カメラは、相補型金属酸化物半導体(CMOS)デジタルイメージセンサ又は電荷結合型素子(CCD)デジタルイメージセンサのような標準的なデジタルイメージセンサを含むことができる。また、カメラ群の各カメラは普通、入射光を個々のカメラのイメージセンサに集光させるように構成される1つ以上のレンズのような光学系を含む。幾つかの実施形態では、赤外線カメラ及びカラーカメラのセンサは、略同様とすることができるが、単にフィルタの有無の点で異なるようにすることができる(例えば、Bayerパターンに配置される赤色フィルタ、緑色フィルタ、及び青色フィルタのようなカラーフィルタ、又は赤外線領域に対応する帯域通過フィルタもしくは低域通過フィルタ)。幾つかの実施形態では、赤外線カメラは、カラーカメラよりも大きなサイズのピクセルを備えるセンサを有することができ、これらの実施形態では、赤外線カメラは、カラーカメラよりも低い解像度を有することができる。しかしながら、本発明の実施形態は、これらには限定されない。
幾つかの実施形態では、奥行き知覚3眼カメラシステム100は、画像処理システム内で、及び/又は画像処理システムの外部で集積化することができる表示装置を駆動するように構成されるディスプレイインタフェース26を含む。複数の実施形態では、カリフォルニア州サニーベールにある HDMI Licensing,LLC 社が規定する HDMI High Definition Multimedia Interface(高精細度マルチメディアインタフェース)を利用して表示装置とのインタフェースとする。他の実施形態では、特定の用途の要求に適する多種多様なディスプレイインタフェースのいずれのディスプレイインタフェースも利用することができる。ディスプレイと一体化される本発明の幾つかの実施形態では、カメラは、ディスプレイを取り囲むベゼル領域に配置することができ、カメラ群のうち少なくとも1台のカメラは、他のカメラ群のうち少なくとも1台のカメラとは異なるディスプレイの辺縁に隣接して配置される(例えば、2台のカメラは、ディスプレイの第1辺縁に沿って配置することができ、第3カメラは、ディスプレイの第1辺縁に対向し、かつ第1辺縁に平行なディスプレイの第2辺縁に沿って配置することができる)。
図2Bは、本発明の1つの実施形態による3台のカメラを含む奥行き知覚カメラシステムの斜視図である。図2Bに示す実施形態では、カメラCAM1,CAM2,及びCAM3は、略同じ方向を向くように、かつ重畳視野を有するように配置される。更に、能動型照明部品18は、カメラCAM1、CAM2,及びCAM3と同じ方向を向き、CAM1及びCAM2と同一直線上に、かつCAM1とCAM2との間に配置される。外部インタフェース40を使用して、奥行き知覚カメラシステムをホスト装置に接続することができる。
奥行き検出及びキャリブレーション
本発明の実施形態の態様について、2台の赤外線カメラ及び1台のカラーカメラがある状況として以下に説明する。しかしながら、本発明の実施形態は、これに限定されない。例えば、本発明の実施形態は、カメラ群の異なる組み合わせを使用することができ、例えば:2台のカラーカメラを1台の赤外線カメラと組み合わせて使用する;3台の赤外線カメラを使用する;又は、3台のカラーカメラを使用することができる。3台カメラ配置を本明細書では、「3眼」配置と表記するが、本発明の実施形態は、これに限定されず、幾つかの実施形態は、3台よりも多くのカメラを含むことができる。
複数台カメラを有する奥行きカメラシステムのカメラ群の配置を設計する際の1つのファクタは、結果的に得られるシステムの設計精度である。理論的には、カメラ間の距離が長くなると、奥行き計算精度が高くなる。上に説明したように、キャリブレーションされた状態のステレオカメラペアを使用する3D空間中のポイントについての奥行き計算は、一方の(第1)カメラ内のポイントの画像と他方の(第2)カメラ内の同じポイントの画像との所謂ピクセル視差を測定し、次に三角測量法を適用することにより行なわれる。物体が遠く離れている場合(例えば、長い奥行きを有している場合)、視差はゼロになる。視差は、ポイントがカメラ(短い奥行きを有する位置)に近づくにつれて大きくなる。
シーン中の全てのカメラ視認ポイントに関する奥行き計算を可能にするために、これらのカメラ内の3D空間中の撮像ポイント群の一致度を判断する。カメラのキャリブレーションを行なって「ピンホールカメラ」モデルに追従させる場合、これらのカメラ内の対応ポイント群は殆どが、それぞれの撮像平面内の所謂共役(関連)エピポーラ線(図1参照)上にある。図1では、例えば3D空間中のポイントpに対応するカメラCAM1及びカメラCAM2に関する共役エピポーラ線を参照されたい。
カメラ群(例えば、図2のCAM1及びCAM2)がイメージセンサのピクセル行に平行な直線に沿って配置される場合、カメラの画像を修正した後、画像のエピポーラ線はピクセル行に平行である。これにより、整合特徴点の探索を行毎の探索(キャリブレーション誤差が僅かであるので上下の行の数ピクセルの探索)に簡易化することができる。カメラ群がこのようには配置されない場合、エピポーラ線を設定し続けることになるが、エピポーラ線は、対応するセンサ行に必ずしも平行になる訳ではない。例えば、第3カメラCAM3がCAM1及びCAM2と同一直線上に位置していない場合、CAM1とCAM3との間のエピポーラ線のみならず、CAM1とCAM3との間のエピポーラ線が、画像を横切る対角線に沿って位置する。これについて、図7及び図8を参照して以下に更に詳細に説明する。
一般的に言うと、高品質奥行きデータを、キャリブレーションずれの検出を可能にしながら供給することができるカメラ配置を設計する場合に少なくとも2つの競合するファクタが存在する。1つの注意事項は、遮蔽(例えば、少なくとも1台のカメラには見えるが、少なくとも1台の他のカメラには見えないシーンの一部の遮蔽)を低減させる、又は最小限に抑えることである。他の注意事項は、実際に発生すると予測される広範囲のキャリブレーションずれの可能性を検出することができることである。
一般に、遮蔽は、カメラ群が互いに接近して配置される場合に低減する。図3は、2台のカメラCAM1及びCAM2の間の遮蔽を示している。図3に示すように、物体302は、カメラ(CAM1及びCAM2)と背景304との間に位置している。背景304の背景構成部分C−Dは、CAM1の視野から見えない。CAM2がCAM1から距離daの位置(a)に位置している場合、背景304の背景構成部分A−Dは、物体302に遮られる。したがって、背景構成部分A−Cは、CAM1には見えるが、CAM2には見えない。これとは異なり、CAM2がCAM1により近い位置(b)(CAM1から距離dbの位置、db<da)に位置している場合、背景304のより小さな背景構成部分B−Dは、物体302に遮られる。その結果、遮蔽量は、背景構成部分A−Bのサイズだけ減少する。別の表現をすると、依然として背景構成部分B−CがCAM1に見えて、CAM2には見えないが、背景構成部分B−Cは背景構成部分A−Cよりも小さい。
遮蔽は、対応する特徴点を画像中に特定する場合に問題となり得る。例えば、部分的に遮蔽されるシーン構成部分に検出される特徴点は、別の画像中ではなく1つの画像中に検出されることになるので、シーン中の特徴点の奥行きを求めることが不可能になる。別の例として、シーンの特徴点の色のような質感情報は、カラーカメラが撮像できないシーン構成部分について入手することもできない。
3台以上のカメラを備える奥行きカメラシステムでは、カメラ群は必ずしも、同一直線上に位置している訳ではない。カメラ群が同一直線上に位置している場合、遮蔽は、カメラ群が形成する直線に直角な方向に沿って無くなるか、又は最小限に抑えられる。これとは異なり、遮蔽は、カメラが直線から外れると大きくなる。更に、カラーカメラを含む本発明の実施形態では、カラーカメラをマスターカメラ(例えば、結果的に得られる奥行き画像が視野に基づいて算出される場合の当該視野に対応するカメラ)により近接して配置することにより、遮蔽の影響を低減させることもできる。
これとは異なり、以下に更に詳細に説明されるように、カメラ群のうち1台のカメラを「軸外に」配置することにより、システムは、様々な種類のキャリブレーションずれを検出する機能を向上させることができる。キャリブレーションがずれている状態又はキャリブレーションされた状態からずれた状態は、奥行き計算、及びカラー情報が奥行き情報でゆがむ場合のゆがみ計算(又は、カラー情報の融合計算)に影響を与えてしまう。具体的には、3眼配置からキャリブレーションずれが発生する場合、奥行きピクセル及びカラーピクセルが重なり合うことが正しくなくなる。重なり合うことが正しくない場合、ピクセルごとに撮像されるシーンの奥行きが正しくないか、又は同じシーンのカラーが正しくない可能性がある。この状態は、数ピクセルの誤差でも大きな誤差が生じてしまう物体のエッジにおいてかなり深刻になる。
図4は、3台のカメラが同一直線上に位置する3眼システムの回転によるキャリブレーションずれを示している。図4(a)は、3眼カメラシステムの正面図である。図4(b)は、キャリブレーションずれが発生する前の3眼カメラシステムの上面図である。図4(c)は、カメラシステムが変形した後の奥行きカメラシステムの上面図である。図4(c)に示すように、回転による変形(例えば、カメラの取り付け先の支持体又はフレームの湾曲)により、CAM1及びCAM2が、カメラの原点軸に対してΨ度だけ回転し、互いに対して2Ψ度だけ回転している。この種類の変形は、温度、圧力、衝撃のような機械的原因により、又は他のカメラハンドリング問題に起因して起こり得る。非常に微小なキャリブレーションずれ(回転による変形)角度により巨視的な誤差が、視差測定に生じてしまい、したがって奥行き計算に生じてしまう。更に、3眼カメラシステムのカメラが同一直線上に位置する場合(例えば、図2Aの配置の場合)、以下に更に詳細に説明するように、これらの誤差は検出するのが難しい。
キャリブレーションされた状態からずれた状態又はキャリブレーションがずれている状態の検出
図5Aは、平行等位化を行なった後のカメラペアのピンホールモデルの模式図である。以下の説明では、キャリブレーションされた状態のステレオカメラシステムにおけるエピポーラ線の計算について簡単に再考察する。これは、例えば Cambridge University Press (2004) に掲載された Hartley and Zisserman による「Multiple View Geometry in Computer Vision, Second Edition」と題する論文に記載されている。
図5Aに示すように、焦点距離fを有するカメラCAM1及びCAM2は、距離Bだけ離間される。これらのカメラは、これらのカメラからz方向に沿って所定距離に位置するポイントpを含むシーンを撮像する。ポイントpを位置x1にあるイメージセンサに、又はCAM1の撮像平面111に投影し、位置x2にあるイメージセンサに、又はCAM2の撮像平面112に投影する。カメラペアの場合、内部キャリブレーションパラメータ及び外部キャリブレーションパラメータは、以下の通りに微調整することができる:
式中、Kは、全てがピクセル単位で測定されるf(焦点距離)、cx及びcy(レンズの中心と撮像平面の中心とのずれ量)を定義するカメラ内部パラメータを指し、Rは、カメラの回転量(この場合、カメラを回転させるのではないので、恒等行列I)を指し、Tは、マスターカメラに対するカメラの並進移動量(この場合、第1カメラCAM1がマスターカメラであると考えられるので、第1カメラは、第2カメラCAM2がCAM1からx方向に沿って遠ざかるように距離Bだけ並進移動している間に並進移動しない)を指している。これらのキャリブレーションパラメータは、上に説明したキャリブレーション作業中に決定することができ、組み付け後の奥行き知覚カメラシステムは、既知の状態に設定される。ステレオペアのキャリブレーション及び平行等位化が行なわれている状態のこの場合の基本行列Fは以下の通りである:
ポイントpが3次元空間中に以下の通りに与えられる:
ポイントpを、以下の式で与えられる位置x1及びx2にある2台のカメラに投影する:
基本行列Fが与えられると、CAM2のエピポーラ線I12の方程式を、カメラ1のポイントx1の観測値に基づいて算出することができる:
これは、x2のy座標値に対応する垂直シフト量を持って通過することによりエピポーラ線上に位置するようになる横線の方程式である。
図5Bは、平行等位化を行なった後の、かつカメラ群のうち1台のカメラが回転を経た後のカメラペアのピンホールモデルの模式図である。以下の説明では、一般性を失うことなく、カメラ群のうち1台のみのカメラ(例えば、第2カメラCAM2)の焦点面が、キャリブレーションずれを起こす回転を経ているのに対し、基線(カメラCAM2とカメラCAM2との間の距離)は変化しておらず、他のカメラ又はカメラ群(例えば、第1カメラCAM1)の焦点面の角度は変化していないと仮定することとする。更に、奥行きカメラシステムは、ポイントpをシステムのカメラの視野内に投影する際の投影位置(空間中のポイントpの共役画像ポイントxと表記される)を、システムのキャリブレーションずれが発生する前のシステムに関するキャリブレーションパラメータに基づいて算出することができると仮定する。
本発明の実施形態の態様は、1つ以上の照合画像ポイント(例えば、ポイントpにある特徴点に対応する撮影画像中の共役画像ポイントx)の分析結果に基づいて、奥行きカメラシステムが、キャリブレーション状態を維持することができなくなる(キャリブレーションがずれている状態になる、又はキャリブレーションされた状態からずれた状態になる)と判断するシステム及び方法に関するものである。一般的に言うと、キャリブレーションずれは、測定画像ポイントが、これらの画像ポイントが共役エピポーラ線上に発見されると予測される当該共役エピポーラ線から離れた箇所に位置している場合に検出することができる。共役画像ポイントxの位置を、共役画像ポイントがエピポーラ線上に現われると予測される当該エピポーラ線から外れるように共役画像ポイントを移動させることなく変化させてしまったキャリブレーションずれ現象は、シーン中の物体の奥行きに関する判断を妥当であるが正しくない判断にしてしまう。
図5Bに示すように、CAM2は、Ψ度だけ回転し、その結果、ポイントpが、撮像平面又はイメージセンサ112’に、回転前の当該共役画像ポイントの位置x2とは異なる新たな位置x^2に投影される(イメージセンサ112で図示されるように)。この差異により、奥行きカメラシステムは、x1とx2との正しい視差よりもx1とx^2との視差が増えているので、ポイントpを、ポイントpが実際に位置する奥行きよりも長い奥行きを有するものとして間違って計算することになる。更に正式に表現すると、カメラ群のうち1台のカメラは、R(Ψ)の回転を経ている:
更に、x^2は、以下の通りに表現することができる:
図5Cは、変形を受ける前後それぞれの第1カメラCAM1の出力画像中の位置x1、及び第2カメラCAM2の出力画像中の位置x2及びx^2を模式的に示している。図5Cに示すように、位置x1はCAM1のイメージセンサ111へのポイントpの投影点に対応する。CAM1の画像の位置x1は、エピポーラ線132−1に沿って位置しているので、カメラCAM1及びカメラCAM2がキャリブレーション状態にある場合、CAM2のイメージセンサ112の位置x2へのポイントpの投影点もエピポーラ線506上に位置している。
しかしながら、図5Cに示すように、CAM2が変形を受けた後、ポイント p は位置 x^2 に投影される。x^2とx2との間のベクトルは「誤差」e(例えば、e=x^2−x2)と表記され、誤差eは、エピポーラ線506に平行な成分e、及びエピポーラ線506と直交する成分e(又は、「エピポーラ線から外れる」成分)に分解することができる(例えば、e=e+e)。
概括すると、平行誤差eは、ポイントpにある特徴点の画像が第2画像中の位置x2にあることが普通、第1画像中の位置x1に対応するエピポーラ線に沿ったいずれの箇所においても合理的である、又は妥当であることから殆ど検出することができないのに対し、エピポーラ線から外れる誤差eは、より容易に検出可能である。
2台カメラシステムでは、基線に平行な軸線回りのカメラの回転、又は大きな回転成分を基線に平行な軸線回りに持つ回転のような数種類の回転により、エピポーラ線から外れる誤差eが非常に大きくなるが、これは、誤差を容易に検出して報告することができる、又は補正することができるので望ましい。
これとは異なり、平行誤差又は「エピポーラ線上にある場合の」誤差eは検出不能である可能性があり、キャリブレーションずれ現象は、eが観測されるために十分大きい場合に検出することもできる。例えば、y軸線回りの(例えば、エピポーラ線と直角な方向回りの)単純回転により、エピポーラ線と直角な方向回りの誤差eを殆ど無くすことができる。これらの種類の誤差は、取り付けボードがカメラ間の基線と直角な直線回りに湾曲する状況におけるような場合に現実的に起こり得る。
本明細書における分析結果から分かるように、2台カメラシステムでは、キャリブレーションずれが、カメラが2台のカメラの間の基線と直角な軸線回りに回転することにより発生する場合、エピポーラ線から外れる場合の誤差eは普通、エピポーラ線上にある場合の誤差eよりもずっと小さい(例えば、e≪e)。したがって、この種類のキャリブレーションずれ現象が発生している状態では、ステレオシステムが、共役画像ポイントペアが現われることによりキャリブレーションずれが発生しているのを発見するのが難しい。したがって、必要なのは、キャリブレーションずれが発生している状態から大きなe誤差が生じて当該誤差を更に容易に検出可能なカメラシステムである。
このようなことから、本発明の実施形態は、最も一般的な更に多種多様なキャリブレーションずれが発生している状況を検出することができる奥行きカメラシステムに関するものであり、奥行きカメラシステムは、同一直線上に位置していない少なくとも3台のカメラを含む。
図6は、同一直線上に位置していない3台のカメラの異なる配置構成を有する本発明の2つの異なる実施形態を示しており、カメラ群のうち2台のカメラは、基線距離Bだけ離間される。図6に示すように、1つの実施形態では、第3カメラCAM3は、最初の2台のカメラCAM1とCAM2との間の軸線に沿った中点からずれた位置607に位置して、3台のカメラが二等辺三角形を形成するようにし、二等辺三角形の2つの等角はαとして表わされる(また、第3角度は(180°−2α)度である)。本発明の別の実施形態では、第3カメラCAM3’は、カメラ群のうち1台のカメラ(CAM1)の「真上に」ある位置606に位置している、別の表現をすると、CAM1とCAM3’との間の基線B1,3は、CAM1とCAM2との間の基線B1,2に直角となって、3台のカメラが直角三角形を形成するようにし、CAM3’、CAM2と、CAM2、CAM1とがなす角度はφで表わされる。しかしながら、本発明の実施形態はこれに限定されない。例えば、CAM3は、CAM2の「真上に」配置してもよい、又はCAM2の真上の位置とCAM1の真上の位置との間の任意の位置に配置してもよい。例えば、3台のカメラCAM1、CAM2、及びCAM3が、不規則三角形を形成するようにしてもよい。第3カメラを位置CAM3に配置する理由は、キャリブレーションされた状態からずれた状態の検出性を向上させるためであり、第3カメラを位置CAM3’に配置する理由は、以下に説明されるように、CAM1とキャリブレーションされた状態からずれた状態の検出性がかなり低下している第3カメラとの間の遮蔽(図3に示すような)を低減させるためである。
図6に示す3台のカメラは、ほぼ重なり合う重畳視野(FOV)、又は共通視野を有する。例えば、全ての3台のカメラの向きは、シーンを撮像するために略同じ方向に設定され、3台のカメラの光軸は略平行とすることができる。
図7は、カメラ群のうち1台のカメラのキャリブレーションずれが発生している状態の本発明の1つの実施形態による3眼カメラシステムを示している。図7は、図1と略同様であるので、同じである構成部分に関する説明は、ここでは繰り返さないものとする。図7を参照するに、CAM1は、CAM1のキャリブレーションずれが発生しているものとして図示されており、カメラ中心121は、新たな位置121’にシフトしており、撮像平面111(点線で図示される)は回転して新たな位置111’(実線で図示される)に移動している。その結果、ポイントpがこの時点で、位置x^1に投影される。また、キャリブレーションずれが発生することにより、共役エピポーラ線131−3の位置が131−3’にシフトしており、共役エピポーラ線133−1の位置が133−1’にシフトしている。キャリブレーションずれが発生している状態は、共役エピポーラ線132−1に殆どもしくは全く影響しなかったが、以下に更に詳細に説明するように、キャリブレーションずれが発生することにより生じるエピポーラ線133−1から133−1’に至るシフト量又は誤差702は大きく、検出可能である。
本発明の実施形態による少なくとも3台のカメラを有する奥行きカメラシステムは幾つかの利点を提供し、利点は、例えば奥行きが、推論をシステム内の全てのカメラペア(例えば、3眼システム内の3つのカメラペアCAM1−CAM2,CAM1−CAM3,及びCAM2−CAM3)に由来する視差に基づいて行なうことにより算出することができること、及び更には、カラーカメラをグレースケールステレオペア又は赤外線ステレオペアに追加することにより、カラー情報を再構成後の3次元シーンに供給することができることである。
3台のカメラを含む本発明の1つの実施形態では、カメラ群のうち2台のカメラを使用して、シーン中の様々なポイントの視差(したがって、奥行き)を算出するのに対し、第3カメラを使用してカラー情報を取得する。3つのカメラペアの各カメラペアは、複数の共役エピポーラ線で表わされるエピポーラ幾何学を定義する。更に詳細には、撮像平面111,112,及び113の各撮像平面の各位置又は各ピクセルは、他の撮像平面の対応する共役エピポーラ線に投影することができる。例えば、図1及び図7に示すように、位置x1にある第1撮像平面111の位置又はピクセルを第2撮像平面112のエピポーラ線132−1に投影することができ(カメラペアCAM1−CAM2の場合)、更には、第3撮像平面113の共役エピポーラ線133−1に投影することができる(カメラペアCAM1−CAM3の場合)。同様に、第2撮像平面112の位置x2を第1撮像平面111のエピポーラ線131−2に投影することができ、更には、第3撮像平面113の共役エピポーラ線に投影することができる。同じようにして、第3撮像平面113の位置x3を第1撮像平面111のエピポーラ線131−3に投影することができ、更には、第2撮像平面112の共役エピポーラ線に投影することができる。
図8は、CAM1,CAM2,及びCAM3を含む本発明の1つの実施形態による3台カメラシステムを示す平面模式図である。シーン中のポイントpを撮像し、CAM1,CAM2,及びCAM3の撮像平面の位置x1、x2、及びx3にそれぞれ投影する。ペア(例えば、x1−x2、又はx1−x3、もしくはx2−x3)の位置の差異が視差に対応する。システムの残りの構成部材が同じ状態を保っている状態で、第2カメラCAM2のキャリブレーションずれが発生する(例えば、回転する)場合、シーンの同じポイントpはこの時点で、位置x^2に投影される。図5Cを参照して上に説明したように、x^2とx2との間の距離は、誤差eと表記される。
図5Cに関する上の説明では、誤差eを2つの誤差成分:エピポーラ線上にある場合の誤差成分であって、エピポーラ線132−1(第1カメラCAM1と第2カメラCAM2との間のエピポーラ線)に平行な誤差成分e、及びエピポーラ線から外れる場合の誤差成分であって、エピポーラ線132−1に直角な、又は直交する誤差成分eとして表わすことができるのでe=e+eが成り立つことに注目した。
図5Cでは、2台のカメラCAM1及びCAM2しか考慮されていないが、エピポーラ線から外れる場合の誤差成分eは、エピポーラ線上にある場合の誤差成分eよりも小さかった(例えばCAM2の向きの変化の殆どは、エピポーラ線132−1に直角な軸線回りの回転が原因であった)。幾つかの環境では、エピポーラ線から外れる場合の誤差成分eは、十分大きくはないことから検出可能ではなかった。
しかしながら、状況は、第3カメラCAM3を追加する図8の配置構成により変わる。CAM1とCAM2との間のエピポーラ線132−1と比較した場合の第1誤差e1は同じままであり、e1=e1 +e1 が成り立ち、e1 は依然として比較的小さい(演算子+はこの場合、ベクトル加算である)。しかしながら、この環境では、CAM3とCAM2との間のエピポーラ線132−3を使用して第2誤差e2の絶対値を導出することもでき(すなわち、eの上付き文字2であり、eの2乗ではない)、e2=e2 +e2 が成り立つ(演算子+はこの場合、ベクトル加算である)。図8から分かるように、e2 はe1 もよりも遥かに大きいので、第2カメラCAM2のキャリブレーションずれが発生している状態の検出を可能にするために十分大きいのに対し、e1 は小さ過ぎて検出することができなかった。エピポーラ線から外れる場合の誤差の絶対値のこの差異は、第3カメラCAM3が他の2台のカメラCAM1及びCAM2と同一直線上に位置していないという理由で現われることにより、エピポーラ線132−3のような、2台のカメラを用いた場合のエピポーラ線が他の2台のカメラの間のエピポーラ線(例えば、CAM1とCAM2との間のエピポーラ線132−1)と平行ではなくなる。
このように、奥行き知覚カメラシステムの少なくとも3台のカメラの配置が適正である場合、カメラの回転に起因するキャリブレーションずれ現象により、エピポーラ線から外れる場合の誤差が、システム内のカメラペア群のうち少なくとも1つのカメラペアについて顕著になる。これは、エピポーラ線から外れる場合の誤差の大きさが、キャリブレーションずれが発生しているカメラの回転軸線の方向によって異なるからである。この軸線が、1つのカメラペアの基線と直交し、かつペア中の第1カメラの焦点面に平行である場合、エピポーラ線から外れる場合の当該カメラペアについての微小な誤差eが予測される必要がある。しかしながら、幾何学から、この状況が、全てのカメラペアに同時には発生し得ないことが分かるので、少なくとも1つのカメラペアは、エピポーラ線から外れる場合の顕著な誤差eを有することになる。
したがって、本発明の実施形態により、キャリブレーションずれ現象を、これらのキャリブレーションずれ現象を2眼カメラシステムにより発見できなかった場合でも検出することができる。3眼カメラシステムの場合、3台のカメラを正三角形に配置することにより、エピポーラ線から外れる場合のカメラペア間の誤差の絶対値をエピポーラ線上にある場合の誤差の絶対値で除算して得られる値の合計値を最大にすることができる。
図9A及び図9Bは、視差誤差の分析結果を、1台のカメラのキャリブレーションずれが発生している場合の、又は1台のカメラがy軸線回りに回転している場合の角度ψの関数として示すグラフである(これらの図では、視差誤差と表記される)。具体的には、図9A及び図9Bは、実際の視差誤差を示している、別の表現をすると、システムのキャリブレーションずれが発生しなかった場合の特徴点の予測位置xと、キャリブレーションずれが発生した後の特徴点の実際の検出位置x^との間のエピポーラ線の方向に沿ったピクセル単位の距離を示している。
図9A及び図9Bは更に、複数の状況におけるエピポーラ誤差(例えば、e)の上記モデルの分析結果を示している。具体的には、検出エピポーラ誤差が、2台カメラシステムに関して図示されており(図9A及び図9Bにおいて、「Epi err 2 views」と表記される)、2台のカメラの間の基線は、y軸線に直角なx軸線に沿って延びており、y軸線回りに、カメラ群のうち1台のカメラが回転する。図9A及び図9Bに更に図示されているのは、1台のカメラが基線カメラ群のうち1台の基線カメラの真上に位置するように配置される(例えば、図6に示すような直角三角形として配置され、位置606にある第3カメラCAM3’は、図9A及び図9Bでは、「Epi err 3 view top master」と表記される)構成の3台カメラシステム、及び1台のカメラが、他の2台のカメラの間の中点の上方に配置される(例えば、図6に示すような二等辺三角形として配置され、位置607にある第3カメラCAM3は、図9A及び図9Bでは、「Epi err 3 view middle」と表記される)構成の3台カメラシステムに関して検出されるエピポーラ誤差である。
図9Aは、モデルシステムの分析結果を示しており、カメラ群のうち2台のカメラ(例えば、当該モデルにおいて、赤外線カメラであると仮定されるCAM1及びCAM2)の間の基線長は50.0mmであり、基線と第3カメラ(例えば、当該モデルにおいて、カラーカメラであると仮定されるCAM3)との間の距離は、位置607において43.3mmである。グラフの横軸は、スレーブカメラ(例えば、CAM2)がy軸線(例えば、基線と直角な方向に延び、かつ基線と第3カメラCAM3との間の直線に平行な軸線)回りに回転する場合の角度を表わし、縦軸は、ピクセル単位の誤差を表わしている。グラフは、実線で指示される視差誤差を含み、視差誤差は、特徴点の予測位置xとキャリブレーションずれが発生した後の特徴点の実際の位置x^との間のエピポーラ線に沿って投影される距離(例えば、|x − x^|)であり、グラフは更に、様々な点線で指示される異なる配置構成に対応するエピポーラ誤差を含み、エピポーラ誤差は、特徴点の予測位置xとキャリブレーションずれが発生した後の特徴点の実際の位置x^との間のエピポーラ線と直角な方向の投影距離(例えば、|x − x^|)である。モデルは、3Dポイント群が、カメラ群の視野をカバーする500.0〜5000.0mmの範囲の距離に位置していると仮定する。「color resolution factor(カラー分解能)」(図9の「colorHDfact」)は、赤外線カメラCAM1及びCAM2の垂直解像度に対するカラーカメラCAM3の垂直解像度の比を指しており、この比は、当該モデルでは1.0であると仮定される(例えば、3台のカメラCAM1、CAM2、及びCAM3が同じ解像度を有していると仮定する)。予測されることであるが、スレーブカメラ又は第2カメラCAM2が回転しない(ゼロ角度である)場合、視差誤差は発生しない(ゼロピクセルである)。視差誤差は、キャリブレーションずれ角度が大きくなるにつれて大きくなる−これらの特定の状態では、視差誤差は、キャリブレーションずれ角度とともに直線的に大きくなり、図2に示すように、25ピクセルよりも多くのピクセル誤差が、角度2度のキャリブレーションずれ、又は負の角度2度のキャリブレーションずれが発生する場合に予測される。角度2度のキャリブレーションずれは、カメラシステム幾何学の大きな変形であり、通常のカメラは、30度〜60度の範囲の視野を有することができるので、角度2度の変化により、視野に収まる物体の1/30〜1/15が変化することを理解されたい。
しかしながら、2台カメラ配置構成では、例えば第1カメラCAM1及び第2カメラCAM2のみを用いる2台カメラ配置構成では、スレーブカメラCAM2が、角度2度と同じ程度に回転して、実際の視差誤差が25ピクセル超になる場合でも、エピポーラ線から外れる場合の誤差eは、曲線「Epi err 2 views」から分かるように非常に小さく、当該誤差が大きくなっても、角度2度のキャリブレーションずれが発生している状態で1ピクセルとなるに過ぎない。別の表現をすると、y軸線回りに2度未満の角度だけ回転することによりカメラのキャリブレーションずれが発生する場合、誤差を、対応する特徴点を探索する場合に検出することが難しくなるが、その理由は、特徴点が25ピクセル超、エピポーラ線上にある方向に沿ってシフトした場合でも、キャリブレーションずれにより特徴点が1ピクセル未満しか、エピポーラ線から外れる方向にシフトしないからである。
本発明の幾つかの実施形態による他のカメラと同一直線上に位置していない第3カメラCAM3を追加することにより、これを大きく変えることができる。図9Aから分かるように、第3カメラが、他の2台のカメラの間を延びる基線から43.3mmだけ外れて、かつマスターカメラ(例えば、CAM1)の真上に配置される場合、CAM2の回転は、「Epi err 3 view top master」の記号が付された曲線から分かるように、第3カメラCAM3とスレーブカメラ又は第2カメラCAM2との間のエピポーラ線から外れる場合の誤差eとして検出可能である。例えば、スレーブカメラ又は第2カメラCAM2がy軸線回りに0.5度の角度だけ回転することにより、エピポーラ線から外れる場合の約4ピクセルの誤差が生じて、当該誤差をシステムが検出することができる。これとは異なり、2台カメラシステムでは、0.5度の角度だけ回転することにより、エピポーラ線から外れる場合の1ピクセル未満の誤差が生じることになって、当該誤差を検出できない可能性がある。
幾つかの実施形態では、第3カメラCAM3が他のカメラの間の基線の中点の上方に配置される。これらの実施形態では、所定のキャリブレーションずれ角度に対応するエピポーラ誤差の大きさの増加は、「Epi err 3 view middle」の記号が付された曲線により表わされる。しかしながら、本発明の実施形態は、これに限定されない。
図9Bは、図9Aと同様であるが、カメラ群のうち2台のカメラの間の基線の長さを50.0mmから70.0mmに変えている。また、図9Bに示す分析では、基線と第3カメラとの間の垂直距離を60.62mmに増やしている。図9Bから分かるように、視差誤差の曲線「Epi err 2 views」、「Epi err 3 view top master」、及び「Epi err 3 view middle」は、図9Aにおける曲線とほぼ同じであり、2台カメラ配置構成におけるエピポーラ線から外れる場合の誤差は、約2度の角度未満のキャリブレーションずれ現象について1ピクセル未満とすることができ、同一直線上に位置していない第3カメラは、エピポーラ線から外れる場合の誤差の大きさを大幅に増加させる。
図9A及び図9Bに提示されるデータは、分析方法を、上に説明した異なる装置に収容される広範囲の複数台カメラシステムの空間配置に適用することができることを示している。
キャリブレーションずれを検出する方法
図10は、本発明の1つの実施形態による同一直線上に位置していない少なくとも3台のカメラを含む奥行きカメラシステムにおけるキャリブレーションずれ現象を検出する方法のフローチャートである。図10を参照するに、奥行きカメラシステムのキャリブレーションずれを検出する方法1000では、特徴点(例えば、3台のカメラから見ることができるシーン中のポイントpにある特徴点)を、第1カメラ1010で撮影される第1画像中に、第2カメラ1020で撮影される第2画像中に、第3カメラ1030で撮影される第3画像中に、ほぼ同時に(例えば、同調して)検出する。図8を参照するに、ポイントpにある特徴点は、位置x1,x2,及びx3にそれぞれ現われる。
操作1040では、第2画像中の第1共役エピポーラ線を、キャリブレーションパラメータ、及び第1画像中の特徴点の位置に基づいて特定する(例えば、図8に示すように、第1共役エピポーラ線132−1を、第1カメラCAM1の撮像平面111内の位置x1に基づいて特定する)。操作1050では、第2画像中の第2共役エピポーラ線を、キャリブレーションパラメータ、及び第3画像中の特徴点の位置に基づいて特定する(例えば、図8に示すように、第2共役エピポーラ線132−3を、第3カメラCAM3の撮像平面113内の位置x3に基づいて特定する)。共役エピポーラ線の特定では、例えば線位置を他の画像の検出特徴ポイント、及びキャリブレーションパラメータに基づいて計算することができ、これらのパラメータはキャリブレーション作業中に測定された。
操作1060では、第2画像中の特徴点の検出位置(例えば、図8のx^2)と第1共役エピポーラ線(例えば、図8のエピポーラ線132−1)との第1差異を計算する(例えば、この差異は、図8に示すエピポーラ線から外れる場合の誤差e 1に対応する)。同様に、操作1070では、第2画像中の特徴点の検出位置(この場合も図8のx^2と第2共役エピポーラ線(例えば、図8のエピポーラ線132−3)との第2差異を計算する(例えば、この差異は、図8に示すエピポーラ線から外れる場合の誤差e 2に対応する)。
操作1080では、第1差異を閾値と比較し、第2差異を閾値と比較する。第1差異及び第2差異の閾値は、同じとするか、又は異ならせることができる。これらの差異のうち少なくとも一方の差異が閾値よりも大きい場合、奥行きカメラシステム100は、カメラのキャリブレーションずれが発生していることを操作1090において検出する。しかしながら、これらの差異の両方の差異が、閾値を下回る(例えば、ゼロ)場合、奥行きカメラシステム100は、システムがキャリブレーションされた状態になっていることを操作1092において検出する。
このような閾値は、ピクセル単位であり、カメラ解像度、特徴点検出及び照合操作に際する予測ノイズ、及び検出したいと考えられるキャリブレーション誤差量に従って設定することができる。
本発明の他の実施形態では、キャリブレーションずれは、画像中の特徴点の予測位置に基づいて検出することができる。例えば、第1共役エピポーラ線及び第2共役エピポーラ線を操作1040及び1050において特定した後、特徴点の予測位置x2は、第1共役エピポーラ線と第2共役エピポーラ線の交点の位置に基づいて計算することができる。次に、予測位置x2と検出位置x^2との差異を計算することができ、システムは、この差異が閾値を上回っていると判断すると、カメラのキャリブレーションずれが発生していると判断することができる。
したがって、本発明の実施形態は、同一直線上に位置していない3台のカメラを含む奥行きカメラシステムのキャリブレーションずれを検出することができる。
奥行きカメラシステム内のカメラの空間配置
本発明の実施形態では、奥行き検知カメラペア(CAM1及びCAM2で指示される)を結ぶ軸線に対してずれた位置にある第3カラーカメラ(例えば、CAM3で指示される)は、カメラ群のいずれかのカメラがキャリブレーションされた状態から、システムの残りの構成要素に対して(例えば、他の2台のカメラに対して)ずれた状態になる時点の検出も可能にしながら、シーンの融合カラー情報及び奥行き情報を略同時に取得することができる。
図6を参照した上の説明から分かるように、3台のカメラの広範囲の空間構成が存在する。例えば、第3カメラCAM3が、第1カメラCAM1と第2カメラCAM2との間の基線の中点の上方の位置607に配置される第1構成では、基線と第3カメラCAM3と第1カメラ又は第2カメラとの間の直線とがなす角度をαと表わすことができる。別の構成では、第3カメラCAM3は位置606に配置することができ、第3カメラは、他のカメラ群のうち1台のカメラの真上に配置されて、第3カメラと第1カメラとの間の直線が、第1カメラと第2カメラとの間の基線と直角になり、第2カメラと第3カメラとの間の直線と当該基線とが角度φをなす。
分析から、エピポーラ線から外れる場合のカメラペア間の誤差の絶対値をエピポーラ線上にある場合の誤差の絶対値で除算して得られる値の合計値は、3台のカメラが互いに等距離(例えば、正三角形)に位置する場合に最大になることが分かる。
これとは異なり、上に説明したように、遮蔽は、これらのカメラが互いにより接近して配置される場合に低減される。
このようなことから、キャリブレーションずれ検出機能及び遮蔽低減の両方を、同一直線上に位置していないシステムのカメラ群の配置構成を決定する際に考慮に入れる必要がある。遮蔽とキャリブレーションずれ検出性(及び/又は可能な限り大きな共通視野を有すること)のトレードオフから、多種多様なカメラ配置を、各最適化要素が与えられる場合に異なる重みを割り当てることにより想到することができる。また、最適な解決策の利点の90%又は95%をもたらす解決策のような良好であるが最適ではない配置構成を本発明の実施形態に、カメラ群の間のディスプレイ装置の配置のような他の設計制約に基づいて含めることもできる。
図6を参照するに、カメラ群のうち2台のカメラは、互いに基線距離Bだけ離間される。1つの実施形態では、これらの2台のカメラは、赤外線カメラであり、奥行き計算を行なうために使用される。このようなことから、基線は、奥行きデータの精度を、目標物からカメラまでの距離の関数としてほぼ決定するファクタ群のうちの1つのファクタである。具体的には、奥行き精度は、以下の数式により与えられる:
式中、Δzは、奥行きを推定する際の精度又は統計的誤差であり、zは、目標物までの距離であり、fは、2台のカメラの焦点距離であり、Bは、2台のカメラの間の基線又は距離である。図9A及び図9Bのモデル化システムでは、基線長はそれぞれ50mm及び70mmであったが、本発明の実施形態は、これらには限定されない。
平行等位化を行なった後の基線長B1,2だけ離れたステレオペアの2台のカメラCAM1及びCAM2が、距離ZBにある背景(例えば、壁)を背景に、距離ZFにある前景の物体を観測する場合、各カメラにおける画像は、遮蔽された背景ピクセル領域(すなわち、ピクセル群のうち、1台のカメラから見えるが、他のカメラからは見えない背景の複数点の投影画素であるピクセル)を含む。各画像中の遮蔽領域(図3参照)の面積は、前景物体の距離ZF及び背景の距離ZBの関数であるのみならず、焦点距離fの関数である関数g(ZF,ZB,f)に基線B1,2を乗算して得られる(便宜上、2台のカメラの焦点距離が同じ焦点距離fであると仮定する)。
同様に、遮蔽量を、3眼システムにおいて焦点距離fを持つ第3カメラCAM3に関して計算する。例えば、第3カメラCAM3と、第1カメラCAM1で撮影される画像との間の遮蔽について考察する場合、画像上で測定される遮蔽量は、同じ関数g(ZF,ZB,f)に新規基線B1,3(例えば、第1カメラCAM1と第3カメラCAM3との間の距離)を乗算して得られる値に等しい()。これらの2つの遮蔽面積(CAM1とCAM2との間の遮蔽面積、及びCAM1とCAM3との間の遮蔽面積)の比はしたがって、関数gが同じであるので、B1,3/B1,2に等しい。
本発明の1つの実施形態では、第1カメラCAM1及び第2カメラCAM2は、基線距離B1,2だけ離れ、基線距離B1,2は、携帯電話、タブレット、又はラップトップコンピュータのようなカメラシステムを収容する物理装置のサイズのような注意事項に基づいて選択することができる。これとは異なり、第3カメラCAM3(例えば、カラーカメラ)の配置は、上の遮蔽比B1,3/B1,2の中のパラメータB1,3を調整するように選択することができる。
図11A、図11B、図11C、及び図11Dは、本発明の実施形態による少なくとも3台のカメラを含む奥行きカメラシステムにおける遮蔽及びエピポーラ誤差検出の分析結果を示すグラフである。奥行きカメラシステムのカメラ群のうち2台のカメラは、基線に沿って一定距離に配置される。第3カメラは基線から離間され、グラフの横軸は、基線からの第3カメラの距離である。グラフの縦軸は、グラフで「ratio(比率)」と表記される性能指数を表わしている。
1つの実施形態では、エピポーラ誤差検出性能指数は、エピポーラ線から外れる場合の全ての誤差の各誤差の絶対値を、エピポーラ線上にある場合の誤差の絶対値で除算して得られる値の合計値であり(「detected epi error(検出エピポーラ誤差)」の記号が付された曲線を参照)、遮蔽性能指数は、比率B1,3/B1,2である(「vertical/horizontal occlusion(垂直/水平遮蔽)」の記号が付された曲線を参照)。このようなことから、1つの実施形態では、エピポーラ線から外れる場合に検出される誤差、及び遮蔽量の両方を考慮に入れた性能指数は、図11A及び図11Bにおいて「det err-occlusion(検出誤差−遮蔽量)」の記号が付された曲線から分かるように、これらの性能指数の間の差異である。
図11Aは、3台のカメラを備える奥行きカメラシステムの分析結果を示すグラフであり、カメラ群のうち2台のカメラは、長さ50mmの基線に沿って配置される。図11Aに示すように、かつ上に説明したように、「detected epi error」曲線は、3台のカメラが正三角形に配置される場合、例えば第3カメラが基線から約43.3mmの距離の位置に配置される場合に最大値を有する。遮蔽指数「vertical/horizontal occlusion」は、第3カメラと他のカメラとの間の距離が最小になる場合(言い換えれば、3台のカメラが同一直線上に位置している場合)に最小になるが、これにより、「detected epi error」指数も最小になって望ましくない。このようなことから、「det err-occlusion」と表わされる2つの性能指数の差異を図11に更に示す。この曲線は、約35.6度の角度α(図6に図示される通りの)に対応する約17.9mmの位置に最大値を有する。
図11Bは、3台のカメラを備える奥行きカメラシステムの分析結果を示すグラフであり、カメラ群のうち2台のカメラは、長さ70mmの基線に沿って配置される。図11Bは、図11Aとほぼ同様であり、基線が長いので距離に目盛りを付けているが(例えば、幾何学により、「detected epi error」の最大値は、約60.6mmに位置し、「det err-occlusion」の最大値は約25.1mmに位置している)、エピポーラ線から外れる場合に検出される誤差を大きくする、又は最大にするとともに、遮蔽量を低減させる、又は最小にすることを考慮に入れた性能指数(「det err-occlusion」)の最大値に対応する角度αは依然として、約35.6度の角度に最大値を有する。
約35.6度の角度αが本発明の実施形態によるカメラシステムの幾つかの配置構成に最適であるが、本発明の実施形態はこれに限定されず、「det err-occlusion」指数が良好な性能範囲に収まる(例えば、約35.6度の角度に位置する最大値の75%超)範囲の角度αも含む。例えば、前記百分位数で表示される場合、角度α及び垂直基線の範囲は、以下の通りに推定することができる:75%では、αは、約19.8〜約48.9度の範囲の角度であり、垂直基線は、9.0〜28.7mmの範囲であり;80%では、αは、約21.6〜約47.6度の範囲の角度であり、垂直基線は、9.9〜27.4mmの範囲であり;85%では、αは、約23.7〜約46.1度の範囲の角度であり、垂直基線は、11.0〜26.0mmの範囲であり;90%では、αは、約26〜約44.3度の範囲の角度であり、垂直基線はそれに応じて、12.2〜24.4mmの範囲であり;95%では、αは、28.9〜41.9度の範囲の角度であり、垂直基線はそれに応じて、13.8〜22.4mmの範囲である。図11Aに示す90%百分位数及び95%百分位数の位置の横線は、例示のためにのみ図示されており、寸法通りにはなっていない。
本発明について特定の好適な実施形態に関連付けながら説明してきたが、本発明は開示の実施形態に限定されるのではなく、添付の特許請求の範囲、及び特許請求の範囲の均等物の趣旨及び範囲に含まれる様々な変形物及び等価な配置構成を包含するものとする。
例えば、本発明の幾つかの実施形態が、奥行き知覚3眼(又は、3台カメラ)システムに関連して上に説明されているが、本発明の実施形態はこれに限定されず、4台以上のカメラを有する奥行き知覚システムに適用することができる。カメラの配置構成を計算により求める作業は、システム内のカメラ群の全てのカメラに関する遮蔽量及びキャリブレーションずれコストの重み付け平均に基づいて行なわれる。
図11C及び図11Dは、3台のカメラを備える本発明の1つの実施形態による奥行きカメラシステムの分析結果を示すグラフであり、カメラ群のうち2台のカメラは、長さ50mmの基線に沿って配置され、カメラ群のうち1台のカメラは、他の2台のカメラよりも高い解像度を有する。上の説明では、便宜上、これらのカメラは同じ解像度を有していると仮定した。しかしながら、実際には、カラーカメラは普通、赤外線カメラ(例えば、奥行き計算に使用されるカメラ)よりもずっと高い解像度(例えば、百万画素の数倍程度の解像度)を有する。図11C及び図11Dは、本明細書において提示される方法を、異なる解像度及び略同じ視野のカメラを備える3眼システムに適用することもできることを示している。詳細には、図11C及び図11Dでは、第3カメラ(例えば、CAM3)が、2.0の解像度倍率(本明細書では、幾つかの実施形態において、「カラー解像度倍率」とも表記される)を有すると仮定して、垂直方向及び水平方向の両方向に2倍の解像度を持つカメラであることを示唆しているので、他の基線カメラ(例えば、CAM1及びCAM2)の解像度の合計2x2=4倍の解像度を有することを示唆している。例えば、CAM1及びCAM2が共に、640ピクセル×480ピクセルの解像度を有し、CAM3が、1280ピクセル×960ピクセルの解像度を有する場合、解像度倍率は2.0である(例えば、1280ピクセル/640ピクセル=2.0及び960ピクセル/480ピクセル=2.0)。「color resolution factor(カラー解像度倍率)」という用語は、本明細書では、カラーカメラが他のカメラ(例えば、カラーカメラ以外のカメラ)よりも高い解像度を有することを提案示唆するために使用されるが、本発明の実施形態はこれに限定されず、より高い解像度を有するカメラは、カラーカメラである必要はなく、より低い解像度を有するカメラとは異なるスペクトル光を撮影する必要もない。例えば、全ての3台のカメラは、カラーカメラ又は可視光カメラとすることができ、全ての3台のカメラは赤外線カメラ、又はこれらの赤外線カメラの様々な組み合わせとすることができ、これらのカメラのいずれかのカメラは、他のカメラよりも高い解像度を有することができる。
図11Cはしたがって、同じ50mmの基線長を有する図11Aと同様であるが、第3カメラの解像度が異なっている。図11Dは、第3カメラが、「color resolution factor(カラー解像度倍率)」=1.0(図11Aと同じであり、字幕「color res f.=1.0」が付されている)を有する場合のエピポーラ誤差と、第3カメラが、「color resolution factor(カラー解像度倍率)」=2.0(図11Cと同じであり、字幕「color res f.=2.0」が付されている)を有する場合のエピポーラ誤差とを、他の2台のカメラの間の基線又は軸線に対する第3カメラのmm単位の垂直位置(図11Dのx軸に沿って図示される)の関数として比較している。この実施形態では、第3カメラ(例えば、CAM3)がより高い解像度を有することにより第3カメラを、図11Aの実施形態(1.0のカラー解像度倍率を有する)の同じ誤差検出性能を維持しながら、他の2台のカメラ(例えば、CAM1及びCAM2)の基線軸に、カラー解像度倍率が2.0の場合に、17.9mmから9.9mmにより接近させることができる。これは、「カラー解像度倍率」1.0曲線に対応する17.9mmの最適垂直位置(図11Dにおいて「opt vert pos, color res f.=1.0,17.9[mm]」の記号が付された点線垂直線で図示される)からカラー解像度倍率2.0曲線までの横線を辿って、同じ性能を有するカラー解像度倍率2.0曲線の対応部分を発見して、この交点が、垂直基線と水平基線とがなす角度が21.6度となる9.9mmの垂直位置に対応していることを特定することにより、当該図から明らかになる。図3に示すように、2台のカメラの間の基線距離を短距離化することにより、不所望な遮蔽の影響を低減させることもできる。このように、図11Dを参照して説明される実施形態は、カラー解像度倍率が1.0である実施形態と同じ誤差検出機能を、遮蔽の影響を低減させながら維持することができる。図11Cは更に、「det err-occlusion」指数が最大値の75%以内に収まる角度αの範囲が、約38.6度の角度である本発明の1つの実施形態を示している。前記百分位数で表示される場合、角度αは、約21.4度〜約53.4度の範囲であり、垂直基線長(50.0mmの水平基線長が与えられる場合)は、9.8mm〜33.7mmの範囲である。同様の範囲を、他の実施形態について計算することができる。「det err-occlusion」指数が最大値の80%以内に収まる1つの実施形態では、角度αの範囲は、約23.4度〜約51.9度の範囲である(例えば、約10.8〜約31.9mmの範囲の垂直基線長)。「det err-occlusion」指数が最大値の85%以内に収まる1つの実施形態では、角度αの範囲は、約25.5度〜約50.3度の範囲である(例えば、約11.9〜約30.1mmの範囲の垂直基線長)。「det err-occlusion」指数が最大値の90%以内に収まる1つの実施形態では、角度αの範囲は、約28.0度〜約48.2度の範囲である(例えば、約13.3〜約28.0mmの範囲の垂直基線長)。「det err-occlusion」指数が最大値の95%以内に収まる1つの実施形態では、角度αの範囲は、約31.3度〜約45.5度の範囲である(例えば、約15.2〜約25.4mmの範囲の垂直基線長)。
図11A、図11B、図11C、及び図11Dは、本発明の幾つかの好適な実施形態を示している。例えば、図11Aは、1.0のカラー解像度倍率を有するシステムの分析結果を示しており、図11Cは、2.0のカラー解像度倍率を有するシステムの分析結果を示しているが、本発明の実施形態はこれらには限定されず、本発明の実施形態は、異なるカラー解像度倍率を有するシステムを包含することもできる。分析的に、キャリブレーションされた状態からずれた状態の検出性、及び本発明の垂直基線と水平基線との間の遮蔽の低減に最適な角度αは、以下の通りに表現することができる:
式中、
が成り立ち、r は、解像度倍率であり、argmaxα{expression} は、表現式を最大化するα値を発見する既知の関数である。また、上に説明したように、最適角度 αoptimal 近傍の角度 α の範囲は、性能が最適に近い場合の範囲として計算することができる(例えば、最適角度 αoptimal における性能の75%以上、90%以上、又は95%以上となる角度範囲)。

Claims (20)

  1. 第1カメラ、第2カメラ、及び第3カメラを備える奥行きカメラシステムのキャリブレーションずれを検出する方法であって、前記第1カメラ、第2カメラ、及び第3カメラは、実質的に重畳する重畳視野を所定の方向に有し、前記方法は:
    特徴点を前記第1カメラで撮影される第1画像中に検出し、
    前記特徴点を前記第2カメラで撮影される第2画像中に検出し、
    前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず、
    第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及び複数のキャリブレーションパラメータに従って特定し、
    第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記複数のキャリブレーションパラメータに従って特定し、
    前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算し、
    前記差異が閾値を上回ると、前記奥行きカメラシステムのキャリブレーションずれが発生していることを示す通知を出力する、
    ことを具備する方法。
  2. 前記差異は、第1差異及び第2差異を含み、
    前記差異を計算することは:
    前記第2画像中の前記特徴点の前記検出位置と前記第1共役エピポーラ線との第1差異を計算し、
    前記第2画像中の前記特徴点の前記検出位置と前記第2共役エピポーラ線との第2差異を計算する、
    ことを具備する、請求項1に記載の方法。
  3. 更に、前記第1共役エピポーラ線と前記第2共役エピポーラ線の交点の位置を計算することを具備し、
    前記差異を計算することは、前記第2画像中の前記特徴点の前記検出位置と前記交点の前記位置との間の距離を計算することを具備する、
    請求項1に記載の方法。
  4. 前記第1カメラ及び前記第2カメラは、不可視光を撮影するように構成され、
    前記第3カメラは、可視光を撮影するように構成される、
    請求項1に記載の方法。
  5. 更に、前記第1カメラと前記第2カメラとの間に配置される投影装置により、不可視光凹凸パターンを前記重畳視野の方向に放出する、請求項4に記載の方法。
  6. 奥行き知覚カメラシステムであって:
    赤外線画像を撮影するように構成される第1カメラと、
    第2カメラと、
    前記第1カメラ及び第2カメラと同一直線上に位置しないように配置される第3カメラであって、前記第1カメラ、第2カメラ、及び第3カメラが、実質的に重畳する重畳視野を所定の方向に有し、前記第2カメラ及び第3カメラのうち少なくとも一方のカメラが、可視光画像を撮影するように構成され、前記第3カメラが、前記第1カメラ及び第2カメラから等距離に位置し、前記第3カメラが、前記第1カメラの解像度よりも解像度倍率rだけ高い解像度を有する、前記第3カメラと、
    画像を前記第1カメラ、前記第2カメラ、及び前記第3カメラから受信するように構成される画像信号プロセッサであって、前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラのキャリブレーションずれを検出するように構成されている、画像信号プロセッサと、
    を具備し、
    第1基線は、前記第2カメラと前記第1カメラとの間に延び、
    第2基線は、前記第2カメラと前記第3カメラとの間に延び、
    前記第1基線と前記第2基線とがなす角度αは略αoptimalであり、以下の関係
    が成り立つ、奥行き知覚カメラシステム。
  7. 前記解像度倍率は1.0であり、
    前記角度αは、26.0度〜44.3度の範囲である、
    請求項6に記載の奥行き知覚カメラシステム。
  8. 前記角度αは、28.9度〜41.9度の範囲である、請求項7に記載の奥行き知覚カメラシステム。
  9. 前記角度αは約35.6度である、請求項8に記載の奥行きカメラシステム。
  10. 前記解像度倍率は2.0であり、
    前記角度αは、21.4度〜53.4度の範囲である、
    請求項6に記載の奥行き知覚カメラシステム。
  11. 前記第1カメラ及び前記第2カメラは、不可視光を撮影するように構成され、
    前記第3カメラは、可視光を撮影するように構成される、
    請求項6に記載の奥行き知覚カメラシステム。
  12. 更に、前記第1カメラと前記第2カメラとの間に配置される投影装置を備え、前記投影装置は、不可視光凹凸パターンを前記重畳視野の方向に放出するように構成される、請求項6に記載の奥行き知覚カメラシステム。
  13. 更に、前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラの前記キャリブレーションずれを:
    特徴点を前記第1カメラで撮影される第1画像中に検出し、
    前記特徴点を前記第2カメラで撮影される第2画像中に検出し、
    前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず、
    第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及び複数のキャリブレーションパラメータに従って特定し、
    第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記複数のキャリブレーションパラメータに従って特定し、
    前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算し、
    前記差異が閾値を上回ると、前記奥行きカメラシステムのキャリブレーションずれが発生していることを示す通知を出力する、
    ことにより、検出するように構成される、請求項6に記載の奥行き知覚カメラシステム。
  14. 前記差異は、第1差異及び第2差異を含み、
    前記画像信号プロセッサは前記差異を:
    前記第2画像中の前記特徴点の前記検出位置と前記第1共役エピポーラ線との第1差異を計算し、
    前記第2画像中の前記特徴点の前記検出位置と前記第2共役エピポーラ線との第2差異を計算する、
    ことにより計算するように構成される、請求項13に記載の奥行き知覚カメラシステム。
  15. 前記画像信号プロセッサは更に:
    前記第1共役エピポーラ線と前記第2共役エピポーラ線の交点の位置を計算し、
    前記差異を、前記第2画像中の前記特徴点の前記検出位置と前記交点の前記位置との間の距離を計算することにより、計算する、
    ように構成される、請求項13に記載の奥行き知覚カメラシステム。
  16. モバイル機器であって、
    ディスプレイと、
    赤外線画像を撮影するように構成される第1カメラであって、前記第1カメラが前記ディスプレイの第1辺縁に隣接する、前記第1カメラと、
    前記ディスプレイの前記第1辺縁に隣接する第2カメラと、
    前記第1カメラ及び第2カメラと同一直線上に位置しないように、かつ前記ディスプレイの第2辺縁に隣接するように配置される第3カメラであって、前記第1カメラ、第2カメラ、及び第3カメラが、実質的に重畳する重畳視野を有し、前記第2カメラ及び第3カメラのうち少なくとも一方のカメラが、可視光画像を撮影するように構成され、前記第3カメラが、前記第1カメラ及び第2カメラから等距離に位置し、前記第3カメラが、前記第1カメラの解像度よりも解像度倍率rだけ高い解像度を有する、前記第3カメラと、
    前記ディスプレイを制御し、画像を前記第1カメラ、前記第2カメラ、及び前記第3カメラから受信するように構成される画像信号プロセッサであって、前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラのキャリブレーションずれを検出するように構成される、画像信号プロセッサと、
    を具備し、
    第1基線は、前記第2カメラと前記第1カメラとの間に延び、
    第2基線は、前記第2カメラと前記第3カメラとの間に延び、
    前記第1基線と前記第2基線とがなす角度αは略αoptimalであり、以下の関係
    が成り立つ、モバイル機器。
  17. 前記解像度倍率rは1.0であり、
    前記角度αは、26.0度〜44.3度の範囲である、
    請求項16に記載のモバイル機器。
  18. 前記角度αは、28.9度〜41.9度の範囲である、請求項17に記載のモバイル機器。
  19. 前記解像度倍率rは2.0であり、
    前記角度αは、21.4度〜53.4度の範囲である、
    請求項16に記載のモバイル機器。
  20. 前記画像信号プロセッサは、前記第1カメラ、第2カメラ、及び第3カメラの前記キャリブレーションずれを:
    特徴点を前記第1カメラで撮影される第1画像中に検出し、
    前記特徴点を前記第2カメラで撮影される第2画像中に検出し、
    前記特徴点を前記第3カメラで撮影される第3画像中に検出し、前記第3カメラが、前記第1カメラ及び第2カメラと同一直線上には位置しておらず、
    第1共役エピポーラ線を前記第2画像中に、前記第1画像中の前記特徴点の検出位置、及び複数のキャリブレーションパラメータに従って特定し、
    第2共役エピポーラ線を前記第2画像中に、前記第3画像中の前記特徴点の検出位置、及び前記複数のキャリブレーションパラメータに従って特定し、
    前記第2画像中の前記特徴点の検出位置と前記第1及び第2共役エピポーラ線との差異を計算し、
    前記差異が閾値を上回ると、前記第1カメラ、第2カメラ、及び第3カメラのキャリブレーションずれが発生していることを示す通知を出力する、
    ことにより、検出するように構成される、請求項16に記載のモバイル機器。
JP2018533803A 2015-12-22 2016-12-02 奥行き知覚3眼カメラシステム Active JP6681470B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562271212P 2015-12-22 2015-12-22
US62/271,212 2015-12-22
US15/147,879 US9674504B1 (en) 2015-12-22 2016-05-05 Depth perceptive trinocular camera system
US15/147,879 2016-05-05
PCT/US2016/064831 WO2017112393A1 (en) 2015-12-22 2016-12-02 Depth perceptive trinocular camera system

Publications (2)

Publication Number Publication Date
JP2019500613A true JP2019500613A (ja) 2019-01-10
JP6681470B2 JP6681470B2 (ja) 2020-04-15

Family

ID=58776521

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018533803A Active JP6681470B2 (ja) 2015-12-22 2016-12-02 奥行き知覚3眼カメラシステム

Country Status (6)

Country Link
US (2) US9674504B1 (ja)
EP (1) EP3394832A4 (ja)
JP (1) JP6681470B2 (ja)
CN (1) CN108780504B (ja)
BR (1) BR112018012776A2 (ja)
WO (1) WO2017112393A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210149018A (ko) * 2020-05-27 2021-12-08 베이징 샤오미 모바일 소프트웨어 컴퍼니 리미티드 난징 브랜치. 이미지 처리 방법 및 장치, 카메라 컴포넌트, 전자 기기, 저장 매체
JP7397734B2 (ja) 2020-03-30 2023-12-13 ミネベアミツミ株式会社 測距システム、測距方法及び測距プログラム

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101729164B1 (ko) * 2015-09-03 2017-04-24 주식회사 쓰리디지뷰아시아 멀티 구 교정장치를 이용한 멀티 카메라 시스템의 이미지 보정 방법
KR101729165B1 (ko) 2015-09-03 2017-04-21 주식회사 쓰리디지뷰아시아 타임 슬라이스 영상용 오차교정 유닛
US10008028B2 (en) 2015-12-16 2018-06-26 Aquifi, Inc. 3D scanning apparatus including scanning sensor detachable from screen
TWI584634B (zh) * 2016-03-08 2017-05-21 聚晶半導體股份有限公司 適於產生深度圖的電子裝置與方法
US10484666B1 (en) 2016-03-17 2019-11-19 Herman Herman Method and apparatus for a computer vision camera unit
US10645277B1 (en) * 2016-03-17 2020-05-05 Herman Herman Method and apparatus for a computer vision camera unit
JP6860003B2 (ja) * 2016-03-28 2021-04-14 日本電気株式会社 無人飛行装置制御システム、無人飛行装置制御方法および検査装置
US11060853B2 (en) * 2016-09-14 2021-07-13 Scantech (Hangzhou) Co., Ltd. Three-dimensional sensor system and three-dimensional data acquisition method
CN106403845B (zh) * 2016-09-14 2017-10-03 杭州思看科技有限公司 三维传感器系统及三维数据获取方法
US10430994B1 (en) * 2016-11-07 2019-10-01 Henry Harlyn Baker Techniques for determining a three-dimensional textured representation of a surface of an object from a set of images with varying formats
CN206698329U (zh) * 2016-11-08 2017-12-01 聚晶半导体股份有限公司 摄像模块和摄像装置
EP3566193A4 (en) 2017-01-04 2020-08-26 Aquifi, Inc. SYSTEMS AND METHODS FOR SHAPE-BASED OBJECT RECOVERY
US11025887B2 (en) * 2017-02-27 2021-06-01 Sony Corporation Field calibration of stereo cameras with a projector
US11379688B2 (en) 2017-03-16 2022-07-05 Packsize Llc Systems and methods for keypoint detection with convolutional neural networks
TWI672938B (zh) * 2017-03-31 2019-09-21 鈺立微電子股份有限公司 可校正遮蔽區的深度圖產生裝置
KR102328539B1 (ko) * 2017-07-27 2021-11-18 삼성전자 주식회사 복수의 카메라를 이용하여 영상을 획득하기 위한 전자 장치 및 이를 이용한 영상 처리 방법
CN107277380B (zh) * 2017-08-16 2020-10-30 成都极米科技股份有限公司 一种变焦方法及装置
JP6951917B2 (ja) * 2017-09-15 2021-10-20 株式会社ソニー・インタラクティブエンタテインメント 撮像装置
CA3115898C (en) 2017-10-11 2023-09-26 Aquifi, Inc. Systems and methods for object identification
US10949700B2 (en) * 2018-01-10 2021-03-16 Qualcomm Incorporated Depth based image searching
CN110099226B (zh) * 2018-01-31 2024-04-09 宁波舜宇光电信息有限公司 阵列摄像模组及其深度信息采集方法和电子设备
US10902680B2 (en) * 2018-04-03 2021-01-26 Saeed Eslami Augmented reality application system and method
WO2019225682A1 (ja) * 2018-05-23 2019-11-28 パナソニックIpマネジメント株式会社 三次元再構成方法および三次元再構成装置
CN108921772A (zh) * 2018-06-29 2018-11-30 广东星舆科技有限公司 高精度地图采集系统和方法
DE102019118457A1 (de) * 2018-07-13 2020-01-16 Sony Semiconductor Solutions Corporation Tof-(time-of-flight)-kamera, elektronikeinrichtung und kalibrierungsverfahren
US11044418B2 (en) * 2018-07-24 2021-06-22 Black Sesame International Holding Limited Three camera alignment in mobile devices
JP7240115B2 (ja) * 2018-08-31 2023-03-15 キヤノン株式会社 情報処理装置及びその方法及びコンピュータプログラム
US11589031B2 (en) * 2018-09-26 2023-02-21 Google Llc Active stereo depth prediction based on coarse matching
US11146763B1 (en) * 2018-10-31 2021-10-12 Snap Inc. Artistic and other photo filter light field effects for images and videos utilizing image disparity
CN109559353B (zh) * 2018-11-30 2021-02-02 Oppo广东移动通信有限公司 摄像模组标定方法、装置、电子设备及计算机可读存储介质
CN109598763B (zh) * 2018-11-30 2020-07-21 Oppo广东移动通信有限公司 摄像头标定方法、装置、电子设备和计算机可读存储介质
CN109584313B (zh) * 2018-11-30 2021-06-01 Oppo广东移动通信有限公司 摄像头标定方法、装置、计算机设备和存储介质
US11233954B1 (en) * 2019-01-24 2022-01-25 Rockwell Collins, Inc. Stereo infrared imaging for head mounted devices
CN110232715B (zh) * 2019-05-08 2021-11-19 奥比中光科技集团股份有限公司 一种多深度相机自校准的方法、装置及系统
CN110223355B (zh) * 2019-05-15 2021-01-05 大连理工大学 一种基于双重极线约束的特征标志点匹配方法
JP2020190438A (ja) * 2019-05-20 2020-11-26 株式会社リコー 計測装置および計測システム
US11629835B2 (en) * 2019-07-31 2023-04-18 Toyota Jidosha Kabushiki Kaisha Auto-calibration of vehicle sensors
DE102019212279B3 (de) * 2019-08-15 2021-01-28 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Überprüfen einer Kalibrierung von Umfeldsensoren
CN110830781B (zh) * 2019-10-30 2021-03-23 歌尔科技有限公司 一种基于双目视觉的投影图像自动校正方法及系统
CN111007939B (zh) * 2019-11-25 2021-09-21 华南理工大学 一种基于深度感知的虚拟现实系统空间定位方法
EP3855397B1 (en) * 2020-01-24 2021-12-29 Axis AB Imaging system
CN115298515A (zh) * 2020-03-26 2022-11-04 形创有限公司 用于保持摄影测量系统的精度的方法和系统
CN112639864B (zh) * 2020-05-19 2022-05-27 华为技术有限公司 用于测距的方法和装置
CN112129262B (zh) * 2020-09-01 2023-01-06 珠海一微半导体股份有限公司 一种多摄像头组的视觉测距方法及视觉导航芯片
US20220198731A1 (en) * 2020-12-23 2022-06-23 Facebook Technologies, Llc Pixel-aligned volumetric avatars
CN113129243A (zh) * 2021-03-10 2021-07-16 同济大学 基于红外与可见光图像融合的血管图像增强方法和系统
CN115134514B (zh) * 2021-03-29 2024-05-14 北京小米移动软件有限公司 图像采集方法、装置以及存储介质
CN113012238B (zh) * 2021-04-09 2024-04-16 南京星顿医疗科技有限公司 一种多深度相机快速标定与数据融合的方法
CN112990129B (zh) * 2021-04-27 2021-07-20 长沙万为机器人有限公司 基于视觉与激光雷达联合的三维物体检测方法及系统
CN116295278A (zh) * 2022-12-09 2023-06-23 中国科学院上海技术物理研究所 一种动态双目视觉相机基线的三维视觉测量系统
CN116503570B (zh) * 2023-06-29 2023-11-24 聚时科技(深圳)有限公司 图像的三维重建方法及相关装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096162A (ja) * 2006-10-06 2008-04-24 Iwate Univ 3次元距離計測センサおよび3次元距離計測方法
JP2009053136A (ja) * 2007-08-29 2009-03-12 Omron Corp 3次元計測方法および3次元計測装置
US20140168370A1 (en) * 2012-12-14 2014-06-19 Faro Technologies, Inc. Device for optically scanning and measuring an environment

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4654872A (en) * 1983-07-25 1987-03-31 Omron Tateisi Electronics Co. System for recognizing three-dimensional objects
JP2941412B2 (ja) * 1990-11-26 1999-08-25 株式会社東芝 3次元計測方法
GB2372659A (en) * 2001-02-23 2002-08-28 Sharp Kk A method of rectifying a stereoscopic image
CN1219397C (zh) * 2002-10-22 2005-09-14 张晓林 仿生型自动视觉和视线控制系统及方法
US7373270B2 (en) * 2003-03-26 2008-05-13 Sony Corporation Diagnosing device for stereo camera mounted on robot, and diagnostic method of stereo camera mounted on robot apparatus
DE10318500A1 (de) * 2003-04-24 2004-11-25 Robert Bosch Gmbh Vorrichtung und Verfahren zur Kalibrierung eines Bildsensors
US8073196B2 (en) * 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US8326020B2 (en) * 2007-02-28 2012-12-04 Sungkyunkwan University Foundation Structural light based depth imaging method and system using signal separation coding, and error correction thereof
US8259998B2 (en) * 2008-09-30 2012-09-04 Mazda Motor Corporation Image processing device for vehicle
ES2392229B1 (es) * 2010-08-27 2013-10-16 Telefónica, S.A. Método de generación de un modelo de un objeto plano a partir de vistas del objeto.
WO2012078126A1 (en) * 2010-12-08 2012-06-14 Thomson Licensing System and method for trinocular depth acquisition with triangular sensor
EP2602641B1 (de) * 2011-12-06 2014-02-26 Leica Geosystems AG Lasertracker mit positionssensitiven Detektoren zur Suche eines Ziels
EP2635022A1 (en) * 2012-02-29 2013-09-04 Flir Systems AB A method and system for performing alignment of a projection image to detected infrared (IR) radiation information
JP2014092461A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像処理装置および方法、画像処理システム、並びにプログラム
CA2938159C (en) 2013-02-04 2021-07-27 Valorisation-Recherche, Limited Partnership Omnistereo imaging
US9424650B2 (en) * 2013-06-12 2016-08-23 Disney Enterprises, Inc. Sensor fusion for depth estimation
US9247239B2 (en) * 2013-06-20 2016-01-26 Trimble Navigation Limited Use of overlap areas to optimize bundle adjustment
CN104424662B (zh) * 2013-08-23 2017-07-28 三纬国际立体列印科技股份有限公司 立体扫描装置
JP6596433B2 (ja) * 2014-02-05 2019-10-23 クレアフォーム・インコーポレイテッド 2つのカメラからの曲線の集合の構造化光整合
US9503708B2 (en) 2014-11-03 2016-11-22 Aquifi, Inc. Systems and methods for reducing z-thickness and zero-order effects in depth cameras

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008096162A (ja) * 2006-10-06 2008-04-24 Iwate Univ 3次元距離計測センサおよび3次元距離計測方法
JP2009053136A (ja) * 2007-08-29 2009-03-12 Omron Corp 3次元計測方法および3次元計測装置
US20140168370A1 (en) * 2012-12-14 2014-06-19 Faro Technologies, Inc. Device for optically scanning and measuring an environment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7397734B2 (ja) 2020-03-30 2023-12-13 ミネベアミツミ株式会社 測距システム、測距方法及び測距プログラム
KR20210149018A (ko) * 2020-05-27 2021-12-08 베이징 샤오미 모바일 소프트웨어 컴퍼니 리미티드 난징 브랜치. 이미지 처리 방법 및 장치, 카메라 컴포넌트, 전자 기기, 저장 매체
KR102458470B1 (ko) 2020-05-27 2022-10-25 베이징 샤오미 모바일 소프트웨어 컴퍼니 리미티드 난징 브랜치. 이미지 처리 방법 및 장치, 카메라 컴포넌트, 전자 기기, 저장 매체

Also Published As

Publication number Publication date
US20170223340A1 (en) 2017-08-03
CN108780504A (zh) 2018-11-09
EP3394832A1 (en) 2018-10-31
US9807371B2 (en) 2017-10-31
BR112018012776A2 (pt) 2018-12-04
WO2017112393A1 (en) 2017-06-29
US9674504B1 (en) 2017-06-06
EP3394832A4 (en) 2019-08-28
JP6681470B2 (ja) 2020-04-15
CN108780504B (zh) 2022-03-29
US20170180706A1 (en) 2017-06-22

Similar Documents

Publication Publication Date Title
JP6681470B2 (ja) 奥行き知覚3眼カメラシステム
US11985293B2 (en) System and methods for calibration of an array camera
US10992923B2 (en) Dynamic vision sensor and projector for depth imaging
CN110809786B (zh) 校准装置、校准图表、图表图案生成装置和校准方法
RU2769303C2 (ru) Оборудование и способ для формирования представления сцены
CN108307675B (zh) 用于vr/ar应用中的深度增强的多基线相机阵列系统架构
US9549174B1 (en) Head tracked stereoscopic display system that uses light field type data
US10540784B2 (en) Calibrating texture cameras using features extracted from depth images
US10516864B2 (en) Projector system
WO2018032841A1 (zh) 绘制三维图像的方法及其设备、系统
US20210256729A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
KR102176963B1 (ko) 수평 시차 스테레오 파노라마를 캡쳐하는 시스템 및 방법
Lemkens et al. Multi RGB-D camera setup for generating large 3D point clouds
US20170061695A1 (en) Wearable display apparatus, information processing apparatus, and control method therefor
US20140306951A1 (en) Image processing device and image processing method
JP2011160344A (ja) 立体画像補正装置および立体画像補正方法
TWI712310B (zh) 立體相機之校正品質的檢測方法及檢測系統
WO2021093803A1 (zh) 立体摄像机的校正品质的检测方法及检测系统
KR20110025020A (ko) 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법
JP2015106360A (ja) オブジェクト検出方法及びオブジェクト検出装置
US20160277729A1 (en) Image processing apparatus, method for operating same, and system comprising same
TWI812369B (zh) 控制方法、追蹤系統以及非暫態電腦可讀取媒體
JP7312594B2 (ja) キャリブレーション用チャートおよびキャリブレーション用器具
TW201325201A (zh) 可追蹤觀看者的立體顯示器
JP2021141423A (ja) 表示システム、表示制御装置及びプログラム

Legal Events

Date Code Title Description
A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A525

Effective date: 20180726

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190507

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190612

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200121

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200323

R150 Certificate of patent or registration of utility model

Ref document number: 6681470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250