JPWO2011096251A1 - ステレオカメラ - Google Patents

ステレオカメラ Download PDF

Info

Publication number
JPWO2011096251A1
JPWO2011096251A1 JP2011552721A JP2011552721A JPWO2011096251A1 JP WO2011096251 A1 JPWO2011096251 A1 JP WO2011096251A1 JP 2011552721 A JP2011552721 A JP 2011552721A JP 2011552721 A JP2011552721 A JP 2011552721A JP WO2011096251 A1 JPWO2011096251 A1 JP WO2011096251A1
Authority
JP
Japan
Prior art keywords
image
images
stereo camera
camera
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011552721A
Other languages
English (en)
Other versions
JP5472328B2 (ja
Inventor
宏 大和
宏 大和
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP2011552721A priority Critical patent/JP5472328B2/ja
Publication of JPWO2011096251A1 publication Critical patent/JPWO2011096251A1/ja
Application granted granted Critical
Publication of JP5472328B2 publication Critical patent/JP5472328B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • G03B35/10Stereoscopic photography by simultaneous recording having single camera with stereoscopic-base-defining system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/25Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Cameras In General (AREA)

Abstract

本発明はステレオカメラに関し、第1の画像を撮影するメインカメラと、メインカメラとは異なるカメラパラメータを有し、第2の画像を撮影するサブカメラと、第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、第1および第2の画像の一方と、距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備えている。

Description

本発明はステレオカメラに関し、特に、異なるカメラパラメータを持つ1対のカメラを備えたステレオカメラに関する。
1対のカメラを備えたステレオカメラは、両カメラによって得られた画像の視差に基づいて被写体までの距離情報を含んだ距離画像を生成することができるが、一般的に、ステレオカメラでは、対となるカメラは同一のカメラパラメータを持つカメラで構成されている。
例えば、特許文献1においては、水平方向に配置された2つのレンズで距離情報を含んだ3次元映像を撮像し、異なるもう1つのレンズで2次元画像を撮像する構成が開示され、焦点距離のある範囲までは3次元映像を取得し、その範囲を超えた場合は2次元画像を取得する構成が開示されているが、3次元映像用の2つのレンズは特性が同じレンズで構成されている。
また、特許文献2においては、ステレオカメラで得た画像と距離情報とに基づいて、任意視点で見たステレオ視用の画像を作成するシステムが開示されているが、ステレオカメラを構成する2つのカメラが同じカメラパラメータを持つことを前提としてステレオ視用の画像作成のための画像処理がなされている。
特開2004−297540号公報 特開2009−124308号公報
以上説明したように、従来のステレオカメラでは、対となるカメラは同一のカメラパラメータを持つカメラで構成されているが、共に高性能なカメラで構成すると、製造コストが増大するという問題があった。
本発明は、上記のような問題点を解決するためになされたものであり、任意の視点からのステレオ視画像を生成することが可能であるとともに、製造コストを抑制したステレオカメラを提供することを目的とする。
本発明に係るステレオカメラの第1の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備えている。
本発明に係るステレオカメラの第2の態様は、前記距離情報取得部が、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定する。
本発明に係るステレオカメラの第3の態様は、前記距離情報取得部が、前記第1および第2の画像に対して、一方をテンプレートとして他方とのテンプレートマッチングを行い、最も一致度が高い領域を前記対応点探索領域として決定する。
本発明に係るステレオカメラの第4の態様は、前記距離情報取得部が、前記第1および第2の画像の撮影倍率が異なる場合は、前記テンプレートとなる方の画像の解像度変換処理を行って前記テンプレートを作成する。
本発明に係るステレオカメラの第5の態様は、前記距離情報取得部が、前記第1および第2の画像に対して、オブジェクト認識により物体候補となる物体候補領域を抽出し、得られた物体候補領域どうしの比較を行って、最も一致度が高い領域を前記対応点探索領域として決定する。
本発明に係るステレオカメラの第6の態様は、前記距離情報取得部が、前記第1および第2の画像に対して、一方の画像上に他方の画像の光軸中心を設定し、一方の画像上に設定された前記他方の画像の光軸中心と、前記他方の画像の光軸中心とを合わせ、前記一方の画像を他方の画像を撮影した撮像素子に合う画像サイズに変換して重ね合わせることで、前記対応点探索領域を決定する。
本発明に係るステレオカメラの第7の態様は、前記距離情報取得部が、前記第1および第2の画像に対して、光軸中心を中心とした縦方向の画角の比率で前記対応点探索領域を決定する。
本発明に係るステレオカメラの第8の態様は、前記距離情報取得部が、前記第1および第2の画像に対して、エピポーラ線に沿った1次元の領域を前記対応点探索領域として決定する。
本発明に係るステレオカメラの第9の態様は、前記距離情報取得部が、前記第1および第2の画像のそれぞれの前記対応点探索領域に対して、対応点探索の基準側となる領域内の基準位置を、画素サイズよりも細かいサイズのサブピクセルの位置に設定して対応点探索を行う。
本発明に係るステレオカメラの第10の態様は、前記距離情報取得部が、前記第1および第2の画像のそれぞれの前記対応点探索領域の画素数が多い方を基準画像として対応点探索を行う。
本発明に係るステレオカメラの第11の態様は、前記距離情報取得部が、前記第1および第2の画像の撮影の際にズーム撮影が行われた場合には、ズームの程度に合わせて対応点のサンプリング間隔を変更する。
本発明に係るステレオカメラの第12の態様は、前記距離情報取得部が、ズーム倍率が大きくなるほど対応点のサンプリング間隔を小さくする。
本発明に係るステレオカメラの第13の態様は、前記距離情報取得部が、前記第1および第2の画像のそれぞれの前記対応点探索領域の画素数が少ない方の画素数に合わせて対応点のサンプリング間隔を変更する。
本発明に係るステレオカメラの第14の態様は、前記距離情報取得部が、対応点探索に使用されるウインドウの縦横比が、ウインドウを物体面に適用した場合に、物体面での縦横比が等方となるように設定して対応点探索を行う。
本発明に係るステレオカメラの第15の態様は、前記第1の撮像部が前記第2の撮像部よりも解像度が高く、前記左右画像生成部は、前記第1の画像をメイン画像とし、前記視差情報に従って前記第2の画像内の前記対応点探索領域の画像をずらして新たな第2の画像を生成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第16の態様は、前記左右画像生成部が、前記第2の画像の前記対応点探索領域内の画素数が、前記第1の画像の前記対応点探索領域内画素数よりも少ない場合には、前記第1の画像から画素情報を補充する。
本発明に係るステレオカメラの第17の態様は、前記第1の撮像部が前記第2の撮像部よりも解像度が高く、前記左右画像生成部は、前記第1の画像よりも前記第2の画像の方が撮影倍率が高い場合は、前記第2の画像を前記第1の画像に嵌め込むことで新たな第2の画像を生成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第18の態様は、前記第1の撮像部が前記第2の撮像部よりも解像度が高く、前記左右画像生成部は、前記第2の画像よりも前記第1の画像の方が撮影倍率が高い場合は、前記第1の画像を前記第2の画像に嵌め込むことで新たな第1の画像を生成し、前記新たな第1の画像および前記第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第19の態様は、前記第1の撮像部がズーム機能を有し、前記左右画像生成部は、前記第1の画像がズームされた画像である場合は、ズーム倍率に従って、基線長を変更した画像を生成することで新たな第1の画像を生成する。
本発明に係るステレオカメラの第20の態様は、前記左右画像生成部が、前記新たな第1の画像を生成する場合に、基線長の変更によっても被写体が画像内に収まるように画像サイズを変更する。
本発明に係るステレオカメラの第21の態様は、前記第2の撮像部のレンズが中心窩レンズである。
本発明に係るステレオカメラの第22の態様は、前記第2の撮像部のレンズがアナモフィックレンズである。
本発明に係るステレオカメラの第23の態様は、前記第1の撮像部は前記第2の撮像部よりも解像度が高く、前記ステレオカメラは、前記第1および第2の撮像部の配列が、水平面に対して平行となる横置きで前記ステレオカメラが配置されたことを感知するセンサをさらに備え、横置きを感知した場合は、前記距離情報取得部の動作を停止し、前記左右画像生成部は、前記第1の画像の情報を前記第2の画像に与えることで、新たな第2の画像を作成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第1の態様によれば、カメラパラメータの異なる2つの撮像部を有するステレオカメラであってもステレオ視画像を得ることができ、ステレオ視画像を低コストで生成することができる。
本発明に係るステレオカメラの第2の態様によれば、第1および第2の画像の撮影の際の撮影情報、例えばズーム倍率等に基づいて対応点探索領域を決定することができる。
本発明に係るステレオカメラの第3の態様によれば、テンプレートマッチングにより対応点探索領域を決定できる。
本発明に係るステレオカメラの第4の態様によれば、第1および第2の画像の撮影倍率が異なる場合でもテンプレートマッチングにより対応点探索領域を決定できる。
本発明に係るステレオカメラの第5の態様によれば、オブジェクト認識により対応点探索領域を決定できる。
本発明に係るステレオカメラの第6の態様によれば、光軸中心を用いることで容易に対応点探索領域を決定できる。
本発明に係るステレオカメラの第7の態様によれば、第1および第2の画像の光軸中心を中心とした縦方向の画角の比率で対応点探索領域を決定できる。
本発明に係るステレオカメラの第8の態様によれば、第1および第2の画像に対して、エピポーラ線に沿った1次元の領域によって対応点探索領域を決定できる。
本発明に係るステレオカメラの第9の態様によれば、対応点探索の基準側となる領域内の基準位置を、サブピクセルの位置に設定して対応点探索を行うので、基準画像と参照画像とで倍率が異なるような場合でも、サンプリング間隔を一致させることができる。
本発明に係るステレオカメラの第10の態様によれば、画素数が多い方を基準画像として対応点探索を行うことができる。
本発明に係るステレオカメラの第11および第12の態様によれば、ズームの程度に合わせて対応点のサンプリング間隔を変更するので、ズームを使用しない場合には、対応点探索に費やす時間を軽減することができる。
本発明に係るステレオカメラの第13の態様によれば、対応点探索領域の画素数が少ない方の画素数に合わせて対応点のサンプリング間隔を変更するので、ズームによって第1の画像と第2の画像とで画素数が異なる場合に対応できる。
本発明に係るステレオカメラの第14の態様によれば、対応点探索に使用されるウインドウの縦横比が、ウインドウを物体面に適用した場合に、物体面での縦横比が等方となるように設定して対応点探索を行うので、対応点探索における対応付け精度を低下させることを防止できる。
本発明に係るステレオカメラの第15および第16の態様によれば、第2の画像が、第1の画像と同レベルの高画質の画像となり、両画像をステレオ視画像として用いることで、違和感のない3次元表示を行うことができる。
本発明に係るステレオカメラの第17および第18の態様によれば、ステレオ視できる部分の精度を高めることができる。
本発明に係るステレオカメラの第19および第20の態様によれば、ズーム倍率に従って基線長を変更した新たな第1の画像を生成することで、違和感のない3次元表示を行うことができる。
本発明に係るステレオカメラの第21の態様によれば、第2の撮像部のレンズを中心窩レンズとすることで、中心部の情報量が多い画像が得られる。
本発明に係るステレオカメラの第22の態様によれば、前記第2の撮像部のレンズをアナモフィックレンズとすることで、一方向に画角の広い画像が得られる。
本発明に係るステレオカメラの第23の態様によれば、簡単な処理でステレオ視画像を得ることができる。
本発明に係るステレオカメラの使用形態を説明する図である。 本発明に係るステレオカメラの使用形態を説明する図である。 本発明に係るステレオカメラの使用形態を説明する図である。 ステレオ視画像の生成の概念を模式的に示す図である。 ステレオカメラを横置きで使用する場合の撮影イメージを示す図である。 ステレオカメラで得られた画像を示す図である。 本発明に係るステレオカメラの構成を示すブロック図である。 画像の取得から距離情報取得までの処理手順を示すフローチャートである。 対応点探索領域の設定処理を説明する概念図である。 対応点探索領域決定の第1の方法を説明する図である。 解像度変換処理を説明する図である。 対応点探索領域決定の第2の方法を説明する図である。 対応点探索領域決定の第2の方法を説明する図である。 対応点探索領域決定の第4の方法を説明する図である。 対応点探索領域決定の第4の方法を説明する図である。 対応点探索領域決定の第5の方法を説明する図である。 対応点探索領域決定の第5の方法を説明する図である。 対応点探索領域決定の第6の方法を説明する図である。 対応点探索処理を説明する概念図である。 対応点探索の第1の方法を説明する図である。 対応点探索の第2の方法を説明する図である。 対応点探索の第3の方法を説明する図である。 対応点探索の第3の方法を説明する図である。 3次元再構成を説明する図である。 左右画像の生成手順を説明するフローチャートである。 左右画像の生成の第1の方法を説明する図である。 左右画像の生成の第1の方法を説明する図である。 左右画像の生成の第1の方法を説明する図である。 左右画像の生成の第1の方法の変形例を説明する図である。 左右画像の生成の第1の方法の変形例を説明する図である。 新たな第1の画像を生成する際の問題点を解決する方法を説明する図である。 左右画像の生成の第2の方法を説明する図である。 左右画像の生成の第2の方法を説明する図である。 左右画像の生成の第2の方法を説明する図である。 左右画像の生成の第2の方法の変形例1を説明する図である。 左右画像の生成の第2の方法の変形例2を説明する図である。 左右画像の生成の第3の方法を説明する図である。 左右画像の生成の第4の方法を説明する図である。 左右画像の生成の第4の方法を説明する図である。 実施の形態の変形例を説明する図である。
<発明の概要>
まず、図1〜図6を用いて本発明の概要について説明する。
図1〜図3は、本発明に係るステレオカメラの使用形態を説明する図である。図1では、ステレオカメラVC1を縦置きで使用する例を示しており、図2では、ステレオカメラVC1を縦置きで使用する例を示している。
ステレオカメラVC1は、メインカメラMCとサブカメラSCとが基線長L分だけ離れて配置された構成を採り、メインカメラMCおよびサブカメラSCは、カメラ筐体の一辺に平行となるように配列されている。なお、メインカメラMCおよびサブカメラSCはステレオカメラVC1内にあっては撮像部と呼称することができる。
メインカメラMCは、ハイビジョン放送対応レンズ(HDTVレンズ)等の高解像度で、焦点可変のいわゆるズームレンズを有したデジタルカメラシステムである。サブカメラSCは、携帯電話等に搭載される小型ユニットカメラや、マイクロカメラユニット(MCU)などの低解像度で、単一焦点のデジタルカメラシステムである。なお、サブカメラSCのレンズにはズームレンズを用いても良いが、高解像度は要求されない。また、中心窩レンズ(中心画像に比べて端縁部の画像を大幅に圧縮させる特性有している)や魚眼レンズ、アナモフィックレンズなどの変倍率レンズを用いても良い。
中心窩レンズや魚眼レンズを用いることで、中心部の情報量が多い画像が得られ、アナモフィックレンズを用いることで、一方向に画角の広い画像が得られる。
このメインカメラMCおよびサブカメラSCの配列が、水平面に対して垂直となるようにステレオカメラVC1を配置した状態を縦置きと呼称する。一方、メインカメラMCおよびサブカメラSCの配列が、水平面に対して平行となるようにステレオカメラVC1を配置した状態を横置きと呼称する。
また、図3に示すステレオカメラVC2は、メインカメラMCとサブカメラSCとが基線長L分だけ離れて配置されている点ではステレオカメラVC1と同じであるが、メインカメラMCおよびサブカメラSCは、カメラ筐体の何れの辺に対しても斜めとなるように配列されている。図3においては、メインカメラMCおよびサブカメラSCの配列が、水平面に対して垂直よりも傾いた状態となるように配置した状態を示しており、状態を縦置きと呼称する。この状態に対して90度回転させた状態を横置きと呼称する。なお、上記のような配置状態に対して、上下左右が入れ替わるように配置しても良い。
従来のステレオカメラでは、横置きが一般的であるが、本発明に係るステレオカメラでは縦置きが可能となる。縦置きの利点としては、従来のカムコーダと同様に縦長の構造となり、コンパクトで操作性に違和感がない構成となる。
図4は、図1に示したステレオカメラVC1によるステレオ視画像の生成の概念を模式的に示す図である。図4の(a)部には、メインカメラMCにより得られた高解像度の2次元画像を示し、図4の(b)部には、サブカメラSCにより得られた低解像度の2次元画像が示されている。2つのカメラは同じ被写体PSおよび背景BGを撮像しているが、レンズの倍率が異なるため、被写体PSの大きさや画角が異なった画像が得られる。
図4の(c)部には、図4の(a)部および(b)部の画像から作成される画像を示しており、図4の(d)部にはメインカメラMCにより得られた画像を示している。このような2つの画像を用いてディスプレイに3次元表示をするので、このような2つの画像をステレオ視画像と呼称する。このようなステレオ視画像を用いてディスプレイ上に3次元表示を行う。
ステレオカメラVC1は、このようなステレオ視画像を用いて、ディスプレイ上において図4の(e)部に示されるような被写体PSが立体視可能な3次元表示を行う。
図5は、ステレオカメラVC1を横置きで使用する場合の撮影イメージを示す図であり、被写体PSおよび背景BGを上方から見た模式図であり、縦軸には被写体PSおよび背景BGまでの距離を、横軸にはメインカメラMCの光軸を原点とした場合の、水平方向の長さを示し、メインカメラMCおよびサブカメラSCで撮影する場合の水平方向の画角を示している。メインカメラMCにおいては3段階の倍率で撮影を行う例を示しており、最も倍率の低い(最も画角の広い)状態で撮影した画像を第1のメインカメラ画像と呼称し、その画角をラインL1で示している。次に倍率の高い状態で撮影した画像を第2のメインカメラ画像と呼称し、その画角をラインL2で示している。そして、最も倍率の高い(最も画角の狭い)状態で撮影した画像を第3のメインカメラ画像と呼称し、その画角をラインL3で示している。一方、サブカメラSCはズーム機能がないので画角は1種類だけであり、その画角をラインL4で示している。
図6には、図5に示した撮影イメージで得られた画像を示す。図6の(a)部にはメインカメラMCで撮影した第1のメインカメラ画像を、図6の(b)部にはメインカメラMCで撮影した第2のメインカメラ画像を、図6の(c)部にはメインカメラMCで撮影した第3のメインカメラ画像を示している。
また、図6の(d)部、(e)部および(f)部には、それぞれ(a)部〜(c)部の画像を取得した際に、サブカメラSCで得られたサブカメラ画像を示している。このサブカメラ画像は、何れも同じ倍率の画像となる。なお、サブカメラSCの光軸は、基線長L分だけメインカメラMCから離れているので、サブカメラSCで得られた画像とメインカメラMCで得られた画像との間には視差に伴う差が見られる。また、メインカメラMCとサブカメラSCとでは、倍率が異なっており、被写体PSおよび背景BGの大きさも異なっている。
このように、異なるカメラパラメータを有するカメラによって得られた画像を用いて、ステレオ視画像を生成することが本発明の最大の特徴である。
<実施の形態>
図7は、ステレオカメラVC1の構成を示すブロック図である。図7に示されるように、メインカメラMCおよびサブカメラSCは撮影情報取得部1に接続され、それぞれのカメラで得られた画像データとともに撮影情報が撮影情報取得部1に与えられる。そして、メインカメラMCおよびサブカメラSCで得られた画像の画像データは、一方がメイン画像として撮影情報取得部1を介してメイン画像取得部2に与えられる。また、メインカメラMCおよびサブカメラSCで得られた画像データは、撮影情報取得部1を介して距離情報取得部3に与えられ、距離情報が取得される。なお、距離情報取得部3には、距離情報取得のため既知のカメラ情報がカメラ情報蓄積部6から与えられる構成となっている。
メイン画像取得部2から出力されるメイン画像および、距離情報取得部3から出力される距離情報は、左右画像生成部4に与えられ、ステレオ視画像が生成される。そして、得られたステレオ視画像(左右画像)は、液晶画面等の3次元表示部5に与えられ、3次元表示される。
<撮影情報の取得>
撮影情報取得部1では、図6に示したような画像を取得する際の撮影情報を取得する。このときに取得する撮影情報としては、ズーム倍率、焦点距離、画角などの撮影時に変動する可能性があるパラメータである。ただし、ズーム倍率、焦点距離、画角の全ての情報を必要とするわけではなく、何れか1つの情報があれば、他の情報は計算により算出できる。
例えば、CCDセンサなどの受光部の縦寸法(h)、横寸法(w)および対角寸法(d)が決まれば、各方向での画角(θ)は以下の数式(1)によって算出できる。
Figure 2011096251
上記数式(1)において、fは焦点距離を、xは受光部の寸法(h,w,d)を表している。
なお、サブカメラSCについては、単一焦点のレンズを使用する場合には、撮影情報を既知カメラ情報としてカメラ情報蓄積部6に保持する構成としても良い。
<距離情報の取得>
次に、距離情報取得部3における距離情報の取得について説明する。図8は、画像の取得から距離情報取得までの処理手順を示すフローチャートである。
図8に示すように、まず、ステップS1およびS2において、それぞれ第1の画像および第2の画像を取得する。なお、以下の説明では、第1の画像はメインカメラMCで得られた画像とし、第2の画像はサブカメラSCで得られた画像とする。
次に、撮影情報取得部1において、メインカメラMCおよびサブカメラSCでのそれぞれの撮影時におけるカメラ情報を取得する(ステップS3)。
次に、カメラ情報蓄積部6から既知カメラ情報を取得する(ステップS4)。この、既知カメラ情報には、サブカメラSCにおける固定された撮影情報や、CCDセンサ等の受光部の寸法および画素の配設間隔(画素ピッチ)の情報が含まれている。
次に、距離情報取得部3において、第1および第2の画像に対する対応点探索を行うための対応点探索領域の設定を行う(ステップS5)。
次に、距離情報取得部3において、第1および第2の画像における各画素の対応点探索処理を行う(ステップS6)。そして、対応付けられた画素に基づいて距離情報を算出することで、距離情報を取得する(ステップS7)。
<対応点探索領域の設定>
次に、図9〜図18を用いて、対応点探索領域の設定処理について説明する。
図9は、対応点探索領域の設定処理を説明する概念図である。図9の(a)部にはメインカメラMCで撮影した第1のメインカメラ画像を、図9の(b)部には第2のメインカメラ画像を、図9の(c)部には第3のメインカメラ画像を示している。また、図9の(d)部、(e)部および(f)部には、それぞれ(a)部〜(c)部の画像を取得した際に、サブカメラSCで得られた画像を示している。
図9の(a)部に示される第1のメインカメラ画像においては、破線で囲まれた領域R1が対応点探索領域であり、図9の(d)部に示すサブカメラ画像の全体が領域R1に対応する領域となる。
図9の(e)部に示されるサブカメラ画像においては、破線で囲まれた領域R2が対応点探索領域であり、図9の(b)部に示す第2のメインカメラ画像の全体が領域R2に対応する領域となる。
また、図9の(f)部に示されるサブカメラ画像においては、破線で囲まれた領域R3が対応点探索領域であり、図9の(c)部に示す第3のメインカメラ画像の全体が領域R3に対応する領域となる。
このように、第1〜第3のメインカメラ画像とサブカメラ画像とのペアにおいて、対応点探索領域を決定する処理が対応点探索領域の設定処理であり、対応点探索領域の決定には、以下に説明する第1〜第6の方法を採ることができる。
<第1の方法>
第1の方法は、テンプレートマッチングにより領域を決定するものであり、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像の一方に対して解像度変換処理を行い、複数のテンプレート画像を作成する。そして、他方の画像とのパターンマッチングを行って、最も一致度が高い領域を対応点探索領域として決定する。
図10に、第1の方法の概念図を示す。図10の(a)部、(b)部および(c)部には、第1の画像を用いて作成したそれぞれ解像度の異なる第1、第2および第3のテンプレート画像G11、G12およびG13を示しており、図10の(d)部には、比較対象となるサブカメラ画像を示している。
図11は解像度変換処理の概念を示す図であり、第1のテンプレート画像G11、第2のテンプレート画像G12および第3のテンプレート画像G13が階層的に示されている。このように、解像度変換処理は、解像度を低くすることで大きな画像を縮小する処理であり、第1の画像がズームされた画像である場合は、第1の画像を用いてテンプレート画像を作成し、第1の画像がズームされていない画像の場合は、第2の画像を用いてテンプレート画像を作成する。この場合は、ズームされていない第1の画像の倍率よりも、第2の画像の倍率の方が高いということが前提である。
図10においては、(b)部に示される第2のテンプレート画像G12と、(d)部のサブカメラ画像の領域R1とが最も一致度が高いと判断される例を示しており、当該領域R1が対応点探索領域となる。なお、テンプレートマッチングの技術は周知の技術であるので説明は省略する。
<第2の方法>
第2の方法は、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像に対してオブジェクト認識により領域を決定するものである。例えばパターン認識を用いて第1および第2の画像での物体候補領域を決定し、物体候補領域内で最も大きな物体領域を特定し、当該物体領域の大きさに基づいて対応点探索領域を決定する。なお、物体候補領域内での最も大きな物体領域の特定は、各画像内で、物体領域ごとに総画素数を算出し、物体領域間での比較を行うことで特定することができる。
図12は、オブジェクト認識により特定された物体を示す図であり、図12の(a)部には、メインカメラMCによって得られた第1の画像における被写体PSの画像を示しており、図12の(b)部には、サブカメラSCによって得られた第2の画像における被写体PSの画像を示している。また、図12の(a)部に示す第1の画像においては、被写体PSの最大部分の幅をaとし、被写体PSの両側面外方の領域の幅をcおよびdとして示している。また、図12の(b)部に示す第2の画像においては、被写体PSの最大部分の幅をbとし、この寸法と第1の画像における幅aの寸法との比率に基づいて、対応点探索領域の外縁、すなわち被写体PSの両側面外方の領域の幅XおよびYを決定する。
すなわち、a:b=c:Xの関係から、X(=bc/a)が決まり、a:b=d:Yの関係から、Y(=bd/a)が決まる。
図13には、このようにして決定した対応点探索領域を示す。すなわち、図13の(a)部には、メインカメラMCによって得られた第1の画像を示し、図13の(b)部には、サブカメラSCによって得られた第2の画像を示しており、第2の画像における破線で囲まれた領域R1が対応点探索領域である。
なお、上述した方法では視差方向のみ対応点探索領域の外縁を決定することができ、図12および図13に示す例は、ステレオカメラVC1を横置きで使用した場合の例であり、横置きで使用する場合には、対応点探索領域の水平方向の外縁は決定できるが、垂直方向の外縁は画像の外縁によって規定される。同様に、ステレオカメラVC1を縦置きで使用した場合は、対応点探索領域の垂直方向の外縁は決定できるが、水平方向の外縁は画像の外縁によって規定される。
<第3の方法>
第3の方法は、第2の方法で説明したオブジェクト認識により特定される物体領域をテンプレートとして用いて、第1の方法のテンプレートマッチングにより領域を決定するものである。
この場合、テンプレートが物体領域に限定されるので、テンプレートの大きさが小さくなり、マッチングに要する時間を短縮できる可能性がある。
なお、第1の画像がズームされた画像である場合は、第1の画像を用いてテンプレート画像を作成し、第1の画像がズームされていない画像の場合は、第2の画像を用いてテンプレート画像を作成するという点では第1の方法と同じである。
<第4の方法>
第4の方法は、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像を、一方の光軸中心に他方の画像が一致するように変換し、変換後に、一方の画像を他方の画像を撮影したカメラの撮像素子に合うような画像サイズに変換して重ね合わせることで対応点探索領域を決定するものである。
図14に、第4の方法の概念図を示す。図14の(a)部にはメインカメラMCおよびサブカメラSCのそれぞれの画角を、ラインLMおよびLSで示すとともに、メインカメラMCおよびサブカメラSCによってそれぞれ取得された第1の画像G1および第2の画像G2を示している。なお、第2の画像G2に示されている光軸中心は、第1の画像の光軸中心OLを表している。なお、図においては光軸中心は便宜的にラインで示しているが実際には点である。
図14の(b)部にはサブカメラSCによって得られた第2の画像G2上に示された第1の画像の光軸中心OLを、メインカメラMCによって得られた第1の画像G1の光軸中心に合わせた図を示している。なお、第2の画像G2上に第1の画像の光軸中心OLを求める方法は、キャリブレーションにより求める。すなわち、第1の画像G1の光軸中心が第2の画像G2上でどこに位置するかは、製品出荷時のキャリブレーションにより一義的に決まる。従って、その情報があれば第2の画像G2上に第1の画像の光軸中心OLを求めることは容易である。なお、後に図18を用いて説明するエピポーラ線についてもキャリブレーションにより一義的に決めることができる。
このように、第2の画像上に示された第1の画像の光軸中心OLと第1の画像G1の光軸中心とを一致させた後、一方の画像を他方の画像の撮像素子に合うような画像サイズに変換して重ね合わせる処理の概念図を図15に示す。
図15の(a)部においては第1の画像G1を示し、図15の(b)部においては、第2の画像G2を、第1の画像G1の撮像素子に合わせた画像サイズに変換した画像を示しており、両者を重ね合わせることで、重なり合った領域を対応点探索領域R1としている。
そして、変換後に合わせた側の撮像素子のサイズに画像を正規化する。例えば、撮像素子のサイズは既知カメラ情報として有しており、撮影画角は撮影情報として取得しているので、1画素あたりの画角が判る。すなわち、サブカメラSCで得られた第2の画像のサイズをメインカメラMCで得られた第1の画像のサイズに変更することができる。
例えば、サブカメラSCで得られた第2の画像の画像サイズが1000×1000(画素)、横方向の画角が100度(縦方向も同じ)の場合、撮像素子の画素の配設間隔(画素ピッチ)が0.1であれば、100×100(画素)の撮像素子を用いて横方向の画角100度までを撮影していることになる。
また、メインカメラMCで得られた第1の画像の画像サイズが1000×1000(画素)、横方向の画角が50度(縦方向も同じ)の場合、撮像素子の画素ピッチが0.2であれば、200×200(画素)の撮像素子を用いて横方向の画角50度までを撮影していることになる。
この条件で、第2の画像のサイズを第1の画像のサイズに合わせるならば、仮想の400×400(画素)の撮像素子で、画角100度までを撮影することになるので、2000×2000(画素)の画像とする。これが画像の正規化である。
なお、上述した第4の方法は、ステレオカメラVC1を横置きで使用する場合に有効な方法である。
<第5の方法>
第5の方法は、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像に対して、縦方向の画角の比率で領域を限定することで対応点探索領域を決定するものである。
図16には、メインカメラMCおよびサブカメラSCの縦方向のそれぞれの画角を、ラインLMおよびLSで示している。図16に示されるように、ステレオカメラVS1に比較的近い位置での光軸中心OLから、ラインLMまでの距離S1と、ラインLMとラインLSとの間の距離S2との比率は、ステレオカメラVS1に比較的遠い位置での光軸中心OLから、ラインLMまでの距離S11と、ラインLMとラインLSとの間の距離S12との比率と同じである。
このように、縦方向の画角においては、カメラからの距離に応じて画角の比率が同じであることを利用し、第1および第2の画像に対して対応点探索領域を限定する。
図17は、画角の比率で領域を限定する概念図であり、図17の(a)部には、第1の画像G1に対して光軸中心OLの縦方向での位置を示している。この、光軸中心OLの縦方向での位置に対して、上下の比率を算出し、それと同じ比率となるように第2の画像G2の縦方向の領域を限定することで、図17の(b)部に示す領域R1が限定される。この領域R1が対応点探索領域となる。
なお、光軸中心OLの縦方向での位置は、縦方向の画角の中心ということで一義的に決まる。
<第6の方法>
第6の方法は、エピポーラ線を利用して対応点探索領域を決定するものである。すなわち、2つのカメラを用いて1つの3次元空間上の特徴点を撮影した場合、その点と2つのカメラのレンズ中心および、それぞれのカメラで得られた2つの画像平面(image plane)における特徴点の投影が1つの平面上に存在する。この平面はエピポーラ平面(epipolar plane) と呼称され、エピポーラ平面とそれぞれの画像との交線が,エピポーラ線(epipolar line)と呼称される。各画像においてエピポーラ線が交わる点はエピポール(epipole) と呼称される。
ここで、2つのカメラがキャリブレーション済みであり,互いの幾何関係が分かっている場合、一方の画像で1点が与えられると、エピポーラ平面と画像上のエピポーラ線が決まるので、元の特徴点が分からなくても、他方の画像上では対応点がエピポーラ線上に限定される。従って対応点の探索はエピポーラ線に沿って1次元の探索を行えば良い。
図18には、2つのカメラのレンズ中心CL1およびCL2と、特徴点Pによって規定されるエピポーラ平面EPおよびそれぞれのカメラで得られた2つの画像平面IP1およびIP2を示している。画像平面IP1およびIP2に示される斜めの線が、エピポーラ線ELであり、エピポーラ線EL上に示される2つの点がエピポールである。
このように、エピポーラ線に沿った1次元の領域を対応点探索領域とすることで、2次元平面を対応点探索領域とする場合に比べて探索範囲を限定することができ、対応点探索の効率化を図ることができる。
<変形例>
以上説明した第1〜第6の方法においては、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像のうちどちらをメイン画像として使用するかは、適宜判断するものとし、メイン画像が第1の画像である場合も、第2の画像である場合でも何れでも良い。
適宜判断する方法としては、対応点探索領域の画素数が多い方をメイン画像としても良いし、取得画像の画角が広い方をメイン画像としても良い。
<対応点探索処理>
次に、図19〜図23を用いて、対応点探索処理について説明する。
対応点探索処理には、基準画像上の任意の注目点に対応する参照画像上の点(対応点)を探索して求める。なお、参照画像とは、基準画像に対応する画像である。具体的には、ステレオ画像においては、同時刻に撮像した一対の画像のうち一方が基準画像であり、他方は参照画像である。また、時系列画像においては、同一のカメラで撮影された画像のうち、時間的に前の画像が基準画像であり、時間的に後の画像が参照画像である。この基準画像上の注目点に対してテンプレートが設定され、このテンプレートと対応する参照画像上のウインドウが探索され、この探索されたウインドウから対応点が求められる。
図19は、対応点探索処理を説明する概念図である。図19の(a)部には基準画像としてサブカメラSCで得られた第2の画像を示し、図19の(b)部には参照画像としてメインカメラMCで得られた第1の画像を示している。図19においては注目点をOP、対応点をAPとして示している。
上述したように、相関法を用いた対応点探索処理では、基準画像上の注目点に対して参照画像上の対応点を求めるために参照画像上を1画素ずつサンプリングするという処理がなされるが、本願のように、基準画像の倍率が低く、参照画像の倍率が高いような場合にはサンプリング間隔が大幅に異なり、参照画像の情報が抜け落ちて精度の良い距離情報の取得が困難となる。そこで、以下に説明する第1〜第4の方法を採ることで、精度の良い距離情報の取得を可能とする。
<第1の方法>
第1の方法は、基準画像上の基準位置を画素サイズよりも細かいサイズを持ったサブピクセルに設定してそれに対応する参照画像上の対応点を求めるものである。
図20は、基準画像上にサブピクセルを設定する例を模式的に示す図であり、この図では1つの画素を横方向に3分割して3つのサブピクセルを設定した例を示しているが、画素の分割はこれに限定されるものではなく、また、さらに細かく分割することも可能である。これにより、基準画像と参照画像とで倍率が異なるような場合でも、サンプリング間隔を一致させることができる。
サブピクセルを用いる場合、従来から対応点を探索するために用いているウインドウとほぼ同様の探索用テンプレートを設定する。
すなわち、対応点の探索は、対応する画像どうしをそれぞれ一定の範囲の領域で切り出し、その領域どうしの相関値をとることで行うが、この領域をウインドウと呼称している。従来では、この領域であるウインドウは画素単位で生成されていて、画素の一部のみがウインドウに含まれ、それ以外は含まれないということはない。しかし、探索用テンプレートは、重心位置がサブピクセルレベルの位置である注目点であることから、画素単位の領域になるとは限らない。図20においては、注目点がサブピクセルレベルの位置である場合に、注目点であるサブピクセルSPを中心にして探索用テンプレートTPを設定した例を示している。
なお、サブピクセルの推定方法としては、特開2001−195597号公報に、画像間の相関値を算出後、最も相関値の高い位置とその周辺の相関値との位置関係から、画素と画素との間の相関値を直線式または曲線式に当て嵌めることによって補間し、相関値のピーク位置およびピーク値を推定する方法が開示されている。
<第2の方法>
第2の方法は、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像について、対応点探索領域内の画素数を比較し、画素数が多い方を基準画像とするものである。
図21は、画素数が多い方を基準画像とした例を示しており、画素数が多いため注目点OPを増やすことができる例を示している。
<第3の方法>
第3の方法は、デフォルトでは対応点探索を行う間隔を粗く設定しておき、カメラ情報としてズーム撮影が行われたという情報を取得した場合は、ズームの程度に合わせて対応点探索を行う間隔が変更されるように対応点のサンプリングの間隔を変更するものである。これは、ズームによりレンズの倍率が大きくなり、対応点探索領域が小さくなった場合には、より小さな間隔で対応点探索を行う必要が生じるからである。
このような方法を採ることで、ズームを使用しない場合には、対応点探索に費やす時間を軽減することができる。
<第4の方法>
第4の方法は、メインカメラMCによって得られた第1の画像およびサブカメラSCによって得られた第2の画像について、対応点探索領域内の画素数を比較し、画素数が少ない方に合わせてサンプリング間隔を設定するものである。
図22の(a)部にはサブカメラSCによって得られた第2の画像を示し、図22の(b)部には、メインカメラMCによって得られた第1の画像を示している。
第2の画像において破線で囲まれた領域R1が対応点探索領域であり、これに対応するのは第1の画像全体である。
このように、ズームされた第1の画像は対応点探索領域内の画素数が多く、一方、第2の画像では対応点探索領域内の画素数が少ない。そこで、図23に示すように、サンプリング間隔の調整を行う。
図23の(a)部には、比較のため対応点探索領域R1を拡大して示しており、1つ1つの画素PXも大きく示されている。
図23の(b)部には、メインカメラMCによって得られた第1の画像を示しているが、サンプリング点PPは各画素に設けられるものではなく、画素2つ置きに設けられている。なお、サンプリング点PPの設定は、カメラ情報としてのズーム倍率の情報に基づいて設定すれば良い。
なお、画素数が少ない方に合わせてサンプリング間隔を設定すると、多少の情報が抜け落ちることになるが、サンプリング間隔が広くなり過ぎないように設定することで、距離情報の精度をある程度以上に保つことができる。
<変形例>
先に説明したように、サブカメラSCのレンズに中心窩レンズや魚眼レンズ、あるいはアナモフィックレンズなどの変倍率レンズを用いた場合には、メインカメラMCで得られた第1の画像とサブカメラSCで得られた第2の画像とで、対応点探索領域のサイズが極端に異なる可能性がある。
このような場合には、対応点探索に使用されるウインドウの縦横比が、ウインドウを物体面に適用した場合に、物体面での縦横比が等方となるように設定して対応点探索を行っても良い。これにより、対応点探索における対応付け精度を低下させることを防止できる。
相関法を用いた対応点探索処理では、基準画像と対応する参照画像において複数設定されたウインドウとの相関値(類似度)を算出し、当該相関値に基づいて、テンプレートとウインドウとが対応しているか否かが判断される。
ここで、相関値の具体的な算出方法としては、例えば、SAD(Sum of Absolute Difference)法、SSD(Sum of Squared Difference)法(2乗残差法)、NCC(Normalize cross Correlation)法(正規化相互相関法)等が知られている。
SAD法は、テンプレートおよびウインドウの輝度値の絶対値による総和を求める関数を用いる方法であって、この関数を用いてテンプレートおよびウインドウごとの相関値が求められる。また、上記SAD法等に比べてロバスト性を有する相関値演算の方法もある。具体的には、この方法は、画像パターンの周波数分解信号から、振幅成分を抑制した位相成分のみの信号を用いて類似度演算を行う方法である。そして、この方法を用いることで、ステレオ画像における左右カメラの撮影条件の差や、ノイズなどの影響を受けにくく、ロバスト性を有する相関値演算が実現可能である。
なお、画像パターンの周波数分解信号を計算する手法は、例えば高速フーリエ変換(FFT)、離散フーリエ変換(DFT)、離散コサイン変換(DCT)、離散サイン変換(DST)、ウエーブレット変換、アダマール変換などが知られている。このようなロバスト性を有する相関値演算として位相限定相関法(POC法)を使用することができる。
POC法においても、基準画像上にテンプレートが設定され、参照画像上に同じ大きさを持つウインドウが設定される。そして、テンプレートと各ウインドウとの相関値(POC値)が計算され、その相関値からテンプレートに対応するウインドウが求められる。まず、基準画像のテンプレートおよび参照画像のウインドウは、それぞれ2次元離散フーリエ変換され、規格化された後、合成され、2次元逆離散フーリエ変換される。このようにして、相関値であるPOC値が求められる。また、POC値はウインドウ内における画素ごとに離散的に求まるため、画素ごとの相関値を求めることができる。この点が、ウインドウごとの相関値を求める、上述のSAD法等とは異なる。このように、POC法においては、ウインドウ内における画素ごとに相関値を求めることができるので、ウインドウの設定範囲内の位相情報を用いて輝度変化に強い対応点探索が可能である。一方、SAD法では輝度情報を使用するので、本願のように基準画像と参照画像とで、画像サイズが異なるような場合に適している。
<距離情報の取得>
上述した対応点探索により得られた注目点と対応点との関係から視差情報を得ることができ、当該視差情報から距離情報を取得することができる。
本願発明においては、図4を用いて説明したようにステレオカメラSV1を縦置きで使用する場合もある。
視差情報が水平方向の視差であれば距離情報の算出は容易であるが、垂直方向の視差の場合は、3次元再構成により水平方向の視差に変更する必要がある。以下、図24を用いて、この処理について説明する。
図24においては、2つのカメラC1およびC2が基線長Lとなるように垂直方向に配設された状態にあるものとし、2つのカメラの焦点距離f、撮像素子CDの画素数および1画素の大きさμは等しいものとする。また、撮像面上の視差(ずれ画素数)をd(=d1+d2)とする。
このときの、物体OBまでの距離Zは、以下の数式(2)で求まる。
Figure 2011096251
また、3次元位置(X,Y,Z)は以下の数式(3)および(4)で計算される。ただし、(x,y)基準とするカメラC1の撮像素子CD上に物体が投影されている位置である。
Figure 2011096251
Figure 2011096251
これらによって得られた3次元情報は縦視差情報に基づくものであるので、横視差情報に変換する。横視差情報への変換は、疑似視点位置への変換となるので平行化状態として扱うことができ、数式(2)を数式(5)のように変換すれば良い。
Figure 2011096251
なお、本願発明では、カメラC1とカメラC2とで、焦点距離f、撮像素子CDの画素数および1画素の大きさμが異なるので、数式(2)〜(4)の処理を行う前に平行化処理を行う必要がある。なお、3次元再構成や平行化処理は一般的な技術であり、例えば、早稲田大学理工学部電子・情報通信学科、近藤浩介著の平成17年度卒業論文「ステレオカメラによる屋内混雑環境下での人物移動軌跡抽出に関する検討」に説明がなされている。
<左右画像の生成>
次に、距離情報取得部3において得られた距離情報およびメイン画像取得部2において得られたメイン画像に基づいて、左右画像生成部4においてステレオ視画像を得る方法について説明する。
図25は、左右画像生成部4における左右画像の生成手順を説明するフローチャートである。
図25に示されるように、ステップS21およびS22において、それぞれメイン画像および距離情報が入力されると、まず、ステップS23において画像生成の対象を決定する。
次に、ステップS24において左右画像の生成を行う。この左右画像の生成については以下に説明する第1〜第4の方法を採ることができる。
<第1の方法>
第1の方法は、サブカメラSCで得られた第2の画像を、距離情報に基づいて第1の画像並みの高画質な新たな第2の画像を生成するものである。
図26は、第1の方法を概念的に示す図である。図26の(a)部および(b)部には、それぞれメインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像を示している。
この例では第1の画像をメイン画像とし、第2の画像からは距離情報を取得するものとしており、図26の(c)部にはメイン画像を、図26の(d)部には距離情報が得られた領域を模式的に示している。
ここで、距離情報は視差情報であるので、視差の値に従って第2の画像をずらし、新たな第2の画像を生成する。第1の方法においては、立体視できる領域(対応点を求めて視差情報が得られている領域)だけに着目し、その領域のみで左右の画像を構成する。すなわち、図26の(d)部に示されるように、第2の画像のうち、距離情報(視差情報)が得られている領域のみに着目し、その領域の画像を視差の値に従ってずらす。このとき、第2の画像では当該領域の画素数が少ないので、対応する第1の画像から画素情報を補充することで、第1の画像と同レベルの解像度を有した新たな第2の画像が得られる。
図26の(e)部には第1の画像を、図26の(f)部には新たな第2の画像を示す。新たな第2の画像は、視差の値に従って被写体PSの位置がずれており、第1の画像および新たな第2の画像によりステレオ視画像を得ることができる。なお、この方法では、解像度の高い新たな第2の画像を生成するので高画質の画像を得ることができる。
上述した第1の方法を、図27および図28を用いて、より端的に説明する。図27は、ステレオ視画像を得るための処理をしない場合の第1および第2の画像を示す図であり、図27の(a)部にはメインカメラMCで撮影した第1のメインカメラ画像を、図27の(b)部には第2のメインカメラ画像を、図27の(c)部には第3のメインカメラ画像を示している。これらのメインカメラ画像は、倍率の異なる画像となっている。また、図27の(d)部、(e)部および(f)部には、それぞれ(a)部〜(c)部の画像を取得した際に、サブカメラSCで得られた画像を示している。
このように、ステレオ視画像を得るための処理をしない場合は、第1の画像と第2の画像とは全く異なる画像となっており、両者からステレオ視画像を得ることはできない。
一方、図28にはステレオ視画像を得るために、第1の方法を適用した場合の第1および第2の画像を示している。
図28の(a)部にはメインカメラMCで撮影した第1のメインカメラ画像を、図28の(b)部には第2のメインカメラ画像を、図28の(c)部には第3のメインカメラ画像を示しており、これらのメインカメラ画像は、倍率の異なる画像となっているが、これらにそれぞれ対応する第2の画像も、倍率の異なる画像となっている。
すなわち、図28の(d)部〜(f)部には、上述した第1の方法によって得られた新たな第2の画像が示されており、それぞれの新たな第2の画像は、第1の画像に対して、視差に相当するずれを含んだ画像となっている。
このように、本来は解像度等でメインカメラMCには及ばないサブカメラSCで得られた第2の画像が、第1の画像と同レベルの高画質の画像となり、両画像をステレオ視画像として用いることで、違和感のない3次元表示が可能となる。
<第1の方法の変形例>
以上説明した第1の方法は、立体視できる領域のみでステレオ視画像を構成する方法であったが、第2の画像をメイン画像とし、第1の画像でカバーしている領域のみでステレオ視画像を生成する方法を採っても良い。
この場合、第1の画像の方が、画角が広い場合は、新たな第2の画像として第1の画像を視差の値に従ってずらした画像を使用する。
上述した第1の方法の変形例を、図29および図30を用いて、より端的に説明する。図29は、ステレオ視画像を得るための処理をしない場合の第1および第2の画像を示す図であり、図29の(a)部にはメインカメラMCで撮影した第1のメインカメラ画像を、図29の(b)部には第2のメインカメラ画像を、図29の(c)部には第3のメインカメラ画像を示している。これらのメインカメラ画像は、倍率の異なる画像となっている。また、図29の(d)部、(e)部および(f)部には、それぞれ(a)部〜(c)部の画像を取得した際に、サブカメラSCで得られた画像を示している。
このように、ステレオ視画像を得るための処理をしない場合は、第1の画像と第2の画像とは全く異なる画像となっており、両者からステレオ視画像を得ることはできない。
図30にはステレオ視画像を得るために、第1の方法の変形例を適用した場合の第1および第2の画像を示している。
図30の(a)部には第1の画像としてメインカメラMCで撮影した画像を示しているが、これは図29の(d)部に示されるサブカメラSCで撮影した第2の画像と同じ画角の画像である。従ってこの場合は、図29の(d)部に示す第2の画像について視差の値だけ被写体PSをずらすことで図30の(a)部に示す新たな第1の画像を生成する。図30の(d)部において領域R10として示す部分が図29の(d)部に示した第2の画像のデータを使用している。
また、図30の(e)部に示す画像は、領域R11として示す部分に図29の(b)部に示した第1の画像のデータを使用し、それ以外の領域は第2の画像のデータを使用している。そして、図30の(e)部に示す画像について視差の値だけ被写体PSをずらすことで図30の(b)部に示す新たな第1の画像を生成する。
同様に、図30の(f)部に示す画像は、領域R12として示す部分が図29の(c)部に示した第1の画像のデータを使用し、それ以外の領域は第2の画像のデータを使用している。そして、図30の(f)部に示す画像について視差の値だけ被写体PSをずらすことで図30の(b)部に示す新たな第1の画像を生成する。
以上のように、第1の方法の変形例によれば、第2の画像をメイン画像として使用し、第1の画像の方が画角が広い場合(図29の(a)部)、ステレオ視画像は図30の(d)部のようになり、領域全てが3次元表示できる領域となるか、あるいは第1の画像でカバーされる部分のみが3次元表示できる画像となる。このため、3次元表示できる領域の精度を高めることができる。
ただし、実際問題としては図30の(b)部に示す新たな第1の画像を生成しようとすると図31の(a)部に示すような画像となってしまう。これは領域R11の画像のみは、図29の(b)部に示した第1の画像のデータを使用しているためである。
このような場合、図30の(b)部に示すような画像を得るのであれば、図31の(b)部に示すように、領域R11に含まれない被写体PSの画像PSXについては、例えば、領域R11をずらす方向とは反対側にある画像情報をミラーのようにコピーすることで、完全な被写体PSの画像を得るようにすれば良い。この場合、画像PSXのあった位置には、さらに隣にある周辺画像PHの画像情報をミラーのようにコピーすれば良い。なお、コピーの代わりに画像情報の移動でも良いが、その場合は、周辺画像PHを移動した後には、画像をぼかすような処理をすることで穴埋めしても良い。
また、対応点探索領域の設定処理において説明したオブジェクト認識のような手法を用いることで、被写体PS全体をオブジェクトとして認識して図31の(c)部に示されるように領域R11に含めるように処理することで、被写体PSの一部だけが分離されることを防止できる。
また、図31の(a)部に示すように、領域R11に含まれない被写体PSの画像PSXが分離した場合、画像PSXについては削除するようにしても良い。削除の方法としては、領域R11をずらす方向とは反対側にある画像情報をミラーのようにコピーしても良いし、画像情報を移動しても良い。
<第2の方法>
第2の方法は、メインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像のうち、画角の広い方をメイン画像とし、立体視できる領域のみをメイン画像に嵌め込むというものである。
図32は、第2の方法を概念的に示す図である。図32の(a)部および(b)部には、それぞれメインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像を示している。
この例では、画角の広い第2の画像をメイン画像とし、第1の画像からは距離情報を取得するものとしており、図32の(d)部にはメイン画像を、図32の(c)部には距離情報が得られた領域を模式的に示している。
第1の画像を第2の画像に嵌め込むことで新たな第1の画像を生成する。図32の(e)部には、このようにして得られた新たな第1の画像を示している。図32の(e)部において領域R21で示される領域が、図32の(c)部に示される距離情報が得られた領域に相当する第1の画像を嵌め込んだ領域である。
このように、第2の方法においては、立体視できる領域を、画角の広いメイン画像に嵌め込むことで新たな第1の画像を生成するので、図32の(f)部において領域R22で示す領域のみで正確な立体視が可能となる。
上述した第2の方法を、図33および図34を用いて、より端的に説明する。図33は、ステレオ視画像を得るための処理をしない場合の第1および第2の画像を示す図であり、図33の(a)部にはメインカメラMCで撮影した第1のメインカメラ画像を、図33の(b)部には第2のメインカメラ画像を、図33の(c)部には第3のメインカメラ画像を示している。これらのメインカメラ画像は、倍率の異なる画像となっている。また、図33の(d)部、(e)部および(f)部には、それぞれ(a)部〜(c)部の画像を取得した際に、サブカメラSCで得られた画像を示している。
このように、ステレオ視画像を得るための処理をしない場合は、第1の画像と第2の画像とは全く異なる画像となっており、両者からステレオ視画像を得ることはできない。
一方、図34にはステレオ視画像を得るために、第2の方法を適用した場合の第1および第2の画像を示している。
図34の(a)部には第1の画像としてメインカメラMCで撮影した画像を示しているが、これは図33の(d)部に示されるサブカメラSCで撮影した第2の画像よりも画角が広い画像である。従ってこの場合は、第1の画像をメイン画像とし、第2の画像を、第1の画像に嵌め込むことで図34の(d)部に示す新たな第2の画像を生成する。図34の(d)部に示す新たな第2の画像において、領域R23が図33の(d)部に示されるサブカメラSCで撮影した第2の画像を嵌め込んだ領域であり、領域R23以外の部分がメイン画像である第1の画像の領域となる。この場合、領域R23は距離情報が得られた領域に相当する。
また、図33の(e)部に示されるサブカメラSCで撮影した第2の画像は、図33の(b)部に示されるメインカメラMCで撮影した第1の画像よりも画角が広いので、この場合は、第2の画像をメイン画像とし、第1の画像を、第2の画像に嵌め込むことで図34の(b)部に示す新たな第1の画像を生成する。図34の(b)部に示す新たな第1の画像において、領域R24が図33の(b)部に示されるメインカメラMCで撮影した第1の画像を嵌め込んだ領域であり、領域R24以外の部分がメイン画像である第2の画像の領域となる。この場合、領域R24は距離情報が得られた領域に相当する。
同様に、図33の(f)部に示されるサブカメラSCで撮影した第2の画像は、図33の(c)部に示されるメインカメラMCで撮影した第1の画像よりも画角が広いので、この場合は、第2の画像をメイン画像とし、第1の画像を、第2の画像に嵌め込むことで図34の(c)部に示す新たな第1の画像を生成する。図34の(c)部に示す新たな第1の画像において、領域R25が図33の(c)部に示されるメインカメラMCで撮影した第1の画像を嵌め込んだ領域であり、領域R25以外の部分がメイン画像である第2の画像の領域となる。この場合、領域R25は距離情報が得られた領域に相当する。
なお、上述した第2の方法においても、第1の方法と同様に、新たな第1あるいは第2の画像を生成しようとすると、被写体PSの一部だけが分離される可能性があるが、この場合も、第1の方法において説明したように画像情報のコピーや移動で対応することができる。
<第2の方法の変形例1>
以上説明した第2の方法は、メインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像のうち、画角の広い方をメイン画像とし、立体視できる領域のみをメイン画像に嵌め込むというものであったが、立体視できる領域のみ立体画像として構成し、その他の領域は、擬似3次元データを表示するように画像を生成する方法を採っても良い。
図35は、第2の方法の変形例1を概念的に示す図である。図35の(a)部および(b)部には、それぞれメインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像を示している。
この例では、画角の広い第2の画像をメイン画像とし、第1の画像からは距離情報を取得するものとしており、図35の(d)部にはメイン画像を、図35の(c)部には距離情報が得られた領域を模式的に示している。
第1の画像を第2の画像に嵌め込むことで新たな第1の画像を生成する。図35の(e)部には、このようにして得られた新たな第1の画像を示している。図35の(e)部において領域R31で示される領域が、第1の画像を嵌め込んだ領域である。
一方、図35の(f)部には、距離情報が得られていない領域を塗りつぶして模式的に示している。このように、図35の(e)部において領域R31で示される領域以外は距離情報が得られていないので、その部分は擬似3次元領域で表示する。
この結果、図35の(h)部に示す第2の画像のように領域R32で示される領域が、ステレオ視が可能な領域となる。なお、実際に距離情報を算出した以外の領域も視差情報を有することとなるので、ステレオ視画像を作成する場合には、実際に距離情報を算出した以外の領域もずらす必要がある。第2の画像をメイン画像とし第1の画像に嵌め込む場合、領域R31内の画像を視差分だけずらすとともに、領域R31以外の領域も視差分だけずらすことになる。図35の(g)部の例では図に向かって左方向にずらすことになる。この結果、図の右端に有効なデータが存在しない領域NRが存在することになる。
このように、立体視できる領域のみ立体画像として構成し、その他の領域は、擬似3次元データを表示するように画像を生成することで、立体視が可能な領域を広げることができる。
ここで、擬似3次元データの作成は、例えば特開2005−151534号公報に開示されている。当該文献には、距離情報が与えられていない2次元画像から奥行き推定データを作成し、この奥行き推定データを用いて擬似立体画像を生成する方法が開示されており、基本となる複数のシーンのそれぞれについて奥行き値を示す複数の基本奥行きモデルを用いて奥行き推定データを作成することが開示されている。
なお、得られた距離情報は、擬似立体画像を生成するための複数の基本奥行きモデル(曲面モデル)から、適切なものを決定するのに使用しても良い。
<第2の方法の変形例2>
以上説明した第2の方法は、メインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像のうち、画角の広い方をメイン画像とし、実際に距離情報を取得した領域を立体視できる領域としてメイン画像に嵌め込むというものであったが、実際に距離情報を取得した領域以外の領域には擬似的な視差情報を与える構成としても良い。
図36は、第2の方法の変形例2を概念的に示す図である。図36にはステレオ視画像を得るために、第2の方法の変形例2を適用した場合の第1および第2の画像を示している。
図36の(a)部には第1の画像としてメインカメラMCで撮影した画像を示しているが、これは図33の(d)部に示されるサブカメラSCで撮影した第2の画像よりも画角が広い画像である。従ってこの場合は、第1の画像をメイン画像とし、第2の画像を、第1の画像に嵌め込むことで図36の(d)部に示す新たな第2の画像を生成する。図36の(d)部に示す新たな第2の画像において、領域R23が図33の(d)部に示されるサブカメラSCで撮影した第2の画像を嵌め込んだ領域であり、領域R23以外の部分が擬似的に視差情報を与えられた第1の画像の領域となる。この場合、領域R23は実際に距離情報が得られた領域であり、これ以外の領域でも擬似的な視差情報を有することとなるので、結果的に、領域R231で示される部分がステレオ視ができる領域となる。
また、図33の(e)部に示されるサブカメラSCで撮影した第2の画像は、図33の(b)部に示されるメインカメラMCで撮影した第1の画像よりも画角が広いので、この場合は、第2の画像をメイン画像とし、第1の画像を、第2の画像に嵌め込むことで図36の(b)部に示す新たな第1の画像を生成する。図36の(b)部に示す新たな第1の画像において、領域R24が図33の(b)部に示されるメインカメラMCで撮影した第1の画像を嵌め込んだ領域であり、領域R24以外の部分が擬似的に視差情報を与えられた第1の画像の領域となる。この場合、領域R24は実際に距離情報が得られた領域であり、これ以外の領域でも擬似的な視差情報を有することとなるので、結果的に、領域R241で示される部分がステレオ視ができる領域となる。
同様に、図33の(f)部に示されるサブカメラSCで撮影した第2の画像は、図33の(c)部に示されるメインカメラMCで撮影した第1の画像よりも画角が広いので、この場合は、第2の画像をメイン画像とし、第1の画像を、第2の画像に嵌め込むことで図36の(c)部に示す新たな第1の画像を生成する。図36の(c)部に示す新たな第1の画像において、領域R25が図33の(c)部に示されるメインカメラMCで撮影した第1の画像を嵌め込んだ領域であり、領域R25以外の部分が擬似的に視差情報を与えられた第1の画像の領域となる。この場合、領域R25は実際に距離情報が得られた領域であり、これ以外の領域でも擬似的な視差情報を有することとなるので、結果的に、領域R251で示される部分がステレオ視ができる領域となる。
ここで、擬似的な視差情報は距離によって異なる変動値(遠くになるほど与える視差は小さくなる)として与えても良いし、距離に無関係の一律の固定値として与えても良い。ただし、固定値にした場合、被写体より前にあるような物体の視差値を与えると3次元表示した場合に違和感がある画像となるので、視差値はできるだけ小さな値にしておくことが望ましい。
また、実際に距離情報を算出した以外の領域も視差情報を有する場合、ステレオ視画像を作成する場合には、実際に距離情報を算出した以外の領域もずらす必要がある。
例えば、第1の画像をメイン画像とし、図33の(d)部に示されるサブカメラSCで撮影した第2の画像を、第1の画像に嵌め込むことで図36の(d)部に示す新たな第2の画像を生成する場合、領域R23内の画像を視差分だけずらすとともに、領域R23以外の領域も視差分だけずらすことになる。図33の(d)部の例では図に向かって右方向にずらすことになる。この結果、図の左端に有効なデータが存在しない領域NRが存在することになる。
同様の理由から、図36の(b)部の例では図に向かって左方向にずらすことになる。この結果、図の右端に有効なデータが存在しない領域NRが存在することになる。
また、図36の(c)部の例では図に向かって左方向にずらすことになる。この結果、図の右端に有効なデータが存在しない領域NRが存在することになる。
<第3の方法>
第3の方法は、取得した距離情報を補助データとして用いて擬似3次元データを作成するものである。
図37は、第3の方法を概念的に示す図である。図37の(a)部および(b)部には、それぞれメインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像を示している。
この例では、画角の広い第2の画像をメイン画像とし、第1の画像からは距離情報を取得するものとしており、図37の(c)部には距離情報が得られた領域を模式的に示している。
この距離情報を補助データとして用いて作成した擬似3次元データにより得られた新たな第2の画像を図37の(d)部に模式的に示す。
この擬似3次元データで構成される新たな第2の画像と第1の画像とを用いることで、ステレオ視が可能な画像を生成することができる。
ここで、上述した特開2005−151534号公報には、予め、奥行き値を示す奥行きモデルを準備しておき、当該モデルを用いて奥行き推定データを作成する技術が開示されているが、取得した距離情報を補助データとして用いて擬似3次元データを作成する方法を採ることで、奥行きモデルを予め準備する必要がなくなる。
<第4の方法>
第4の方法は、ズーム倍率に従って基線長を変更した画像をステレオ視のための左右の画像とするというものである。
図38は、ステレオカメラVC1を横置きで使用する場合の撮影イメージを示す図であり、被写体PSおよび背景BGを上方から見た模式図であり、縦軸には被写体PSおよび背景BGまでの距離を、横軸にはメインカメラMCの光軸を原点とした場合の、水平方向の長さを示し、メインカメラMCおよびサブカメラSCで撮影する場合の水平方向の画角を示している。
図38においては、ズーム撮影とはステレオカメラVC1の位置を変えて撮影を行ったことと等価と考え、被写体PSに対するステレオカメラVC1の位置を種々に変えた例を模式的に示している。
被写体PSとなる物体との距離は、ズーム倍率が高くなるに従い近くなるものであり、距離が近くなる、すなわち視差値が大きくなるということに鑑みて、ステレオ視画像の生成のためには、ズーム倍率に従って、基線長を変更した画像を生成することで、人間の視覚にとって違和感のない画像を生成することができる。
この場合、基線長の変更量に関しては、ズーム倍率に従って、予めテーブルとして与えられた値を用いる。
なお、基線長を変更すると、ズーム倍率次第では、被写体が画角内から外れる場合がある。その場合は、生成する画像サイズを大きくするようにすれば良い。
図39には、図38に示した撮影イメージで得られた画像を示す。
図39の(a)部にはメインカメラMCで撮影したメインカメラ画像を示し、図39の(b)部には、図39の(a)部のメインカメラ画像を取得した際に、サブカメラSCで得られた画像を示している。
このような画像に対して、基線長を変更して得られた画像を図39の(c)部および(d)部に示す。
図39の(c)部には、基線長を変更しない場合にメインカメラMCで得られた画像を示し、図39の(d)部には、基線長を長くした場合にメインカメラMCで得られた第1の画像を示している。図39の(d)部に示されるように、基線長を長くすることで、被写体PSが画角内から外れる可能性があるが、その場合は図39の(e)部に示されるように被写体PSが画角内に収まるように、図39の(d)部ではみ出した部分の画像を作成するとともに、画像サイズを広げる処理を行う。なお、はみ出した部分の画像は、基線長を変更しない場合にメインカメラMCで得られた画像に基づいて作成すれば良い。
ここで、ステレオ視画像には、図39の(c)部に示す画像と、図39の(e)部に示す画像とを使用するが、図39の(e)部の画像は画像サイズが広くなっているので、画像サイズが左右の画像で異なることとなる。そこで、図39の(e)部に示すような画像を作成した場合は、図39の(c)部に示す画像に対しても何らかの画像を付加して画像サイズを大きくしておく。ここで、画像を付加する方法としては、有効なデータが存在しない領域NRを付加する方法や、端の画像をミラーのようにコピーする方法を採ることができる。
以上説明したように、ステレオ視画像の生成においては第1〜第4の方法を採ることで、違和感のない3次元表示を行うことができる。
なお、上述した第1〜第4の方法は、単独で用いても良いが組み合わせて用いても良い。例えば、第1の方法と第4の方法を組み合わせることで、ズームした場合にも違和感のない3次元表示を行うことができる。
<実施の形態の変形例>
以上説明した本発明に係る実施の形態においては、第1または第2の画像から取得した距離情報を使用することを前提とするものであったが、距離情報を使用せずにステレオ視画像を生成するものとしても良い。
すなわち、図40の(a)部に示されるようにステレオカメラVC1を横置きで使用し、得られた第1および第2の画像を用いてステレオ視画像を生成しても良い。
図40の(b)部および(c)部には、それぞれメインカメラMCで得られた第1の画像およびサブカメラSCで得られた第2の画像を示しており、図40の(d)部には両画像から得られた高解像度の新たな第2の画像を示している。
すなわち、高解像度の第1の画像の情報を、解像度の低い第2の画像に与えることで、第2の画像の解像度を高めることで新たな第2の画像を作成し、第1の画像および新たな第2の画像をステレオ視画像として用いることで、3次元表示を行うことができる。
なお、上記のような使い方をするためには、ステレオカメラVC1は、縦置き状態、横置き状態を感知するためのセンサを有し、横置き状態をした場合は距離情報を使用せずにステレオ視画像を生成するシステムとなるように、回路接続が変更されるように構成すれば良い。なお、上記センサや回路接続の変更は図7では図示しないマイクロコンピュータ等の制御装置で制御される。
<付加的機能>
以上説明したステレオカメラにおいては、撮影者が間違ってサブカメラSCを手で隠してしまったような場合に、映像はメインカメラMCだけで見ているために気付かない可能性がある。このような場合、メインカメラMCで得られた映像と、サブカメラSCで得られた映像とを比較し、両画像の類似性を検出し、類似性が全くないような場合には警告を発するような機能を有していても良い。
類似性の検出以外にも、単純に画像の明るさの違いで検出しても良い。サブカメラSCが手で隠されている場合には、サブカメラSCで得られた映像は暗くなるからである。
また、これが原因でメインカメラMCで得られた映像と、サブカメラSCで得られた映像とのマッチングが取れない場合には、擬似立体画像の技術を用いて推定したり、時系列的に前後の画像から補間しても良い。
この発明は詳細に説明されたが、上記した説明は、すべての局面において、例示であって、この発明がそれに限定されるものではない。例示されていない無数の変形例が、この発明の範囲から外れることなく想定され得るものと解される。
1 撮影情報取得部
2 メイン画像取得部
3 距離情報取得部
4 左右画像生成部
MC メインカメラ
SC サブカメラ
本発明に係るステレオカメラの第1の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部が、前記第1および第2の画像の撮影の際の撮影情報に基づいて、前記第1および第2の画像に対して、一方をテンプレートとして他方とのテンプレートマッチングを行い、最も一致度が高い領域を対応点探索を行う対応点探索領域として決定する。
本発明に係るステレオカメラの第の態様は、前記距離情報取得部が、前記第1および第2の画像の撮影倍率が異なる場合は、前記テンプレートとなる方の画像の解像度変換処理を行って前記テンプレートを作成する。
本発明に係るステレオカメラの第の態様は、第1の画像を撮影する第1の撮像部と、 前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部が、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、 前記第1および第2の画像の撮影の際の撮影情報に基づいて、前記第1および第2の画像に対して、オブジェクト認識により物体候補となる物体候補領域を抽出し、得られた物体候補領域どうしの比較を行って、最も一致度が高い領域を対応点探索を行う対応点探索領域として決定する。
本発明に係るステレオカメラの第の態様は、第1の画像を撮影する第1の撮像部と、 前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部と、を備え、前記距離情報取得部が、前記第1および第2の画像の撮影の際の撮影情報に基づいて、前記第1および第2の画像に対して、一方の画像上に他方の画像の光軸中心を設定し、一方の画像上に設定された前記他方の画像の光軸中心と、前記他方の画像の光軸中心とを合わせ、前記一方の画像を他方の画像を撮影した撮像素子に合う画像サイズに変換して重ね合わせることで、対応点探索を行う対応点探索領域を決定する。
本発明に係るステレオカメラの第の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部が、前記第1および第2の画像の撮影の際の撮影情報に基づいて、前記第1および第2の画像に対して、光軸中心を中心とした縦方向の画角の比率で対応点探索を行う対応点探索領域を決定する。
本発明に係るステレオカメラの第の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部が、前記第1および第2の画像の撮影の際の撮影情報に基づいて、前記第1および第2の画像に対して、エピポーラ線に沿った1次元の領域を対応点探索を行う対応点探索領域として決定する。
本発明に係るステレオカメラの第の態様は、前記距離情報取得部が、前記第1および第2の画像のそれぞれの前記対応点探索領域に対して、対応点探索の基準側となる領域内の基準位置を、画素サイズよりも細かいサイズのサブピクセルの位置に設定して対応点探索を行う。
本発明に係るステレオカメラの第の態様は、前記距離情報取得部が、前記第1および第2の画像のそれぞれの前記対応点探索領域の画素数が多い方を基準画像として対応点探索を行う。
本発明に係るステレオカメラの第の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部は、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、前記距離情報取得部が、前記第1および第2の画像の撮影の際にズーム撮影が行われた場合には、ズームの程度に合わせて対応点のサンプリング間隔を変更する。
本発明に係るステレオカメラの第10の態様は、前記距離情報取得部が、ズーム倍率が大きくなるほど対応点のサンプリング間隔を小さくする。
本発明に係るステレオカメラの第11の態様は、前記距離情報取得部が、前記第1および第2の画像のそれぞれの前記対応点探索領域の画素数が少ない方の画素数に合わせて対応点のサンプリング間隔を変更する。
本発明に係るステレオカメラの第12の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部は、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、対応点探索に使用されるウインドウの縦横比が、ウインドウを物体面に適用した場合に、物体面での縦横比が等方となるように設定して対応点探索を行う。
【0022】
本発明に係るステレオカメラの第13の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部は、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、前記第1の撮像部が前記第2の撮像部よりも解像度が高く、前記左右画像生成部は、前記第1の画像をメイン画像とし、前記視差情報に従って前記第2の画像内の前記対応点探索領域の画像をずらして新たな第2の画像を生成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする。
【0023】
本発明に係るステレオカメラの第14の態様は、前記左右画像生成部が、前記第2の画像の前記対応点探索領域内の画素数が、前記第1の画像の前記対応点探索領域内画素数よりも少ない場合には、前記第1の画像から画素情報を補充する。
本発明に係るステレオカメラの第15の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部は、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、前記第1の撮像部が前記第2の撮像部よりも解像度が高く、前記左右画像生成部は、前記第1の画像よりも前記第2の画像の方が撮影倍率が高い場合は、前記第2の画像を前記第1の画像に嵌め込むことで新たな第2の画像を生成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第16の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部は、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、前記第1の撮像部が前記第2の撮像部よりも解像度が高く、前記左右画像生成部は、前記第2の画像よりも前記第1の画像の方が撮影倍率が高い場合は、前記第1の画像を前記第2の画像に嵌め込むことで新たな第1の画像を生成し、前記新たな第1の画像および前記第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第17の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記距離情報取得部は、前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定し、前記第1の撮像部がズーム機能を有し、前記左右画像生成部は、前記第1の画像がズームされた画像である場合は、ズーム倍率に従って、基線長を変更した画像を生成することで新たな第1の画像を生成する。
本発明に係るステレオカメラの第18の態様は、前記左右画像生成部が、前記新たな第1の画像を生成する場合に、基線長の変更によっても被写体が画像内に収まるように画像サイズを変更する。
本発明に係るステレオカメラの第19の態様は、前記第2の撮像部のレンズが中心窩レンズである。
本発明に係るステレオカメラの第20の態様は、前記第2の撮像部のレンズがアナモフィックレンズである。
本発明に係るステレオカメラの第21の態様は、第1の画像を撮影する第1の撮像部と、前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部とを備え、前記第1の撮像部は前記第2の撮像部よりも解像度が高く、前記ステレオカメラは、前記第1および第2の撮像部の配列が、水平面に対して平行となる横置きで前記ステレオカメラが配置されたことを感知するセンサをさらに備え、横置きを感知した場合は、前記距離情報取得部の動作を停止し、前記左右画像生成部は、前記第1の画像の情報を前記第2の画像に与えることで、新たな第2の画像を作成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする。
本発明に係るステレオカメラの第1の態様によれば、カメラパラメータの異なる2つの撮像部を有するステレオカメラであってもステレオ視画像を得ることができ、ステレオ視画像を低コストで生成することができ、第1および第2の画像の撮影の際の撮影情報、例えばズーム倍率等に基づいて対応点探索領域を決定することができ、また、テンプレートマッチングにより対応点探索領域を決定できる。
図1〜図3は、本発明に係るステレオカメラの使用形態を説明する図である。図1では、ステレオカメラVC1を縦置きで使用する例を示しており、図2では、ステレオカメラVC1を置きで使用する例を示している。

Claims (23)

  1. 第1の画像を撮影する第1の撮像部と、
    前記第1の撮像部とは異なるカメラパラメータを有し、第2の画像を撮影する第2の撮像部と、
    前記第1および第2の画像の各画素について対応付けを行って視差情報を含む距離情報を取得する距離情報取得部と、
    前記第1および第2の画像の一方と、前記距離情報とに基づいてステレオ視画像を生成する左右画像生成部と、を備えるステレオカメラ。
  2. 前記距離情報取得部は、
    前記第1および第2の画像の撮影の際の撮影情報に基づいて、対応点探索を行う対応点探索領域を決定する、請求項1記載のステレオカメラ。
  3. 前記距離情報取得部は、
    前記第1および第2の画像に対して、一方をテンプレートとして他方とのテンプレートマッチングを行い、最も一致度が高い領域を前記対応点探索領域として決定する、請求項2記載のステレオカメラ。
  4. 前記距離情報取得部は、
    前記第1および第2の画像の撮影倍率が異なる場合は、前記テンプレートとなる方の画像の解像度変換処理を行って前記テンプレートを作成する、請求項3記載のステレオカメラ。
  5. 前記距離情報取得部は、
    前記第1および第2の画像に対して、オブジェクト認識により物体候補となる物体候補領域を抽出し、得られた物体候補領域どうしの比較を行って、最も一致度が高い領域を前記対応点探索領域として決定する、請求項2記載のステレオカメラ。
  6. 前記距離情報取得部は、
    前記第1および第2の画像に対して、一方の画像上に他方の画像の光軸中心を設定し、一方の画像上に設定された前記他方の画像の光軸中心と、前記他方の画像の光軸中心とを合わせ、前記一方の画像を他方の画像を撮影した撮像素子に合う画像サイズに変換して重ね合わせることで、前記対応点探索領域を決定する、請求項2記載のステレオカメラ。
  7. 前記距離情報取得部は、
    前記第1および第2の画像に対して、光軸中心を中心とした縦方向の画角の比率で前記対応点探索領域を決定する、請求項2記載のステレオカメラ。
  8. 前記距離情報取得部は、
    前記第1および第2の画像に対して、エピポーラ線に沿った1次元の領域を前記対応点探索領域として決定する、請求項2記載のステレオカメラ。
  9. 前記距離情報取得部は、
    前記第1および第2の画像のそれぞれの前記対応点探索領域に対して、対応点探索の基準側となる領域内の基準位置を、画素サイズよりも細かいサイズのサブピクセルの位置に設定して対応点探索を行う、請求項2記載のステレオカメラ。
  10. 前記距離情報取得部は、
    前記第1および第2の画像のそれぞれの前記対応点探索領域の画素数が多い方を基準画像として対応点探索を行う、請求項2記載のステレオカメラ。
  11. 前記距離情報取得部は、
    前記第1および第2の画像の撮影の際にズーム撮影が行われた場合には、ズームの程度に合わせて対応点のサンプリング間隔を変更する、請求項2記載のステレオカメラ。
  12. 前記距離情報取得部は、
    ズーム倍率が大きくなるほど前記対応点のサンプリング間隔を小さくする、請求項11記載のステレオカメラ。
  13. 前記距離情報取得部は、
    前記第1および第2の画像のそれぞれの前記対応点探索領域の画素数が少ない方の画素数に合わせて対応点のサンプリング間隔を変更する、請求項2記載のステレオカメラ。
  14. 前記距離情報取得部は、
    対応点探索に使用されるウインドウの縦横比が、ウインドウを物体面に適用した場合に、物体面での縦横比が等方となるように設定して対応点探索を行う、請求項2記載のステレオカメラ。
  15. 前記第1の撮像部は前記第2の撮像部よりも解像度が高く、
    前記左右画像生成部は、
    前記第1の画像をメイン画像とし、前記視差情報に従って前記第2の画像内の前記対応点探索領域の画像をずらして新たな第2の画像を生成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする、請求項2記載のステレオカメラ。
  16. 前記左右画像生成部は、
    前記第2の画像の前記対応点探索領域内の画素数が、前記第1の画像の前記対応点探索領域内画素数よりも少ない場合には、前記第1の画像から画素情報を補充する、請求項15記載のステレオカメラ。
  17. 前記第1の撮像部は前記第2の撮像部よりも解像度が高く、
    前記左右画像生成部は、
    前記第1の画像よりも前記第2の画像の方が撮影倍率が高い場合は、前記第2の画像を前記第1の画像に嵌め込むことで新たな第2の画像を生成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする、請求項2記載のステレオカメラ。
  18. 前記第1の撮像部は前記第2の撮像部よりも解像度が高く、
    前記左右画像生成部は、
    前記第2の画像よりも前記第1の画像の方が撮影倍率が高い場合は、前記第1の画像を前記第2の画像に嵌め込むことで新たな第1の画像を生成し、前記新たな第1の画像および前記第2の画像を前記左右画像とする、請求項2記載のステレオカメラ。
  19. 前記第1の撮像部はズーム機能を有し、
    前記左右画像生成部は、
    前記第1の画像がズームされた画像である場合は、ズーム倍率に従って、基線長を変更した画像を生成することで新たな第1の画像を生成する、請求項2記載のステレオカメラ。
  20. 前記左右画像生成部は、
    前記新たな第1の画像を生成する場合に、基線長の変更によっても被写体が画像内に収まるように画像サイズを変更する、請求項19記載のステレオカメラ。
  21. 前記第2の撮像部のレンズは、中心窩レンズである、請求項1記載のステレオカメラ。
  22. 前記第2の撮像部のレンズは、アナモフィックレンズである、請求項1記載のステレオカメラ。
  23. 前記第1の撮像部は前記第2の撮像部よりも解像度が高く、
    前記ステレオカメラは、
    前記第1および第2の撮像部の配列が、水平面に対して平行となる横置きで前記ステレオカメラが配置されたことを感知するセンサをさらに備え、横置きを感知した場合は、前記距離情報取得部の動作を停止し、
    前記左右画像生成部は、
    前記第1の画像の情報を前記第2の画像に与えることで、新たな第2の画像を作成し、前記第1の画像および前記新たな第2の画像を前記左右画像とする、請求項1記載のステレオカメラ。
JP2011552721A 2010-02-02 2011-01-12 ステレオカメラ Expired - Fee Related JP5472328B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011552721A JP5472328B2 (ja) 2010-02-02 2011-01-12 ステレオカメラ

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2010021152 2010-02-02
JP2010021152 2010-02-02
JP2011552721A JP5472328B2 (ja) 2010-02-02 2011-01-12 ステレオカメラ
PCT/JP2011/050319 WO2011096251A1 (ja) 2010-02-02 2011-01-12 ステレオカメラ

Publications (2)

Publication Number Publication Date
JPWO2011096251A1 true JPWO2011096251A1 (ja) 2013-06-10
JP5472328B2 JP5472328B2 (ja) 2014-04-16

Family

ID=44355261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011552721A Expired - Fee Related JP5472328B2 (ja) 2010-02-02 2011-01-12 ステレオカメラ

Country Status (4)

Country Link
US (1) US9109891B2 (ja)
EP (1) EP2533541A4 (ja)
JP (1) JP5472328B2 (ja)
WO (1) WO2011096251A1 (ja)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9736368B2 (en) 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
US11119396B1 (en) 2008-05-19 2021-09-14 Spatial Cam Llc Camera system with a plurality of image sensors
US10896327B1 (en) 2013-03-15 2021-01-19 Spatial Cam Llc Device with a camera for locating hidden object
US10354407B2 (en) 2013-03-15 2019-07-16 Spatial Cam Llc Camera for locating hidden objects
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
US10585344B1 (en) 2008-05-19 2020-03-10 Spatial Cam Llc Camera system with a plurality of image sensors
JP5398750B2 (ja) * 2011-01-26 2014-01-29 株式会社東芝 カメラモジュール
EP2757789A4 (en) * 2011-09-16 2016-01-20 Konica Minolta Inc IMAGE PROCESSING SYSTEM, IMAGE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM
JP5414947B2 (ja) * 2011-12-27 2014-02-12 パナソニック株式会社 ステレオ撮影装置
US9142010B2 (en) * 2012-01-04 2015-09-22 Audience, Inc. Image enhancement based on combining images from multiple cameras
US8619148B1 (en) 2012-01-04 2013-12-31 Audience, Inc. Image correction after combining images from multiple cameras
EP2806397A4 (en) * 2012-01-17 2015-11-04 Konica Minolta Inc PICTURE PROCESSING DEVICE, PICTURE PROCESSING METHOD AND PICTURE PROCESSING PROGRAM
JP5773944B2 (ja) * 2012-05-22 2015-09-02 株式会社ソニー・コンピュータエンタテインメント 情報処理装置および情報処理方法
DE102012014994B4 (de) * 2012-07-28 2024-02-22 Volkswagen Aktiengesellschaft Bildverarbeitungsverfahren für eine digitale Stereokameraanordnung
US9142019B2 (en) 2013-02-28 2015-09-22 Google Technology Holdings LLC System for 2D/3D spatial feature processing
WO2014141654A1 (ja) * 2013-03-13 2014-09-18 パナソニック株式会社 測距装置、撮像装置および測距方法
WO2014160819A1 (en) * 2013-03-27 2014-10-02 Bae Systems Information And Electronic Systems Integration Inc. Multi field-of-view multi sensor electro-optical fusion-zoom camera
US9646384B2 (en) 2013-09-11 2017-05-09 Google Technology Holdings LLC 3D feature descriptors with camera pose information
TWI508526B (zh) * 2013-10-01 2015-11-11 Wistron Corp 產生視角平移影像之方法及其可攜式電子設備
JP6668594B2 (ja) 2014-02-25 2020-03-18 株式会社リコー 視差演算システム、情報処理装置、情報処理方法及びプログラム
JP6249825B2 (ja) * 2014-03-05 2017-12-20 キヤノン株式会社 撮像装置、その制御方法、および制御プログラム
KR102221036B1 (ko) * 2014-09-15 2021-02-26 엘지전자 주식회사 이동단말기 및 그 제어방법
JP6424362B2 (ja) * 2014-09-26 2018-11-21 株式会社明電舎 線条計測装置及びその方法
JP6346868B2 (ja) * 2015-03-31 2018-06-20 公益財団法人鉄道総合技術研究所 ステレオ画像処理方法およびその装置
GB2541101A (en) * 2015-06-23 2017-02-08 Bosch Gmbh Robert Method and camera system for determining the distance of objects in relation to a vehicle
JP6648916B2 (ja) * 2015-07-27 2020-02-14 キヤノン株式会社 撮像装置
JP6552315B2 (ja) * 2015-07-27 2019-07-31 キヤノン株式会社 撮像装置
US10681257B2 (en) * 2015-08-26 2020-06-09 Zhejiang Dahua Technology Co., Ltd. Methods and systems for traffic monitoring
JP2017069926A (ja) * 2015-10-02 2017-04-06 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
KR102482067B1 (ko) * 2015-11-27 2022-12-28 삼성전자주식회사 전자 장치 및 그의 동작 방법
JP6702796B2 (ja) * 2016-05-16 2020-06-03 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法および画像処理プログラム
JP7159057B2 (ja) * 2017-02-10 2022-10-24 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 自由視点映像生成方法及び自由視点映像生成システム
KR20190013224A (ko) * 2017-08-01 2019-02-11 엘지전자 주식회사 이동 단말기
EP3486606A1 (de) * 2017-11-20 2019-05-22 Leica Geosystems AG Stereokamera und stereophotogrammetrisches verfahren
US10721419B2 (en) * 2017-11-30 2020-07-21 International Business Machines Corporation Ortho-selfie distortion correction using multiple image sensors to synthesize a virtual image
US10789725B2 (en) * 2018-04-22 2020-09-29 Cnoga Medical Ltd. BMI, body and other object measurements from camera view display
WO2020017377A1 (ja) 2018-07-18 2020-01-23 ミツミ電機株式会社 測距カメラ
US10452959B1 (en) * 2018-07-20 2019-10-22 Synapse Tehnology Corporation Multi-perspective detection of objects
JP7150508B2 (ja) * 2018-07-24 2022-10-11 株式会社東芝 鉄道車両用撮像システム
JP7132501B2 (ja) * 2018-11-01 2022-09-07 ミツミ電機株式会社 測距カメラ
JP2020136958A (ja) * 2019-02-21 2020-08-31 ソニーセミコンダクタソリューションズ株式会社 イベント信号検出センサ及び制御方法
US11010605B2 (en) 2019-07-30 2021-05-18 Rapiscan Laboratories, Inc. Multi-model detection of objects
JP2022088142A (ja) 2020-12-02 2022-06-14 ヤマハ発動機株式会社 距離認識システムおよびその制御方法、船舶
JP2023006232A (ja) * 2021-06-30 2023-01-18 日立Astemo株式会社 距離測定装置
WO2024004190A1 (ja) * 2022-06-30 2024-01-04 富士通株式会社 3次元位置算出方法、装置、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2998791B2 (ja) * 1996-10-31 2000-01-11 日本電気株式会社 三次元構造推定装置
EP1418766A3 (en) * 1998-08-28 2010-03-24 Imax Corporation Method and apparatus for processing images
JP2000102040A (ja) * 1998-09-28 2000-04-07 Olympus Optical Co Ltd 電子ステレオカメラ
JP2001346226A (ja) * 2000-06-02 2001-12-14 Canon Inc 画像処理装置、立体写真プリントシステム、画像処理方法、立体写真プリント方法、及び処理プログラムを記録した媒体
JP2002071309A (ja) * 2000-08-24 2002-03-08 Asahi Optical Co Ltd 3次元画像検出装置
US6915008B2 (en) * 2001-03-08 2005-07-05 Point Grey Research Inc. Method and apparatus for multi-nodal, three-dimensional imaging
JP2004297540A (ja) 2003-03-27 2004-10-21 Sharp Corp 立体映像記録再生装置
JP2005210217A (ja) 2004-01-20 2005-08-04 Olympus Corp ステレオカメラ
JP4500140B2 (ja) * 2004-09-21 2010-07-14 オリンパス株式会社 2眼撮像系を搭載したカメラ
US20080002878A1 (en) * 2006-06-28 2008-01-03 Somasundaram Meiyappan Method For Fast Stereo Matching Of Images
JP4668863B2 (ja) 2006-08-01 2011-04-13 株式会社日立製作所 撮像装置
JP4914688B2 (ja) 2006-09-29 2012-04-11 富士フイルム株式会社 撮影装置
JP4958233B2 (ja) 2007-11-13 2012-06-20 学校法人東京電機大学 多眼視画像作成システム及び多眼視画像作成方法

Also Published As

Publication number Publication date
JP5472328B2 (ja) 2014-04-16
WO2011096251A1 (ja) 2011-08-11
EP2533541A4 (en) 2013-10-16
US9109891B2 (en) 2015-08-18
US20120293633A1 (en) 2012-11-22
EP2533541A1 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP5472328B2 (ja) ステレオカメラ
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
KR102013978B1 (ko) 이미지들의 융합을 위한 방법 및 장치
JP5887267B2 (ja) 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
US9210405B2 (en) System and method for real time 2D to 3D conversion of video in a digital camera
CN101673395B (zh) 图像拼接方法及装置
KR101706216B1 (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
US20130113898A1 (en) Image capturing apparatus
CN102111629A (zh) 图像处理装置、图像捕获装置、图像处理方法和程序
US20160050372A1 (en) Systems and methods for depth enhanced and content aware video stabilization
JP5522018B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN103379267A (zh) 三维空间图像的获取系统及方法
US20140192163A1 (en) Image pickup apparatus and integrated circuit therefor, image pickup method, image pickup program, and image pickup system
KR100943635B1 (ko) 디지털카메라의 이미지를 이용한 디스패리티 맵 생성 장치 및 방법
CN109302600B (zh) 一种立体场景拍摄装置
US8908012B2 (en) Electronic device and method for creating three-dimensional image
CN105191300B (zh) 图像处理方法以及图像处理装置
JP2013247543A (ja) 撮像装置、表示装置、および画像処理方法、並びにプログラム
JP5925109B2 (ja) 画像処理装置、その制御方法、および制御プログラム
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
JP5088973B2 (ja) 立体撮像装置およびその撮像方法
JP6648916B2 (ja) 撮像装置
JP5689693B2 (ja) 描画処理装置
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6066765B2 (ja) 撮像装置、その制御方法、および制御プログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130709

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130813

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140120

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees