JP2015005201A - 情報処理装置、情報処理システム、情報処理方法およびプログラム。 - Google Patents

情報処理装置、情報処理システム、情報処理方法およびプログラム。 Download PDF

Info

Publication number
JP2015005201A
JP2015005201A JP2013130856A JP2013130856A JP2015005201A JP 2015005201 A JP2015005201 A JP 2015005201A JP 2013130856 A JP2013130856 A JP 2013130856A JP 2013130856 A JP2013130856 A JP 2013130856A JP 2015005201 A JP2015005201 A JP 2015005201A
Authority
JP
Japan
Prior art keywords
information
processing
image data
processing procedure
distance information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013130856A
Other languages
English (en)
Other versions
JP6214233B2 (ja
Inventor
正輝 北郷
Masateru Kitago
正輝 北郷
徹 福嶋
Tooru Fukushima
徹 福嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2013130856A priority Critical patent/JP6214233B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Priority to PCT/JP2014/066495 priority patent/WO2014204009A1/en
Priority to BR112015031939-4A priority patent/BR112015031939B1/pt
Priority to EP14814087.4A priority patent/EP3011267A4/en
Priority to CN201480035494.5A priority patent/CN105339757B/zh
Priority to US14/900,099 priority patent/US9905011B2/en
Priority to SG11201510362TA priority patent/SG11201510362TA/en
Priority to KR1020167001448A priority patent/KR101783237B1/ko
Publication of JP2015005201A publication Critical patent/JP2015005201A/ja
Application granted granted Critical
Publication of JP6214233B2 publication Critical patent/JP6214233B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/236Image signal generators using stereoscopic image cameras using a single 2D image sensor using varifocal lenses or mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】 画像データから距離情報を取得する処理を行う場合の利便性を向上する。【解決手段】 画像データから距離情報を取得する情報処理装置が、受取り部162と処理手順選択部164を有している。受取り部162は、画像データと、その画像データと関連づいており、距離情報を取得するための処理手順を特定する情報とを受取る。そして、処理手順選択部164は、距離情報を取得するための処理手順を特定する情報に基づき、複数の処理手順の中から少なくとも1つの処理手順を選択し、選択された処理手順を用いて画像データから距離情報を取得する。【選択図】 図1

Description

本発明は画像データから距離情報を取得する情報処理装置に関する。
近年、デジタルカメラの分野において、撮像センサの出力から、被写体の画像データに加えて更なる情報を抽出し、その情報を画像処理に応用するコンピュテーショナルフォトグラフィーの技術が知られている。その一例として、デジタルカメラにより取得した画像データから、被写体までの距離情報を取得する処理がある。
画像データから距離情報を取得する方法として、視差のある複数の画像の相関に基づくステレオマッチング処理を行う方法が知られている(特許文献1)。また、合焦状態の異なる複数の画像を用いて、それぞれの画像の合焦状態の違いに基づいて距離情報を取得する方法も知られている(特許文献2)。
特開2012−253444号公報 特開2013−62803号公報
前述した距離情報の取得処理は複雑な計算を必要とするため、画像データの取得時にカメラ内で処理を行うのではなく、例えば外部装置で処理を行うといった方法が考えられる。
しかしながら、入力される画像データの種類に応じて距離情報の取得のために用いる処理が異なるため、画像データ毎に専用の処理ソフトウェアやハードウェアを用意する必要があり、利便性が良くなかった。
その現状に鑑み、本発明は、画像データから距離情報を取得する処理を行う場合の利便性を向上することを目的としている。
上記課題を解決するために、本発明は、距離情報を取得するための画像データと、前記画像データと関連づいており、距離情報を取得するための処理手順を特定する情報とを受取る受取り手段と、前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する取得手段とを有することを特徴とする情報処理装置に関する。
本発明によれば、様々な画像データに共通のソフトウェアやハードウェアで処理を行うことが可能となり、利便性が向上する。
第一の実施例の情報処理システムの構成を示す図。 第一の実施例のカメラの撮像部の構成の一例を示す図。 第一の実施例の情報処理部のハードウェア構成を示す図。 第一の実施例のカメラの撮像部の構成の一例を示す図。 Plenopticカメラによる光線の弁別の方法を示す図。 第一の実施例のカメラの撮像部の構成の一例を示す図。 第一の実施例のカメラ内で行われる処理のフローチャート。 第一の実施例の画像データファイルの構造の一例を示す図。 第一の実施例の画像データファイルの記述の一例を示す図。 第一の実施例のコンピュータ内で行われる処理のフローチャート。 第一の実施例で行われる距離情報取得処理の一例を示すフローチャート。 ステレオ法による距離算出を説明する図。 Plenoptic画像の例を示す図。 第一の実施例で行われる距離情報取得処理の一例を示すフローチャート。 第一の実施例で行われる距離情報取得処理の一例を示すフローチャート。 第二の実施例のコンピュータ内で行われる処理のフローチャート。 第三の実施例のカメラの構成を示す図。 第三の実施例のカメラの撮像部の構成を示す図。 第三の実施例のカメラ内で行われる処理のフローチャート。
(第一の実施例)
第一の実施例は、デジタルカメラにより取得された画像データから被写体の距離情報を取得し、その距離情報に基づいて、取得した画像データに画像処理を行う情報処理システムに適用される。
図1は、第一の実施例の構成を示す図である。
本実施例の情報処理システムは、カメラ100、120、140とコンピュータ160が接続されることにより構成されている。
カメラ100は、撮像部101と、情報処理部113と、操作部104と、記憶部111とを有し、I/Oインターフェース112を介してコンピュータ160と接続されている。
図2(a)はカメラ100の外観を示す図である。図2(a)に示すように、カメラ100は、4つの撮像部101a〜101dを備えており、複数の視点から撮影することができる。
図2(b)は撮像部101aの内部構成を示す図である。なお、撮像部101b〜101dは撮像部101aと同様の構成となっている。
撮像部101aは、撮像レンズ201〜203、開口絞り204(以下、単に絞りと呼ぶ。)シャッター205、光学ローパスフィルタ206、iRカットフィルタ207、カラーフィルタ208、撮像素子209およびA/D変換部210で構成される。撮像レンズ201〜203はそれぞれ、ズームレンズ201、フォーカスレンズ202、203である。ユーザは絞り204を調整することにより、撮像部101に入射される入射光量を調整することができる。撮像素子209は例えばCMOSやCCDなどの受光素子であり、撮像素子209で被写体の光量を検知すると、検知された光量がA/D変換部210によってデジタル値に変換され、デジタルデータとして情報処理部113へと出力される。
図3は情報処理部113の内部構成を示す図である。情報処理部113は、CPU301、RAM302、ROM303を有し、各構成部はシステムバス304により相互に接続されている。
CPU301はカメラ100内の各部を統括的に制御するプロセッサである。RAM302は、CPU301の主メモリ、ワークエリア等として機能する。ROM303は、図7のフローチャートに示されるプログラムを格納している。情報処理部113は、ROM303に格納されたプログラムを、CPU301がプログラムコードとして読み込み実行することで、図1に示す各構成部としての役割を実現する。なお、情報処理部113の構成は、上記に示すもの以外に、図1に示す各構成部の役割を果たす専用の処理回路などを備えたものであっても良い。
操作部104は、カメラ本体に備えられたボタンやダイヤル、タッチパネルなどの入力装置であり、ユーザが操作して、撮影の開始、停止および撮影条件の設定などの命令を行うことができる。本実施例においては、距離情報の取得と画像処理を撮影時にカメラ内で行う内部処理モードと、その両方を、画像データを後で外部装置に出力してから行う外部処理モードをユーザが設定可能である。
記憶部111は、撮像部101により取得された画像データを保存することができる、メモリカードなどの不揮発性の記憶媒体である。
I/Oインターフェース112はユニバーサルシリアルバス(USB)によって実装されたシリアルバス接続を利用でき、対応するUSBコネクタ(図示せず)を有する。もちろん、光ファイバーによるLAN接続や、無線接続などを利用しても良い。
次に、カメラ120および140の構成について述べる。カメラ120およびカメラ140の構成は基本的にはカメラ100と同じであるが、撮像部の構造と距離取得部で行われる処理が異なる。カメラ100、120および140の距離取得部ではそれぞれ図11、図14および図15のフローチャートに示す処理が行われるが、その詳細については後述する。
カメラ120はPlenopticカメラである。Plenopticカメラによって取得された画像は、1枚の画像中に多視点の情報を含んでいる。本実施例中では、Plenopticカメラにより取得された画像をPlenoptic画像と呼ぶこととする。
図4は撮像部121の内部構成を示す図である。撮像部121は、ズームレンズ401、フォーカスレンズ402,403、絞り404、シャッター405、光学ローパスフィルタ406、iRカットフィルタ407、カラーフィルタ408、撮像素子409およびA/D変換部410を有している。撮像部121は上記点で撮像部101aと同様の構成であるが、それに加え、複数の微小な凸レンズがアレイ状に並んだマイクロレンズアレイ411を有している。マイクロレンズアレイ411は、撮像レンズ401〜403を1枚のレンズであると仮想的にみなした時、その仮想レンズの像平面に配置されている。マイクロレンズアレイ411をこの仮想レンズの像平面に配置することで、撮像素子409に入力される光線の入射方向を弁別することができる。
図5(a)および(b)は、マイクロレンズアレイ411によって仮想レンズ501から入射される光線を弁別する様子を示した図である。仮想レンズ501の上半分から入射された光線と、仮想レンズ501の下半分から入射された光線が、それぞれ撮像素子409上の別の画素領域に照射される。この各画素領域の情報を選択的に抜き出すことで、Plenoptic画像から多視点の情報を抽出することができる。
カメラ140はDFD(Depth From Defocus)機能を備えたカメラであり、合焦状態の異なる複数の画像を取得することができる。ここで、合焦状態が異なるとは、レンズの位置や焦点距離や被写界深度の違いにより、被写体像のボケ度合いが異なること意味する。DFDの詳細については後述する。
図6は撮像部141の内部構成を示す図である。基本的な構成は撮像部101aと同じであるが、撮像部141はレンズ駆動部611を有しており、撮像レンズ601〜603を駆動して合焦位置を調整することができる。カメラ140は、レンズの駆動前と駆動後それぞれで撮影を行うことにより、1回の撮像指示で合焦位置の異なる複数の画像を取得することができる。
次に、コンピュータ160の構成について説明する。コンピュータ160は、I/Oインターフェース161と、情報処理部173と、記憶部163を有する。I/Oインターフェース161はI/Oインターフェース112と同様にUSBコネクタを有する。コンピュータ160はI/Oインターフェース161を介してカメラ100、120および140と接続されている。
情報処理部173の内部構成は図3に示す情報処理部113と同様であり、情報処理部173内のROMには図10のフローチャートに示されるプログラムが格納されている。
記憶部163はハードディスク等の不揮発性の記憶媒体であり、カメラ100、120、140から出力された画像データおよびコンピュータ160内で新たに生成した画像データなどを保存することができる。
以下、本実施例に示す情報処理システムで行われる処理について説明する。距離情報取得処理、画像処理の詳細については後述する。
図7は、取得した画像データに、距離情報に基づく画像処理を施すモードが設定された場合に、カメラ100内で行われる処理を示したフローチャートである。
まず、取得部102は、撮像部101から出力された画像データを取得し、モード判定部103にその画像データを出力する(ステップS701)。
次に、モード判定部103は、操作部104の操作により設定された処理モードを、操作部104からの命令信号に基づいて判定する(ステップS702)。外部処理モードと判定された場合、モード判定部103は既存メタデータ付加部107に画像データを出力し、ステップS703の処理に進む。内部処理モードと判定された場合、モード判定部103は距離取得部105に画像データを出力し、ステップS711の処理に進む。
内部処理モードと判定された場合には、距離取得部105は入力された画像データを用いて被写体の距離情報の取得を行い、入力された画像データと取得した距離情報を関連付けて画像処理部106に出力する(ステップS711)。本実施例において、距離取得部105が取得する距離情報は、被写体中の各位置における距離を示した距離マップである。距離マップはそれぞれの画素位置でのカメラから被写体までの距離を二次元的に並べたものであり、ビットマップデータとして出力される。ここで関連付けとは、例えば、画像データと距離情報を連続したデータとして出力したり、RAM302に画像データと距離情報の関係を示す情報を一時的に保存し、CPU301がその情報を読み出して解釈できるようにすることを言う。図11との関係。
次に、画像処理部106は、入力された画像データに関連付けられた距離マップに基づいて、入力された画像データに画像処理を行う(ステップS712)。画像処理部106は、この画像処理によって生成された画像データを入力された画像データに更に関連付け、既存メタデータ付加部107に出力する。
次に、既存メタデータ付加部107は、入力された画像データに、既存の標準ファイルフォーマットにおいて定義されているメタデータの付加を行い、距離取得用メタデータ付加部108に画像データを出力する(ステップS703)。これにより、本実施例のファイルフォーマットに対応していないソフトウェアを用いた場合であっても、出力されたファイルを開いて画像を確認することができる。ここで付加される既存メタデータは、既存の標準ファイルフォーマットであるTIFFおよびExifによって定義されたメタデータであり、入力された複数の画像データのうちの1つの画像データにかかる撮影パラメータなどを含む。本実施例においては、撮像部101aによって取得された画像データの撮影パラメータなどを含む。なお、ここで付加されるメタデータの形式はTIFFおよびExifに限られず、他の標準ファイルフォーマットで定義される形式であっても良い。また、ここで付加される既存メタデータは、撮像部101a以外の他の撮像部によって取得された画像データのメタデータであっても良い。
次に、距離取得用メタデータ付加部108は、入力された画像データに、その画像データから距離情報を取得するために用いるメタデータを付加し、画像データファイル801として符号化部109に出力する(ステップS704)。
以下、画像データファイル801の構造を説明する。図8は本実施例における画像データファイル801のデータ構造を示す図である。本実施例のファイルフォーマットは、複数の視点から撮影して得られた画像データと、複数の合焦状態で撮影して得られた画像データの両方を格納することができる。TIFF Header、TIFF 0th IFD、Exif IFDは既存の標準ファイルフォーマットであるTIFFおよびExifによって定義されたメタデータである。これらのメタデータは、ステップS703において既存メタデータ付加部によって画像データに付加される。CPI(Computational Imaging)データ802は、画像データファイル801に含まれる各画像データの管理にかかわるパラメータなどを含んでいる。また、CPIデータ802は、画像データファイル801に含まれる画像データから距離情報を取得する際に用いるパラメータを含んでいる。本実施例において、距離情報を取得するために用いるメタデータはCPIデータ802であり、距離取得用メタデータ付加部108は、ここでCPIデータ802を画像データに付加する。
CPIデータ802は、基本的には管理情報803、視点情報804、画像情報805の3種類の情報で構成されている。なお、CPIデータ802、管理情報803、視点情報804、画像情報805には、後から情報の追加および修正が自由に行えるように、それぞれあらかじめ十分なデータ領域が確保されている。
管理情報803には画像データファイル801の管理にかかわる情報が含まれている。
Image Typeはファイルに含まれる撮影画像データの種類を示すパラメータであり、撮影画像データがPlenoptic画像データであるなら1、そうでないなら0が入力される。なお、撮影画像データとは、カメラを用いた撮影により取得された画像データのことを意味する。
Depth Methodは距離情報の取得に用いる処理手順を示すパラメータである。多視点画像の視差に基づいて距離情報の取得が行われる場合には1が、Plenoptic画像データに含まれる多視点情報の視差に基づいて距離情報の取得が行われる場合には2が、DFD法を用いて距離情報の取得が行われる場合には3が入力される。また、既に距離情報を有しており、更なる距離情報の取得が不要である場合には0が入力される。
Image Usedには距離情報取得に用いる画像データの番号が視点番号、その視点中の画像データ番号の順で入力される。このフォーマットにおいて、各画像データには、その画像データを取得した視点を示す番号と、その画像データがその視点で何番目に取得された画像であるかを示す番号が付されている。例えば、1番目の視点で3番目に取得された画像データには、視点番号1とその視点中の画像データ番号3が付される。よって、例えば視点1の1番の画像データと視点2の1番の画像データを用いる場合、Image Usedには1、1、2、1という4つの値が入力される。撮影画像データがPlenoptic画像データであり、Depth Methodが2である場合、ここには用いるPlenoptic画像データの視点番号とその視点中の画像データ番号が記述される。この場合、別途そのPlenoptic画像データに情報が含まれる複数の視点の中から、距離情報の取得に用いる視点を指定するパラメータが追加される。
Number of Viewpoints XおよびYは、それぞれ画像データファイル801に含まれる、水平方向および鉛直方向の視点数を示すパラメータである。本実施例においては、どちらも2となる。
Representative Imageは、画像データファイル801に含まれる複数枚の画像データの中の、代表画像データの番号を示すパラメータである。こちらにも、Image Usedと同様に、代表画像データの番号が、視点番号、その視点中の画像データの番号の順で入力される。
Viewpoint Offsetは各視点情報へのポインタであり、各視点情報の開始アドレスが値として入力される。
視点情報804には、画像ファイルフォーマットに含まれるそれぞれの画像データに対応する視点に関する情報が含まれている。
Translation Vectorはその視点の位置ベクトルであり、基準の視点(代表画像の含まれる視点)の座標を(0,0,0)とした場合の3次元の空間座標がミリメートル単位で入力される。このパラメータから、各視点間の視差を求めることができる。つまり、このパラメータは画像データファイル801に含まれる複数の画像データの視差に関する情報を含む。なお、本実施例において、4つの撮像部101a〜101dは同一平面状に存在していることを想定しているので、その平面に垂直な方向の成分は全て0となる。
Rotation Matrixはその視点の向きを表わす3次の回転行列である。3本の直交する回転軸に対する回転角に基づいた値が入力される。
Sensor Size XおよびYには、それぞれ撮像センサの水平方向および鉛直方向の大きさがミリメートル単位で入力される。
Number of Imagesはその視点から撮影して取得された画像の枚数を示すパラメータである。例えばその視点から2回撮影した場合には2が入力される。
Image Offsetは、その視点で撮影して取得された各画像の情報へのポインタであり、各撮影画像情報の開始アドレスが値として入力される。
Number of Depth Mapは、画像データファイル801に含まれる、その視点に対応する距離マップの枚数が入力される。本実施例では、外部処理モードが選択されている場合、この時点でまだ距離マップの取得が行われていないため、0が入力される。
Depth Map Offsetはその視点に対応する各距離マップ情報へのポインタであり、各距離マップ情報の開始アドレスを値に取る。距離マップ情報は、画像データファイル801に含まれる距離マップに関する情報を含む。距離マップ情報の基本的な構成は後述の画像情報805と同じであるが、例えば距離マップの量子化に関わるパラメータなどが新たに追加される。
画像情報805は各視点に対応するそれぞれの画像データに関する情報を含んでいる。
まず、画像情報805の開始部分には、TIFFで定義されるような一般的な画像パラメータが記述される。例えば、画像のサイズ、解像度、ピクセル当たりのビット数などが記述される。
Focal Lengthにはその画像を取得した時の撮像レンズの焦点距離がミリメートル単位で入力される。
Object Distanceには撮像レンズの位置および焦点距離から算出した、被写体側の合焦面の位置がメートル単位で入力される。上記Focal LengthおよびObject Distanceの違いから、画像データファイル801に含まれる複数の画像データの合焦状態の違いを求めることができる。つまり、上記Focal LengthやObject Distanceは、画像データファイル801に含まれる複数の画像データの合焦状態の違いに関する情報を含む。
Image Data Offsetは各画像の実データへのポインタであり、各画像データの実データの開始アドレスを値に取る。なお、各画像の実データの格納部は、
画像データファイル801には、上記に示した情報以外に、生成画像データ情報を含むこともできる。生成画像データ情報は、撮影により取得された画像データに画像処理を施すなどして生成された画像データの情報を含む。生成画像データ情報の基本的な構成は画像情報805と同じであるが、それが生成画像データであることを示すパラメータや、元になった画像データの番号を示すパラメータ等が新たに追加される。
図9(a)はCPIデータ802中の管理データの記述例である。もちろん、CPIデータの記述の形態は、この例に示す形態に限られるものではない。本記述例における管理データでは、2バイトのタグ情報、2バイトのデータ形式情報、4バイトのデータ数情報、そしてデータ値が16進数で順番に記述されている。図9(b)はタグ情報とそれぞれのパラメータとの対応関係を示す図である。タグ情報に基づいて、CPIデータ802中の各パラメータが認識される。データ形式情報はそれぞれの数字が予め設定されたデータ形式に対応している。本実施例においては、3はShort型(2バイト短整数)4はLong型(4バイト長整数)に対応している。距離取得用メタデータ付加部108は、このようなデータを画像データに付加し、画像データファイル801として符号化部109に出力する。
次に、符号化部109は、入力された画像データファイル801に符号化処理を行う(ステップS705)。符号化処理は画像データ毎にJPEGやPNGなどの単視点画像の符号化方式で行っても良いし、MVC(Multiview Video Coding)などの多視点画像の符号化方式で符号化しても良い。符号化部109は、符号化した画像データファイル801を出力部110に出力する。
出力部110は、符号化された画像データファイル801を記憶部111に出力し、保存する(ステップS706)。
以上がカメラ100の内部で行われる処理である。カメラ120および140内で行われる処理は基本的にはカメラ100内で行われる処理と同一であるが、その中でも距離取得部で行われる処理(ステップS711)が異なる。ステップS711は、カメラ100では図11、カメラ120では図14、カメラ140では図15のフローチャートに示す処理であるが、その詳細については後述する。
次に、コンピュータ160内で行われる処理について説明する。図10は、コンピュータ160内で行われる処理を示すフローチャートである。
まず、受取り部162はI/Oインターフェース161を介して、記憶部111、131、151に保存された、外部処理用の画像データファイル801を受取る(ステップS1001)。
次に、復号部163は、受取り部162が受取った画像データファイル801に対して復号処理を行う(ステップS1002)。
次に、処理手順選択部164は、復号された画像データファイル801に含まれるメタデータを読み取る(ステップS1003)。
次に、処理手順選択部164は、読みとったメタデータに含まれる、距離取得手順を特定する情報に基づき、入力された画像データに対応する距離取得部を情報処理部173が有するかどうかを判断する(ステップS1004)。本実施例においては、CPIデータ802内のDepth Methodの値に基づいて判断する。Depth Methodが1,2又は3ではない場合、情報処理部173がその画像データに対応する距離取得部を持たないため、ステップS1010に進む。ステップS1010では、エラー信号出力部169が不図示の報知部にエラー信号を出力し、不図示の報知部がユーザにエラーの発生を報知して情報処理部173は処理を終了する。情報処理部173が対応する距離取得部を有している場合には、ステップS1005に進む。
次に、処理手順選択部164は、画像データファイル801に含まれるメタデータに記載された情報に対応する距離取得手順を選択し、その手順に対応する距離取得部に画像データファイル801を出力する(ステップS1005)。本実施例では、Depth Methodが1であれば距離取得部165に、Depth Methodが2であれば距離取得部166に、Depth Methodが3であれば距離取得部167に画像データを出力する。この判断は、情報処理部173内に格納された、Depth Methodと距離取得部との対応関係を示すルックアップテーブルに基づいて行われる。なお、ここで距離取得部165〜167は同一のソフトウェア中の複数の処理モジュールとして構成されている。このように構成することで、様々な画像データに1つのソフトウェアで対応できるようになり、利便性が向上する。もちろん、距離取得部165〜167が、1つの処理装置中の複数の処理回路として構成されていても良い。
そして、対応する距離取得部が、画像データファイル801に含まれる画像データから距離情報の取得を行い、取得した距離情報は入力された画像データファイル801に更に関連付けされ、画像処理部169に出力される(ステップS1006)。
次に、画像処理部169は、取得した距離情報を用いて画像データファイル801に含まれる画像データに画像処理を行って処理済み画像データを新たに生成し、画像データファイル801に更に関連付けて符号化部170に出力する。(ステップS1007)。ここで行われる画像処理は、各距離取得部で距離情報を取得するために用いられた処理手順に関わらず、全て画像処理部169で行われる。ここで、画像処理部169は距離取得部165〜167と同一のソフトウェア内の1つの処理モジュールである。これにより、入力される画像データの種類ごとに複数の処理手段を用意する必要がなくなるため、ソフトウェアのデータサイズが削減される。もちろん、別途共通でない画像処理を行う画像処理部を用意しても良い。
次に、符号化部170は、画像処理部169から入力された画像データファイル801を符号化し、符号化した画像データファイル801を出力部171に出力する。(ステップS1008)。
最後に、出力部171は、符号化した画像データファイル801を記憶部172に出力する(ステップS1009)。
以上がコンピュータ160内で行われる処理の流れである。以下、カメラ100、120、140、とコンピュータ160内で行われる距離情報取得処理(ステップS711)の詳細について説明する。ステップS711で行われる処理は、距離取得部ごとに異なる。
まずは距離取得部105、で行われる処理について述べる。
距離取得部105では、撮像部101a〜101dによって取得された多視点画像の視差に基づいて距離情報の取得を行う。図11は、距離取得部105で行われる処理の内容を示すフローチャートである。
まず、距離取得部105はモード判定部103から入力された多視点画像データを取得する(ステップS1101)。
次に、距離取得部105は、入力された多視点画像データの中から、距離情報を取得する基準となる基準画像と、距離情報を取得するために参照する参照画像を選択する(ステップS1102)。本実施例においては、Image Usedで最初に記載されている画像を基準画像とし、その次に記載されている画像を参照画像とする。
次に、距離取得部105は、基準画像を基準として参照画像との視差を計算する(ステップS1103)。これを基準視差と呼ぶ。基準視差の算出は、基準画像と参照画像との対応点探索によって行う。基準画像中の点Aに対応する点を参照画像中で探索し、対応点として認識された点A’と、点Aとの画像中のX座標の差が視差として取得される。全ての画素について対応点探索を行い、基準視差を算出する。
対応点の探索には様々な方法があるが、例えば、領域単位に探索してコスト値(色差)が最小となる視差を対応点とする方法がある。また画素単位に探索してコスト値(色差)を算出し、算出したコスト値に対してエッジ保持型のフィルタで平滑化を行い、コスト値が最小となる視差を対応点とする方法など、他の方法を用いても構わない。
次に、距離取得部105は、参照画像を基準として、基準画像との視差を計算する(ステップS1104)。これを参照視差と呼ぶ。参照視差の算出には基準視差の算出と同様の方法を用いるが、ここでは参照画像を基準として対応点探索を行うため、参照画像中の点Bに対応する点B’を基準画像中から探索することになる。
次に、距離取得部105は、ステップS1103で取得した基準視差とステップS1104で取得した参照視差とを画素単位で比較し、視差の対応領域と非対応領域を決定する(ステップS1105)。ここで対応領域とは、基準視差と参照視差の差が閾値以下で視差の信頼性が高い領域のことであり、非対応領域とは、基準視差と参照視差の差が閾値以上で視差の信頼度が低い領域のことである。例えば、被写体像に繰り返しパターンやオクルージョン領域が含まれている場合、その領域の信頼度が低くなりやすい。
次に、距離取得部105は、ステップS1105で決定した非対応領域の基準視差を補正する(ステップS1106)。前述の通り、非対応領域は視差の信頼性が低いため、信頼性の高い周囲の対応領域の基準視差から補間して、非対応領域の基準視差を補正する。
次に、距離取得部105は、基準視差から被写体までの距離を算出する(ステップS1107)。基準視差からの距離算出はステレオ法によって行われる。図12はステレオ法による距離算出の手順を説明する図である。視点Aおよび視点Bを有する平面からオブジェクト1201までの距離dは、角度α、βおよび基線長lに基づき、以下の数式1を用いて計算される。
Figure 2015005201
本実施例において、角度αおよびβは、それぞれの視点で撮像を行う撮像部の画角およびステップS1106で求められた基準視差に基づいて決定される。それぞれの撮像部の画角は、CPIデータ802に含まれるSensor SizeおよびFocal Lengthの値から算出される。また、基線長lは、CPIデータ802に含まれる各視点のTranslation Vectorの値から算出される。
最後に、距離取得部105は、ステップS1107で算出された距離に基づいて、距離マップを生成して出力する(ステップS1108)。算出された距離は8ビットで線形量子化され、被写体中の各位置での距離を示すビットマップデータとして出力される。
以上が距離取得部105で行われる処理である。もちろん距離取得部105で行われる処理は、本実施例で説明した手法に限定されるものではなく、多視点画像データから生成されるのであれば、複数視点の参照画像を用いるなど他の手法を用いても構わない。
次に、距離取得部125で行われる処理について述べる。図14は、距離取得部125で行われる処理を示すフローチャートである
距離取得部125では、距離取得部105と同様に多視点画像の視差に基づいて距離情報の取得を行うが、カメラ120では入力される画像データが1枚のPlenoptic画像データであるため、距離取得部105とは行う処理が異なる。例えば、距離取得部105では基準画像と参照画像の2枚の画像から対応点探索を行ったが、距離取得部125では、1枚のPlenoptic画像の中で対応点探索を行う。
以下、図13を用いてPlenoptic画像中の対応点探索の方法について述べる。Plenoptic画像には、図13(a)に示すようにメインレンズを仮想的に複数に分割した場合の各分割領域を通った光線の情報が抽出可能に含まれている。本実施例において、メインレンズは撮像レンズ401〜403を1枚のレンズであると仮想的にみなした時の仮想レンズ501であり、そのメインレンズを2×2分割した場合の光線の情報を抽出することができる。
図13(b)に示すように、メインレンズの領域aを通過した光線はセンサ上の画素群1301aに入射し、メインレンズの領域bを通過した光線はセンサ上の画素群1301bに入射する。つまり、画素群1301aからの出力はレンズ領域aに対応する視点の情報を含み、画素群1301bからの出力はレンズ領域bに対応する視点の情報を含む。
よって、対応点探索によって二つの視点間の視差を求める場合には、画素群1301aの出力を基準画像、と画素群1301bの出力を参照画像に置き換えて、距離取得部105と同様の処理を行えば良い。
以下、距離取得部125で実際に行われる処理を説明する。図14は、距離取得部125で行われる処理を示すフローチャートである。
まず、距離取得部125は、入力されたPlenoptic画像データを取得する(ステップS1401)。
次に、距離取得部105は、入力されたPlenoptic画像データの中から、距離情報を取得する基準となる基準視点と、距離情報を取得するために参照する参照視点を選択する(ステップS1402)。本実施例においては、Image Usedで最初に記載されている視点を基準視点とし、その次に記載されている視点を参照画視点とする。
次に、距離取得部125は、基準視差を計算する(ステップS1403)。ステップS1103とは異なり、基準視差は基準画素群と参照画素群との対応点探索によって算出される。
次に、距離取得部125は、参照視差を計算する(ステップS1404)。ステップS1104とは異なり、参照視差は参照画素群と基準画素群との対応点探索によって算出される。
以降ステップS1105〜ステップS1108までの処理を行い、終了する。以上が距離取得部125で行われる処理である。
次に、距離取得部145で行われる処理について述べる。距離取得部145では、2枚の画像の合焦状態の違いに基づいて被写体の距離情報を取得する、DFD(Depth From Defocus)法が用いられる。以下、DFD法を用いて距離情報を取得する方法について説明する。
距離D1にある物体が撮像面位置d1に投影された場合を考える。このとき像i1はボケて拡がる。この時の点像分布関数(Point Spread Function)をPSF1としシーンをsとすると、像i1は点像分布関数PSF1とシーンsの畳み込みで表される。
Figure 2015005201
ここでPSFを、錯乱円をパラメータとしてモデル化し、像i1からPSFを推定できれば錯乱円が算出可能となる。更にはこの錯乱円から結像位置を求めることができ、数式2から距離を算出することができる。
しかしながら数式2ではシーンsが分からないのでこのままでは錯乱円を正しく求めることはできない。そこで、異なる撮像面位置d2で撮影を行う。この時の像をi2とする。
ここでシーンsのフーリエ変換をSとし、一枚目の撮影画像のPSF1をフーリエ変換した光学伝達関数(Optical Transfer Function)をOTF1、二枚目の撮影画像のOTFをOTF2とする。すると、像i1およびi2のフーリエ変換はそれぞれOTF1×S、OTF2×Sと表される。この二画像の比をとると
Figure 2015005201
となり、シーンに依存しないOTFの比OTFrが算出される。このOFTrと距離情報の関係を示すテーブルや関数を用いることで、算出されたOTFrに基づいて被写体の距離情報を求めることができる。
次に、本実施例において距離取得部145内で実際に行われる処理について説明する。図15は、距離取得部145内で行われる処理を示すフローチャートである。
まず、距離取得部145はモード判定部143から入力された2枚の画像データI1およびI2を取得する(ステップS1501)。距離取得部145は、これらの2枚の画像データを使って一画素単位で全画素について距離取得処理を行う。もちろん、全画素について距離取得処理を行う必要はなく、数画素おきに距離取得を行っても良いし、別途測距画素を決めてその画素に対してのみ距離取得を行っても良い。また、距離取得処理の処理対象領域を一画素とする必要は無く、複数画素からなる領域を対象として距離取得を行っても良い。また、距離取得のために用いる画像データは2枚に限られず、3枚以上の画像データを用いて距離取得を行っても良い。
次に、距離取得部145は画像中のXY座標を走査して測距画素を決定し、距離取得に必要な周辺画素を切り出す(ステップS1502)。この際、取得された2枚の画像データI1、I2において一般には同じ領域を切り出してくる必要がある。切り出された画像(測距画素とその周辺画素とを含む画像領域)をそれぞれ領域選択画像C1、C2とする。切り出す領域サイズは、処理時間を短縮するためには小さい方が良く、ノイズの影響を抑えて安定した解を導くにはある程度大きい方が良い。また切り出す領域サイズは撮影して取得される画像におけるボケの大きさにも依存し、コンパクトデジタルカメラの場合は撮像素子サイズが小さくボケも小さいため小さい領域で良い。具体的にはコンパクトデジタルカメラの場合の切り出し領域サイズは、高速に処理するには10画素程度が良く、ノイズの影響を抑えるには60画素程度が良いが両者のバランスをとると15から30画素程度が好適である。
次に、距離取得部145は領域選択画像C1およびC2に対しフーリエ変換を行い、C1およびC2を周波数空間画像F1およびF2に変換する(ステップS1503)。周波数空間への変換方法は演算量等を考慮し、離散コサイン変換やウェーブレット変換といった他の方法を用いても良い。
次に、距離取得部145は、2つの周波数空間画像F1およびF2を比較し、スペクトルの強い特徴的な周波数帯(特徴周波数帯)を検出する(ステップS1504)。この際、フーリエ変換した周波数空間の画像F1、F2は低周波が多いため直流成分を除去し対数を取るのが良い。さらに、各周波数成分の強度は一般的に周波数fに反比例することが知られているので、算出された周波数空間画像F1、F2において周波数fによって結果をf倍するなど周波数に応じた補正をかけると良い。これにより、周波数空間画像における値を単純に比較することで、より多く存在する特徴的な周波数帯を検出できる。
次に、距離取得部145は、ステップS1504において検出された特徴周波数帯を通過させるフィルタBFを生成する(ステップS1505)。
次に、距離取得部145は、フィルタBFを用いて周波数空間画像F1およびF2に対してフィルタリングを行い、フィルタリング後の周波数空間画像F1’およびF2’を得る(ステップS1506)。
次に、距離取得部145は、F1’およびF2’に基づいてOTFrを算出する(ステップS1507)。選択されたシーンをSsとすると、
Figure 2015005201

と表わされる。
次に、距離取得部145は、その画素の距離情報を決定する(ステップS1508)。本実施例において、距離取得部145は予め用意された変換テーブルを有し、その変換テーブルを参照することでOTFrの値を距離に変換する。変換テーブルには、撮影パラメータ、空間周波数が与えられた場合のOTFr値およびそのOTFr値に対応する距離が格納されている。変換テーブルは関数としても良いし、あらかじめ計算されたルックアップテーブルとして保持しても良い。
以上の処理を全画素について距離が決定されるまで繰り返し行う(ステップS1509)。全画素について距離が決定されたら、距離取得部145は得られた距離情報と画像データI1およびI2とを関連付けて画像処理部147に出力する(ステップS1510)。このようにして、カメラ140内部では被写体の距離情報の取得を行っている。
コンピュータ160内で行われる距離情報の取得処理は、基本的には上記3つの取得処理と同じである。距離取得部165では距離取得部105と同様の処理を行い、距離取得部165では距離取得部125と同様の処理を行い、距離取得部167では距離取得部145と同様の処理を行う。
最後に、距離情報に基づいて画像処理部106、126、146、169において行われる画像処理の内容について説明する。本実施例において行われる画像処理は、被写体背景へのボケ付加である
ボケ付加の処理は、被写体の領域を複数の部分画像Pn(x,y)に分割し、分割した領域のそれぞれに対して下記の数式5に示されるように正規分布関数N(i,j)を畳み込み演算(フィルタリング演算)することにより行う。また、数式5において、演算子「*」は、2次元の畳み込み演算を表し、Onは各Pnに対する畳み込み演算により生成される処理済み部分画像である。
Figure 2015005201
正規分布関数N(i,j)は、
Figure 2015005201
と表わされる。ただし、数式6において、変数σは、標準偏差を表し、σ=0のとき、正規分布関数N(i,j)の値が1をとるものとする。
いま、標準偏差σを、
Figure 2015005201
と定義する。
ここで、値fは画像処理制御パラメータであり、ボケ付加後の画像データの被写界深度を示す。画像処理制御パラメータfは、例えば装着されたレンズのF値を用いてFδという値が用いられる。ただし、δは許容錯乱円である。値dnは各部分画像Pnの代表デフォーカス量(合焦面からの距離)である。つまり、合焦面からの距離が大きくなるほど、ボケ効果が大きくなる。
部分画像Pnに対して畳み込み演算する関数は、数式6に示した正規分布関数に限定されず、他の分布関数によっても付加するボケ量の制御を行うことができる。また、部分画像Pnに施す画像処理は、ボケ付加処理に限定されない。例えば、デフォーカス量dnに応じたシャープネス処理を部分画像Pnに施しても良い。また例えば、コントラストや明度、彩度を、デフォーカス量dnに応じて部分画像Pn毎に変化させてもよい。
以上に示すように、本実施例によれば、様々な種類の画像データから被写体の距離情報を取得し、その距離情報に基づいた画像処理を行うことができる。
なお、本実施例において各構成部が果たした機能は以下の通りであったが、他の構成部が同様の機能を果たすようにしても良い。
本実施例において、距離取得用メタデータ付加部108、128、148および出力部110、130、150は、距離情報を取得するための画像データと、距離情報を取得するための処理手順を特定する情報とを関連付けて出力する出力部として機能した。
また、受取り部162は、距離情報を取得するための画像データと、前記画像データと関連づいており、距離情報を取得するための処理手順を特定する情報とを受取る受取り手段として機能した。
また、処理手順選択部164と、距離取得部165〜167が、前記処理手順を特定する情報に基づいて複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する取得手段として機能した。また、画像処理部169は、前記取得手段が距離情報を取得するために用いた処理手順にかかわらずに画像処理を行う共通の処理手段として機能した。
また、受取り部162は、前記画像データと関連づいた、前記取得手段が距離情報を取得する際に用いるパラメータを更に受取る受取り手段としても機能した。
また、距離取得部165〜167は、入力された画像データから取得した距離情報を、入力された画像データに関連付けて出力する距離出力手段として機能した。
また、処理手順選択部164は、処理手順を特定する情報に対応する処理手順を持つか否かを判断する判断手段として機能した。
(第二の実施例)
第二の実施例では、第一の実施例で行った処理に加え、カメラ内で距離情報を取得して既に処理を行った画像データがコンピュータに入力され、取得済みの距離情報を用いて画像データに再度画像処理が施される。
以下、第一の実施例との差異点について述べる。
本実施例における情報処理システムの構成は、図1に示す第一の実施例におけるものと同様である。しかし、本実施例における情報処理部173内のROMには図16のフローチャートに示すプログラムが格納されており、情報処理部173は第一の実施例とは異なる処理を行う。以下、その処理の内容について説明する。なお、図10と同符号のステップについては、第一の実施例と同じ処理であるので、説明を省略する。
まず、受取り部162はI/Oインターフェース161を介して、記憶部111、131、151に保存された、内部処理用および外部処理用の画像データファイル801を受取る(ステップS1601)。
次にステップS1002とステップS1003の処理を行う。本実施例においては、ステップS1004の前に、入力された画像データのメタデータから、その画像データファイル801が既に距離情報を含んでいるかどうかを判断する(ステップS1602)。入力された画像データファイル801が既に距離情報を含んでいる場合には、ステップS1007に進んで、その距離情報を用いて画像処理を行う。距離情報が含まれていない場合には、ステップS1004に進む。本実施例において、この判断はDepthMethodの値に基づいて行うが、Number of Depth Mapなど他の判断基準を用いても良い。
以下、第一の実施例と同様の処理を行い、処理を終了する。
本実施例によれば、カメラ内で取得した距離情報を有効に活用することができ、画像データの利用の自由度を更に広げることができる。
(第三の実施例)
これまでの実施例は、複数の種類の画像データを外部のコンピュータに入力し、そのコンピュータで画像処理を行う形態を取った。本実施例には、複数種の撮像手法により画像データを取得可能なカメラ内で、一旦保存しておいた画像データに後から画像処理を行う形態を取る。
図17は、本実施例におけるカメラ1700の構成を示す図である。
カメラ1700は、撮像部1701と操作部1704、情報処理部1716、記憶部1709を有する。
図18は撮像部1701の構成を示す図である。撮像部1701は、撮像部121の構成にレンズ駆動部1801を追加した構成となっており、Plenoptic画像データの取得および、合焦状態の異なる複数枚の画像データの取得が可能である。
操作部1704は、カメラ本体に備えられたボタンやダイヤル、タッチパネルなどの入力装置であり、ユーザが操作して、撮影の開始、停止や撮影条件の設定などの命令を行うことができる。本実施例において、ユーザは、被写体の距離情報に基づく画像処理を行うモードとして、撮影直後にカメラ内で処理を行うその場処理モードと、ユーザの指示があるまで画像処理を行わないでデータを保存しておく後処理モードを選択することができる。また、被写体の距離情報を取得する方法として、1枚のPlenoptic画像データから被写体の距離情報を取得するPlenopticモードと、合焦位置の違う2枚の画像データから被写体の距離情報を取得するDFDモードを更に選択することができる。
情報処理部1716のハードウェアの構成は情報処理部113と同様であるが、情報処理部1716内のROMには図18のフローチャートに示すプログラムが格納されている。情報処理部1716は、Plenoptic画像データを用いて行う、視差に基づく距離取得処理と、合焦位置の異なる複数枚の画像データを用いて行う、DFD法を用いた距離取得を行うことができる。
記憶部1709は、メモリカードなどの不揮発性の記憶媒体である
以下、カメラ1700内で行われる処理について説明する。図19は、取得した画像データに、距離情報に基づく画像処理を施すモードが設定された場合に、カメラ1700内で行われる処理を示したフローチャートである。
まず、取得部1702は、撮像部1701から出力された画像データを取得し、モード判定部1703にその画像データを出力する(ステップS1901)。
次に、モード判定部1703は、操作部1704の操作により設定された処理モードを判定する(ステップS1902)。後処理モードが設定されていると判定された場合、モード判定部1703は既存メタデータ付加部1705に画像データを出力し、ステップS1903の処理に進む。その場処理モードが設定されていると判定された場合、モード判定部1703は処理手順選択部1712に画像データを出力し、ステップS1910の処理に進む。
後処理モードと判定された場合、既存メタデータ付加部1705は、入力された画像データに既存メタデータの付加を行い、距離取得用メタデータ付加部1706にその画像データを出力する(ステップS1903)。ここで付加される既存メタデータは、第一の実施例で付加される既存メタデータと同様である。
次に、距離取得用メタデータ付加部1706は、入力された画像データに、その距離取得用メタデータを付加し、画像データファイル801として符号化部1707に出力する(ステップS1904)。付加される距離取得用メタデータは第一の実施例と基本的には同様であるが、Depth Methodの値は操作部1704による撮影モードの設定命令に基づいて決定される。Plenopticモードであれば2を、DFDモードであれば3をDepth Methodに入力する。
符号化部1707は、入力された画像データファイル801に符号化処理を行い、出力部1708へと出力する(ステップS1905)。
出力部1708は、符号化された画像データファイル801を記憶部111に出力し、保存する(ステップS1906)。
次に、読出し部1710は、操作部1704の操作により後処理用として出力された画像データファイル801に対する処理開始命令がなされたかどうかを判断する(ステップS1907)。処理開始命令がなされた場合、ステップS1908のステップに進んで処理を開始する。
次に、読出し部1710は、後処理用として出力された画像データファイル801を記憶部408から読出し、復号部1711に出力する(ステップS1908)。
復号部1711は、再取得部1710から入力された画像データファイル801に復号処理を行い、処理手順選択部1712へと出力する(ステップS1909)。
処理手順選択部1712は入力された画像データから被写体の距離情報を取得するために用いる処理手順を選択する(ステップS1910)。入力された画像データがその場処理モードで取得された画像データである場合には、操作部1704から出力される命令信号から最適な処理手順を判断する。入力された画像データが、画像データファイル801に含まれる、後処理モードで取得された画像データである場合には、画像データファイル801に含まれるDepth Methodの値から最適な処理手順を判断する。処理手順選択部1712は、Depth Methodの値が2である場合には、距離取得部1713に画像データを出力する。また、Depth Methodの値が3である場合には、距離取得部1714に画像データを出力する。
次に、距離取得部1713又は1714は、入力された画像データを用いて被写体の距離情報の取得を行い、入力された画像データと取得した距離情報とを関連付けて画像処理部1715に出力する(ステップS1911)。処理の内容は、第一の実施例で説明したものと同様である。
次に、画像処理部1715は、入力された画像データに関連付けられた距離マップに基づいて、入力された画像データに画像処理を行う(ステップS1912)。処理の内容は第一の実施例で説明したものと同様である。画像処理により生成した画像データを、入力された画像データに更に関連付け、既存メタデータ付加部1705に出力する。
次に、既存メタデータ付加部1705は、入力された画像データに既存の標準ファイルフォーマットにおいて定義されているメタデータの付加を行い、距離取得用メタデータ付加部1706にその画像データを出力する(ステップS1913)。入力された画像データが後処理用の画像データであり、既に既存メタデータが付加されている場合には、何もせずに距離取得用メタデータ付加部1706に画像データを出力する。
次に、距離取得用メタデータ付加部1706は、入力された画像データに、距離取得用メタデータを付加する(ステップS1914)。ここで入力される画像データは既に距離情報を持っているため、Depth Methodに0を入力して、画像データファイル801として符号化部1707に出力する。
符号化部1707は距離取得用メタデータ付加部1706から入力された画像データファイル801に符号化処理を行い、出力部1708に出力する(ステップS1915)。
出力部1708は、入力された画像データファイル801を記憶部1709に出力して保存し、処理を終了する(ステップS1916)。
このように、本実施例は、画像データから距離情報を取得する処理手順を複数備えたカメラにおける、その場処理による処理負荷を低減することができる。
なお、本実施例において各構成部が果たした機能は以下の通りであったが、他の構成部が同様の機能を果たす場合ようにしても良い。
本実施例において、距離取得用メタデータ付加部1706および出力部1708は、距離情報を取得するための画像データと、距離情報を取得するための処理手順を特定する情報とを関連付けて出力する出力部として機能した。
また、記憶部1709は、出力部1708から出力された、画像データと、距離情報を取得するための処理手順を特定する情報とを含む画像データファイルを記憶する記憶手段として機能した。
また、読出し部1710は、画像データファイルを読み出す読出し手段として機能した。
また、操作部1704は操作により命令信号を入力する操作手段として機能した。
また、撮像部1701は、撮像により画像データを取得する撮像手段として機能した。
(その他の実施例)
実施例は上記の構成に限定されるものではなく、上記の複数の実施例を組み合わせた構成、例えば第三の実施例に外部処理装置で画像処理を行うモードを加えた構成であっても良い。
また、処理手順選択部と距離取得部と画像処理部とをそれぞれ独立した処理装置として備えた情報処理システムとして構成されても良い。
また、距離情報を用いて行われる処理は画像のボケ付加に限られず、距離情報と画像中の二次元座標をプロットして行われる被写体の3Dモデリングであってもよい。また、取得された距離情報は、多視点画像の合成時に行う対応点探索や、被写体中のオブジェクトのサイズ計測に利用されても良い。
また、上記の実施例において、被写体の距離情報は、撮影した視点が異なる画像や合焦状態の異なる画像といった、同一の被写体の異なる見え方の複数の画像の情報を用いて取得されたが、距離取得部は他の種類の画像データを用いて距離情報を取得しても良い。例えば、Coded Apertureを用いたカメラで取得された画像から被写体の距離情報を取得しても良い。その場合、もちろん上記実施例に示されていない処理手順を用いて距離情報の取得を行っても良い。
また、処理手順選択部は、距離取得手順を選択する場合の判断基準となる、距離情報を取得するための処理手順を特定する情報として、専用のパラメータ(上記実施例ではDepth Method)を用いずに、別のパラメータを用いても良い。例えば、既存のメタデータに含まれる撮影カメラの機種名や、ファイルの拡張子などの他のパラメータや、それらの組み合わせを用いても良い。
また、距離取得部は、画像データから距離情報の取得を行う場合に、2つ以上の処理手順を選択して処理を行うようにしても良い。例えば、画像データファイルが2つの合焦位置で撮影された複数枚の多視点画像データを含む場合に、視差に基づく距離取得処理とDFD法を用いた距離取得処理の両方を行うようにしても良い。
また、画像データファイルの構造は上記実施例で示したものに限られず、必要に応じて新たなパラメータを含む構成や、上記に示したパラメータを含まない構成であっても良い。例えば、複数の画像の視差に関する情報として、各視点間の基線長を含んでも良い。また、複数の画像の合焦状態の違いに関する情報として、レンズの絞り値を含んでも良い。
また、複数の画像データと、CPIデータ802に相当する情報を含む管理ファイルを同一のフォルダに出力し、管理ファイルによりフォルダ中の複数の画像データを管理する形態であっても良い。また、そのフォルダをまとめて圧縮して1つのファイルとして出力する形態であっても良い。
なお、本発明は例えば、システム、装置、方法、プログラムもしくは記憶媒体等としての実施態様をとることが可能である。また、複数の機器から構成されるシステムに適用しても良いし、一つの機器からなる装置に適用しても良い。
また、本発明はソフトウェアのプログラムをシステム或いは装置に直接或いは遠隔から供給し、そのシステム或いは装置のコンピュータが該供給されたプログラムコードを読み出して実行することによって前述した実施形態の機能が達成される場合を含む。この場合、供給されるプログラムは実施形態で図に示したフローチャートに対応したコンピュータプログラムである。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体
も含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であっても良い。
コンピュータプログラムを供給するためのコンピュータ読み取り可能な記憶媒体としては例えば、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RW、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などでも良い。
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続し、該ホームページから本発明のコンピュータプログラムをハードディスク等の記憶媒体にダウンロードすることが挙げられる。この場合、ダウンロードされるプログラムは、圧縮され自動インストール機能を含むファイルであっても良い。また、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。
100、120、140、1700 カメラ
160 コンピュータ
113、133、153、173、1613 情報処理部
801 画像データファイル
802 CPIデータ
803 管理情報
804 視点情報
805 画像情報

Claims (24)

  1. 距離情報を取得するための画像データと、前記画像データと関連づいており、距離情報を取得するための処理手順を特定する情報とを受取る受取り手段と、
    前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する取得手段とを有することを特徴とする情報処理装置。
  2. 前記受取り手段は、前記画像データと関連づいた、前記取得手段が距離情報を取得する際に用いるパラメータを更に受取ることを特徴とする請求項1に記載の情報処理装置。
  3. 前記パラメータは、複数の画像の視差に関する情報を含むことを特徴とする請求項2に記載の情報処理装置。
  4. 前記パラメータは、複数の画像の合焦状態の違いに関する情報を含むことを特徴とする請求項2又は3に記載の情報処理装置。
  5. 前記取得された距離情報を、前記画像データに関連付けて出力する距離出力手段を更に有することを特徴とする請求項1乃至4のいずれかに記載の情報処理装置。
  6. 前記取得手段により取得された距離情報に基づいて、前記画像データに画像処理を行うことを特徴とする請求項1乃至5のいずれかに記載の情報処理装置。
  7. 前記画像処理は、前記取得手段が距離情報を取得するために用いた処理手順にかかわらず、共通の処理手段により行われることを特徴とする請求項6に記載の情報処理装置。
  8. 前記取得手段は、前記処理手順を特定する情報と、処理手順との対応関係を示すテーブルに基づいて、距離情報を取得するために用いる処理手順を選択することを特徴とする請求項1乃至7のいずれかに記載の情報処理装置。
  9. 前記処理手順を特定する情報に対応する処理手順を持つか否かを判断する判断手段を更に有し、
    前記処理手順を特定する情報に対応する処理手順を持たない場合には、エラー信号を出力することを特徴とする請求項1乃至8のいずれかに記載の情報処理装置。
  10. 前記画像データは、同一の被写体の異なる見え方の複数の画像の情報を含むことを特徴とする請求項1乃至9のいずれかに記載の情報処理装置。
  11. 前記複数の処理手順は、前記複数の画像の合焦状態の違いに基づいて前記距離情報を取得する手順を含むことを特徴とする請求項10に記載の情報処理装置。
  12. 前記複数の処理手順は、前記複数の画像の視差に基づいて前記距離情報を取得する手順を含むことを特徴とする請求項10又は11に記載の情報処理装置。
  13. 前記距離情報は、被写体中の複数の位置までの距離を示す距離マップであることを特徴とする請求項1乃至12のいずれかに記載の情報処理装置。
  14. 距離情報を取得するための画像データと、距離情報を取得するための処理手順を特定する情報とを関連付けて出力する出力手段を有し、
    前記処理手順を特定する情報は、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する場合に用いられることを特徴とする情報処理装置。
  15. 前記出力手段によって出力された前記画像データと前記処理手順を特定する情報とを記憶する記憶手段と、
    前記記憶手段に記憶された、前記画像データと前記処理手順を特定する情報とを読み出す読出し手段と、
    前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する取得手段とを有することを特徴とする請求項14に記載の情報処理装置。
  16. 操作により命令信号を入力する操作手段を更に有し、
    前記読出し手段は、前記操作手段から入力された命令信号に基づいて、前記画像データと前記処理手順を特定する情報とを読出すことを特徴とする請求項15に記載の情報処理装置。
  17. 撮像により画像データを取得する撮像手段を更に有することを特徴とする請求項14乃至16のいずれかに記載の情報処理装置。
  18. 出力装置と処理装置とを含む情報処理システムであって、
    前記出力装置は、
    距離情報を取得するための画像データと、距離情報を取得する場合に用いる処理手順を特定する情報とを関連付けて出力する出力手段を有し、
    前記処理装置は、
    前記画像データと、前記処理手順を特定する情報とを受取る受取り手段と、
    前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する取得手段とを有することを特徴とする情報処理システム。
  19. 距離情報を取得するための画像データと、前記画像データと関連づいており、距離情報を取得するための処理手順を特定する情報とを受取るステップと、
    前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得するステップとを含む情報処理方法。
  20. 距離情報を取得するための画像データと、距離情報を取得するための処理手順を特定する情報とを関連付けて出力するステップを含み、
    前記処理手順を特定する情報は、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する場合に用いられることを特徴とする情報処理方法。
  21. 出力装置と処理装置とを含む情報処理システムによって実行される情報処理方法であって、
    出力装置が、距離情報を取得するための画像データと、距離情報を取得する場合に用いる処理手順を特定する情報とを関連付けて出力するステップと、
    処理装置が、前記画像データと、前記処理手順を特定する情報とを受取るステップと、
    処理装置が、前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得するステップとを含む情報処理方法。
  22. 情報処理装置にプログラムコードとして読み込ませることにより、処理を実行させるプログラムであって、
    前記処理は、
    距離情報を取得するための画像データと、前記画像データと関連づいており、距離情報を取得するための処理手順を特定する情報とを受取るステップと、
    前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得するステップとを含むプログラム。
  23. 情報処理装置にプログラムコードとして読み込ませることにより、処理を実行させるプログラムであって、
    前記処理は、距離情報を取得するための画像データと、距離情報を取得するための処理手順を特定する情報とを関連付けて出力するステップを含み、
    前記処理手順を特定する情報は、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得する場合に用いられることを特徴とするプログラム。
  24. 出力装置と処理装置とを含む情報処理システムにプログラムコードとして読み込ませることにより、処理を実行させるプログラムであって、
    前記処理は、
    出力装置が、距離情報を取得するための画像データと、距離情報を取得する場合に用いる処理手順を特定する情報とを関連付けて出力するステップと、
    処理装置が、前記画像データと、前記処理手順を特定する情報とを受取るステップと、
    処理装置が、前記処理手順を特定する情報に基づいて、複数の処理手順の中から少なくとも1つの処理手順を選択し、該選択された処理手順を用いて前記画像データから距離情報を取得するステップとを含むプログラム。
JP2013130856A 2013-06-21 2013-06-21 情報処理装置、情報処理システム、情報処理方法およびプログラム。 Active JP6214233B2 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2013130856A JP6214233B2 (ja) 2013-06-21 2013-06-21 情報処理装置、情報処理システム、情報処理方法およびプログラム。
BR112015031939-4A BR112015031939B1 (pt) 2013-06-21 2014-06-17 Aparelho, sistema e método para processar informações e programa para o mesmo
EP14814087.4A EP3011267A4 (en) 2013-06-21 2014-06-17 APPARATUS, SYSTEM AND METHOD FOR PROCESSING INFORMATION AND PROGRAM THEREOF
CN201480035494.5A CN105339757B (zh) 2013-06-21 2014-06-17 信息处理装置、信息处理系统及信息处理方法
PCT/JP2014/066495 WO2014204009A1 (en) 2013-06-21 2014-06-17 Apparatus, system, and method for processing information and program for the same
US14/900,099 US9905011B2 (en) 2013-06-21 2014-06-17 Apparatus, system, and method for processing information and program for the same
SG11201510362TA SG11201510362TA (en) 2013-06-21 2014-06-17 Apparatus, system, and method for processing information and program for the same
KR1020167001448A KR101783237B1 (ko) 2013-06-21 2014-06-17 정보처리장치, 정보처리 시스템, 정보처리방법 및 매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013130856A JP6214233B2 (ja) 2013-06-21 2013-06-21 情報処理装置、情報処理システム、情報処理方法およびプログラム。

Publications (2)

Publication Number Publication Date
JP2015005201A true JP2015005201A (ja) 2015-01-08
JP6214233B2 JP6214233B2 (ja) 2017-10-18

Family

ID=52104730

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013130856A Active JP6214233B2 (ja) 2013-06-21 2013-06-21 情報処理装置、情報処理システム、情報処理方法およびプログラム。

Country Status (8)

Country Link
US (1) US9905011B2 (ja)
EP (1) EP3011267A4 (ja)
JP (1) JP6214233B2 (ja)
KR (1) KR101783237B1 (ja)
CN (1) CN105339757B (ja)
BR (1) BR112015031939B1 (ja)
SG (1) SG11201510362TA (ja)
WO (1) WO2014204009A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017028606A (ja) * 2015-07-27 2017-02-02 キヤノン株式会社 撮像装置
JP2017112526A (ja) * 2015-12-17 2017-06-22 キヤノン株式会社 データ記録装置、撮像装置、データ記録方法およびプログラム
JP2018514969A (ja) * 2015-03-05 2018-06-07 トムソン ライセンシングThomson Licensing ライトフィールド・メタデータ
JP2018515945A (ja) * 2015-03-27 2018-06-14 インテル・コーポレーション カメラデバイスのイメージセンサへのユーザアクセスを制御するための技術
JP2018156617A (ja) * 2017-03-15 2018-10-04 株式会社東芝 処理装置および処理システム
JP2019501392A (ja) * 2015-12-23 2019-01-17 タレス 最適化された範囲を有するプレノプティクズーム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101829534B1 (ko) * 2016-05-25 2018-02-19 재단법인 다차원 스마트 아이티 융합시스템 연구단 멀티 초점 이미지를 이용하는 깊이 추출 카메라 시스템 및 그 동작 방법
CN107948629B (zh) * 2017-11-22 2020-06-23 海信集团有限公司 一种视差确定方法、装置及终端
CN113676719B (zh) * 2021-07-21 2023-11-14 北京中科慧眼科技有限公司 双目立体相机的对焦参数计算方法、系统和智能终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003070720A (ja) * 2001-08-31 2003-03-11 Olympus Optical Co Ltd 計測ソフトウェア
JP2003085584A (ja) * 2001-06-11 2003-03-20 Canon Inc 3dコンピュータモデリング装置
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム
JP2013025649A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置及び画像処理方法、プログラム
JP2013062803A (ja) * 2011-09-14 2013-04-04 Canon Inc 距離情報を決定するための方法、距離マップを決定するための方法、コンピュータ装置、撮影システム、コンピュータプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6262738B1 (en) 1998-12-04 2001-07-17 Sarah F. F. Gibson Method for estimating volumetric distance maps from 2D depth images
JP2001059934A (ja) * 1999-06-17 2001-03-06 Fuji Photo Film Co Ltd 距離測定装置およびカメラ
WO2004093467A1 (ja) * 2003-04-17 2004-10-28 Sharp Kabushiki Kaisha 3次元画像作成装置、3次元画像再生装置、3次元画像処理装置、3次元画像処理プログラムおよびそのプログラムを記録した記録媒体
JP4452951B2 (ja) 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
US20080267504A1 (en) 2007-04-24 2008-10-30 Nokia Corporation Method, device and computer program product for integrating code-based and optical character recognition technologies into a mobile visual search
KR101506217B1 (ko) * 2008-01-31 2015-03-26 삼성전자주식회사 스테레오스코픽 영상의 부분 데이터 구간 재생을 위한스테레오스코픽 영상 데이터스트림 생성 방법과 장치, 및스테레오스코픽 영상의 부분 데이터 구간 재생 방법과 장치
US8457155B2 (en) * 2009-09-11 2013-06-04 Nokia Corporation Encoding and decoding a multi-view video signal
KR101086305B1 (ko) 2010-02-03 2011-11-23 한국과학기술연구원 3차원 영상 디스플레이 장치 및 방법
WO2011158515A1 (ja) 2010-06-17 2011-12-22 パナソニック株式会社 距離推定装置、距離推定方法、集積回路、コンピュータプログラム
JP5406151B2 (ja) * 2010-09-24 2014-02-05 パナソニック株式会社 3次元撮像装置
WO2012056686A1 (ja) 2010-10-27 2012-05-03 パナソニック株式会社 3次元画像補間装置、3次元撮像装置および3次元画像補間方法
JP5614268B2 (ja) * 2010-12-09 2014-10-29 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
WO2012137434A1 (ja) 2011-04-07 2012-10-11 パナソニック株式会社 立体撮像装置
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
JP6025065B2 (ja) * 2011-09-13 2016-11-16 パナソニックIpマネジメント株式会社 符号化装置、復号装置、再生装置、符号化方法、及び復号方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003085584A (ja) * 2001-06-11 2003-03-20 Canon Inc 3dコンピュータモデリング装置
JP2003070720A (ja) * 2001-08-31 2003-03-11 Olympus Optical Co Ltd 計測ソフトウェア
JP2011232330A (ja) * 2010-04-08 2011-11-17 Casio Comput Co Ltd 撮像装置、長さ測定方法、及びプログラム
JP2013025649A (ja) * 2011-07-23 2013-02-04 Canon Inc 画像処理装置及び画像処理方法、プログラム
JP2013062803A (ja) * 2011-09-14 2013-04-04 Canon Inc 距離情報を決定するための方法、距離マップを決定するための方法、コンピュータ装置、撮影システム、コンピュータプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018514969A (ja) * 2015-03-05 2018-06-07 トムソン ライセンシングThomson Licensing ライトフィールド・メタデータ
JP2018515945A (ja) * 2015-03-27 2018-06-14 インテル・コーポレーション カメラデバイスのイメージセンサへのユーザアクセスを制御するための技術
JP2017028606A (ja) * 2015-07-27 2017-02-02 キヤノン株式会社 撮像装置
JP2017112526A (ja) * 2015-12-17 2017-06-22 キヤノン株式会社 データ記録装置、撮像装置、データ記録方法およびプログラム
JP2019501392A (ja) * 2015-12-23 2019-01-17 タレス 最適化された範囲を有するプレノプティクズーム
JP2018156617A (ja) * 2017-03-15 2018-10-04 株式会社東芝 処理装置および処理システム
JP2021170385A (ja) * 2017-03-15 2021-10-28 株式会社東芝 処理装置および処理システム

Also Published As

Publication number Publication date
WO2014204009A1 (en) 2014-12-24
CN105339757B (zh) 2018-07-06
EP3011267A1 (en) 2016-04-27
BR112015031939A2 (pt) 2017-07-25
EP3011267A4 (en) 2016-11-16
KR101783237B1 (ko) 2017-09-29
US9905011B2 (en) 2018-02-27
KR20160023790A (ko) 2016-03-03
US20160148387A1 (en) 2016-05-26
CN105339757A (zh) 2016-02-17
SG11201510362TA (en) 2016-01-28
JP6214233B2 (ja) 2017-10-18
BR112015031939B1 (pt) 2022-04-05

Similar Documents

Publication Publication Date Title
JP6214233B2 (ja) 情報処理装置、情報処理システム、情報処理方法およびプログラム。
US10540806B2 (en) Systems and methods for depth-assisted perspective distortion correction
JP5472328B2 (ja) ステレオカメラ
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
US9253377B2 (en) Image processing device and image processing system where de-mosaic image is generated based on shift amount estimation of pixels of captured images
JP6548367B2 (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6257285B2 (ja) 複眼撮像装置
JP2011166264A (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
WO2012101719A1 (ja) 3次元画像撮影装置及び3次元画像撮影方法
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5812716B2 (ja) 画像処理装置および方法
JP2015119395A (ja) 情報処理装置、情報処理方法およびプログラム
JP2009047497A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2009047498A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2009047496A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP2009047495A (ja) 立体撮像装置および立体撮像装置の制御方法並びにプログラム
JP6611588B2 (ja) データ記録装置、撮像装置、データ記録方法およびプログラム
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP2013150071A (ja) 符号化装置、符号化方法、プログラム及び記憶媒体
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP2015005200A (ja) 情報処理装置、情報処理システム、情報処理方法、プログラムおよび記憶媒体
JP2017028606A (ja) 撮像装置
JP6292785B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2015056790A (ja) 画像処理装置、画像処理方法およびプログラム
JP2022178000A (ja) 撮像装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160616

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170919

R151 Written notification of patent or utility model registration

Ref document number: 6214233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151