JP5924978B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP5924978B2
JP5924978B2 JP2012041144A JP2012041144A JP5924978B2 JP 5924978 B2 JP5924978 B2 JP 5924978B2 JP 2012041144 A JP2012041144 A JP 2012041144A JP 2012041144 A JP2012041144 A JP 2012041144A JP 5924978 B2 JP5924978 B2 JP 5924978B2
Authority
JP
Japan
Prior art keywords
images
imaging
image data
arrangement
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012041144A
Other languages
English (en)
Other versions
JP2013179397A (ja
JP2013179397A5 (ja
Inventor
千晶 金子
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012041144A priority Critical patent/JP5924978B2/ja
Priority to US13/768,317 priority patent/US9307150B2/en
Priority to CN201310064423.5A priority patent/CN103297685B/zh
Publication of JP2013179397A publication Critical patent/JP2013179397A/ja
Publication of JP2013179397A5 publication Critical patent/JP2013179397A5/ja
Application granted granted Critical
Publication of JP5924978B2 publication Critical patent/JP5924978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Description

本発明は複数の撮像部を備えた多眼方式の撮像装置を用いて得られる画像を表示するための表示方法に関する。
従来、複数の撮像部を備えた多眼方式の撮像装置(以降、多眼カメラと呼ぶ)によって一度に得られる複数の撮像画像を表示するものとして、2枚の撮像画像を水平に並べて表示する一覧表示技術が知られている(例えば、特許文献1)。この一覧表示技術は、2つの撮像部で撮像された視差のある2枚の撮像画像を水平方向に並べてディスプレイ上に同時に出力することにより、両方の撮像画像について一度にフレーミングや露出の確認を行えるようにすることを可能とするものであった。
一方で、単一の撮像部を備えた一般的なデジタルカメラを用いて得られる撮像画像を表示する際には、撮像時のカメラの向きに合わせて撮像画像の向きを回転させて表示する表示回転技術が一般的に用いられている。例えば、カメラを縦向きに構えて撮像を行った場合、そのままでは被写体が横になった状態の画像が表示されることになるが、撮像画像を90°回転させて表示することにより撮像時のカメラの向きと表示される撮像画像の向きとを一致させることが可能となる。
特開平11−88912号公報
上記従来の表示回転技術では、表示対象となる撮像画像の画像中心を軸として画像を回転させることで撮像時のカメラの向きと表示される撮像画像の向きとを一致させている。これを、多眼カメラを縦向きに構えて撮像した撮像画像群の一覧表示に適用すると、個々の撮像画像がそれぞれの画像中心を原点として回転することになる。しかしながら、一覧表示の並び順(すなわち、表示される撮像画像の配置)は回転の前後で変化しない。そうなると、画像を回転させる必要がない横向きに構えて撮像した場合はよいが、縦向きに構えて撮像した場合には表示される撮像画像の配置が多眼カメラ内の撮像部の配置と一致しないという問題が生じてしまう。つまり、撮像時の多眼カメラの向き(角度)によって、撮像部の配置と表示される撮像画像の配置とが一致したり一致しなかったりするので、両者の対応関係が把握しにくいという課題があった。
本発明に係る画像処理装置は、互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得する第一の取得手段と、前記撮像画像データが示す複数の画像を表示する際の前記複数の画像の回転度合い、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得する第二の取得手段と、前記撮像画像データが示す複数の画像を、並べて表示する表示手段と、前記表示手段により前記複数の画像を並べて表示する際の各画像の向きと配置とを、前記回転情報に基づいて決定する決定手段と、を有し、前記決定手段で決定される各画像の配置は、前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように決定されることを特徴とする。
本発明によれば、撮像画像とそれを撮像した多眼カメラの撮像部との対応関係が直観的に把握することが可能となる。これにより、多眼カメラで撮像した画像データの内容把握や管理が容易となる。
実施例1に係る多眼カメラの正面外観を示した図である。 実施例1に係る多眼カメラの内部構成を示す機能ブロック図である。 多眼カメラで撮像された画像がRAMに格納される際のデータ構造の一例を示す図である。 実施例1に係る画像処理部における一連の処理の流れを示すフローチャートである。 多眼カメラを縦向きに構えて被写体を撮像している様子を説明する図である。実施例2における画像出力処理の流れを示すフローチャートである。 縦向きで撮像された視差のある撮像画像を示す図である。 (a)は撮像部配置情報として記憶されるテーブルの一例であり、(b)は当該テーブルに対応する画像配置の一例を示す図である。 画像出力処理の流れを示すフローチャートである。 表示角度θ=+90°の場合に生成される角度補正画像データを示す図である。 表示角度θ=+90°の場合の新たな配置が決定される様子を説明する図である。 (a)〜(c)は、表示部に表示されるUI画面の一例を示す図である。 実施例2に係る撮像画像データのデータ構造の一例を示す図である。 実施例2における出力例を示す図である。 実施例3で用いる多眼カメラの外観を示した図である。 実施例3に係る画像出力処理の流れを示すフローチャートである。 実施例3に係る各角度補正画像の変更後の配置を示す図である。 実施例3に係る合成画像表示領域を含むUI画面の一例を示す図である。 (a)〜(e)は、実施例3に係るUI画面の出力例を示す図である。 (a)は実施例4に係る多眼カメラの正面外観を示した図であり、(b)及び(c)はそのUI画面の一例である。 (a)は実施例4に係る多眼カメラの正面外観を示した図であり、(b)及び(c)はそのUI画面の一例である。 (a)は実施例4に係る多眼カメラの正面外観を示した図であり、(b)及び(c)はそのUI画面の一例である。
[実施例1]
以下、本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施例に係る多眼方式の撮像装置(多眼カメラ)の正面外観を示した図である。同図において、多眼カメラ100の筐体は、画像を取得する9個の撮像部101〜109と、撮像ボタン110を備えている。撮像ボタン110が押下されると、撮像部101〜109が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数の撮像画像を含む撮像画像データ(デジタルデータ)が同時に取得される。このような多眼カメラにより、同一の被写体を複数の視点から捉えた撮像画像群を得ることができる。
ここで、9個の撮像部101〜109は、図1に示すようなN×N(ここでは、N=3)の正方形の格子点上に位置している。つまり、撮像部101〜103、撮像部104〜106、撮像部107〜109の各列は、地面と平行に並んでいることになる。そして、多眼カメラ100を横向きに構えて撮像して得られる撮像画像データの場合、各撮像画像は上記撮像部101〜109の配置と常に一致するように表示されることになる(後述の図13の撮像画像データ1204を参照)。なお、この場合において撮像部(レンズ)は被写体に向けられているため、図1の撮像部101〜109の配置がy軸を中心に線対称になった配置となっている。
一方、多眼カメラ100を、例えば時計方向に90度傾けて(縦向きで)撮像した場合には、撮像ボタン110のある筐体上面が地面と垂直な状態になっているので、その際の撮像部の上記各列の並びは、地面に対して垂直になる。したがって、各撮像画像を90度回転させただけでそのまま表示してしまうと、上記各列が地面に対して垂直に並んだ撮像部の配置とは一致しないことになる(後述の図11の(b)を参照)。
そこで、本実施例では、多眼カメラによって得られた撮像画像データを表示する際、撮像時の多眼カメラの向きに応じて各撮像画像の向きを回転させるとともに、上記のような不一致が生じないように各撮像画像の配置を適宜変更して表示を行う。
なお、図1の例では撮像部の数を9個としたが撮像部の数は9個に限定されない。また、撮像部の配置はN×Nの正方形状に限られるものではなく、例えば、放射状や直線状に配置してもよいし、まったくランダムに配置してもよい。
図2は、多眼カメラ100の内部構成を示す機能ブロック図である。中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能し、撮像部101〜109で取得された撮像画像データの一時的な格納なども行う。ROM203は、CPU201で実行される制御プラグラム等を格納している。バス213は各種データの転送経路であり、例えば、撮像部101〜109によって取得された撮像画像データはこのバス213を介して所定の処理部に送られる。ユーザが入力操作を行うための操作部204は、ボタンやモードダイヤルなどが含まれる。撮像画像や文字の表示を行う表示部206は、例えば、液晶ディスプレイが用いられる。表示部206はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部204の入力として扱うことも可能である。表示制御部205は、表示部206に表示される撮像画像や文字の表示制御を行う。撮像部制御部207は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいた撮像系の制御を行う。デジタル信号処理部208は、バス213を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部209は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部210は、PCやその他のメディア211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。画像処理部212は、撮像部101〜109で取得された撮像画像データ或いは、デジタル信号処理部208から出力されるデジタル画像データを利用して画像処理を行う。
図3は、多眼カメラ100で撮像された画像がRAM202に撮像画像データとして格納される際のデータ構造の一例を示している。図3の例では、3回の撮像分の画像データ301〜303が含まれており、各撮像画像データは、画像ファイル(ここでは、jpeg形式)、同時撮像フラグ、同時撮像インデックスで構成される。撮像画像データ301は撮像部101〜109で同時に撮像された9個の画像ファイルを含んでいる。そして、複数の撮像部によって同時に撮像されたものであることを示すフラグ(同時撮像フラグ)“1”、他の同時撮像された画像データと区別するためのインデックス(同時撮像Index)“001”が与えられている。撮像画像データ303も、撮像画像データ301と同様に9個の画像ファイルを含み、同時撮像フラグに“1”、同時撮像Indexとして“002”が与えられている。一方、撮像画像データ302は、単一の撮像部(ここでは、撮像部105)で撮像された画像であるため1個の画像ファイルのみからなる。この場合において、同時撮像フラグの値“0”は、複数の撮像部によって同時に撮像されたものでないことを示している。
なお、画像ファイル名、同時撮像フラグ、同時撮像Indexの内容は、撮像で得られたデジタルデータが撮像画像データとしてRAM202に格納される際に、CPU201によって自動で割り当てられる。
図4は、画像処理部212における一連の処理の流れを示すフローチャートである。なお、この処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムをROM203からRAM202上に読み込んだ後、CPU201によって該プログラムを実行することによって実施される。
ステップ401において、画像処理部212は、撮像画像データと、当該撮像画像データの撮像に用いられた多眼カメラ内の撮像部の配置情報を取得する。
ステップ402において、画像処理部212は、撮像画像データを表示部206に表示する際の表示角度を設定する(表示角度設定処理)。
ステップ403において、画像処理部212は、取得された撮像部の配置情報および設定された表示角度に基づき、撮像画像データ内の各画像を回転させるとともに各画像の配置を決定し、撮像画像データを表示する(画像出力処理)。
なお、このような画像処理部212の機能は、例えばUSBメモリ等に格納された撮像画像データをPCに取り込んで表示させる際にも有効に適用できるものである。すなわち、PCのモニタ上に多眼カメラで撮像された撮像画像データを表示する際に、PC内で同様の画像処理を行った上で表示させることができる。つまり、本実施例に係る画像処理部212は、独立した画像処理装置として成立し得るものであり、適宜、多眼カメラ本体やPC等に組み込まれることにより実施可能なものである。
以下、画像処理部212で行う各処理の詳細について説明する。
<撮像画像データおよび撮像部の配置情報の取得>
ステップ401で取得される撮像画像データについては、上述したとおりである。ステップ401では、同時に、当該撮像画像データの撮像に用いた多眼カメラの撮像部の配置に関する情報(以下、「撮像部配置情報」と呼ぶ。)を取得する。この撮像部配置情報は、多眼カメラの筺体に対する各撮像部の相対位置関係を示す情報であり、撮像時にRAM202等に記憶しておいたものが読み出される。なお、本実施例では、撮像画像データはすべて上述の多眼カメラ100で撮像されることを前提としているため、予めRAM等に記憶しておいた撮像部配置情報を別途取得する構成としている。しかし、例えば、外部メモリに格納された多くの撮像画像データを表示するような場合には、撮像部の数など仕様の異なる多眼カメラで撮像された撮像画像データが混在していることも考えられる。このような場合には、撮像画像データ自体に当該撮像に用いた多眼カメラの撮像部配置情報を関連付けておき、撮像画像データと一緒に取得するようにしてもよい。
本実施例における以下の説明では、図1に示す多眼カメラ100を用いて、縦向きで被写体を撮像して得られた9個の画像ファイルからなる撮像画像データ(図3の301に相当)を表示部206に表示する場合を例に説明するものとする。
図5は、多眼カメラ100を縦向きに構えて被写体である木501を撮像している様子を説明する図である。筐体の上部にある撮像ボタン110が、右側面の下部に位置しており、原点Oを通るx軸とy軸とが入れ替わっていることから、多眼カメラ100が時計方向に90度傾けられた状態で被写体501に対して向けられていることが分かる。
図6は、図5に示す状態で撮像された視差のある撮像画像601〜609を示しており、撮像画像601が撮像部101、撮像画像602が撮像部102、・・・撮像画像609が撮像部109といったようにそれぞれ対応している。
そして、図7の(a)はRAM202等に撮像部配置情報として記憶されるテーブルの一例である。図7に示すテーブルにおいて、nは撮像部を識別するためのインデックス、x及び yは多眼カメラ100の筺体上の点Oを原点とする二次元座標である。例えばインデックスn=1は撮像部101に対応し、原点Oからの距離がx及びy方向にそれぞれ15であることを示している。図7の(b)はこのテーブルに対応する画像配置を示しており、矩形内の数字1〜9は撮像部を識別するインデックスnを、その下の括弧書きは対応する撮像部101〜109を示している。なお、撮像部配置情報は多眼カメラ100の筺体に対する撮像部の配置が分かるデータであればよく、データの形式は上述したテーブルの例に限るものではない。
<表示角度設定処理>
ステップ402の表示角度設定処理では、取得した撮像画像データを表示部206に表示する際の角度を設定する。詳細には、操作部204を介してユーザが指定した角度(例えば、0°、+90°、−90°、180°など)を表示角度θとして取得し、RAM202に記憶する。
なお、ユーザが指定した角度を表示角度θとして設定するのに代えて、例えば、表示対象となる撮像画像データ撮像時の多眼カメラの傾きに関する情報(以下、「撮像時傾き情報」と呼ぶ。)を取得して、それを表示角度θとして設定してもよい。取得するための撮像時傾き情報は、例えば、撮像時に操作部204を介してユーザが指定した内容(例えば、回転なし、右回転、左回転、上下逆など)をRAM202等に記憶しておけばよい。或いは、筐体に加速度センサを取り付け、鉛直方向に対する筺体の回転角度ψを撮像時に自動で取得して、当該撮像された画像データと関連付けてRAM202等に記憶しておいてもよい。その上で、RAM202等から読み出した撮像時傾き情報(回転角度ψ)に基づき表示角度θを設定するようにすればよい。
そして、撮像時傾き情報をユーザに指定させる場合には、指定された内容に応じて表示角度θを設定(例えば、回転なしの場合は表示角度θ=0度)する。また、加速度センサによって撮像時に自動で取得された撮像時傾き情報(回転角度ψ)を使用する場合は、取得した回転角度ψに応じて、式(1)に従い表示角度θを算出して設定する。
Figure 0005924978
このように、加速度センサを用いて撮像時のカメラの傾きに関する情報を自動で取得し、その傾き情報に応じて表示角度を自動で設定することもできる。この場合は、表示角度の設定に要するユーザの手間を大幅に軽減することができる。
<画像出力処理>
ステップ403の画像出力処理では、取得した撮像部配置情報と設定された表示角度θに基づき撮像画像データ中の各画像を回転させ、さらに回転後の各画像の配置が撮像時における各撮像部の配置と一致するようにその配置を決定して、撮像画像データを表示する。以下、詳しく説明する。
図8は、画像出力処理の流れを示すフローチャートである。なお、上述のとおり、ここでは縦向きで被写体を撮像して得られた9個の画像ファイルからなる撮像画像データ(図3の301)を表示部206に表示する場合について説明するものとする。
ステップ801において、画像処理部212は、ステップ402で設定された表示角度θが0度以外かどうかを判定する。表示角度θが0度以外の場合はステップ802に進む。一方、表示角度θが0度の場合はステップ808に進み、ステップ401で取得した撮像画像データを表示部206にそのまま(同時撮像フラグが“1”の場合は画像配置情報に従って)出力する。
ステップ802において、画像処理部212は、ステップ401で取得した撮像画像データ301中の同時撮像フラグを参照し、撮像画像データ301内の各画像ファイルが同時に撮像されたものかどうかを判定する。同時撮像の画像ファイルであると判定された場合には、ステップ803に進む。一方、同時撮像の画像ファイルではないと判定された場合はステップ806に進む。撮像画像データ301の同時撮像フラグは“1”であるため、ステップ803に進むことになる。
ステップ803において、画像処理部212は、ステップ401で取得した撮像画像データ301内の9個の画像ファイルに係る個々の画像を、ステップ402で設定された表示角度θだけ回転させて、角度補正画像群(角度補正画像データ)を生成する。図9は、前述の図6で示した9個の撮像画像601〜609を基に、表示角度θ=+90°の場合に生成される角度補正画像901〜909からなる角度補正画像データを示している。同図において、角度補正画像901〜909はそれぞれ図6の撮像画像601〜609にそれぞれ対応している。
ステップ804において、画像処理部212は、ステップ401で取得した撮像部配置情報とステップ402で設定された表示角度θに基づいて、生成された角度補正画像データ内の各角度補正画像901〜909の配置を変更する。具体的には、撮像部配置情報を参照し、各角度補正画像の並び(本実施例の場合は上下左右)が、撮像時における多眼カメラ100を被写体に向けて構えた状態を基準とした場合の各撮像部の並びと同じになるよう、新たな配置を決定する。図10は、表示角度θ=+90°の場合にどのように新たな配置が決定されるのかを説明する図である。図10の(a)は撮像時(多眼カメラ100を時計方向に90度傾けた状態)を基準とした被写体に対する各撮像部の相対的な位置関係を示すテーブルであり、図10の(b)はこれに対応するように変更された角度補正画像の配置を示している。多眼カメラ100を時計方向に90度傾けて撮像した場合の撮像画像データの場合、撮像部101による撮像画像が右上、撮像部103による撮像画像が右下、撮像部107による撮像画像が左上、撮像部109による撮像画像が左下、の配置となることが分かる。
ステップ805において、画像処理部212は、ステップ803で生成した角度補正画像901〜909をステップ804で決定した配置に従って並び替え、配置の変更された角度補正画像データを表示部206に出力する。図11の(a)〜(c)は、表示部206上に表示されるUI画面の一例を示している。図11の(a)は、角度補正も配置変更も行わずそのまま撮像画像データを出力した場合の表示例であり、図11の(b)は、角度補正のみを行い配置変更は行わなかった場合の表示例である。いずれの場合も、画像901〜909の配置が多眼カメラを縦向きに構えた際の各撮像部の配置と一致していないのが分かる。図11の(c)は、角度補正後に配置変更を行った場合の表示例であり、画像901〜909の配置が多眼カメラを縦向きに構えた際の各撮像部の配置(図10の(b)を参照)と一致しているのが分かる。
ステップ806において、画像処理部212は、ステップ401で取得した撮像画像データ内の各画像ファイルを、ステップ402で設定された表示角度θだけ回転させて、角度補正画像(角度補正画像データ)を生成する。
ステップ807において、画像処理部212は、ステップ805で生成した角度補正画像データを表示部206に出力する。
このようにして、表示部における各画像の配置は、各画像の位置関係が、複数の撮像部の位置関係と同じになるように決定される。
以上のとおり、本実施例に係る発明によれば、撮像画像データの表示上の配置と当該画像を撮像した際の撮像部の配置とが一致し、撮像画像とそれを撮像した撮像部との対応関係が直観的に把握することができる。
[実施例2]
実施例1では、1回の撮像に係る9個の画像ファイルからなる撮像画像データを表示する場合について説明した。次に、複数回の撮像に係る撮像画像データであって、その中に撮像部が単一である一般的なデジタルカメラで撮像した撮像画像データも混在している場合の表示について、実施例2として説明する。なお、実施例1と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図12は、本実施例における撮像画像データのデータ構造の一例を示している。参照符号1201、1202、1205、1206で示す撮像画像データは、撮像部が単一のデジタルカメラで撮像された1の画像ファイルからなるデータである。参照符号1203及び1204で示す撮像画像データは、撮像部101〜109を有する多眼カメラ100で同時に撮像された9個の画像ファイルからなるデータである。撮像画像データ1203及び1204に前述の撮像時傾き情報が付加されている点で、図3と相違している。また、図12には図示されていないが、撮像画像データ1203及び1204は、前述の撮像部配置情報も付加されている。
この場合はまず、撮像画像データ1201〜1206に対し図4のフローチャートのステップ401及びステップ402の処理を実行し、各撮像画像データを表示部206に表示する際の表示角度θを撮像画像データ毎に設定する。
そして、ステップ403の画像出力処理において、設定された表示角度θ及び同時撮像フラグの内容に応じて、撮像画像データ毎に、必要な角度補正画像データの生成及び角度補正画像の配置変更がなされる。そして、適宜配置が変更された角度補正画像データやその他の撮像画像データを含めた全体の配置を決定する。
上記の処理において、1回の撮像分の撮像画像データであるかどうかは、同時撮像フラグ及び同時撮像Indexを参照することにより判断される。具体的には、同時撮像フラグが“0”であれば、その画像ファイルは単独の撮像画像データとして扱い、同時撮像フラグが“1”であれば、さらに同時撮像Indexが共通する画像ファイル群を1つの撮像画像データとして扱う。なお、一般的なデジタルカメラによる撮像画像データ、及び複数の撮像部のうち1つのみを用いて撮像された多眼カメラによる撮像画像データは、いずれも1の画像ファイルからなり、両者を同等のものとして扱えば足りる。
そして、上記のようにして決定された全体配置に従って各角度補正画像又は角度補正されないままの撮像画像を配置して、表示部206に出力する。
図13は、上述のような処理により、図12で示した撮像画像データ1201〜1209が表示部206に表示される様子を示している。一般的なデジタルカメラで撮像した撮像画像データ1201、1202、1205、1206は、表示角度が補正されることなく表示されている。また、多眼カメラを横向きに構えて撮像した撮像画像データ1204も、表示角度が補正されることなく、またその配置も変更されることなく表示されている。これに対し、多眼カメラを縦向きに構えて撮像した撮像画像データ1203は、表示角度が補正された上に配置が撮像時の撮像部の配置と同じになるように変更されて表示されている。
本実施例によれば、様々な種類の撮像画像データが混在しているような場合でも、すべての撮像画像データについて撮像画像データの表示上の配置と当該画像を撮像した際の撮像部の配置とを一致させることができる。
[実施例3]
次に、多眼カメラから得られる複数の撮像画像のうち、ユーザが選択した撮像画像のみを表示する態様について実施例3として説明する。なお、実施例1及び2と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図14は、本実施例で用いる多眼カメラの外観を示した図である。同図において、多眼カメラ1400の筐体は、画像を取得する25個の撮像部1401〜1425と、撮像ボタン1410を備えている。撮像部の数が異なる以外、その内部構成などは実施例1における多眼カメラ100と同様であり、画像処理部212における大まかな処理の流れも共通である。本実施例の特徴は、図4のフローチャートにおけるステップ403の画像出力処理にあるので、以下、画像出力処理の内容を中心に説明する。
図15は、本実施例に係る画像出力処理の流れを示すフローチャートである。
ステップ401で取得された撮像画像データと撮像部配置情報に基づき、ステップ402で表示角度が設定されると、設定された表示角度θが0度以外かどうか、同時撮像かどうかが判定される(ステップ1501及び1502)。ステップ1501及び1502で “No”と判定された場合のステップ1510〜ステップ1512の各処理は、実施例1の図8のフローチャートにおけるステップ806〜ステップ808に対応する。ここでは、本実施例の特徴が最も出るケース(ステップ1501及び1502で共に“Yes”と判定されるケース)のステップ1503以降の処理について詳しく説明するものとする。また、以下では、図14で示した多眼カメラ1400を前述の図5で示されるように縦向きに構えて被写体501を撮像して得られた撮像画像データを処理する場合を例に説明する。
ステップ1503において、画像処理部212は、ステップ401で取得した撮像画像データ内の25個の画像ファイルに係る個々の画像を、ステップ402で設定された表示角度θだけ回転させて、角度補正画像データを生成する。
ステップ1504において、画像処理部212は、ステップ401で取得した撮像部配置情報とステップ402で設定された表示角度θに基づいて、生成された角度補正画像データ内の各角度補正画像の配置を変更する。図16は変更された各角度補正画像の配置を示している。矩形内の数字1〜25は撮像部を識別するインデックスnを示しており、その下の括弧書きは対応する撮像部1401〜1425を示している。実施例1に係る図10の(b)の場合と同様、ここでの撮像画像データは、撮像部1401による撮像画像が右上、撮像部1405による撮像画像が右下、撮像部1421による撮像画像が左上、撮像部1425による撮像画像が左下、の配置となることが分かる。
ステップ1505において、画像処理部212は、変更後の配置に対応付けられた画像選択ボタンを含むUI画面を作成し、表示部206に表示する。この場合において、表示部206はタッチスクリーン機能を有し、ユーザによる画像の選択がタッチスクリーンを介して行われるものとする。図17は、25個の画像選択ボタン1701〜1705を含む画像選択領域1700、選択された画像を表示する選択画像表示領域1730、選択された画像の合成画像を表示する合成画像表示領域1740を含むUI画面の一例である。この場合において、画像選択ボタン1701〜1725は、それぞれ撮像部1401〜1425に関連付けられている。ユーザは、画像選択ボタン1701〜1725の中から任意の画像選択ボタンを選んで、選択画像表示領域1730に表示させる角度補正画像を選択する。
ステップ1506において、画像処理部212は、上記UI画面を介してユーザによって選択された画像選択ボタンに対応する角度補正画像を、選択画像表示領域1730に表示する画像(以下、「表示画像」と呼ぶ。)に決定する。例えば、ユーザによって、画像選択ボタン1701、1702、1706、1707が押下された場合には、それらのボタンに関連付けられた撮像部1401、1402、1406、1407に対応する角度補正画像が表示画像として決定される。
ステップ1507において、画像処理部212は、ステップ1503で生成された角度補正画像データ内のすべての角度補正画像を合成し、1の合成画像データ(全合成画像データ)を生成する。ここでの合成処理としては、例えば既知のリフォーカス処理や超解像処理などが適用可能である。
ステップ1508において、画像処理部212は、ステップ1506で決定された表示画像を合成し、1の合成画像データ(選択合成画像データ)を生成する。合成処理の内容はステップ1507と同様である。
ステップ1509において、画像処理部212は、ステップ1506で決定した表示画像をステップ1504で決定した画像配置に従って並べ替え、UI画面上の選択画像表示領域に表示する。さらに、ステップ1507で生成された全合成画像データ及びステップ1508で生成された選択合成画像データを合成画像表示領域1740に表示する。このような合成画像データの表示によって自らが選択した画像の合成結果などを同時に把握することが可能となる。
図18の(a)〜(e)は、それぞれステップ1509におけるUI画面の出力例を示している。これらの図において、画像選択領域1700内の黒塗りの矩形箇所はユーザが選択したことを示しており、当該黒塗りの矩形に対応するように選択画像表示領域1730内に角度補正画像が表示されているのが分かる。なお、図18の例では、全合成画像データが左側の合成画像表示領域1740に、選択合成画像データが右側の合成画像表示領域1740にそれぞれ表示されている。
なお、ステップ1501で“No”(表示角度θ=0度)と判定され、かつ、同時撮像フラグが“1”の場合にも、上記ステップ1505〜ステップ1508の各処理が同様に実行され、図18のようなUI画面で撮像画像データが表示されることになる。
本実施例によれば、撮像時における撮像部の配置に対応付けられた画像選択ボタンによって表示させたい画像をユーザは選択することができ、さらに、選択された一部の撮像画像と撮像部の全体の配置との関係を容易に把握することが可能となる。
[実施例4]
次に、多眼カメラにおける撮像部の配置がN×Nの正方形以外の場合について、実施例4として説明する。なお、実施例1〜3と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図19の(a)は、12個の撮像部が直径の異なる2つの同心円上に配置された多眼カメラ1900の正面外観を示した図である。1910は撮像ボタンである。また、図20の(a)は、12個の撮像部がN×M(ここでは、N=3、M=4)の長方形の格子点上に配置された多眼カメラ2000の正面外観を示した図である。2010は撮像ボタンである。多眼カメラ1900及び2000の内部構成や、各処理部の内容については実施例1に準じるのでここでは説明を省略する。
上記のような多眼カメラ1900及び2000を時計方向に90度傾けて撮像した場合の撮像画像データをそのまま(表示角度θ=0度)で出力した場合には、それぞれ図19の(b)及び図20の(b)に示すようなUI画面が表示部206に表示される。なお、両図において括弧内は対応する撮像部を表している。
そして、図19の(c)及び図20の(c)は、表示角度θ=+90度で出力した場合の表示部206に表示されるUI画面を示している。さらに、図21の(a)〜(c)は、上述の多眼カメラ2000と同じ構造の多眼カメラ2100を時計方向に90度傾けて撮像した場合の撮像画像データのうち、黒印の撮像部で撮像されたものを用いなかった場合の出力例を示している。いずれにおいても、撮影画像とそれを撮影した時の撮像部の配置との対応関係が直観的に把握可能になっている。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (17)

  1. 互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得する第一の取得手段と、
    前記撮像画像データが示す複数の画像を表示する際の前記複数の画像の回転度合い、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得する第二の取得手段と、
    前記撮像画像データが示す複数の画像を、並べて表示する表示手段と、
    前記表示手段により前記複数の画像を並べて表示する際の各画像の向きと配置とを、前記回転情報に基づいて決定する決定手段と、
    を有し、
    前記決定手段で決定される各画像の配置は、前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように決定される
    ことを特徴とする画像処理装置。
  2. 前記複数の撮像部は、垂直及び水平方向にそれぞれ複数であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記第二の取得手段は、ユーザによって入力された、前記複数の画像を表示する際の前記複数の画像の回転度合いを含む前記複数の画像の回転指示を取得し、
    前記決定手段は、前記回転指示に基づいて前記複数の画像の向きと配置とを決定する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  4. 前記第二の取得手段は、前記複数の画像撮像時の前記撮像装置の傾き度合いを取得し、
    前記決定手段は、前記傾き度合いに基づいて前記複数の画像の向きと配置とを決定する
    ことを特徴とする請求項1又は2に記載の画像処理装置。
  5. 前記決定手段は、所定の間隔で設定された複数の角度のうち、前記傾き度合いが示す角度に最も近い角度を選択し、該選択した角度に基づいて前記複数の画像の向きと配置とを決定することを特徴とする請求項4に記載の画像処理装置。
  6. 前記撮像装置は加速度センサを備え、前記第二の取得手段は、前記加速度センサからの出力に基づいて前記撮像装置の傾き度合いを取得することを特徴とする請求項4又は5に記載の画像処理装置。
  7. 前記第二の取得手段は、前記複数の画像に対応する複数の視点の間の位置関係を示す位置関係情報を更に取得し、
    前記決定手段は、前記位置関係情報に更に基づいて前記複数の画像の向きと配置とを決定する
    ことを特徴とする請求項1乃至6のいずれか一項に記載の画像処理装置。
  8. 前記決定手段により決定された向きと配置で並べて表示された前記複数の画像に対して入力された、前記複数の画像のうちの一部を選択するユーザ指示を取得する第三の取得手段と、
    前記第三の取得手段により取得された前記ユーザ指示で特定される選択された画像を合成することで合成画像を生成する合成手段と
    を有することを特徴とする請求項1乃至7のいずれか一項に記載の画像処理装置。
  9. 前記複数の画像のうち、前記ユーザ指示で特定される選択された画像を示す画像と、前記合成画像とを表示する表示画像を生成する生成手段を更に有することを特徴とする請求項8に記載の画像処理装置。
  10. 互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得する第一の取得手段と、
    前記撮像画像データが示す複数の画像の回転度合いを含む、ユーザによって入力された前記複数の画像の回転指示、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得する第二の取得手段と、
    前記撮像画像データが示す複数の画像を、並べて表示する表示手段と、
    前記表示手段により前記複数の画像を並べて表示する場合の前記複数の画像の向きと配置とを示す情報を、前記回転情報に基づいて決定する決定手段と
    を有し、
    前記決定手段で決定される情報における各画像の配置は、前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように決定される
    ことを特徴とする画像処理装置。
  11. 互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得する第一の取得手段と、
    前記撮像画像データが示す複数の画像の回転度合いを含む、ユーザによって入力された前記複数の画像の回転指示、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得する第二の取得手段と、
    前記撮像画像データが示す複数の画像を並べて表示する表示手段と、
    を有し、
    前記表示手段により前記複数の画像を表示する際の前記複数の画像の回転度合い、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いが変更された場合に、前記表示において、前記複数の画像の向きと配置との両方が連動して、かつ、各画像の配置が前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように変化する
    ことを特徴とする画像処理装置。
  12. 前記撮像装置は、複数の撮像部を備えた多眼方式の撮像装置であることを特徴とする請求項1乃至11のいずれか一項に記載の画像処理装置。
  13. 請求項1乃至12のいずれか一項に記載の画像処理装置を有する、互いに異なる視点に対応する複数の画像を撮像する撮像装置。
  14. 互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得するステップと、
    前記撮像画像データが示す複数の画像を表示する際の前記複数の画像の回転度合い、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得するステップと、
    前記複数の画像を並べて表示する際の各画像の向きと配置とを、前記回転情報に基づいて決定するステップと
    前記決定するステップで決定された向きと配置に従って、前記複数の画像を、並べて表示するステップと、
    を有し、
    前記決定するステップでは、各画像の配置が、前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように決定される
    ことを特徴とする画像処理方法。
  15. 互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得するステップと、
    前記撮像画像データが示す複数の画像の回転度合いを含む、ユーザによって入力された前記複数の画像の回転指示、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得するステップと、
    前記複数の画像を並べて表示する場合の前記複数の画像の向きと配置とを示す情報を、前記回転情報に基づいて決定するステップと
    前記決定するステップで決定された向きと配置に従って、前記複数の画像を、並べて表示するステップと、
    を有し、
    前記決定するステップで決定される情報における各画像の配置は、前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように決定される
    ことを特徴とする画像処理方法。
  16. 互いに異なる視点に対応する複数の画像を撮像するための複数の撮像部を有する撮像装置で撮像して得られた撮像画像データを取得するステップと、
    前記撮像画像データが示す複数の画像の回転度合いを含む、ユーザによって入力された前記複数の画像の回転指示、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いを示す回転情報を取得するステップと、
    前記撮像画像データが示す複数の画像を並べて表示するステップと
    を有し、
    前記複数の画像を表示する際の前記複数の画像の回転度合い、又は前記複数の画像を撮像した際の前記撮像装置の傾き度合いが変更された場合に、前記表示において、前記複数の画像の向きと配置との両方が連動して、かつ、各画像の配置が前記撮像画像データの撮像時における前記複数の撮像部の配置と一致するように変化する
    ことを特徴とする画像処理方法。
  17. コンピュータを、請求項1乃至12のいずれか1項に記載の画像処理装置として機能さ
    せるためのプログラム。
JP2012041144A 2012-02-28 2012-02-28 画像処理装置および画像処理方法 Active JP5924978B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012041144A JP5924978B2 (ja) 2012-02-28 2012-02-28 画像処理装置および画像処理方法
US13/768,317 US9307150B2 (en) 2012-02-28 2013-02-15 Image processing device, image processing method, and program for display angle determination
CN201310064423.5A CN103297685B (zh) 2012-02-28 2013-02-28 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012041144A JP5924978B2 (ja) 2012-02-28 2012-02-28 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2013179397A JP2013179397A (ja) 2013-09-09
JP2013179397A5 JP2013179397A5 (ja) 2015-07-09
JP5924978B2 true JP5924978B2 (ja) 2016-05-25

Family

ID=49002487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012041144A Active JP5924978B2 (ja) 2012-02-28 2012-02-28 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US9307150B2 (ja)
JP (1) JP5924978B2 (ja)
CN (1) CN103297685B (ja)

Families Citing this family (72)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
EP2502115A4 (en) 2009-11-20 2013-11-06 Pelican Imaging Corp RECORDING AND PROCESSING IMAGES THROUGH A MONOLITHIC CAMERA ARRAY WITH HETEROGENIC IMAGE CONVERTER
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
WO2013049699A1 (en) 2011-09-28 2013-04-04 Pelican Imaging Corporation Systems and methods for encoding and decoding light field image files
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
JP5924978B2 (ja) * 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法
US9723205B2 (en) * 2012-06-20 2017-08-01 Nokia Technologies Oy Display camera operation
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
EP2873028A4 (en) 2012-06-28 2016-05-25 Pelican Imaging Corp SYSTEMS AND METHOD FOR DETECTING DEFECTIVE CAMERA ARRAYS, OPTICAL ARRAYS AND SENSORS
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
FI4296963T3 (fi) 2012-08-21 2025-03-31 Adeia Imaging Llc Menetelmä syvyyden tunnistamiseksi kameraryhmällä otetuista kuvista
CN104685513B (zh) 2012-08-23 2018-04-27 派力肯影像公司 根据使用阵列源捕捉的低分辨率图像的基于特征的高分辨率运动估计
WO2014052974A2 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating images from light fields utilizing virtual viewpoints
JP6003578B2 (ja) * 2012-11-26 2016-10-05 株式会社ニコン 画像生成方法及び装置
US9001226B1 (en) * 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
JP2016524125A (ja) 2013-03-15 2016-08-12 ペリカン イメージング コーポレイション カメラアレイを用いた立体撮像のためのシステムおよび方法
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
WO2015048694A2 (en) 2013-09-27 2015-04-02 Pelican Imaging Corporation Systems and methods for depth-assisted perspective distortion correction
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
US9426361B2 (en) 2013-11-26 2016-08-23 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
US9319576B2 (en) 2014-01-29 2016-04-19 Google Technology Holdings LLC Multi-processor support for array imagers
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
CN106612387B (zh) * 2015-10-15 2019-05-21 杭州海康威视数字技术股份有限公司 一种组合深度图获得方法及深度相机
US11721061B2 (en) * 2016-03-02 2023-08-08 Nutilt Imaging, Llc Method and apparatus for displaying a collectible
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
JPWO2019142892A1 (ja) * 2018-01-22 2021-01-28 株式会社小糸製作所 電子ミラー用の撮像装置、電子ミラーシステム、自動車
CN114041110B (zh) * 2019-07-22 2023-11-10 株式会社富士 图像显示装置及图像显示方法
CN114600165B (zh) 2019-09-17 2025-08-15 波士顿偏振测定公司 用于使用偏振提示表面建模的系统和方法
DE112020004810B4 (de) 2019-10-07 2023-10-26 Boston Polarimetrics, Inc. Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
MX2022005289A (es) 2019-11-30 2022-08-08 Boston Polarimetrics Inc Sistemas y metodos para segmentacion de objetos transparentes usando se?ales de polarizacion.
WO2021154386A1 (en) 2020-01-29 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for characterizing object pose detection and measurement systems
JP7542070B2 (ja) 2020-01-30 2024-08-29 イントリンジック イノベーション エルエルシー 偏光画像を含む異なる撮像モダリティで統計モデルを訓練するためのデータを合成するためのシステムおよび方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12069227B2 (en) 2021-03-10 2024-08-20 Intrinsic Innovation Llc Multi-modal and multi-spectral stereo camera arrays
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US12067746B2 (en) 2021-05-07 2024-08-20 Intrinsic Innovation Llc Systems and methods for using computer vision to pick up small objects
US12175741B2 (en) 2021-06-22 2024-12-24 Intrinsic Innovation Llc Systems and methods for a vision guided end effector
US12340538B2 (en) 2021-06-25 2025-06-24 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US12172310B2 (en) 2021-06-29 2024-12-24 Intrinsic Innovation Llc Systems and methods for picking objects using 3-D geometry and segmentation
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
US12293535B2 (en) 2021-08-03 2025-05-06 Intrinsic Innovation Llc Systems and methods for training pose estimators in computer vision
KR102712618B1 (ko) * 2022-04-12 2024-10-02 한국광기술원 다분광 카메라의 영상보정 방법 및 이에 적용되는 다분광 카메라의 영상보정 장치
JP2024159105A (ja) * 2023-04-28 2024-11-08 キヤノン株式会社 画像処理システム、画像処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1188912A (ja) 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
JP2005229280A (ja) * 2004-02-12 2005-08-25 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
CN101674413B (zh) 2005-09-09 2011-12-21 佳能株式会社 摄像设备
US7825958B2 (en) * 2007-01-25 2010-11-02 Research In Motion Limited Method and apparatus for controlling a camera module to compensate for the light level of a white LED
CN101577783A (zh) 2008-05-09 2009-11-11 宏达国际电子股份有限公司 图像画面的处理方法及其电子装置
JP5259457B2 (ja) * 2009-03-03 2013-08-07 オリンパスメディカルシステムズ株式会社 電子画像観察装置
JP5383356B2 (ja) * 2009-07-08 2014-01-08 キヤノン株式会社 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム
JP5924978B2 (ja) * 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法

Also Published As

Publication number Publication date
CN103297685B (zh) 2016-08-03
US20130222656A1 (en) 2013-08-29
JP2013179397A (ja) 2013-09-09
CN103297685A (zh) 2013-09-11
US9307150B2 (en) 2016-04-05

Similar Documents

Publication Publication Date Title
JP5924978B2 (ja) 画像処理装置および画像処理方法
JP6721065B2 (ja) 撮像装置、画像処理装置および方法
CN105659287B (zh) 图像处理装置、图像处理方法和成像系统
JP6263623B2 (ja) 画像生成方法及びデュアルレンズ装置
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
CN107197137B (zh) 图像处理装置、图像处理方法以及记录介质
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
CN114073069B (zh) 成像系统、图像处理设备、成像装置和记录介质
JP2013027021A (ja) 全方位撮像装置及び全方位撮像方法
US11825213B2 (en) Removal of image capture device from omnidirectional image created by stitching partial images
JP2010199971A (ja) 撮像装置、撮像方法、及びプログラム
JP4403172B2 (ja) ファイル生成方法および装置並びに立体画像の表示制御方法および装置
KR20150003576A (ko) 삼차원 영상 생성 또는 재생을 위한 장치 및 방법
US20210133937A1 (en) Method and system for creating, storing, sharing, and displaying multiple perspectives of an image
JP6012396B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP4403173B2 (ja) 立体表示用ファイルの生成方法および装置並びに表示制御方法および装置
JP5744642B2 (ja) 画像処理装置および画像処理方法、プログラム。
JP2005130312A (ja) 立体視画像処理装置,コンピュータプログラム,および視差補正方法
JP6833772B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP2025011441A (ja) 電子機器、電子機器の制御方法、プログラム、および記憶媒体
JP2014003715A (ja) 撮像装置、撮像方法、及びプログラム
JP2013078038A (ja) 撮像装置、画像処理方法、およびプログラム
JP2012120016A (ja) 端末装置及びその処理方法とプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160419

R151 Written notification of patent or utility model registration

Ref document number: 5924978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151