JP2013179397A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2013179397A
JP2013179397A JP2012041144A JP2012041144A JP2013179397A JP 2013179397 A JP2013179397 A JP 2013179397A JP 2012041144 A JP2012041144 A JP 2012041144A JP 2012041144 A JP2012041144 A JP 2012041144A JP 2013179397 A JP2013179397 A JP 2013179397A
Authority
JP
Japan
Prior art keywords
image
imaging
image data
captured
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012041144A
Other languages
English (en)
Other versions
JP2013179397A5 (ja
JP5924978B2 (ja
Inventor
Chiaki Kaneko
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012041144A priority Critical patent/JP5924978B2/ja
Priority to US13/768,317 priority patent/US9307150B2/en
Priority to CN201310064423.5A priority patent/CN103297685B/zh
Publication of JP2013179397A publication Critical patent/JP2013179397A/ja
Publication of JP2013179397A5 publication Critical patent/JP2013179397A5/ja
Application granted granted Critical
Publication of JP5924978B2 publication Critical patent/JP5924978B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/268Signal distribution or switching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

【課題】多眼カメラの場合、撮像時の向きによっては撮像部の配置と表示される撮像画像の配置とが一致しなくなり、両者の対応関係が把握しにくい。
【解決手段】画像処理装置であって、複数の撮像部を備えた多眼方式の撮像装置で撮像して得られた撮像画像データにより示される複数の画像を処理する画像処理装置であって、前記画像の表示領域における表示角度に基づいて、前記複数の撮像部それぞれに対応している各画像の前記表示領域における配置を決定する決定手段を有し、前記表示領域における前記各画像の配置は、前記複数の撮像部の配置に基づいて決定される、ことを特徴とする。
【選択図】図4

Description

本発明は複数の撮像部を備えた多眼方式の撮像装置を用いて得られる画像を表示するための表示方法に関する。
従来、複数の撮像部を備えた多眼方式の撮像装置(以降、多眼カメラと呼ぶ)によって一度に得られる複数の撮像画像を表示するものとして、2枚の撮像画像を水平に並べて表示する一覧表示技術が知られている(例えば、特許文献1)。この一覧表示技術は、2つの撮像部で撮像された視差のある2枚の撮像画像を水平方向に並べてディスプレイ上に同時に出力することにより、両方の撮像画像について一度にフレーミングや露出の確認を行えるようにすることを可能とするものであった。
一方で、単一の撮像部を備えた一般的なデジタルカメラを用いて得られる撮像画像を表示する際には、撮像時のカメラの向きに合わせて撮像画像の向きを回転させて表示する表示回転技術が一般的に用いられている。例えば、カメラを縦向きに構えて撮像を行った場合、そのままでは被写体が横になった状態の画像が表示されることになるが、撮像画像を90°回転させて表示することにより撮像時のカメラの向きと表示される撮像画像の向きとを一致させることが可能となる。
特開平11−88912号公報
上記従来の表示回転技術では、表示対象となる撮像画像の画像中心を軸として画像を回転させることで撮像時のカメラの向きと表示される撮像画像の向きとを一致させている。これを、多眼カメラを縦向きに構えて撮像した撮像画像群の一覧表示に適用すると、個々の撮像画像がそれぞれの画像中心を原点として回転することになる。しかしながら、一覧表示の並び順(すなわち、表示される撮像画像の配置)は回転の前後で変化しない。そうなると、画像を回転させる必要がない横向きに構えて撮像した場合はよいが、縦向きに構えて撮像した場合には表示される撮像画像の配置が多眼カメラ内の撮像部の配置と一致しないという問題が生じてしまう。つまり、撮像時の多眼カメラの向き(角度)によって、撮像部の配置と表示される撮像画像の配置とが一致したり一致しなかったりするので、両者の対応関係が把握しにくいという課題があった。
本発明に係る画像処理装置は、複数の撮像部を備えた多眼方式の撮像装置で撮像して得られた撮像画像データにより示される複数の画像を処理する画像処理装置であって、前記画像の表示領域における表示角度に基づいて、前記複数の撮像部それぞれに対応している各画像の前記表示領域における配置を決定する決定手段を有し、前記表示領域における前記各画像の配置は、前記複数の撮像部の配置に基づいて決定される、ことを特徴とする。
本発明によれば、撮像画像とそれを撮像した多眼カメラの撮像部との対応関係が直観的に把握することが可能となる。これにより、多眼カメラで撮像した画像データの内容把握や管理が容易となる。
実施例1に係る多眼カメラの正面外観を示した図である。 実施例1に係る多眼カメラの内部構成を示す機能ブロック図である。 多眼カメラで撮像された画像がRAMに格納される際のデータ構造の一例を示す図である。 実施例1に係る画像処理部における一連の処理の流れを示すフローチャートである。 多眼カメラを縦向きに構えて被写体を撮像している様子を説明する図である。実施例2における画像出力処理の流れを示すフローチャートである。 縦向きで撮像された視差のある撮像画像を示す図である。 (a)は撮像部配置情報として記憶されるテーブルの一例であり、(b)は当該テーブルに対応する画像配置の一例を示す図である。 画像出力処理の流れを示すフローチャートである。 表示角度θ=+90°の場合に生成される角度補正画像データを示す図である。 表示角度θ=+90°の場合の新たな配置が決定される様子を説明する図である。 (a)〜(c)は、表示部に表示されるUI画面の一例を示す図である。 実施例2に係る撮像画像データのデータ構造の一例を示す図である。 実施例2における出力例を示す図である。 実施例3で用いる多眼カメラの外観を示した図である。 実施例3に係る画像出力処理の流れを示すフローチャートである。 実施例3に係る各角度補正画像の変更後の配置を示す図である。 実施例3に係る合成画像表示領域を含むUI画面の一例を示す図である。 (a)〜(e)は、実施例3に係るUI画面の出力例を示す図である。 (a)は実施例4に係る多眼カメラの正面外観を示した図であり、(b)及び(c)はそのUI画面の一例である。 (a)は実施例4に係る多眼カメラの正面外観を示した図であり、(b)及び(c)はそのUI画面の一例である。 (a)は実施例4に係る多眼カメラの正面外観を示した図であり、(b)及び(c)はそのUI画面の一例である。
[実施例1]
以下、本発明の好適な実施形態について詳細に説明する。なお、以下の実施形態において示す構成は一例に過ぎず、本発明は図示された構成に限定されるものではない。
図1は、本実施例に係る多眼方式の撮像装置(多眼カメラ)の正面外観を示した図である。同図において、多眼カメラ100の筐体は、画像を取得する9個の撮像部101〜109と、撮像ボタン110を備えている。撮像ボタン110が押下されると、撮像部101〜109が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数の撮像画像を含む撮像画像データ(デジタルデータ)が同時に取得される。このような多眼カメラにより、同一の被写体を複数の視点から捉えた撮像画像群を得ることができる。
ここで、9個の撮像部101〜109は、図1に示すようなN×N(ここでは、N=3)の正方形の格子点上に位置している。つまり、撮像部101〜103、撮像部104〜106、撮像部107〜109の各列は、地面と平行に並んでいることになる。そして、多眼カメラ100を横向きに構えて撮像して得られる撮像画像データの場合、各撮像画像は上記撮像部101〜109の配置と常に一致するように表示されることになる(後述の図13の撮像画像データ1204を参照)。なお、この場合において撮像部(レンズ)は被写体に向けられているため、図1の撮像部101〜109の配置がy軸を中心に線対称になった配置となっている。
一方、多眼カメラ100を、例えば時計方向に90度傾けて(縦向きで)撮像した場合には、撮像ボタン110のある筐体上面が地面と垂直な状態になっているので、その際の撮像部の上記各列の並びは、地面に対して垂直になる。したがって、各撮像画像を90度回転させただけでそのまま表示してしまうと、上記各列が地面に対して垂直に並んだ撮像部の配置とは一致しないことになる(後述の図11の(b)を参照)。
そこで、本実施例では、多眼カメラによって得られた撮像画像データを表示する際、撮像時の多眼カメラの向きに応じて各撮像画像の向きを回転させるとともに、上記のような不一致が生じないように各撮像画像の配置を適宜変更して表示を行う。
なお、図1の例では撮像部の数を9個としたが撮像部の数は9個に限定されない。また、撮像部の配置はN×Nの正方形状に限られるものではなく、例えば、放射状や直線状に配置してもよいし、まったくランダムに配置してもよい。
図2は、多眼カメラ100の内部構成を示す機能ブロック図である。中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能し、撮像部101〜109で取得された撮像画像データの一時的な格納なども行う。ROM203は、CPU201で実行される制御プラグラム等を格納している。バス213は各種データの転送経路であり、例えば、撮像部101〜109によって取得された撮像画像データはこのバス213を介して所定の処理部に送られる。ユーザが入力操作を行うための操作部204は、ボタンやモードダイヤルなどが含まれる。撮像画像や文字の表示を行う表示部206は、例えば、液晶ディスプレイが用いられる。表示部206はタッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部204の入力として扱うことも可能である。表示制御部205は、表示部206に表示される撮像画像や文字の表示制御を行う。撮像部制御部207は、フォーカスを合わせる、シャッターを開く・閉じる、絞りを調節するなどの、CPU201からの指示に基づいた撮像系の制御を行う。デジタル信号処理部208は、バス213を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部209は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部210は、PCやその他のメディア211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。画像処理部212は、撮像部101〜109で取得された撮像画像データ或いは、デジタル信号処理部208から出力されるデジタル画像データを利用して画像処理を行う。
図3は、多眼カメラ100で撮像された画像がRAM202に撮像画像データとして格納される際のデータ構造の一例を示している。図3の例では、3回の撮像分の画像データ301〜303が含まれており、各撮像画像データは、画像ファイル(ここでは、jpeg形式)、同時撮像フラグ、同時撮像インデックスで構成される。撮像画像データ301は撮像部101〜109で同時に撮像された9個の画像ファイルを含んでいる。そして、複数の撮像部によって同時に撮像されたものであることを示すフラグ(同時撮像フラグ)“1”、他の同時撮像された画像データと区別するためのインデックス(同時撮像Index)“001”が与えられている。撮像画像データ303も、撮像画像データ301と同様に9個の画像ファイルを含み、同時撮像フラグに“1”、同時撮像Indexとして“002”が与えられている。一方、撮像画像データ302は、単一の撮像部(ここでは、撮像部105)で撮像された画像であるため1個の画像ファイルのみからなる。この場合において、同時撮像フラグの値“0”は、複数の撮像部によって同時に撮像されたものでないことを示している。
なお、画像ファイル名、同時撮像フラグ、同時撮像Indexの内容は、撮像で得られたデジタルデータが撮像画像データとしてRAM202に格納される際に、CPU201によって自動で割り当てられる。
図4は、画像処理部212における一連の処理の流れを示すフローチャートである。なお、この処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムをROM203からRAM202上に読み込んだ後、CPU201によって該プログラムを実行することによって実施される。
ステップ401において、画像処理部212は、撮像画像データと、当該撮像画像データの撮像に用いられた多眼カメラ内の撮像部の配置情報を取得する。
ステップ402において、画像処理部212は、撮像画像データを表示部206に表示する際の表示角度を設定する(表示角度設定処理)。
ステップ403において、画像処理部212は、取得された撮像部の配置情報および設定された表示角度に基づき、撮像画像データ内の各画像を回転させるとともに各画像の配置を決定し、撮像画像データを表示する(画像出力処理)。
なお、このような画像処理部212の機能は、例えばUSBメモリ等に格納された撮像画像データをPCに取り込んで表示させる際にも有効に適用できるものである。すなわち、PCのモニタ上に多眼カメラで撮像された撮像画像データを表示する際に、PC内で同様の画像処理を行った上で表示させることができる。つまり、本実施例に係る画像処理部212は、独立した画像処理装置として成立し得るものであり、適宜、多眼カメラ本体やPC等に組み込まれることにより実施可能なものである。
以下、画像処理部212で行う各処理の詳細について説明する。
<撮像画像データおよび撮像部の配置情報の取得>
ステップ401で取得される撮像画像データについては、上述したとおりである。ステップ401では、同時に、当該撮像画像データの撮像に用いた多眼カメラの撮像部の配置に関する情報(以下、「撮像部配置情報」と呼ぶ。)を取得する。この撮像部配置情報は、多眼カメラの筺体に対する各撮像部の相対位置関係を示す情報であり、撮像時にRAM202等に記憶しておいたものが読み出される。なお、本実施例では、撮像画像データはすべて上述の多眼カメラ100で撮像されることを前提としているため、予めRAM等に記憶しておいた撮像部配置情報を別途取得する構成としている。しかし、例えば、外部メモリに格納された多くの撮像画像データを表示するような場合には、撮像部の数など仕様の異なる多眼カメラで撮像された撮像画像データが混在していることも考えられる。このような場合には、撮像画像データ自体に当該撮像に用いた多眼カメラの撮像部配置情報を関連付けておき、撮像画像データと一緒に取得するようにしてもよい。
本実施例における以下の説明では、図1に示す多眼カメラ100を用いて、縦向きで被写体を撮像して得られた9個の画像ファイルからなる撮像画像データ(図3の301に相当)を表示部206に表示する場合を例に説明するものとする。
図5は、多眼カメラ100を縦向きに構えて被写体である木501を撮像している様子を説明する図である。筐体の上部にある撮像ボタン110が、右側面の下部に位置しており、原点Oを通るx軸とy軸とが入れ替わっていることから、多眼カメラ100が時計方向に90度傾けられた状態で被写体501に対して向けられていることが分かる。
図6は、図5に示す状態で撮像された視差のある撮像画像601〜609を示しており、撮像画像601が撮像部101、撮像画像602が撮像部102、・・・撮像画像609が撮像部109といったようにそれぞれ対応している。
そして、図7の(a)はRAM202等に撮像部配置情報として記憶されるテーブルの一例である。図7に示すテーブルにおいて、nは撮像部を識別するためのインデックス、x及び yは多眼カメラ100の筺体上の点Oを原点とする二次元座標である。例えばインデックスn=1は撮像部101に対応し、原点Oからの距離がx及びy方向にそれぞれ15であることを示している。図7の(b)はこのテーブルに対応する画像配置を示しており、矩形内の数字1〜9は撮像部を識別するインデックスnを、その下の括弧書きは対応する撮像部101〜109を示している。なお、撮像部配置情報は多眼カメラ100の筺体に対する撮像部の配置が分かるデータであればよく、データの形式は上述したテーブルの例に限るものではない。
<表示角度設定処理>
ステップ402の表示角度設定処理では、取得した撮像画像データを表示部206に表示する際の角度を設定する。詳細には、操作部204を介してユーザが指定した角度(例えば、0°、+90°、−90°、180°など)を表示角度θとして取得し、RAM202に記憶する。
なお、ユーザが指定した角度を表示角度θとして設定するのに代えて、例えば、表示対象となる撮像画像データ撮像時の多眼カメラの傾きに関する情報(以下、「撮像時傾き情報」と呼ぶ。)を取得して、それを表示角度θとして設定してもよい。取得するための撮像時傾き情報は、例えば、撮像時に操作部204を介してユーザが指定した内容(例えば、回転なし、右回転、左回転、上下逆など)をRAM202等に記憶しておけばよい。或いは、筐体に加速度センサを取り付け、鉛直方向に対する筺体の回転角度ψを撮像時に自動で取得して、当該撮像された画像データと関連付けてRAM202等に記憶しておいてもよい。その上で、RAM202等から読み出した撮像時傾き情報(回転角度ψ)に基づき表示角度θを設定するようにすればよい。
そして、撮像時傾き情報をユーザに指定させる場合には、指定された内容に応じて表示角度θを設定(例えば、回転なしの場合は表示角度θ=0度)する。また、加速度センサによって撮像時に自動で取得された撮像時傾き情報(回転角度ψ)を使用する場合は、取得した回転角度ψに応じて、式(1)に従い表示角度θを算出して設定する。
Figure 2013179397
このように、加速度センサを用いて撮像時のカメラの傾きに関する情報を自動で取得し、その傾き情報に応じて表示角度を自動で設定することもできる。この場合は、表示角度の設定に要するユーザの手間を大幅に軽減することができる。
<画像出力処理>
ステップ403の画像出力処理では、取得した撮像部配置情報と設定された表示角度θに基づき撮像画像データ中の各画像を回転させ、さらに回転後の各画像の配置が撮像時における各撮像部の配置と一致するようにその配置を決定して、撮像画像データを表示する。以下、詳しく説明する。
図8は、画像出力処理の流れを示すフローチャートである。なお、上述のとおり、ここでは縦向きで被写体を撮像して得られた9個の画像ファイルからなる撮像画像データ(図3の301)を表示部206に表示する場合について説明するものとする。
ステップ801において、画像処理部212は、ステップ402で設定された表示角度θが0度以外かどうかを判定する。表示角度θが0度以外の場合はステップ802に進む。一方、表示角度θが0度の場合はステップ808に進み、ステップ401で取得した撮像画像データを表示部206にそのまま(同時撮像フラグが“1”の場合は画像配置情報に従って)出力する。
ステップ802において、画像処理部212は、ステップ401で取得した撮像画像データ301中の同時撮像フラグを参照し、撮像画像データ301内の各画像ファイルが同時に撮像されたものかどうかを判定する。同時撮像の画像ファイルであると判定された場合には、ステップ803に進む。一方、同時撮像の画像ファイルではないと判定された場合はステップ806に進む。撮像画像データ301の同時撮像フラグは“1”であるため、ステップ803に進むことになる。
ステップ803において、画像処理部212は、ステップ401で取得した撮像画像データ301内の9個の画像ファイルに係る個々の画像を、ステップ402で設定された表示角度θだけ回転させて、角度補正画像群(角度補正画像データ)を生成する。図9は、前述の図6で示した9個の撮像画像601〜609を基に、表示角度θ=+90°の場合に生成される角度補正画像901〜909からなる角度補正画像データを示している。同図において、角度補正画像901〜909はそれぞれ図6の撮像画像601〜609にそれぞれ対応している。
ステップ804において、画像処理部212は、ステップ401で取得した撮像部配置情報とステップ402で設定された表示角度θに基づいて、生成された角度補正画像データ内の各角度補正画像901〜909の配置を変更する。具体的には、撮像部配置情報を参照し、各角度補正画像の並び(本実施例の場合は上下左右)が、撮像時における多眼カメラ100を被写体に向けて構えた状態を基準とした場合の各撮像部の並びと同じになるよう、新たな配置を決定する。図10は、表示角度θ=+90°の場合にどのように新たな配置が決定されるのかを説明する図である。図10の(a)は撮像時(多眼カメラ100を時計方向に90度傾けた状態)を基準とした被写体に対する各撮像部の相対的な位置関係を示すテーブルであり、図10の(b)はこれに対応するように変更された角度補正画像の配置を示している。多眼カメラ100を時計方向に90度傾けて撮像した場合の撮像画像データの場合、撮像部101による撮像画像が右上、撮像部103による撮像画像が右下、撮像部107による撮像画像が左上、撮像部109による撮像画像が左下、の配置となることが分かる。
ステップ805において、画像処理部212は、ステップ803で生成した角度補正画像901〜909をステップ804で決定した配置に従って並び替え、配置の変更された角度補正画像データを表示部206に出力する。図11の(a)〜(c)は、表示部206上に表示されるUI画面の一例を示している。図11の(a)は、角度補正も配置変更も行わずそのまま撮像画像データを出力した場合の表示例であり、図11の(b)は、角度補正のみを行い配置変更は行わなかった場合の表示例である。いずれの場合も、画像901〜909の配置が多眼カメラを縦向きに構えた際の各撮像部の配置と一致していないのが分かる。図11の(c)は、角度補正後に配置変更を行った場合の表示例であり、画像901〜909の配置が多眼カメラを縦向きに構えた際の各撮像部の配置(図10の(b)を参照)と一致しているのが分かる。
ステップ806において、画像処理部212は、ステップ401で取得した撮像画像データ内の各画像ファイルを、ステップ402で設定された表示角度θだけ回転させて、角度補正画像(角度補正画像データ)を生成する。
ステップ807において、画像処理部212は、ステップ805で生成した角度補正画像データを表示部206に出力する。
このようにして、表示部における各画像の配置は、各画像の位置関係が、複数の撮像部の位置関係と同じになるように決定される。
以上のとおり、本実施例に係る発明によれば、撮像画像データの表示上の配置と当該画像を撮像した際の撮像部の配置とが一致し、撮像画像とそれを撮像した撮像部との対応関係が直観的に把握することができる。
[実施例2]
実施例1では、1回の撮像に係る9個の画像ファイルからなる撮像画像データを表示する場合について説明した。次に、複数回の撮像に係る撮像画像データであって、その中に撮像部が単一である一般的なデジタルカメラで撮像した撮像画像データも混在している場合の表示について、実施例2として説明する。なお、実施例1と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図12は、本実施例における撮像画像データのデータ構造の一例を示している。参照符号1201、1202、1205、1206で示す撮像画像データは、撮像部が単一のデジタルカメラで撮像された1の画像ファイルからなるデータである。参照符号1203及び1204で示す撮像画像データは、撮像部101〜109を有する多眼カメラ100で同時に撮像された9個の画像ファイルからなるデータである。撮像画像データ1203及び1204に前述の撮像時傾き情報が付加されている点で、図3と相違している。また、図12には図示されていないが、撮像画像データ1203及び1204は、前述の撮像部配置情報も付加されている。
この場合はまず、撮像画像データ1201〜1206に対し図4のフローチャートのステップ401及びステップ402の処理を実行し、各撮像画像データを表示部206に表示する際の表示角度θを撮像画像データ毎に設定する。
そして、ステップ403の画像出力処理において、設定された表示角度θ及び同時撮像フラグの内容に応じて、撮像画像データ毎に、必要な角度補正画像データの生成及び角度補正画像の配置変更がなされる。そして、適宜配置が変更された角度補正画像データやその他の撮像画像データを含めた全体の配置を決定する。
上記の処理において、1回の撮像分の撮像画像データであるかどうかは、同時撮像フラグ及び同時撮像Indexを参照することにより判断される。具体的には、同時撮像フラグが“0”であれば、その画像ファイルは単独の撮像画像データとして扱い、同時撮像フラグが“1”であれば、さらに同時撮像Indexが共通する画像ファイル群を1つの撮像画像データとして扱う。なお、一般的なデジタルカメラによる撮像画像データ、及び複数の撮像部のうち1つのみを用いて撮像された多眼カメラによる撮像画像データは、いずれも1の画像ファイルからなり、両者を同等のものとして扱えば足りる。
そして、上記のようにして決定された全体配置に従って各角度補正画像又は角度補正されないままの撮像画像を配置して、表示部206に出力する。
図13は、上述のような処理により、図12で示した撮像画像データ1201〜1209が表示部206に表示される様子を示している。一般的なデジタルカメラで撮像した撮像画像データ1201、1202、1205、1206は、表示角度が補正されることなく表示されている。また、多眼カメラを横向きに構えて撮像した撮像画像データ1204も、表示角度が補正されることなく、またその配置も変更されることなく表示されている。これに対し、多眼カメラを縦向きに構えて撮像した撮像画像データ1203は、表示角度が補正された上に配置が撮像時の撮像部の配置と同じになるように変更されて表示されている。
本実施例によれば、様々な種類の撮像画像データが混在しているような場合でも、すべての撮像画像データについて撮像画像データの表示上の配置と当該画像を撮像した際の撮像部の配置とを一致させることができる。
[実施例3]
次に、多眼カメラから得られる複数の撮像画像のうち、ユーザが選択した撮像画像のみを表示する態様について実施例3として説明する。なお、実施例1及び2と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図14は、本実施例で用いる多眼カメラの外観を示した図である。同図において、多眼カメラ1400の筐体は、画像を取得する25個の撮像部1401〜1425と、撮像ボタン1410を備えている。撮像部の数が異なる以外、その内部構成などは実施例1における多眼カメラ100と同様であり、画像処理部212における大まかな処理の流れも共通である。本実施例の特徴は、図4のフローチャートにおけるステップ403の画像出力処理にあるので、以下、画像出力処理の内容を中心に説明する。
図15は、本実施例に係る画像出力処理の流れを示すフローチャートである。
ステップ401で取得された撮像画像データと撮像部配置情報に基づき、ステップ402で表示角度が設定されると、設定された表示角度θが0度以外かどうか、同時撮像かどうかが判定される(ステップ1501及び1502)。ステップ1501及び1502で “No”と判定された場合のステップ1510〜ステップ1512の各処理は、実施例1の図8のフローチャートにおけるステップ806〜ステップ808に対応する。ここでは、本実施例の特徴が最も出るケース(ステップ1501及び1502で共に“Yes”と判定されるケース)のステップ1503以降の処理について詳しく説明するものとする。また、以下では、図14で示した多眼カメラ1400を前述の図5で示されるように縦向きに構えて被写体501を撮像して得られた撮像画像データを処理する場合を例に説明する。
ステップ1503において、画像処理部212は、ステップ401で取得した撮像画像データ内の25個の画像ファイルに係る個々の画像を、ステップ402で設定された表示角度θだけ回転させて、角度補正画像データを生成する。
ステップ1504において、画像処理部212は、ステップ401で取得した撮像部配置情報とステップ402で設定された表示角度θに基づいて、生成された角度補正画像データ内の各角度補正画像の配置を変更する。図16は変更された各角度補正画像の配置を示している。矩形内の数字1〜25は撮像部を識別するインデックスnを示しており、その下の括弧書きは対応する撮像部1401〜1425を示している。実施例1に係る図10の(b)の場合と同様、ここでの撮像画像データは、撮像部1401による撮像画像が右上、撮像部1405による撮像画像が右下、撮像部1421による撮像画像が左上、撮像部1425による撮像画像が左下、の配置となることが分かる。
ステップ1505において、画像処理部212は、変更後の配置に対応付けられた画像選択ボタンを含むUI画面を作成し、表示部206に表示する。この場合において、表示部206はタッチスクリーン機能を有し、ユーザによる画像の選択がタッチスクリーンを介して行われるものとする。図17は、25個の画像選択ボタン1701〜1705を含む画像選択領域1700、選択された画像を表示する選択画像表示領域1730、選択された画像の合成画像を表示する合成画像表示領域1740を含むUI画面の一例である。この場合において、画像選択ボタン1701〜1725は、それぞれ撮像部1401〜1425に関連付けられている。ユーザは、画像選択ボタン1701〜1725の中から任意の画像選択ボタンを選んで、選択画像表示領域1730に表示させる角度補正画像を選択する。
ステップ1506において、画像処理部212は、上記UI画面を介してユーザによって選択された画像選択ボタンに対応する角度補正画像を、選択画像表示領域1730に表示する画像(以下、「表示画像」と呼ぶ。)に決定する。例えば、ユーザによって、画像選択ボタン1701、1702、1706、1707が押下された場合には、それらのボタンに関連付けられた撮像部1401、1402、1406、1407に対応する角度補正画像が表示画像として決定される。
ステップ1507において、画像処理部212は、ステップ1503で生成された角度補正画像データ内のすべての角度補正画像を合成し、1の合成画像データ(全合成画像データ)を生成する。ここでの合成処理としては、例えば既知のリフォーカス処理や超解像処理などが適用可能である。
ステップ1508において、画像処理部212は、ステップ1506で決定された表示画像を合成し、1の合成画像データ(選択合成画像データ)を生成する。合成処理の内容はステップ1507と同様である。
ステップ1509において、画像処理部212は、ステップ1506で決定した表示画像をステップ1504で決定した画像配置に従って並べ替え、UI画面上の選択画像表示領域に表示する。さらに、ステップ1507で生成された全合成画像データ及びステップ1508で生成された選択合成画像データを合成画像表示領域1740に表示する。このような合成画像データの表示によって自らが選択した画像の合成結果などを同時に把握することが可能となる。
図18の(a)〜(e)は、それぞれステップ1509におけるUI画面の出力例を示している。これらの図において、画像選択領域1700内の黒塗りの矩形箇所はユーザが選択したことを示しており、当該黒塗りの矩形に対応するように選択画像表示領域1730内に角度補正画像が表示されているのが分かる。なお、図18の例では、全合成画像データが左側の合成画像表示領域1740に、選択合成画像データが右側の合成画像表示領域1740にそれぞれ表示されている。
なお、ステップ1501で“No”(表示角度θ=0度)と判定され、かつ、同時撮像フラグが“1”の場合にも、上記ステップ1505〜ステップ1508の各処理が同様に実行され、図18のようなUI画面で撮像画像データが表示されることになる。
本実施例によれば、撮像時における撮像部の配置に対応付けられた画像選択ボタンによって表示させたい画像をユーザは選択することができ、さらに、選択された一部の撮像画像と撮像部の全体の配置との関係を容易に把握することが可能となる。
[実施例4]
次に、多眼カメラにおける撮像部の配置がN×Nの正方形以外の場合について、実施例4として説明する。なお、実施例1〜3と共通する部分については説明を簡略化ないしは省略し、ここでは差異点を中心に説明することとする。
図19の(a)は、12個の撮像部が直径の異なる2つの同心円上に配置された多眼カメラ1900の正面外観を示した図である。1910は撮像ボタンである。また、図20の(a)は、12個の撮像部がN×M(ここでは、N=3、M=4)の長方形の格子点上に配置された多眼カメラ2000の正面外観を示した図である。2010は撮像ボタンである。多眼カメラ1900及び2000の内部構成や、各処理部の内容については実施例1に準じるのでここでは説明を省略する。
上記のような多眼カメラ1900及び2000を時計方向に90度傾けて撮像した場合の撮像画像データをそのまま(表示角度θ=0度)で出力した場合には、それぞれ図19の(b)及び図20の(b)に示すようなUI画面が表示部206に表示される。なお、両図において括弧内は対応する撮像部を表している。
そして、図19の(c)及び図20の(c)は、表示角度θ=+90度で出力した場合の表示部206に表示されるUI画面を示している。さらに、図21の(a)〜(c)は、上述の多眼カメラ2000と同じ構造の多眼カメラ2100を時計方向に90度傾けて撮像した場合の撮像画像データのうち、黒印の撮像部で撮像されたものを用いなかった場合の出力例を示している。いずれにおいても、撮影画像とそれを撮影した時の撮像部の配置との対応関係が直観的に把握可能になっている。
(その他の実施形態)
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。

Claims (5)

  1. 複数の撮像部を備えた多眼方式の撮像装置で撮像して得られた撮像画像データにより示される複数の画像を処理する画像処理装置であって、
    前記画像の表示領域における表示角度に基づいて、前記複数の撮像部それぞれに対応している各画像の前記表示領域における配置を決定する決定手段を有し、
    前記表示領域における前記各画像の配置は、前記複数の撮像部の配置に基づいて決定される
    ことを特徴とする画像処理装置。
  2. 前記表示領域における表示角度は、前記撮像画像データを撮像する際の前記撮像装置の向きに基づいて決定されることを特徴とする請求項1に記載の画像処理装置。
  3. 前記表示領域における前記各画像の配置は、前記各画像の位置関係が、前記複数の撮像部の位置関係と同じになるように決定されることを特徴とする請求項1又は2に記載の画像処理装置。
  4. 複数の撮像部を備えた多眼方式の撮像装置で撮像して得られた撮像画像データにより示される複数の画像を処理する画像処理方法であって、
    前記画像の表示領域における表示角度に基づいて、前記複数の撮像部それぞれに対応している各画像の前記表示領域における配置を決定するステップを含み、
    前記表示領域における前記各画像の配置は、前記複数の撮像部の配置に基づいて決定される
    ことを特徴とする画像処理方法。
  5. コンピュータを請求項1乃至3のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2012041144A 2012-02-28 2012-02-28 画像処理装置および画像処理方法 Active JP5924978B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012041144A JP5924978B2 (ja) 2012-02-28 2012-02-28 画像処理装置および画像処理方法
US13/768,317 US9307150B2 (en) 2012-02-28 2013-02-15 Image processing device, image processing method, and program for display angle determination
CN201310064423.5A CN103297685B (zh) 2012-02-28 2013-02-28 图像处理装置和图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012041144A JP5924978B2 (ja) 2012-02-28 2012-02-28 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2013179397A true JP2013179397A (ja) 2013-09-09
JP2013179397A5 JP2013179397A5 (ja) 2015-07-09
JP5924978B2 JP5924978B2 (ja) 2016-05-25

Family

ID=49002487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012041144A Active JP5924978B2 (ja) 2012-02-28 2012-02-28 画像処理装置および画像処理方法

Country Status (3)

Country Link
US (1) US9307150B2 (ja)
JP (1) JP5924978B2 (ja)
CN (1) CN103297685B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014107631A (ja) * 2012-11-26 2014-06-09 Nikon Corp 画像生成方法及び装置
WO2019142892A1 (ja) * 2018-01-22 2019-07-25 株式会社小糸製作所 電子ミラー用の撮像装置、電子ミラーシステム、自動車

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
JP5924978B2 (ja) * 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法
EP2865179A4 (en) * 2012-06-20 2016-03-02 Nokia Technologies Oy DISPLAY CAMERA OPERATION
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
KR20150023907A (ko) 2012-06-28 2015-03-05 펠리칸 이매징 코포레이션 결함있는 카메라 어레이들, 광학 어레이들 및 센서들을 검출하기 위한 시스템들 및 방법들
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN107346061B (zh) 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
EP2901671A4 (en) 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
US9001226B1 (en) * 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014145856A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
US9319576B2 (en) 2014-01-29 2016-04-19 Google Technology Holdings LLC Multi-processor support for array imagers
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
CN106612387B (zh) * 2015-10-15 2019-05-21 杭州海康威视数字技术股份有限公司 一种组合深度图获得方法及深度相机
EP3424012A1 (en) * 2016-03-02 2019-01-09 Paul Price Method and apparatus for displaying a collectible
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
WO2021014524A1 (ja) * 2019-07-22 2021-01-28 株式会社Fuji 画像表示装置および画像表示方法
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
EP4066001A4 (en) 2019-11-30 2024-01-24 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229280A (ja) * 2004-02-12 2005-08-25 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2010206495A (ja) * 2009-03-03 2010-09-16 Olympus Medical Systems Corp 電子画像観察装置
JP2011019028A (ja) * 2009-07-08 2011-01-27 Canon Inc 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1188912A (ja) 1997-09-10 1999-03-30 Canon Inc 複眼カメラ及び複眼カメラにおける表示制御方法
CN101674414B (zh) 2005-09-09 2012-04-11 佳能株式会社 摄像设备
US7825958B2 (en) * 2007-01-25 2010-11-02 Research In Motion Limited Method and apparatus for controlling a camera module to compensate for the light level of a white LED
CN101577783A (zh) 2008-05-09 2009-11-11 宏达国际电子股份有限公司 图像画面的处理方法及其电子装置
JP5924978B2 (ja) * 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005229280A (ja) * 2004-02-12 2005-08-25 Fuji Photo Film Co Ltd 画像処理装置および方法並びにプログラム
JP2010206495A (ja) * 2009-03-03 2010-09-16 Olympus Medical Systems Corp 電子画像観察装置
JP2011019028A (ja) * 2009-07-08 2011-01-27 Canon Inc 撮像装置、情報処理装置、撮像装置の制御方法、情報処理装置の制御方法、及びコンピュータプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014107631A (ja) * 2012-11-26 2014-06-09 Nikon Corp 画像生成方法及び装置
WO2019142892A1 (ja) * 2018-01-22 2019-07-25 株式会社小糸製作所 電子ミラー用の撮像装置、電子ミラーシステム、自動車
CN111629931A (zh) * 2018-01-22 2020-09-04 株式会社小糸制作所 电子镜用的摄像装置、电子镜系统、汽车
CN111629931B (zh) * 2018-01-22 2023-09-15 株式会社小糸制作所 电子镜用的摄像装置、电子镜系统、汽车

Also Published As

Publication number Publication date
US9307150B2 (en) 2016-04-05
CN103297685B (zh) 2016-08-03
JP5924978B2 (ja) 2016-05-25
US20130222656A1 (en) 2013-08-29
CN103297685A (zh) 2013-09-11

Similar Documents

Publication Publication Date Title
JP5924978B2 (ja) 画像処理装置および画像処理方法
JP6721065B2 (ja) 撮像装置、画像処理装置および方法
CN107026973B (zh) 图像处理装置、图像处理方法与摄影辅助器材
CN105979123B (zh) 图像处理系统、图像处理方法
CN108600576B (zh) 图像处理装置、方法和系统以及计算机可读记录介质
JP6263623B2 (ja) 画像生成方法及びデュアルレンズ装置
JP6029380B2 (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
JP4341629B2 (ja) 撮像装置、画像処理方法及びプログラム
JP6942940B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5766077B2 (ja) ノイズ低減のための画像処理装置及び画像処理方法
JP2013027021A (ja) 全方位撮像装置及び全方位撮像方法
EP3236415B1 (en) Determining a boundary associated with image data
JP2010199971A (ja) 撮像装置、撮像方法、及びプログラム
KR20150058871A (ko) 촬상 장치 및 촬상 이미지 스티칭 방법
US20150002641A1 (en) Apparatus and method for generating or displaying three-dimensional image
WO2018196854A1 (zh) 一种拍照方法、拍照装置及移动终端
US11825213B2 (en) Removal of image capture device from omnidirectional image created by stitching partial images
US20220230275A1 (en) Imaging system, image processing apparatus, imaging device, and recording medium
JP6012396B2 (ja) 画像処理装置、画像処理方法およびプログラム。
US10051192B1 (en) System and apparatus for adjusting luminance levels of multiple channels of panoramic video signals
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP2013113877A (ja) 立体撮影装置およびそれを用いた携帯端末装置
JP2014003715A (ja) 撮像装置、撮像方法、及びプログラム
JP2014086948A (ja) 撮像装置
JP2012120016A (ja) 端末装置及びその処理方法とプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151208

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160419

R151 Written notification of patent or utility model registration

Ref document number: 5924978

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151