JP2013238927A - 画像処理装置、情報処理装置及び画像処理方法 - Google Patents

画像処理装置、情報処理装置及び画像処理方法 Download PDF

Info

Publication number
JP2013238927A
JP2013238927A JP2012109898A JP2012109898A JP2013238927A JP 2013238927 A JP2013238927 A JP 2013238927A JP 2012109898 A JP2012109898 A JP 2012109898A JP 2012109898 A JP2012109898 A JP 2012109898A JP 2013238927 A JP2013238927 A JP 2013238927A
Authority
JP
Japan
Prior art keywords
image
images
viewpoint images
processing apparatus
development
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012109898A
Other languages
English (en)
Other versions
JP6019729B2 (ja
Inventor
Norihisa Ito
功久 井藤
Kengo Hayasaka
健吾 早坂
Masahiro Takada
将弘 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012109898A priority Critical patent/JP6019729B2/ja
Priority to CN201380021885.7A priority patent/CN104255026B/zh
Priority to PCT/JP2013/002761 priority patent/WO2013168381A1/en
Priority to US14/397,540 priority patent/US20150124052A1/en
Priority to CN201810637286.2A priority patent/CN108833882A/zh
Priority to TW102114901A priority patent/TW201401220A/zh
Publication of JP2013238927A publication Critical patent/JP2013238927A/ja
Application granted granted Critical
Publication of JP6019729B2 publication Critical patent/JP6019729B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】ユーザの意図に即した画像を生成することができる画像処理装置、情報処理装置及び画像処理方法を提供する。
【解決手段】本技術の一形態に係る画像処理装置は、補間処理部と、記憶部と、現像処理部とを具備する。上記補間処理部は、複数の視点画像に基づいて、上記複数の視点画像を補間する複数の補間画像を生成する。上記記憶部は、複数の現像パラメータを記憶する。上記現像処理部は、上記複数の視点画像および上記複数の補間画像各々における光線ベクトルと上記複数の現像パラメータから選択されたパラメータとを用いて、被写体画像を現像する。
【選択図】図14

Description

本技術は、例えば、複数の視点画像を処理することで所望とする画質の画像データを生成する画像処理装置、情報処理装置及び画像処理方法に関する。
近年、様々な撮像装置及び画像処理装置が提案されている。例えば下記特許文献1には、多視点からの撮像データに基づいて、被写体の任意の焦点に設定された再構築画像(リフォーカス画像)を生成することができる撮像装置が記載されている。また、例えば下記特許文献2には、取得した複数の視点画像から補間画像を生成する画像処理装置が記載されている。
特開2010−183316号公報 特開2011−139209号公報
近年におけるカメラの軽量化、小型化、薄型化が進む一方で、例えば撮影画像の高画質化等、ユーザの希望を満たした画像を取得できる技術が求められている。
以上のような事情に鑑み、本技術の目的は、ユーザの意図に即した画像を生成することができる画像処理装置、情報処理装置及び画像処理方法を提供することにある。
以上の目的を達成するため、本技術の一形態に係る画像処理装置は、補間処理部と、記憶部と、現像処理部とを具備する。
上記補間処理部は、複数の視点画像に基づいて、上記複数の視点画像を補間する複数の補間画像を生成する。
上記記憶部は、複数の現像パラメータを記憶する。
上記現像処理部は、上記複数の視点画像および上記複数の補間画像各々における光線ベクトルと上記複数の現像パラメータから選択されたパラメータとを用いて、被写体画像を現像する。
上記画像処理装置によれば、大量の視点画像を用いたときと同様の画像生成が可能となる。これによりユーザの意図に即した被写体画像を容易に生成することができる。
上記記憶部には、上記複数の現像パラメータに相当する複数種の光学系が記憶されてもよい。この場合、上記現像処理部は、上記記憶部に記憶された上記複数種の光学系の中から1つの光学系を選択し、選択された光学系に上記光線ベクトルを入射させたときに取得される画像を上記被写体画像として生成する。
現像パラメータは例えばユーザにより選択される。これによりユーザの希望に合致した被写体画像を生成することができる。
上記補間処理部は、上記複数の視点画像に基づいて、被写体像のデプス情報を取得し、上記複数の視点画像と上記デプス情報とに基づいて、上記複数の補間画像を生成してもよい。これにより高画質の被写体画像を生成することができる。
上記画像処理装置は、通信部をさらに具備してもよい。上記通信部は、外部の情報処理装置から上記複数の視点画像を受信し、上記情報処理装置へ上記被写体画像を送信することが可能に構成される。このように演算負荷の大きい被写体画像の現像処理を上記情報処理装置とは別に実行することで、当該情報処理装置の負荷の軽減を図ることができる。
この場合、上記現像処理部は、上記通信部を制御することで、上記複数の現像パラメータの選択候補を上記情報処理装置へ送信し、かつ、選択された上記選択候補を上記情報処理装置から受信するように構成されてもよい。これにより、例えば、ユーザに対して利便性の高い現像サービスの提供が可能となる。
上記選択候補は、上記光学系を構成するレンズに関する情報、フォーカス位置及び絞り値の少なくとも1つを含んでもよい。これにより、ユーザに対してより利便性の高い現像サービスの提供が可能となる。
本技術の一形態に係る情報処理装置は、撮像部と、制御部とを具備する。
上記撮像部は、複数の視点画像を撮像可能に構成される。
上記制御部は、上記複数の視点画像に基づいて上記複数の視点画像を補間する複数の補間画像を生成し、上記複数の視点画像および上記複数の補間画像各々における光線ベクトルと、予め選択された現像パラメータとを用いて、被写体画像を現像する。
本技術の他の形態に係る情報処理装置は、通信部と、制御部とを具備する。
上記通信部は、サーバと通信可能に構成される。
上記制御部は、複数の視点画像とユーザによって選択された現像パラメータとをサーバへ送信するように上記通信部を制御可能である。上記制御部は、上記複数の視点画像および上記複数の視点画像を補間する複数の補間画像各々における光線ベクトルと、上記選択された現像パラメータとを用いて、上記サーバが生成した被写体画像を、上記サーバから受信するように上記通信部を制御可能である。
上記情報処理装置は、上記複数の視点画像を取得可能な撮像部をさらに具備してもよい。これにより、例えば撮影現場においてユーザの意図に即した画質の被写体画像を得ることができる。
本技術の一形態に係る画像処理方法は、多視点カメラを用いて複数の視点画像を取得することを含む。
上記複数の視点画像に基づいて、上記複数の視点画像を補間する複数の補間画像が生成される。
現像パラメータが選択される。
上記複数の視点画像および上記複数の補間画像各々における光線ベクトルと、選択された上記現像パラメータとを用いて、被写体画像が現像される。
以上のように、本技術によれば、ユーザの意図に即した被写体画像を容易に生成することができる。
本技術の一実施形態におけるシステムの構成の概略を示す図である。 上記システムにおけるサーバのハードウェア構成を示した図である。 上記システムにおけるネットワーク端末のハードウェア構成を示したブロック図である。 上記システムにおける撮像装置を構成するカメラモジュールの一構成例を示す概略斜視図である。 上記撮像装置を構成するカメラアレイの概略斜視図である。 上記サーバが有するソフトウェアモジュールの構成を示したブロック図である。 上記カメラアレイにより取得される複数の視点画像を示す図である。 上記サーバにより生成される補間画像の一例を示す図である。 仮想的なレンズアレイを説明する概略斜視図である。 上記カメラアレイ単独で取得される各視点画像の光線ベクトルを示す概略図である。 上記複数の視点画像と複数の補間画像の光線ベクトルを有する仮想空間を示す概略図である。 図11に示した仮想空間に現像パラメータとなる光学系を配置した概念図である。 上記光学系に入射した光線ベクトルを仮想イメージセンサでサンプリングする様子を示す概念図である。 サーバの基本的な処理手順を示すフローチャートである。 上記システムにおけるサーバ、ネットワーク端末及び撮像装置の基本的な動作の流れを示したシーケンス図である。 上記サーバ、ネットワーク端末及び撮像装置の処理フローを示すフローチャートである。 上記サーバ及びネットワーク端末の処理フローを示すフローチャートである。 上記サーバにより生成されるプレビュー画像及び現像パラメータの一例を示す模式図である。 本技術の他の実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
[システムのネットワーク構成]
図1は、本技術の一実施形態におけるシステムの構成の概略を示す図である。
同図に示すように、このシステムは、クラウド上のサーバ100と、ユーザのネットワーク端末200と、撮像装置300とを有する。
ネットワーク端末200は、典型的には、パーソナルコンピュータ(PC:Personal Computer)、スマートフォン、携帯電話機、タブレットPC、PDA(Personal Digital Assistant)等の情報処理装置である。
撮像装置300は、静止画を撮影するデジタルスチルカメラ、動画を撮影するデジタルビデオカメラである。特に本実施形態では、撮像装置300は、被写体の複数の視点画像を取得可能なカメラアレイを備える。
ネットワーク端末200と撮像装置300とは有線又は無線で通信可能であり、撮像装置300で取得された被写体の撮像データがネットワーク端末200に送信可能である。ネットワーク端末200と撮像装置300は、これらが一体となった携帯端末400(図1)であってもよい。
サーバ100とネットワーク端末200、あるいは、サーバ100と携帯端末400とは、インターネット50等のネットワークにより互いに通信可能とされている。
本システムにおいて、ネットワーク端末200のユーザは、サーバ100が提供する現像処理システムを利用可能である。サーバ100は、後述するように、ネットワーク端末200から送信される複数の視点画像データを基に、被写体画像を現像処理する等の画像処理装置としての機能を有する。
[サーバのハードウェア構成]
図2は、サーバ100のハードウェア構成を示した図である。
同図に示すように、サーバ100は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、入出力インターフェース105、及び、これらを互いに接続するバス104を備える。
CPU101は、必要に応じてRAM103等にアクセスし、各種演算処理を行いながらサーバ100の各ブロック全体を統括的に制御する制御部として機能する。ROM102は、CPU101に実行させるOS、プログラムや各種パラメータなどのファームウェアが固定的に記憶されている不揮発性のメモリである。RAM103は、CPU101の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一次的に保持する。
入出力インターフェース105には、表示部106、操作受付部107、記憶部108、通信部109等が接続される。
表示部106は、例えばLCD(Liquid Crystal Display)、OELD(Organic Electro-Luminescence Display)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。操作受付部107は、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の入力装置である。操作受付部107がタッチパネルである場合、そのタッチパネルは表示部106と一体となり得る。
記憶部108は、例えばHDD(Hard Disk Drive)やフラッシュメモリ(SSD:Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。当該記憶部108には、上記OSや各種アプリケーション、各種データが記憶される。特に本実施形態では、記憶部108には、ネットワーク端末200(又は携帯端末400)から受信した被写体の複数の視点画像データが格納される。また、記憶部108は、現像処理に必要な複数の現像パラメータに相当する複数種の光学系を記憶する。
通信部109は、インターネット50やLANに優先接続するためのNICや、無線通信用のモジュールであり、ネットワーク端末200(又は携帯端末400)との間の通信処理を担う。通信部109は、ネットワーク端末200(又は携帯端末400)から上記複数の視点画像を受信し、ネットワーク端末200(又は携帯端末400)へ現像した被写体画像を送信する。
[ネットワーク端末のハードウェア構成]
図3は、ネットワーク端末200のハードウェア構成を示したブロック図である。
同図に示すように、ネットワーク端末200は、CPU201、RAM202、不揮発性メモリ203、表示部204及び通信部205を有する。
CPU201は、必要に応じてRAM202等にアクセスし、各種演算処理を行いながらネットワーク端末200の各ブロック全体を統括的に制御する。RAM202は、CPU201の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一次的に保持する。
不揮発性メモリ203は、例えばフラッシュメモリやROMであり、CPU201に実行させるOS、プログラム(アプリケーション)や各種パラメータなどのファームウェアを固定的に記憶する。また不揮発性メモリ203は、撮像装置300により撮像された静止画像データ(写真データ)や動画像データを記憶する。写真データには、撮像装置300を構成する多視点カメラにより取得された複数の視点画像データ等が含まれる。
表示部204は、例えばLCDやOELDであり、各種メニューやアプリケーションのGUI等を表示する。典型的には、表示部204は、タッチパネルと一体とされており、ユーザのタッチ操作を受け付け可能である。
通信部205は、WiFi(Wireless Fidelity)等の無線LAN(IEEE802.11等)や移動通信用の3Gや4Gのネットワークを用いて、サーバ100や撮像装置300、近隣の他の携帯端末等と通信する。
[撮像装置の構成]
撮像装置300は、複数のカメラモジュールを同一平面内にマトリクス状に配列したカメラアレイ(多視点カメラ)で構成される。図4は、カメラモジュール310の一構成例を示す概略斜視図であり、図5は、複数のカメラモジュール310を有するカメラアレイ320の概略斜視図である。
カメラモジュール310は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)センサ等の固体撮像素子で構成される。図5には、画角θ度のカメラモジュール310が同一平面内に9個配列された例が示されるが、カメラモジュール210の配列個数は勿論これに限られない。以下の説明では、図5に示すように9つのカメラモジュールをそれぞれカメラ11、カメラ12、カメラ13、カメラ21、カメラ22、カメラ23、カメラ31、カメラ32及びカメラ33とも称する。
撮像装置300は、個々のカメラモジュール310で被写体を同時に撮影することで、複数のカメラモジュール310各々の位置に応じた被写体の複数の視点画像を取得する。取得したこれらの視点画像データは、ネットワーク端末200の通信部205を介して不揮発性メモリ203に格納され、あるいは通信部205を介してサーバ100へ送信される。
なお、ネットワーク端末200と撮像装置300とが一体となった携帯端末400のハードウェア構成としては、図3に示すように上記カメラアレイを内蔵する撮像部206が追加される。
[サーバのソフトウェアモジュール構成]
図6は、サーバ100が有するソフトウェアモジュールの構成を示したブロック図である。同図に示すように、サーバ100は、通信制御部111、補間処理部112、現像処理部113等を有する。
通信制御部111は、通信部109と協働して、ネットワーク端末200(又は携帯端末400)との間で各種情報をやり取りする。特に通信制御部111は、ネットワーク端末200(又は携帯端末400)から送信される被写体画像情報や各種現像パラメータの入力を受け付ける。また通信制御部111は、Webサーバにおけるフロントエンドと同様の機能を有してもよく、例えば、メインページの出力等の基本的なWeb動作を担当してもよい。
(補間処理部)
補間処理部112は、ネットワーク端末200(又は携帯端末400)から送信された複数の視点画像に基づいて、これら複数の視点画像を補間する複数の補間画像を生成する。補間処理部112は、隣り合う2つの視点画像から間の画像を補間技術により生成する。
図7は、撮像装置300又は携帯端末の撮像部206に設けられたカメラアレイ220により取得される複数の視点画像を示す。カメラ画像11はカメラ11からの視点画像であり、カメラ画像12はカメラ12からの視点画像であり、カメラ画像13はカメラ13からの視点画像である。以下同様に、カメラ画像21、カメラ画像22、カメラ画像23、カメラ画像31、カメラ画像32及びカメラ画像33はそれぞれ、カメラ21、カメラ22、カメラ23、カメラ31、カメラ32及びカメラ33からの視点画像である。
補間処理部112は、これら複数のカメラ画像の間に位置する複数の補間画像を生成する。すなわち補間処理部112は、カメラ画像11とカメラ画像12とを結ぶ直線上に位置する補間画像02を生成する。同様に、補間処理部112は、カメラ画像11とカメラ画像22とを結ぶ直線上に位置する補間画像08を生成する。補間画像27は、補間画像25と補間画像29、あるいは、補間画像02と補間画像35とが生成された後、生成される。
以上のようにして補間処理部112は、図8に示すように、カメラ画像11〜33の間を補間する複数の補間画像01〜補間画像72を生成する。上記の例では、補間処理部112がカメラ間に補間画像を3枚ずつ生成する例が説明されたが、補間画像の数はこの例に限られない。補間画像の数は、最終的に生成される被写体画像の画質や品質、あるいは演算時間、演算コスト等を考慮して自由に設定される。
補間画像01〜072を生成することによって、図9に示すような多数のカメラモジュールを有するカメラアレイ330で撮影したときに近い画像情報(光線情報)を、僅かなカメラモジュール数のカメラアレイ220で得ることができる。ここで、1枚の被写体画像の解像度を横aピクセル、縦bピクセルとし、そのような画像がm行n列得られたとすると、角度や通過位置の異なる光線情報が、a×b×m×nの数だけサンプリングできたことになる。
補間画像の生成方法は、特に限定されない。本実施形態では、補間処理部112は、複数の視点画像に基づいて、被写体像のデプス情報(奥行き情報)を取得し、複数の視点画像とデプス情報とに基づいて、複数の補間画像を生成する。
デプス情報は、1つの視点画像において、その左右や上下で複数のステレオマッチングを行うことで取得される。ステレオマッチングは、ある方向(例えば水平方向)に沿って視差の異なる複数の視点画像を用いた画像処理によって画像の奥行き情報を取得する距離算出用のアルゴリズムをいう。具体的には、2つの視点画像同士を局所領域で逐次比較していくことにより、視点画像間の位相差(ディスパリティ)を求め、この位相差に基づいて距離を算出する。デプス情報の取得方法はこの例に限られず、他のブロックマッチング法が採用されてもよい。
(現像処理部)
現像処理部113は、複数の視点画像および複数の補間画像各々における光線ベクトルと、複数の現像パラメータから選択されたパラメータとを用いて、被写体像を現像(再構築)する。
カメラアレイ320で取得された複数の視点画像と、補間処理部112で生成された複数の補間画像とには、被写体像の各々の視点からの光学ベクトル情報が含まれている。図10は、カメラアレイ320単独で取得される各視点画像の光線ベクトル410を示す概略図であり、図11は、複数の視点画像と、補間処理により生成された複数の補間画像の光線ベクトル420を有する仮想空間を示す概略図である。
現像処理部113は、これらの光線ベクトル情報と、ユーザによって選択された現像パラメータとを用いた光学シミュレーションを実行することで、被写体像を生成する。光学シミュレーションの実行プラグラムやユーザによって選択可能な複数種の現像パラメータは、サーバ100の記憶部108に格納されている。
記憶部108は、複数の現像パラメータに相当する複数種の光学系を記憶する。現像パラメータとしては、レンズの設計情報(レンズ形状、配置、材質、コーティング等)、フィルタ、フォーカス位置、絞り値、ホワイトバランス、露出補正値などが含まれ、これらのうちの1つ又は複数のパラメータがユーザによって選択される。これにより、ユーザの意図した現像条件で被写体像の現像が可能となる。
上述のように記憶部108は、複数の現像パラメータに相当する複数種の光学系を記憶する。現像処理部113は、記憶部108に記憶された複数種の光学系の中から1つの光学系を選択し、選択された光学系に光線ベクトルを入射させたときに取得される画像を被写体画像として生成する。
図12は、光線ベクトル420を有する仮想空間に現像パラメータとなる光学系(仮想レンズ430、絞り431)を配置した概念図である。図13は、光学系430,431に入射した光線ベクトル420を仮想イメージセンサ440でサンプリングする様子を示す概念図である。
例えば、ある一眼レフカメラ用に開発された交換レンズの光学設計情報があれば、その交換レンズの開口面に降り注ぎ、内部に侵入する光線のみをa×b×m×nの光線情報から選択し、それらの光線が最終的に仮想の撮像素子のどの位置に到達するかを光学シミュレーションにより求める。仮想の撮像素子で検出される各ピクセルの色と輝度は、各々のピクセルに到達した光線や、その周辺に到達した光線から確率的類推により求める。このように高密度の光線情報があれば、撮影後に何度でも任意のレンズでフォーカス位置や絞りを変更して仮想的な撮影が行えることになるとともに、現像パラメータを変えた画像の再構築が可能となる。
現像パラメータは、ユーザの指示により決定される。本実施形態において現像処理部113は、通信部109を制御することで、複数の現像パラメータの選択候補をネットワーク端末200(又は携帯端末400)へ送信し、かつ、選択された選択候補をネットワーク端末200(又は携帯端末400)から受信する。
(サーバの処理手順のまとめ)
図14は、サーバ100の基本的な処理手順を示すフローチャートである。
サーバ100は、ネットワーク端末200(又は携帯端末400)から複数の視点画像を受信するステップ(ST11)と、画像の奥行き(デプス)情報を取得するステップ(ST12)と、補間画像を生成するステップ(ST13)と、被写体画像を現像し、ネットワーク端末200(又は携帯端末400)へ送信するステップ(ST14)とを有する。補間画像を生成するステップは、複数の視点画像に基づいて、複数の視点画像を補間する複数の補間画像を生成する。被写体像の現像ステップは、複数の視点画像および複数の補間画像各々における光線ベクトルと、選択された現像パラメータとを用いて、被写体画像を現像する。
[システムの動作]
次に、以上のように構成されたシステムの詳細を、サーバ100、ネットワーク端末200及び撮像装置300の動作とともに説明する。本実施形態において、サーバ100及びネットワーク端末200における動作は、CPUと、その制御下において実行される上記各ソフトウェアモジュールとで協働して行われる。
図15は、サーバ100、ネットワーク端末200及び撮像装置300の基本的な動作の流れを示したシーケンス図である。図16は、サーバ100、ネットワーク端末200及び撮像装置300の処理フローを示すフローチャートであり、図17は、サーバ100及びネットワーク端末200の処理フローを示すフローチャートである。
撮像装置300は、ユーザによりシャッタが押されたかどうかを判定し(ステップ301)、シャッタが押されるとカメラアレイ320によってN視点(本実施形態では9視点)の被写体画像を同時に撮影する(ステップ302)。
続いて撮像装置300は、取得された複数の視点画像を隣り合う視点画像間の相関を利用して圧縮し(ステップ303)、更に、ネットワーク端末200へ画像転送要求を有線又は無線で送信する(ステップ304)。画像転送要求の送信は、ネットワーク端末200において当該転送要求が受理されるまで繰り返される(ステップ305)。
ネットワーク端末200は、通信部205を介して、撮像装置300からの画像転送要求を受信する。ネットワーク端末200は、当該画像転送要求を受信したとき、撮像装置に転送許可を送信する(ステップ401,402)。撮像装置300は、ネットワーク端末200からの転送許可を受信した後、ネットワーク端末200に圧縮画像を有線又は無線で送信する(ステップ306)。撮像装置300は、電源オフ操作を受けるまで上記処理を実行する(ステップ307)。
ネットワーク端末200は、通信部205を介して、撮像装置300から複数の視点画像の圧縮画像を受信する(ステップ403)。ネットワーク端末200は、受信した圧縮画像を不揮発性メモリ203へ格納する。ネットワーク端末200は、通信部205を介して、サーバ100へ上記圧縮画像をアップロード(送信)する(ステップ404)。
視点画像の圧縮処理は、例えば、動画圧縮のアルゴリズムを利用することができる。撮像装置300で取得された複数の視点画像は、圧縮せずに、ネットワーク端末200へ送信されてもよい。視点画像を圧縮することで、ネットワーク端末200へ送信されるデータ量を抑えることができる。また、圧縮画像の生成は、ネットワーク端末200で行ってもよい。これにより撮像装置300の処理負荷を低減することができる。
一方、サーバ100は、通信部109を介して記憶部108へ圧縮画像がアップロードされたかどうかを判定する(ステップ501)。サーバ100は、アップロードされた圧縮画像を確認後、当該圧縮画像を解凍して元のN視点の視点画像に戻し、記憶部108へ格納する(ステップ502)。
次にサーバ100は、ネットワーク端末200の表示部204に表示するための低解像度のプレビュー画像を生成する(ステップ503)。プレビュー画像は、ネットワーク端末200から送信されたN視点の視点画像を基に生成される。サーバ100は、プレビュー画像の生成後、通信部205を介して、ネットワーク端末200へプレビュー画像が用意できたことを送信する(ステップ504)。
ネットワーク端末200は、サーバ100へ圧縮画像を送信した後、サーバ100においてプレビュー画像が生成されたかどうかを確認する(ステップ405)。ネットワーク端末200は、サーバ100からのプレビュー画像の送信用意完了の通知を受けて、サーバ100からプレビュー画像を受信する(ステップ406)。受信されたプレビュー画像は、ネットワーク端末200の表示部204に表示され、ユーザにより、現像される画像の確認が行われる。
プレビュー画像は、上述のようにサーバ100で生成される場合に限られず、例えば、ネットワーク端末200で生成されてもよい。また、プレビュー画像は、1枚だけ生成されてもよいし、現像パラメータを変えた幾つかのサンプル画像が生成されてもよい。
サーバ100は、プレビュー画像の送信時又は送信後に、現像パラメータをネットワーク端末200に送信し、ネットワーク端末200は、送信された現像パラメータを表示部204に表示する(ステップ407)。これにより、ユーザに対して利便性の高い現像サービスの提供が可能となる。
現像パラメータは、例えば、プレビュー画像の重畳されたGUI(Graphical User Interface)であってもよい。ネットワーク端末200は、ユーザによる選択操作を受けて、ユーザの意図する現像パラメータを設定する(ステップ408)。プレビュー画像として複数のサンプル画像が用意されている場合、ネットワーク端末200は、選択された現像パラメータに近いプレビュー画像に表示画面を変更してもよい(ステップ409)。現像パラメータの設定が完了した後、ネットワーク端末200は、サーバ100へ当該現像パラメータを送信する(ステップ410,411)。
図18は、表示部204に表示されたプレビュー画像Pv及び現像パラメータの一例を示す模式図である。この例では、表示部204は、タッチパネルを有し、ユーザUのタッチ操作によって現像パラメータの選択が可能に構成される。現像パラメータとしては、レンズユニットの選択候補DL、絞り形状の選択候補DA、フォーカス位置設定部DF等が表示される。
レンズユニットの選択候補DLは、現像に使用可能な幾つかの光学レンズユニットのプロファイルデータが図形表示され、ユーザUのタッチ操作により選択される。絞り形状の選択候補DAは、現像に使用可能な幾つかの絞り形状が図形表示され、ユーザUのタッチ操作により選択される。フォーカス位置設定部DFは、設定バーFbを図において上下方向に移動させることで、画像内におけるフォーカス位置を設定する。フォーカス位置は、画面内におけるユーザUのタッチ位置で設定されてもよい。この場合、タッチ位置に連動して設定バーが移動してもよい。
レンズユニットの選択候補DLは、現在流通しているレンズユニットだけでなく、希少価値の高い幻のレンズや、物理的に作り得ない仮想的なレンズなど様々なプロファイルデータが用意可能である。そこで、利用者が魅力を感じる特殊なレンズで画像の再構築を行う場合には、そのプロファイルデータの利用料を徴収するようにしてもよい。
現像パラメータの選択画像(DL,DA,DF)は、表示部204の画面内のどの位置に表示されてもよい。また現像パラメータとして、ホワイトバランスや露出補正値等を調整可能なGUIが共に表示されてもよい。あるいは、現像パラメータの中には、有料のパラメータが設定されてもよい。さらに、現像パラメータの選択は、ユーザによるタッチ操作で行われる場合に限られず、マウス操作により画面内を移動するポインタの移動及び選択操作で行われてもよい。
一方、ネットワーク端末200は、選択した現像パラメータとは異なる現像パラメータで被写体画像の生成をユーザが要求する場合、設定された現像パラメータとは異なる現像パラメータの選択を受け付けてもよい(ステップ412)。この場合、新しく設定された現像パラメータが、上述した処理を経てサーバ100へ送信される(ステップ408〜411)。
サーバ100は、ネットワーク端末200から現像パラメータを受信した後、当該現像パラメータに従って高解像度の最終画像を生成する(ステップ506)。最終画像の生成には、図14に示したようにデプス情報取得、補間画像生成の各工程(ステップ12,13)と、視点画像及び補間画像における光線ベクトル情報と選択された現像パラメータとを用いた被写体像の現像工程(ステップ14)を経て、生成される。すなわちサーバ100は、アップロードされた複数の視点画像を補間処理して高密度の光線情報に変換し、更に、設定されたレンズのプロファイルデータ等の現像パラメータを用いた光学シミュレーションを実行し、最終画像を生成する。
サーバ100は、最終画像(被写体画像)が生成できたことをネットワーク端末200へ通知する(ステップ507)。ネットワーク端末200は、サーバ100からの当該通知を受けて、生成された最終画像をダウンロードする(ステップ414,415)。ネットワーク端末200は、ダウンロードした最終画像を表示部204へ表示し、ユーザに画像の鑑賞を可能とする(ステップ416)。ネットワーク端末200は更にユーザへ当該画像の保存の要否を確認する(ステップ417)。保存の要否の選択は、表示部204に表示させてもよい。
ネットワーク端末200は、ユーザにより選択された現像パラメータが有料の現像パラメータである場合は、表示部204に課金の承諾を求めるメッセージを表示する(ステップ418,419)。ユーザが課金に承諾した場合、必要な電子決済処理を済ませて、ダウンロードした最終画像をネットワーク端末200の不揮発性メモリ203又はサーバ100の記憶部108へ保存する(ステップ421)。一方、現像パラメータが課金対象のものでなければ、料金を徴収することなく、上記保存処理が実行される。
サーバ100は、異なる種類の現像パラメータが再受信した場合、上述の処理を再実行して最終画像を生成する(2回目の現像)。この場合、ネットワーク端末200は上述の処理を再実行して、必要に応じた最終画像の保存、電子決済処理を実行する。
以上のように本実施形態において、サーバ100は、補間処理部112と現像処理部113とを有する画像処理装置として構成される。上記画像処理装置によれば、大量の視点画像を用いたときと同様の画像生成が可能となる。これによりユーザの意図に即した被写体画像を容易に生成することができる。
本実施形態においては、クラウド上のサーバ100を利用して、撮像装置300で撮影した被写体像を現像するようにしている。これにより、サーバ100で行われる補間処理や現像処理といった膨大な演算処理が撮像装置において不要となり、撮像装置の低コスト化、低消費電力化を実現することができる。また、撮像装置300と、ビューアの役目を果たすネットワーク端末200とを分離したので、持ち運びの容易な撮像装置を用いた柔軟な撮影が可能となる。
本実施形態によれば、被写体の撮影後に、フォーカスの位置や絞りを設定できるため、ピントがぼけたり、被写界深度の設定にミスがあったりした場合でも、ユーザの意図する高画質の被写体画像を得ることができる。
本実施形態によれば、現像に必要な現像パラメータがサーバ100に複数用意されているため、重くて嵩張る交換レンズを持ち歩かなくても、撮影後に幾つもの交換レンズで撮影したのと同様の画像を取得することができる。さらに、撮像装置300に重くて嵩張るレンズユニットを装備する必要がなくなるため、小型、軽量、薄型の撮像装置でも高画質の写真撮影が可能となる。
図19は、本技術の他の実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
本実施形態では、第1の実施形態で説明したシステムを一台の情報処理装置500で構成した例を説明する。情報処理装置500は、撮像部510、表示部520、記憶部530、通信部540及びCPU550を有する。
撮像部510は、第1の実施形態で説明した撮像装置300あるいは撮像部206に相当し、複数の視点画像を撮像可能な多視点カメラを有する。
表示部520は、撮像部510で取得された複数の視点画像を基に生成される被写体のプレビュー画像の表示、現像パラメータの設定、CPU550の演算処理により生成される被写体像の最終画像の表示等に用いられる。
記憶部530は、撮像部510で取得された複数の視点画像、複数の現像パラメータ、CPU550の演算処理により生成される補間画像及び最終画像等を記憶する。記憶部530に格納される現像パラメータは、通信部540を介してダウンロードされてもよいし、現像パラメータを格納したメモリーカードから読み出されてもよい。
通信部540は、ネットワーク上のサーバ装置や外部のネットワーク端末との通信が可能に構成される。
CPU550は、撮像部510、表示部520、記憶部530、通信部540の動作を制御する。CPU550は、上記複数の視点画像に基づいて当該複数の視点画像を補間する複数の補間画像を生成する。CPU550は、上記複数の視点画像および上記複数の補間画像各々における光線ベクトルと、記憶部530に記憶されユーザにより選択された現像パラメータとを用いて、被写体画像を現像する。CPU550における視点画像の補間処理、現像処理等は、上述の第1の実施形態において説明したサーバ100の処理と同様であるため、ここでは説明を省略する。
本実施形態の情報処理装置500においても、上述の第1の実施形態と同様の作用効果を得ることができる。
以上、本技術の実施形態について説明したが、本技術は上述の実施形態にのみ限定されるものではなく、本技術の要旨を逸脱しない範囲内において種々変更を加え得ることは勿論である。
例えば以上の実施形態では、プレビュー画像としてN視点の視点画像を用いた低解像度のプレビュー画像が生成されたが、補間処理実行後の高解像度の画像データを用いて当該プレビュー画像が生成されてもよい。
また、現像パラメータの設定方法として、GUIを用いた選択操作に限られず、数値の入力操作を伴うアナログ的なパラメータ設定も可能である。
また、サーバ100の記憶部108に格納される現像パラメータのレンズ設計情報について、汎用的に用いられるレンズ設計情報はクラウドサーバ100で管理し、ネットワーク端末200ではレンズの名称または型番で管理、選択されてもよい。
さらに、レンズの設計情報をメモリーカードに記録しておき、当該メモリーカードを撮像装置300またはネットワーク端末200に挿入することで、必要な現像パラメータを設定するようにしてもよい。
以上の実施形態では、複数の視点画像からユーザの指定した光学系で被写体画像を再構築する例を説明したが、複数の視点画像から3次元(3D)画像を生成してもよい。
また以上の実施形態では、視点画像の補間処理及び現像処理をサーバ100で行うようにしたが、これに限られず、上記視点画像の補間処理及び現像処理をネットワーク端末200で行ってもよい。
なお、本技術は以下のような構成も採ることができる。
(1)複数の視点画像に基づいて、前記複数の視点画像を補間する複数の補間画像を生成する補間処理部と、
複数の現像パラメータを記憶する記憶部と、
前記複数の視点画像および前記複数の補間画像各々における光線ベクトルと前記複数の現像パラメータから選択されたパラメータとを用いて、被写体画像を現像する現像処理部と
を具備する画像処理装置。
(2)上記(1)に記載の画像処理装置であって、
前記記憶部は、前記複数の現像パラメータに相当する複数種の光学系を記憶し、
前記現像処理部は、前記記憶部に記憶された前記複数種の光学系の中から1つの光学系を選択し、選択された光学系に前記光線ベクトルを入射させたときに取得される画像を前記被写体画像として生成する
画像処理装置。
(3)上記(1)又は(2)に記載の画像処理装置であって、
前記補間処理部は、前記複数の視点画像に基づいて、被写体像のデプス情報を取得し、前記複数の視点画像と前記デプス情報とに基づいて、前記複数の補間画像を生成する
画像処理装置。
(4)上記(1)〜(3)のいずれか1つに記載の画像処理装置であって、
情報処理装置から前記複数の視点画像を受信し、前記情報処理装置へ前記被写体画像を送信することが可能な通信部をさらに具備する
画像処理装置。
(5)上記(4)に記載の画像処理装置であって、
前記現像処理部は、前記通信部を制御することで、前記複数の現像パラメータの選択候補を前記情報処理装置へ送信し、かつ、選択された前記選択候補を前記情報処理装置から受信する
画像処理装置。
(6)上記(5)に記載の画像処理装置であって、
前記選択候補は、前記光学系を構成するレンズに関する情報、フォーカス位置及び絞り値の少なくとも1つを含む
画像処理装置。
(7)複数の視点画像を撮像可能な撮像部と、
前記複数の視点画像に基づいて前記複数の視点画像を補間する複数の補間画像を生成し、前記複数の視点画像および前記複数の補間画像各々における光線ベクトルと、予め選択された現像パラメータとを用いて、被写体画像を現像する制御部と
を具備する情報処理装置。
(8)サーバと通信可能な通信部と、
複数の視点画像とユーザによって選択された現像パラメータとをサーバへ送信し、
前記複数の視点画像および前記複数の視点画像を補間する複数の補間画像各々における光線ベクトルと、前記選択された現像パラメータとを用いて、前記サーバが生成した被写体画像を、前記サーバから受信する
ように前記通信部を制御可能な制御部と
を具備する情報処理装置。
(9)上記(8)に記載の情報処理装置であって、
前記複数の視点画像を取得可能な撮像部をさらに具備する
情報処理装置。
(10)多視点カメラを用いて複数の視点画像を取得し、
前記複数の視点画像に基づいて、前記複数の視点画像の間を補間する複数の補間画像を生成し、
現像パラメータを選択し、
前記複数の視点画像および前記複数の補間画像各々における光線ベクトルと、選択された前記現像パラメータとを用いて、被写体画像を現像する
画像処理方法。
100…サーバ
108…記憶部
112…補間処理部
113…現像処理部
200…ネットワーク端末
300…撮像装置
500…情報処理装置

Claims (10)

  1. 複数の視点画像に基づいて、前記複数の視点画像を補間する複数の補間画像を生成する補間処理部と、
    複数の現像パラメータを記憶する記憶部と、
    前記複数の視点画像および前記複数の補間画像各々における光線ベクトルと前記複数の現像パラメータから選択されたパラメータとを用いて、被写体画像を現像する現像処理部と
    を具備する画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記記憶部は、前記複数の現像パラメータに相当する複数種の光学系を記憶し、
    前記現像処理部は、前記記憶部に記憶された前記複数種の光学系の中から1つの光学系を選択し、選択された光学系に前記光線ベクトルを入射させたときに取得される画像を前記被写体画像として生成する
    画像処理装置。
  3. 請求項1に記載の画像処理装置であって、
    前記補間処理部は、前記複数の視点画像に基づいて、被写体像のデプス情報を取得し、前記複数の視点画像と前記デプス情報とに基づいて、前記複数の補間画像を生成する
    画像処理装置。
  4. 請求項1に記載の画像処理装置であって、
    情報処理装置から前記複数の視点画像を受信し、前記情報処理装置へ前記被写体画像を送信することが可能な通信部をさらに具備する
    画像処理装置。
  5. 請求項4に記載の画像処理装置であって、
    前記現像処理部は、前記通信部を制御することで、前記複数の現像パラメータの選択候補を前記情報処理装置へ送信し、かつ、選択された前記選択候補を前記情報処理装置から受信する
    画像処理装置。
  6. 請求項5に記載の画像処理装置であって、
    前記選択候補は、前記パラメータに相当する光学系を構成するレンズに関する情報、フォーカス位置及び絞り値の少なくとも1つを含む
    画像処理装置。
  7. 複数の視点画像を撮像可能な撮像部と、
    前記複数の視点画像に基づいて前記複数の視点画像を補間する複数の補間画像を生成し、前記複数の視点画像および前記複数の補間画像各々における光線ベクトルと、予め選択された現像パラメータとを用いて、被写体画像を現像する制御部と
    を具備する情報処理装置。
  8. サーバと通信可能な通信部と、
    複数の視点画像とユーザによって選択された現像パラメータとをサーバへ送信し、
    前記複数の視点画像および前記複数の視点画像を補間する複数の補間画像各々における光線ベクトルと、前記選択された現像パラメータとを用いて、前記サーバが生成した被写体画像を、前記サーバから受信する
    ように前記通信部を制御可能な制御部と
    を具備する情報処理装置。
  9. 請求項8に記載の情報処理装置であって、
    前記複数の視点画像を取得可能な撮像部をさらに具備する
    情報処理装置。
  10. 多視点カメラを用いて複数の視点画像を取得し、
    前記複数の視点画像に基づいて、前記複数の視点画像を補間する複数の補間画像を生成し、
    現像パラメータを選択し、
    前記複数の視点画像および前記複数の補間画像各々における光線ベクトルと、選択された前記現像パラメータとを用いて、被写体画像を現像する
    画像処理方法。
JP2012109898A 2012-05-11 2012-05-11 画像処理装置、画像処理方法及びプログラム Expired - Fee Related JP6019729B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012109898A JP6019729B2 (ja) 2012-05-11 2012-05-11 画像処理装置、画像処理方法及びプログラム
CN201380021885.7A CN104255026B (zh) 2012-05-11 2013-04-24 图像处理设备、信息处理设备和图像处理方法
PCT/JP2013/002761 WO2013168381A1 (en) 2012-05-11 2013-04-24 Image processing apparatus and image processing method
US14/397,540 US20150124052A1 (en) 2012-05-11 2013-04-24 Image processing apparatus, information processing apparatus, and image processing method
CN201810637286.2A CN108833882A (zh) 2012-05-11 2013-04-24 图像处理设备、方法和存储介质
TW102114901A TW201401220A (zh) 2012-05-11 2013-04-25 影像處理裝置,資訊處理裝置,及影像處理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012109898A JP6019729B2 (ja) 2012-05-11 2012-05-11 画像処理装置、画像処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2016180103A Division JP6376194B2 (ja) 2016-09-15 2016-09-15 画像処理装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2013238927A true JP2013238927A (ja) 2013-11-28
JP6019729B2 JP6019729B2 (ja) 2016-11-02

Family

ID=48446569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012109898A Expired - Fee Related JP6019729B2 (ja) 2012-05-11 2012-05-11 画像処理装置、画像処理方法及びプログラム

Country Status (5)

Country Link
US (1) US20150124052A1 (ja)
JP (1) JP6019729B2 (ja)
CN (2) CN104255026B (ja)
TW (1) TW201401220A (ja)
WO (1) WO2013168381A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI504936B (zh) * 2014-02-12 2015-10-21 Htc Corp 影像處理裝置
WO2016175045A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
WO2016175046A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
WO2016175044A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
JP2017525210A (ja) * 2014-06-19 2017-08-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元画像を生成するための方法及び機器
US9807372B2 (en) 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
WO2018079283A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム
US10529057B2 (en) 2015-04-28 2020-01-07 Sony Corporation Image processing apparatus and image processing method

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2556910A (en) * 2016-11-25 2018-06-13 Nokia Technologies Oy Virtual reality display

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207549A (ja) * 1999-01-11 2000-07-28 Olympus Optical Co Ltd 画像処理装置
JP2009165115A (ja) * 2007-12-12 2009-07-23 Sony Corp 撮像装置
JP2010093626A (ja) * 2008-10-09 2010-04-22 Fujifilm Corp 画像処理装置および方法、画像再生装置および方法並びにプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07287761A (ja) * 1994-04-19 1995-10-31 Canon Inc 画像処理装置及び画像処理方法
JPH10178564A (ja) * 1996-10-17 1998-06-30 Sharp Corp パノラマ画像作成装置及び記録媒体
US7084910B2 (en) * 2002-02-08 2006-08-01 Hewlett-Packard Development Company, L.P. System and method for using multiple images in a digital image capture device
JP2004198732A (ja) * 2002-12-18 2004-07-15 Sony Computer Entertainment Inc 撮影補助器、画像処理方法、画像処理装置、コンピュータプログラム、プログラムを格納した記録媒体
US7620309B2 (en) * 2006-04-04 2009-11-17 Adobe Systems, Incorporated Plenoptic camera
CN100563339C (zh) * 2008-07-07 2009-11-25 浙江大学 一种利用深度信息的多通道视频流编码方法
JP4706882B2 (ja) 2009-02-05 2011-06-22 ソニー株式会社 撮像装置
US9218644B2 (en) * 2009-12-17 2015-12-22 Broadcom Corporation Method and system for enhanced 2D video display based on 3D video input
JP2011139209A (ja) 2009-12-28 2011-07-14 Sony Corp 画像処理装置および方法
US8860833B2 (en) * 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
JP5657343B2 (ja) * 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
JP2012205015A (ja) * 2011-03-24 2012-10-22 Casio Comput Co Ltd 画像処理装置及び画像処理方法、並びにプログラム
CN103988503B (zh) * 2011-12-12 2018-11-09 英特尔公司 使用预捕获图像运动的场景分割

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000207549A (ja) * 1999-01-11 2000-07-28 Olympus Optical Co Ltd 画像処理装置
JP2009165115A (ja) * 2007-12-12 2009-07-23 Sony Corp 撮像装置
JP2010093626A (ja) * 2008-10-09 2010-04-22 Fujifilm Corp 画像処理装置および方法、画像再生装置および方法並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016033892; Natsumi Kusumoto et al.: 'Uncalibrated Synthetic Aperture for Defocus Control' CVPR 2009 , 2009, pages 2552-2559, IEEE *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI504936B (zh) * 2014-02-12 2015-10-21 Htc Corp 影像處理裝置
US9807372B2 (en) 2014-02-12 2017-10-31 Htc Corporation Focused image generation single depth information from multiple images from multiple sensors
JP2017525210A (ja) * 2014-06-19 2017-08-31 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元画像を生成するための方法及び機器
KR20170141202A (ko) 2015-04-28 2017-12-22 소니 주식회사 화상 처리 장치 및 화상 처리 방법
WO2016175044A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
WO2016175046A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
WO2016175045A1 (ja) * 2015-04-28 2016-11-03 ソニー株式会社 画像処理装置及び画像処理方法
JPWO2016175044A1 (ja) * 2015-04-28 2018-02-15 ソニー株式会社 画像処理装置及び画像処理方法
JPWO2016175046A1 (ja) * 2015-04-28 2018-02-15 ソニー株式会社 画像処理装置及び画像処理方法
JPWO2016175045A1 (ja) * 2015-04-28 2018-02-22 ソニー株式会社 画像処理装置及び画像処理方法
US10306146B2 (en) 2015-04-28 2019-05-28 Sony Corporation Image processing apparatus and image processing method
US10341546B2 (en) 2015-04-28 2019-07-02 Sony Corporation Image processing apparatus and image processing method
US10453183B2 (en) 2015-04-28 2019-10-22 Sony Corporation Image processing apparatus and image processing method
US10529057B2 (en) 2015-04-28 2020-01-07 Sony Corporation Image processing apparatus and image processing method
WO2018079283A1 (ja) * 2016-10-26 2018-05-03 ソニー株式会社 画像処理装置、画像処理方法、及び、プログラム

Also Published As

Publication number Publication date
TW201401220A (zh) 2014-01-01
CN104255026A (zh) 2014-12-31
JP6019729B2 (ja) 2016-11-02
WO2013168381A1 (en) 2013-11-14
CN104255026B (zh) 2018-07-17
CN108833882A (zh) 2018-11-16
US20150124052A1 (en) 2015-05-07

Similar Documents

Publication Publication Date Title
JP6019729B2 (ja) 画像処理装置、画像処理方法及びプログラム
US9600859B2 (en) Image processing device, image processing method, and information processing device
CN102821238B (zh) 宽视场超高分辨率成像系统
EP3136707A1 (en) Image shooting terminal and image shooting method
CN108432230B (zh) 一种成像设备和一种用于显示场景的图像的方法
JP2018129716A (ja) 画像処理装置、画像処理システム、画像処理方法及びプログラム
US20140204086A1 (en) Imaging apparatus capable of generating three-dimensional images, three-dimensional image generating method, and recording medium
JP2018514969A (ja) ライトフィールド・メタデータ
CN105191280A (zh) 在多透镜相机中的成像器上移动图像
US9288472B2 (en) Image processing device and method, and image capturing device
US20210377432A1 (en) Information processing apparatus, information processing method, program, and interchangeable lens
CN105657394A (zh) 基于双摄像头的拍摄方法、拍摄装置及移动终端
CN103888641A (zh) 图像处理装置及图像再对焦方法
JP2014016965A (ja) 画像処理装置、画像処理方法およびプログラム、ならびに、撮像装置
CN111669564A (zh) 图像重建方法、系统、设备及计算机可读存储介质
JP2018082298A (ja) 画像表示システム、通信システム、画像表示方法、及びプログラム
EP3190566A1 (en) Spherical virtual reality camera
CN111061123B (zh) 一种旅游景观展示的旋转全景成像系统及使用方法
JP2018109946A (ja) 表示装置、プログラム、表示方法
CN109819157A (zh) 全景摄像机及其控制方法
JP6376194B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2014110444A (ja) 撮像装置
JP6673459B2 (ja) 画像処理装置、画像処理システム及びプログラム
WO2017159014A1 (ja) 画像処理装置、画像処理方法及び画像処理システム
JP2017041205A (ja) 画像管理システム、画像通信システム、画像管理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160307

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160415

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160919

R151 Written notification of patent or utility model registration

Ref document number: 6019729

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees