JP2016046777A - 画像処理装置及び該装置の制御方法、並びにプログラム - Google Patents

画像処理装置及び該装置の制御方法、並びにプログラム Download PDF

Info

Publication number
JP2016046777A
JP2016046777A JP2014171941A JP2014171941A JP2016046777A JP 2016046777 A JP2016046777 A JP 2016046777A JP 2014171941 A JP2014171941 A JP 2014171941A JP 2014171941 A JP2014171941 A JP 2014171941A JP 2016046777 A JP2016046777 A JP 2016046777A
Authority
JP
Japan
Prior art keywords
image
image data
subject
processing apparatus
development processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014171941A
Other languages
English (en)
Other versions
JP2016046777A5 (ja
Inventor
貴博 松下
Takahiro Matsushita
貴博 松下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014171941A priority Critical patent/JP2016046777A/ja
Priority to US15/504,713 priority patent/US10217196B2/en
Priority to PCT/JP2015/073921 priority patent/WO2016031837A1/en
Publication of JP2016046777A publication Critical patent/JP2016046777A/ja
Publication of JP2016046777A5 publication Critical patent/JP2016046777A5/ja
Pending legal-status Critical Current

Links

Classifications

    • G06T5/73
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

【課題】ユーザからの指示を受けることなく、画像のリフォーカス処理を実行できる画像処理装置を提供する。【解決手段】画像処理装置100はプロキシ画像503から被写体候補を検出すると共に、記憶装置110に格納されているリファレンスデータ300に基づいて被写体505を特定し、特定された被写体505に焦点を合わせ、該焦点が合わされた被写体505と、プロキシ画像503に対応するRAW画像データ501,502の現像処理結果とを合成することによって本画像としての画像データ508を取得する。【選択図】図5

Description

本発明は、画像処理装置及び該装置の制御方法、並びにプログラムに関する。
近年、マイクロレンズが格子状に配列されたマイクロレンズアレイを撮影レンズ及び撮像素子の間に配置し、静止画及び動画の撮影時に入射されて各マイクロレンズを通過する光の強度分布及び入射方向に関する情報を画素信号として取得する撮像装置がある(非特許文献1参照)。非特許文献1の撮像装置は、各マイクロレンズを通過した光に基づいて画素信号を取得し、当該画素信号に基づいて画像データを生成する。取得された画素信号及び生成された画像データは、例えば、撮像装置内に格納される。また、非特許文献1の撮像装置は生成された画像データの焦点位置を格納された画素信号に基づいて任意の位置に変更するリフォーカス機能を有する。
Ren Ng et al., Light Field Photography with a Hand-Held Plenoptic Camera,Stanford Tech Report CTSR 2005-02.
しかしながら、非特許文献1の撮像装置では、ユーザが変更後の焦点位置を決定してリフォーカス作業を実行する必要があり、リフォーカス作業を必要とする画像データが多いほどユーザのリフォーカス作業に必要となる時間と労力は増加する。
本発明の目的は、ユーザからの指示を受けることなく、画像のリフォーカス処理を実行できる画像処理装置及び該装置の制御方法、並びにプログラムを提供することにある。
上記目的を達成するために、本発明の画像処理装置は、現像処理が実行されていない複数のRAW画像データと現像処理が実行されているプロキシ画像を取得する取得手段と、前記プロキシ画像から特定の被写体を検出する検出手段と、前記複数のRAW画像データに対して現像処理を実行する現像処理手段と、前記検出された特定の被写体にフォーカスを合わせて前記複数のRAW画像データの現像処理の結果を合成することにより本画像を生成する生成手段とを備えることを特徴とする。
本発明によれば、ユーザの指示を受けることなく、画像のリフォーカス処理を実行できる。
本発明の一実施形態に係る画像処理装置の構成を概略的に示すブロック図である。 本発明の一実施形態に係る画像処理装置の撮像素子によって生成されるRAW画像データを説明するために用いられる図である。 本発明の一実施形態に係る画像処理装置の記憶装置に格納されているリファレンスデータを説明するための図である。 図3のリファレンスデータを管理するリファレンスデータ管理ファイルを説明するための図である。 本発明の一実施形態においてリフォーカスされる画像データを説明するために用いられる図である。 本発明の一実施形態に係る画像処理装置において実行されるリフォーカス処理の手順を示すフローチャートである。 本発明の一実施形態に係る画像処理装置がサーバに接続された画像処理システムの構成を概略的に示すブロック図である。 本発明の一実施形態においてリフォーカスされる画像データを説明するために用いられる図である。 本発明の一実施形態に係る画像処理装置にサーバ経由で接続されるリモートユーザの端末の画面の一例を説明するために用いられる図である。 本発明の一実施形態に係る画像処理装置にサーバ経由で接続される送信元ユーザの端末の画面の一例を説明するために用いられる図である。
(第1の実施形態)
以下、本発明の実施形態について図面を参照しながら詳述する。
まず、本発明の第1の実施形態について説明する。
図1は、本発明の第1の実施形態に係る画像処理装置100の構成を概略的に示すブロック図である。画像処理装置100は、以下の構成を備えたデジタルカメラやデジタルビデオカメラ、スマートフォンやタブレット機器等の撮像装置又は通信装置により実現される。
図1の画像処理装置100は、CPU101、撮像素子102、操作部103、表示部104を備え、これらの構成要素はバス107を介して互いに接続されている。また、画像処理装置100は、さらに通信部108、光学系109、及び記憶装置110を備え、通信部108及び光学系109はCPU101に接続され、記憶装置110は撮像素子102に接続されている。
CPU101は画像処理装置100の各構成要素を制御すると共に記憶装置110に格納されたプログラムを実行するための制御装置である。本実施例ではその一例としてCPU(Central Processing Unit)を使用する場合について説明するが、代わりにMPU(Micro Processing Unit)等を使用しても同様に本発明を実現できる。撮像素子102は光学系109を通過した光を画素信号に変換して画像データを生成する。操作部103はハードキーや操作パネルを備え、ユーザはハードキーや操作パネルを介して画像処理装置100に指示を入力する。表示部104はビューファインダー画像、撮影した静止画、撮影した動画、又は操作案内等を表示する。
なお、CPU101は、後述する記憶装置110からオペレーティングシステム(OS)やアプリケーションプログラムを読み出して起動し、それに従って各構成要素を制御することにより各種機能を実行する。例えば、CPU101は画像データに対して所定の画素補間や縮小等のリサイズ処理や色変換処理を実行する。また、CPU101は物体認識処理を行って被写体、例えば人物の顔等を画像データから検出する。さらに、CPU101は検出された被写体に対して焦点を合わせた画像データを生成するリフォーカス処理を実行し、リフォーカス処理後の画像データを記憶装置110に格納する。
通信部108は、例えば、USB(Universal Serial Bus)ケーブル又は無線LANを介して外部装置と接続され、制御コマンドやデータを送受信する。制御コマンドやデータの送受信には、例えば、PTP(Picture Transfer Protocol)やMTP(Media Transfer Protocol)、又はNFC(Near Field Communication)等のプロトコルが使用される。光学系109は、レンズ、シャッタ、及び絞りを備え、光学系109を通過した光は撮像素子102において画素信号に変換される。
記憶装置110は各種プログラム、被写体に関するリファレンスデータ(以下、単に「リファレンスデータ」という)、又は画像データ、例えば、後述するRAW画像データ501,502及びプロキシ画像503を格納する。なお、RAW画像データ501,502は撮像素子102から出力された直後のデータがそのままに近い状態で記録されたデータであり、プロキシ画像503に比べて高解像度であって、高階調なデータである。同じ画素信号に基づくRAW画像データ501,502及びプロキシ画像503は1つのファイルに格納されるか、又は、複数のファイルにそれぞれが対応付けられて格納される。
図2は、本実施形態の画像処理装置100の撮像素子102よって生成されるRAW画像データを説明するために用いられる図である。
画像処理装置100の撮像素子102はマイクロレンズ201を介して取得された光202を検出する2種類の多数のフォトダイオード203,204(光検出器)を備える。1つのフォトダイオード203と1つのフォトダイオード204とが対(画像素子)をなす。各対においてフォトダイオード203,204の夫々は独立し、各フォトダイオード203は光202を検出して後述するRAW画像データ501を生成し、各フォトダイオード204は光202を検出して後述するRAW画像データ502を生成する。なお、1つの対においてフォトダイオード203,204は異なる位置で光202を検出しているため、フォトダイオード203に入射する光202の入射角度及びフォトダイオード204に入射する光202の入射角度は異なる。その結果、フォトダイオード203が検出した光202及びフォトダイオード204が検出した光202の間には位相差が生じているため、RAW画像データ501及びRAW画像データ502の間にも位相差が生じる。
図3は、図1における記憶装置110に格納されているリファレンスデータ300を説明するための図である。
図3において、リファレンスデータ300は、プロキシ画像503の中から複数検出される被写体の候補(以下、「特定被写体候補」という。)の画像データから所望の被写体の画像データを特定するために用いられ、例えば、或る人物301の顔の画像データを5つ記録している。当該5つの画像データは夫々人物301の顔の表情や撮影時期が異なる。本実施の形態では、リファレンスデータ300に記録された画像データの夫々が、プロキシ画像503の中から検出された複数の特定被写体候補の画像データの夫々と比較されて互いに一致するか否かが判別され、一致する場合に当該特定被写体候補が所望の被写体として特定される。リファレンスデータ300に記録された画像データ及び検出された複数の特定被写体候補の画像データのいずれも、例えば、人物301の表情の違い等から互いに完全に一致しないとき、後述する特徴量405を参照して夫々が一致するか否かを判別してもよい。
リファレンスデータ300は記録する5つの顔の画像データの各々の特徴とともにリファレンスデータ管理ファイル400(図4)に記録されている。リファレンスデータ管理ファイル400は、或る人物301のリファレンスデータ300だけでなく、他の人物のリファレンスデータ300、すなわち、複数の人物の顔に関するリファレンスデータを管理する。リファレンスデータ管理ファイル400には、各人物の顔のリファレンスデータのリファレンスデータ名401、リファレンスデータの更新日時402、画像データ名403、撮影日時404、及び人物の顔の特徴量405が記録されている。
リファレンスデータ名401は各リファレンスデータの名称である。リファレンスデータの更新日時402にはリファレンスデータに記録されている画像データについて更新された日時が記録される。画像データ名403はリファレンスデータに記録されている画像データの名称であり、撮影日時404はリファレンスデータに記録されている画像データが撮影された日時である。特徴量405はリファレンスデータ300に記録された5つの顔の各画像データの特徴、例えば、画像データにおける人物の年齢や表情の喜怒哀楽の度合いを数値化した指標等が記録される。
図5は、図3のリファレンスデータ300に基づいて特定された被写体をリフォーカスする工程を説明するために用いられる図である。
画像処理装置100は、図5に示すRAW画像データ501,502を生成し、RAW画像データ501からプロキシ画像503を生成する。具体的には、CPU101はRAW画像データ501に対して圧縮処理を実行して縮小RAW画像データを生成する。そして、縮小RAW画像データに対して現像処理を実行し、縮小RAW画像データの形式をJPEGやTIFF等の所定のファイル形式に変換することによりプロキシ画像503を生成する。
ここで、現像処理は所定の調整値を用いて実行される。なお、プロキシ画像503は縮小RAW画像データから生成されるものに限らない。例えば、CPU101が撮像素子102から出力された画像信号からRAW画像データを生成するとともに、同じ画像信号に対し、直接、圧縮処理と所定の調整値に基づく現像処理を実行し、さらに所定のファイル形式の変換を施してプロキシ画像を生成してもよい。あるいは、RAW画像データと同じ画像信号に対し、直接、圧縮処理だけを行って縮小RAW画像データを生成して格納しておき、必要に応じて縮小RAW画像データに現像処理を実行してプロキシ画像を生成してもよい。
また、プロキシ画像503を生成するための現像処理は、例えばコントラスト、ホワイトバランス、カラーバランス、明度、彩度等のパラメータの調整処理が含まれる。このように、プロキシ画像503はRAW画像データ501,502に対して圧縮処理が実行されたものであり、RAW画像データ501,502をそのまま現像処理した結果、得られる画像(以下、「本画像」という)に比べてデータ量が小さい。したがって、プロキシ画像503を表示部104に表示し、プロキシ画像503に対して認識処理を実行するのにかかる時間や負荷は本画像に同様の処理を施す場合に比べて小さくなる。
図6は、図1におけるCPU101によって実行されるリフォーカス処理の手順を示すフローチャートである。図6のリフォーカス処理では、プロキシ画像503において、被写体504に焦点が合い且つ被写体505に焦点が合っていない状態を前提とし、焦点が合っていない被写体505をリフォーカス対象とする。被写体505をリフォーカスしたとき、被写体505に焦点が合い且つ被写体504に焦点が合っていない画像データ508が取得される。
各フォトダイオード203,204の夫々は独立して光202を検出して2種類のRAW画像データ501,502を生成するとともに、RAW画像データ501を現像して(以下、「RAW現像」という)プロキシ画像503を取得する(S601)。CPU101はプロキシ画像503から特定被写体候補を自動的に検出する(S602)。ここでは、CPU101は顔認識処理を実行し、プロキシ画像503から人物の顔からなる特定被写体候補として被写体504,505を検出する。CPU101は被写体504,505の他にも複数の被写体(図示しない)を検出してもよい。
さらに、CPU101は記憶装置110に格納されているリファレンスデータ300a,300b(それぞれ、人物301a,301bに対応)を参照して複数の特定被写体候補のうち人物301a,301bに対応する被写体として被写体504,505を特定する(S603)。なお、CPU101が被写体504,505を特定するとき、プロキシ画像503の他にG撮像素子、B撮像素子、R撮像素子等を用いてもよい。
以上のように、CPU101はプロキシ画像503及びリファレンスデータ300bを用いて検出された複数の特定被写体候補からフォーカスを合わせる被写体505を自動的に特定するので、プロキシ画像503から被写体505を検出するときにユーザの指示を受けることなく、画像のリフォーカス処理を実行することができる。また、ユーザはプロキシ画像503からフォーカスを合わせる被写体505を検出するときにリフォーカスする被写体を手動で選択する手間を省くことができ、ユーザのリフォーカス作業に必要となる時間と労力を低減できる。さらに、リフォーカスされる被写体505がリファレンスデータ300bに基づいて特定されるので、ユーザの意図しない被写体がフォーカスされた画像が生成されることを回避することができる。
CPU101はステップS603で特定された被写体505の領域に対応する各フォトダイオード203,204の夫々が検出した信号の位相差である視差量を算出し(S604)、視差量に所定の演算を行うことによりデフォーカス量を算出する(S605)。デフォーカス量の算出については、先行技術文献(特開2008−15754号公報)等に開示がある。
次に、CPU101は、RAW画像データ501、502のそれぞれに対して現像処理を実行することにより2種類のRAW現像結果を取得し、例えば、算出されたデフォーカス量の絶対値が所定値以内になるように2種類のRAW現像結果を合成して被写体505がリフォーカスされた画像データ508(本画像)を生成し(S606)、本処理を終了する。なお、デフォーカス量が所定値以内にならない場合は、デフォーカス量が最小となるようにRAW現像結果を合成する。
さらに、CPU101は被写体504についても、上述の被写体505と同様のリフォーカス処理を実行することにより、圧縮処理のされていないRAW画像データ501,502から被写体504に焦点の合った高画質の画像データを得ることもできる。なお、CPU101は、リファレンスデータ300によって特定される被写体すべてについてRAW現像結果に基づく画像データを生成してもよい。あるいは、所定の条件を満たすリファレンスデータ300の被写体についてのみRAW現像結果に基づく画像データを生成するようにしてもよい。
図6の処理によれば、リフォーカスの対象に指定された被写体505を特定する処理がリファレンスデータ300bを用いて実行されるので、ユーザの指示を受けることなく、画像のリフォーカス処理を実行できる。
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。
本発明の第2の実施形態は、その構成、作用が上述した第1の実施形態と基本的に同じであり、画像処理装置がサーバに接続されて画像処理システムを構成する点で本発明の第1の実施形態と異なる。以下、重複した構成、作用については説明を省略し、異なる構成、作用についての説明を行う。
ところで、近年のクラウド技術の発展により、或る人が撮像装置で撮影した画像データを他の人がスマートフォンを用いて共有することがある。この場合、画像データはサーバ経由で撮像装置からスマートフォンへ転送されるが、画像データにおいて焦点が合っている被写体と、他の人が焦点を合わせたい被写体とが異なることがある。このような場合に対応して、本実施形態ではリフォーカス処理を実行する。
図7は、本発明の第2の実施形態に係る画像処理装置111がサーバ700に接続された画像処理システムの構成を概略的に示すブロック図である。画像処理装置111のCPU101は被写体の検知やリフォーカス処理を実行しない点で図1の画像処理装置100と異なる。
サーバ700は、CPU701、通信部707、及び記憶装置708を備え、通信部707及び記憶装置708はCPU701介して互いに接続されている。
CPU701は記憶装置708に格納されたプログラムを実行し、サーバ700の各構成要素を制御することで各種機能を実現する。記憶装置708は画像データや画像データを第三者と共有するために必要な個人情報、例えば、メールアドレスが格納される。なお、第三者と共有する画像データの実体ファイルは外部の記憶装置に格納されていてもよく、その場合、記憶装置708には画像データの実体ファイルへのファイルパスが格納される。また、記憶装置708に格納される画像データは、CPU701が通信部707を介して取得する。
通信部707は通信部108と接続され、制御コマンドやデータを送受信する。記憶装置708はOSやアプリケーションプログラム等の各種プログラム、上述のリファレンスデータ300a,300b、画像データ、例えば、後述するRAW画像データ802,803及びプロキシ画像804を格納する。なお、RAW画像データ802,803、プロキシ画像804は、上述のRAW画像データ501,502、プロキシ画像503と同内容のデータや画像である。
CPU701は通信部707を介して受信された画像データに対して所定の画素補間や縮小等のリサイズ処理や色変換処理を実行する。また、CPU701は物体認識処理を行って被写体、例えば人物の顔等を画像データから検出する。そして、CPU701は検出された被写体に対して焦点を合わせた画像データを生成するリフォーカス処理を実行し、リフォーカス処理後の画像データを記憶装置708に格納する。
図8は、図7におけるサーバ700によってリフォーカスする画像データを説明するために用いられる図である。
図8において、撮像装置801を用いて撮影を行うユーザ(以下、「送信元ユーザ」という)と、撮像装置801によって撮影された画像データをスマートフォン808によって受信する、ユーザから離れたリモートユーザとが存在するものとする。
まず、撮像装置801はRAW画像データ802,803及びプロキシ画像804をサーバ700に送信する。このとき、サーバ700のCPU701はプロキシ画像804から特定被写体候補を検出する。ここでは、プロキシ画像804から特定被写体候補として被写体805,806の他にも複数の被写体(図示しない)が検出される。CPU701は記憶装置708に格納されているリファレンスデータ300a,300bを参照して複数の特定被写体候補のうち人物301a,301bに対応する被写体として被写体805,806を特定する。なお、本実施形態では、リモートユーザが所望する焦点を合わせたい被写体は被写体806とし、サーバ700は被写体806の指定をリモートユーザの端末(例えばスマートフォン808)から予め受け付けて格納している。
本実施形態では、サーバ700のCPU701が上述したリフォーカス処理(図6)を実行して被写体806に焦点を合わせた画像データ807を取得する。CPU701は通信部707を介して画像データ807をスマートフォン808に送信する。これにより、リモートユーザが送信元ユーザに要求することなく所望の被写体806に焦点があった画像データ807を入手することができる。
図9は、図7におけるサーバ700が記憶装置708に格納されたリファレンスデータ等に基づいて生成した画像情報をリモートユーザのスマートフォン808に送信したときに、その表示部に表示されるアプリ画面900を説明するために用いられる図である。
図9において、アプリ画面900は、ツリービュー901、ブラウザウィンドウ902、及びアクションボタン表示部903を備える。ツリービュー901における「人物」フォルダにはフォルダ名を「TARO」及び「HANAKO」とする2つのフォルダが格納されている。「TARO」フォルダには人物「TARO」のリファレンスデータが格納され、「HANAKO」フォルダには人物「HANAKO」のリファレンスデータが格納される。
例えば、「TARO」フォルダを選択したとき、ブラウザウィンドウ902は「TARO」フォルダに格納されているリファレンスデータを表示する。当該リファレンスデータは上述のリファレンスデータ300a,300bに相当し、複数の特定被写体候補の各々を特定するときに用いられる。
アクションボタン表示部903は、ブラウザウィンドウ902に表示された画像に対して所定の処理を実行するための指示を入力する複数のボタンを表示する。例えば、「TARO」フォルダの選択中にRAW現像ボタン903aが押下されると、サーバ700はリフォーカス処理で「TARO」のリファレンスデータに基づく被写体にフォーカスする。
図10は、サーバ700が各被写体にリフォーカスされた画像データを第三者の端末へ送信する指示を受付けるための画像情報を送信元ユーザの端末に送信することにより、その表示部で表示される画像送信画面1000を説明するために用いられる図である。図10の画像送信画面1000は、送信元ユーザのPCやスマートフォン等の端末の表示部に表示され、例えば、撮像装置801のユーザがリモートユーザに画像データを送信する指示を行うときに用いられる。
図10において、画像送信画面1000はリンク1001、送信ボタン1002、及びリンク1003を備える。撮像装置801の送信元ユーザはリンク1001を選択し、運動会や遠足等のイベント毎に画像データをサーバ700にアップロードする。画像データをサーバ700にアップロードするとき、送信元ユーザは画像データを受信するリモートユーザの宛先を指定し、送信ボタン1002を押下する。
これに応答して、サーバ700はアップロードされた画像データに対して図6のリフォーカス処理を実行し、宛先であるリモートユーザに対応するリファレンスデータによって特定された被写体にリフォーカスした画像データ又はそのリンクをリモートユーザのスマートフォン808に送信する。なお、リモートユーザの宛先はリファレンスデータ300と関連付けて記憶装置708に格納して管理され、送信元ユーザは複数のリモートユーザの宛先を選択してもよい。また、リンク1003が選択されたとき、新たなリモートユーザに関する情報を登録する画面(不図示)が送信元ユーザの端末に表示される。
以上のように、図9の画面においてリフォーカス処理のフォーカス対象の被写体を予め指定しておくことで、画像データごと、あるいはRAW画像データを現像処理するときにフォーカス対象の被写体を選択するという手間を省くことができる。
上述した実施形態の機能を実現するソフトウェア(プログラム)をネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理において、そのプログラム、及び該プログラムを格納するコンピュータ読み取り可能な記憶媒体は本発明を構成する。
100,111 画像処理装置
110,708 記憶装置
300,300a,300b リファレンスデータ
503,804 プロキシ画像
504,505,805,806 被写体

Claims (9)

  1. 現像処理が実行されていない複数のRAW画像データと現像処理が実行されたプロキシ画像とを取得する取得手段と、
    前記プロキシ画像から検出された被写体を特定する特定手段と、
    前記複数のRAW画像データに対して現像処理を実行する現像処理手段と、
    前記特定された被写体にフォーカスを合わせ、該フォーカスが合わされた特定の被写体と前記複数のRAW画像データの現像処理の結果を合成することにより本画像を生成する生成手段とを備えることを特徴とする画像処理装置。
  2. 前記複数のRAW画像データに基づき、前記特定された被写体の領域のデフォーカス量を算出する算出手段を更に備え、
    前記生成手段は、前記デフォーカス量が所定値以内となるように前記複数のRAW画像データの現像処理の結果を合成することを特徴とする請求項1記載の画像処理装置。
  3. 前記複数のRAW画像データは、入射された同一の光を検出する2種類の光検出器のそれぞれが出力する第1の信号及び第2の信号に基づいて生成されることを特徴とする請求項1又は2記載の画像処理装置。
  4. 前記複数のRAW画像データを外部の装置からネットワークを介して受信する受信手段を更に備えることを特徴とする請求項1乃至3のいずれか1項に記載の画像処理装置。
  5. 前記本画像を外部の装置にネットワークを介して送信する送信手段を更に備えることを特徴とする請求項1乃至4のいずれか1項に記載の画像処理装置。
  6. 前記特定される被写体の指定を受け付ける受付手段を更に備えることを特徴とする請求項1乃至5のいずれか1項に記載の画像処理装置。
  7. 前記複数のRAW画像データのうちの1つに対して圧縮処理と現像処理を実行することにより前記プロキシ画像を生成する他の生成手段をさらに備えることを特徴とする請求項1乃至6のいずれか1項に記載の画像処理装置。
  8. 現像処理が実行されていない複数のRAW画像データと現像処理が実行されているプロキシ画像とを取得する取得ステップと、
    前記プロキシ画像から検出された被写体を特定する特定ステップと、
    前記複数のRAW画像データに対して現像処理を実行する現像処理ステップと、
    前記特定された被写体にフォーカスを合わせ、該フォーカスが合わされた特定の被写体と前記複数のRAW画像データの現像処理の結果を合成することによって本画像を生成する生成ステップとを有することを特徴とする画像処理装置の制御方法。
  9. 画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
    前記画像処理装置の制御方法は、
    現像処理が実行されていない複数のRAW画像データと現像処理が実行されているプロキシ画像とを取得する取得ステップと、
    前記プロキシ画像から検出された被写体を特定する特定ステップと、
    前記複数のRAW画像データに対して現像処理を実行する現像処理ステップと、
    前記特定された被写体にフォーカスを合わせ、該フォーカスが合わされた特定の被写体と前記複数のRAW画像データの現像処理の結果を合成することにより本画像を生成する生成ステップとを有することを特徴とするプログラム。
JP2014171941A 2014-08-26 2014-08-26 画像処理装置及び該装置の制御方法、並びにプログラム Pending JP2016046777A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014171941A JP2016046777A (ja) 2014-08-26 2014-08-26 画像処理装置及び該装置の制御方法、並びにプログラム
US15/504,713 US10217196B2 (en) 2014-08-26 2015-08-19 Image processing apparatus having image refocusing function, control method for image processing apparatus, and storage medium
PCT/JP2015/073921 WO2016031837A1 (en) 2014-08-26 2015-08-19 Image processing apparatus having image refocusing function, control method for image processing apparatus, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171941A JP2016046777A (ja) 2014-08-26 2014-08-26 画像処理装置及び該装置の制御方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2016046777A true JP2016046777A (ja) 2016-04-04
JP2016046777A5 JP2016046777A5 (ja) 2017-11-24

Family

ID=55399723

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171941A Pending JP2016046777A (ja) 2014-08-26 2014-08-26 画像処理装置及び該装置の制御方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10217196B2 (ja)
JP (1) JP2016046777A (ja)
WO (1) WO2016031837A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021020142A1 (ja) * 2019-07-30 2021-02-04 ソニー株式会社 ファイル処理装置、ファイル処理方法、及び、プログラム
WO2022019171A1 (ja) * 2020-07-20 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183316A (ja) * 2009-02-05 2010-08-19 Sony Corp 撮像装置
JP2010191883A (ja) * 2009-02-20 2010-09-02 Nikon Corp 撮像装置および画像処理プログラム
WO2012169140A1 (ja) * 2011-06-08 2012-12-13 パナソニック株式会社 画像処理装置及び画像処理方法並びにデジタルカメラ
JP2014014071A (ja) * 2012-06-08 2014-01-23 Canon Inc 画像処理装置及び画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1909229B1 (en) * 2006-10-03 2014-02-19 Nikon Corporation Tracking device and image-capturing apparatus
US8570427B2 (en) 2009-01-28 2013-10-29 Nikon Corporation Image-capturing device having focus adjustment function, image creation method including focus adjustment function, and program product for image-capturing device having focus adjustment function
US8570429B2 (en) * 2009-02-27 2013-10-29 Samsung Electronics Co., Ltd. Image processing method and apparatus and digital photographing apparatus using the same
US20130329068A1 (en) 2012-06-08 2013-12-12 Canon Kabushiki Kaisha Image processing apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010183316A (ja) * 2009-02-05 2010-08-19 Sony Corp 撮像装置
JP2010191883A (ja) * 2009-02-20 2010-09-02 Nikon Corp 撮像装置および画像処理プログラム
WO2012169140A1 (ja) * 2011-06-08 2012-12-13 パナソニック株式会社 画像処理装置及び画像処理方法並びにデジタルカメラ
JP2014014071A (ja) * 2012-06-08 2014-01-23 Canon Inc 画像処理装置及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021020142A1 (ja) * 2019-07-30 2021-02-04 ソニー株式会社 ファイル処理装置、ファイル処理方法、及び、プログラム
WO2022019171A1 (ja) * 2020-07-20 2022-01-27 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
US20170270645A1 (en) 2017-09-21
US10217196B2 (en) 2019-02-26
WO2016031837A1 (en) 2016-03-03

Similar Documents

Publication Publication Date Title
JP2013110738A (ja) 画像通信装置および撮像装置
JP5436019B2 (ja) 制御装置、制御方法、プログラム及び記録媒体
JP2023095973A (ja) 撮影装置、撮影方法、およびプログラム
WO2017047012A1 (ja) 撮像装置および撮像装置とサーバとを含むシステム
US9742981B2 (en) Image processing apparatus, image processing method and program, and image pickup apparatus for processing light field data
US20150116489A1 (en) Imaging apparatus
KR20140080815A (ko) 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP2016219991A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6270578B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
US10217196B2 (en) Image processing apparatus having image refocusing function, control method for image processing apparatus, and storage medium
US9930267B2 (en) Image pickup apparatus that automatically generates time-lapse moving image, moving image generation method, and storage medium
JP7435592B2 (ja) 画像処理装置、画像処理方法、プログラム、撮像装置
JP6257319B2 (ja) 撮像装置および画像処理装置
JP2017184007A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
JP6735566B2 (ja) 画像管理装置、画像再生装置及びそれらの制御方法、プログラム並びに記憶媒体
JP6655895B2 (ja) 撮像装置およびその制御方法、プログラムならびにシステム
JP2015139018A (ja) 電子機器及び制御プログラム
JP2017017471A (ja) 情報処理システム、及びその制御方法、プログラム
US11477367B2 (en) Information processing apparatus, image processing apparatus, and method of controlling the same
JP2016127451A (ja) 撮像装置及び撮像方法
JP2021118486A (ja) 画像処理装置
JP2022138998A (ja) 撮像装置、情報処理装置、及びプログラム
JP2022006256A (ja) 撮像装置、画像撮影処理方法、プログラムおよび記憶媒体
JP6282103B2 (ja) 画像処理装置、画像処理方法およびプログラム。
JP2015129899A (ja) 撮像装置、表示制御方法および撮影プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181106

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190514