JP2016219991A - 画像処理装置及びその制御方法、並びにプログラム - Google Patents

画像処理装置及びその制御方法、並びにプログラム Download PDF

Info

Publication number
JP2016219991A
JP2016219991A JP2015102004A JP2015102004A JP2016219991A JP 2016219991 A JP2016219991 A JP 2016219991A JP 2015102004 A JP2015102004 A JP 2015102004A JP 2015102004 A JP2015102004 A JP 2015102004A JP 2016219991 A JP2016219991 A JP 2016219991A
Authority
JP
Japan
Prior art keywords
image
subject
focus value
focused
superimposed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015102004A
Other languages
English (en)
Inventor
岩下 幸司
Koji Iwashita
幸司 岩下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015102004A priority Critical patent/JP2016219991A/ja
Priority to US15/158,112 priority patent/US20160344937A1/en
Publication of JP2016219991A publication Critical patent/JP2016219991A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/557Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/957Light-field or plenoptic cameras or camera modules

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】合焦された被写体のOSD情報を見易く表示可能な画像処理装置を提供する。
【解決手段】取得された画像及び画像に関する情報に基づいて画像のフォーカス値を変更したフォーカス値変更画像を生成する画像生成手段116と、画像に含まれる被写体に関する被写体情報を格納する格納手段108と、変更されたフォーカス値に基づいて合焦された被写体に対応する被写体情報をフォーカス値変更画像に重畳し、重畳されたフォーカス値変更画像を表示する表示手段117とを備えるように構成する。
【選択図】図1

Description

本発明は、画像処理装置及びその制御方法、並びにプログラムに関し、特に、撮像後に焦点の異なる画像を生成可能な画像処理装置及びその制御方法、並びにプログラムに関する。
近年、撮影時に格納された各種情報に基づいて画像処理を行い、焦点の異なる画像を生成可能な画像処理装置としてのライトフィールドカメラが知られている。ライトフィールドカメラは、複数のマイクロレンズを含むマイクロレンズアレイを備え、撮影時に各マイクロレンズを透過して撮像素子に受光される光の強度分布情報及び当該光の進行方向情報を格納する。ライトフィールドカメラは、格納された光の強度分布情報及び光の進行方向情報に基づいて、例えば、或る被写体に焦点を合わせた(以下、「合焦された」という)画像に対して画像処理を行い、他の被写体に合焦された画像を生成可能である。
ところで、ライトフィールドカメラは、当該ライトフィールドカメラに設けられた表示部等に各種画像を表示可能であり、表示部に画像を表示する際、当該画像に含まれる被写体に関する情報を表示するOSD機能を有する。ライトフィールドカメラでは、表示された画像(以下、「表示画像」という。)に含まれる被写体のうち予め設定された設定情報に対応する被写体が検知される。また、ライトフィールドカメラでは、OSD機能により表示される情報(以下、「OSD情報」という。)として当該検知された被写体の名前等が表示画像に重畳され、重畳された画像(以下、「重畳画像」という。)が表示される。表示部では、複数のOSD情報が表示されても、表示画像が見難くならないように、被写体を含まない領域や合焦しない被写体を含む領域にOSD情報が表示される(例えば、特許文献1参照)。重畳画像では、検知された被写体のうち合焦された被写体に対応するOSD情報が重畳される。
特開2012−234022号公報
しかしながら、重畳画像では、ユーザが所望しないOSD情報が表示画像に重畳される場合がある。例えば、画像処理を行って焦点の異なる他の表示画像を生成した場合、OSD情報に対応する被写体が当該画像処理によって合焦されなくなったにもかかわらず、当該被写体に対応するOSD情報がそのまま表示される場合がある。この場合、合焦された被写体に対応するOSD情報及び合焦されない被写体に対応するOSD情報が表示画像に混載してしまい、その結果、合焦された被写体のOSD情報が見づらくなる。
本発明の目的は、合焦された被写体のOSD情報を見易く表示可能な画像処理装置及びその制御方法、並びにプログラムを提供することにある。
上記目的を達成するために、本発明の画像処理装置は、取得された画像及び前記画像に関する情報に基づいて前記画像のフォーカス値を変更したフォーカス値変更画像を生成する画像生成手段と、前記画像に含まれる被写体に関する被写体情報を格納する格納手段と、前記変更されたフォーカス値に基づいて合焦された被写体に対応する前記被写体情報を前記フォーカス値変更画像に重畳し、前記重畳されたフォーカス値変更画像を表示する表示手段とを備えることを特徴とする。
本発明によれば、合焦された被写体のOSD情報を見易く表示することができる。
本発明の実施の形態に係るライトフィールドカメラの構成を概略的に示すブロック図である。 図1におけるマイクロレンズアレイ及びCCDの構成を説明するための図である。 図2における受光素子の受光を説明するための図である。 図3の射出瞳及び受光素子群を説明するための図であり、図4(a)は射出瞳の分割領域を示し、図4(b)はマイクロレンズに対応する受光素子群を示す。 図1のライトフィールドカメラで実行されるライトフィールドデータ生成処理の手順を示すフローチャートである。 図1のライトフィールドカメラで実行されるOSD情報表示処理の手順を示すフローチャートである。 図1における液晶パネルに表示される縮小画像の一例を示す図である。 図1における液晶パネルに表示される重畳画像を説明するための図であり、図8(a)は被写体801の被写体情報が重畳される重畳画像を示し、図8(b)は被写体802の被写体情報が重畳される重畳画像を示し、図8(c)は被写体801〜803の各々の被写体情報が重畳される重畳画像を示す。 図6のOSD情報表示処理の変形例の手順を示すフローチャートである。 図1における液晶パネルに表示される各種画像を説明するための図であり、図10(a)は被写体1002の被写体情報が重畳される重畳画像を示し、図10(b)は被写体1003,1004の各々の被写体情報が重畳される重畳画像を示し、図10(c)は選択メニューを示し、図10(d)は被写体1004の被写体情報が重畳される重畳画像を示す。
以下、本発明の実施の形態を図面を参照しながら詳述する。
本実施の形態では、画像処理装置としてのライトフィールドカメラに本発明を適用した場合について説明するが、本発明の適用先はライトフィールドカメラに限られず、撮影後に焦点の異なる画像を生成可能な画像処理装置であれば本発明を適用することができる。
図1は、本発明の実施の形態に係るライトフィールドカメラ100の構成を概略的に示すブロック図である。
図1において、ライトフィールドカメラ100は、撮像ユニット101、カメラ制御部106、CPU107、EEPROM108、信号処理部109、データ変換部110、記録再生回路112、メモリ113、及びメモリカード114を備える。また、ライトフィールドカメラ100は、送受信部115、OSD部117、画像送信部118、タッチパネル操作部119、画面制御部121、スイッチ操作部122、及びElectronic View Finder(EVF)部123を備える。さらに、ライトフィールドカメラ100は、顔検出部124、顔認識部125、奥行き検出部126、及び焦点変更部127を備える。CPU107は、カメラ制御部106、データ変換部110、記録再生回路112、OSD部117、タッチパネル操作部119、画面制御部121、及びEVF部123とシステムバス128を介して互いに接続されている。また、CPU107は、顔検出部124、顔認識部125、奥行き検出部126、及び焦点変更部127とシステムバス128を介して互いに接続されている。さらに、CPU107はEEPROM108及びスイッチ操作部122と夫々接続されている。撮像ユニット101はカメラ制御部106及び信号処理部109と夫々接続され、信号処理部109はデータ変換部110と接続され、データ変換部110は記録再生回路112及びOSD部117と夫々接続されている。記録再生回路112は、メモリ113、メモリカード114、及び送受信部115と夫々接続され、OSD部117は、画像送信部118、タッチパネル操作部119、及びEVF部123と夫々接続されている。撮像ユニット101は、レンズユニット102、マイクロレンズアレイ103、CCD104、及びA/D処理部105を備え、データ変換部110はエンコーダ部111及びデコーダ部116を備え、タッチパネル操作部119は液晶パネル120を備える。
ライトフィールドカメラ100は撮影された画像及び撮影時に格納された各種情報に基づいて焦点の異なる画像を生成するリフォーカス機能を有する。撮像ユニット101は被写体を撮像するためのユニットである。レンズユニット102は、図示しない各種レンズ、例えば、集光するための固定レンズ群、変倍レンズ群、絞り、及び補正レンズ群を備え、結像位置を補正する機能や焦点調節を行なう機能を有する。マイクロレンズアレイ103には後述する図2に示す複数のマイクロレンズ201が配置されている。CCD104は、撮像素子であり、レンズユニット102及びマイクロレンズアレイ103を透過した光束を受光し、受光された光束を光電変換して撮像信号を生成する。A/D処理部105はCCD104で生成された撮像信号をデジタル信号に変換して画像信号を生成する。カメラ制御部106はCPU107から送信された制御信号に基づいて撮像ユニット101を制御する。また、カメラ制御部106は、撮像ユニット101の各種情報、例えば、合焦情報や手ぶれ情報等を当該撮像ユニット101から取得し、取得された撮像ユニット101の各種情報をCPU107に送信する。CPU107は、図示しないROM、RAM、及びタイマ等を備え、ライトフィールドカメラ100のシステム全体を統括的に制御する。CPU107は、ROMに各種処理を実行するための制御プログラムを格納し、RAMを作業領域として用い、タイマによって各種処理の実行に用いられる時間等を計測する。EEPROM108はCPU107で用いられる各種データを格納する。本実施の形態では、EEPROM108は各被写体の被写体名等を含む被写体情報を格納する。
信号処理部109は、A/D処理部105で生成された画像信号に基づいて撮像画像データを生成する。エンコーダ部111は、図示しないライトフィールドエンコーダ及びJPEGエンコーダを備え、CPU107から送信された制御信号に基づいて焦点の異なる画像を生成するためのライトフィールドデータの生成処理やJPEG圧縮処理を行う。ライトフィールドエンコーダは各種画像、例えば、信号処理部109で生成された撮像画像データをライトフィールドデータにエンコードする。ライトフィールドデータには画像の焦点に関する設定値であるフォーカス値が含まれる。JPEGエンコーダはライトフィールドデータに基づいて導出されたフォーカス面の画像を生成する。本実施の形態では、ライトフィールドデータに基づいて、撮影された画像と異なるフォーカス値の画像であるリフォーカス画像(フォーカス値変更画像)を生成可能である。記録再生回路112は、ダイレクトメモリーアクセス(DMA)機能を有し、メモリ113及びメモリカード114とデータ変換部110とのデータ通信を行う。本実施の形態では、記録再生回路112は、ライトフィールドデータの生成指示が行われると、メモリ113やメモリカード114に格納された各種データをデータ変換部110に自動転送する。また、記録再生回路112は送受信部115とデータ通信を行う。メモリ113はエンコーダ部111でエンコードされたライトフィールドデータを一時的に格納する。メモリカード114は撮影された画像データや動画データを格納する。デコーダ部116は図示しないライトフィールドデコーダ及びJPEGデコーダを備える。ライトフィールドデコーダは、CPU107によって所望のフォーカス値が設定されると、設定されたフォーカス値に基づくリフォーカス画像をデコードする。JPEGデコーダは、CPU107で設定されたアドレス情報に基づいてメモリ113から圧縮JPEGデータを読み出し、読み出された圧縮JPEGデータを、例えば、ITU−R BT.656(CCIR656)等のデジタル映像信号に変換する。
OSD部117は各種OSD情報を重畳する。例えば、OSD部117はリフォーカス画像に含まれる各被写体に対応する被写体情報をOSD情報として重畳する。画像送信部118は、デコーダ部116によって変換されたデジタル映像信号を外部装置、例えば、テレビジョン受像機等に送信する。タッチパネル操作部119に設けられる液晶パネル120には、各種操作ボタンや各種画像が表示され、例えば、図8に示すように、各被写体に対応する被写体情報が重畳された重畳画像が表示される。
画面制御部121は、タッチパネル操作部119とデータ通信を行い、タッチパネル操作部119で入力された入力情報を取得する。また、液晶パネル120に表示される各種画像の表示を制御する。スイッチ操作部122は図示しない各種操作キーを備える。ユーザは、タッチパネル操作部119及びスイッチ操作部122の操作によって各種設定を行う。本実施の形態では、例えば、ユーザのタッチパネル操作部119及びスイッチ操作部122の操作により、静止画等の撮影を行うための「撮影モード」や撮影された画像の再生を行うための「再生モード」が設定される。EVF部123は被写体を除く小窓として用いられる。顔検出部124は画像データに顔検出処理を行って、当該画像データに含まれる人物の顔領域を検出する。例えば、顔検出部124は、眼、鼻、口の各端点や顔の輪郭点等の特徴点を画像データから抽出し、抽出された特徴点に基づいて被写体の顔領域及び顔の大きさを検出する。顔認識部125は顔検出部124によって検出された結果に基づいて認証対象となる顔の特徴を示す顔認証データを生成する。例えば、顔認識部125は、検出された顔の特徴点の位置、特徴点から導出される顔パーツの大きさ、及び各特徴点の相対距離等に基づいて顔認証データを生成する。本実施の形態では、生成された顔認証データと被写体情報とが対応付けされてEEPROM108に格納される。例えば、液晶パネル120に表示されたリフォーカス画像から顔認証データに対応、例えば、一致する被写体が検知されると、検知された被写体に対応する被写体情報が当該被写体のOSD情報として重畳される。奥行き検出部126はライトフィールドカメラ100から被写体までの距離情報を検出する。焦点変更部127はリフォーカス画像を生成するためのフォーカス値を設定する。
図2は、図1におけるマイクロレンズアレイ103及びCCD104の構成を説明するための図である。
図2において、マイクロレンズアレイ103は、複数のマイクロレンズ201を備え、CCD104と所定の隙間を介して対向する位置に配置される。図2では、光軸をZ軸、ライトフィールドカメラ100を光軸方向に正面から眺めたときの水平方向をX軸、及び当該水平方向に鉛直する方向をY軸として説明する。マイクロレンズアレイ103ではX軸及びY軸の各々に対して等間隔に複数、例えば、5個のマイクロレンズ201が配置される。なお、本実施の形態では、一例として、マイクロレンズ201がX軸及びY軸の各々に対して5個ずつ配置されたマイクロレンズアレイ103について説明するが、マイクロレンズアレイ103で配置されるマイクロレンズ201の個数はこれに限定されない。
また、図2において、CCD104は格子状に配置された複数の受光素子202を備える。各マイクロレンズ201には所定数の受光素子202を含む受光素子群203が対応付けされており、図2では、一例として、受光素子群203に6×6=36個の受光素子202が含まれていることを前提とする。各マイクロレンズ201を透過した光束は、当該各マイクロレンズ201に入射した入射方向に応じて分離され、対応付けされた受光素子群に含まれる各受光素子に入射する。
図3は、図2における受光素子202の受光を説明するための図である。
図3では、ライトフィールドカメラ100をY軸に沿って眺めた場合のレンズユニット102を示す射出瞳301、マイクロレンズアレイ103、及びCCD104を示す。図3では、一例として、マイクロレンズアレイ103に配置される或るマイクロレンズ201を透過した光束が各受光素子p1〜p6に入射する場合について説明する。なお、図3においても、光軸をZ軸、ライトフィールドカメラ100を光軸方向に正面から眺めたときの水平方向をX軸、及び当該水平方向に鉛直する方向をY軸とする。
図3において、射出瞳301がX軸方向に6分割された分割領域a1〜a6の各々を透過した各光束はマイクロレンズ201を透過する。マイクロレンズ201を透過した各光束は当該マイクロレンズ201に対応付けされた受光素子群203に含まれる受光素子p1〜p6の各々に入射する。例えば、分割領域a1を透過した光束は受光素子p1に入射し、分割領域a2を透過した光束は受光素子p2に入射し、分割領域a3を透過した光束は受光素子p3に入射する。また、分割領域a4を透過した光束は受光素子p4に入射し、分割領域a5を透過した光束は受光素子p5に入射し、分割領域a6を透過した光束は受光素子p6に入射する。なお、図3では、射出瞳301がX軸方向に6分割された分割領域を透過した光束について説明したが、当該分割領域はX軸方向に限らず、Y軸方向においても同様に行われる。すなわち、レンズユニット102を正面から眺めたときの射出瞳301に対し、分割領域は、図4(a)に示すように、分割領域a11〜a66となる。分割領域a11〜a66の各々を透過した各光束は、マイクロレンズ201を透過して、図4(b)に示すように、当該マイクロレンズ201に対応付けされた受光素子群203に含まれる受光素子p11〜p66の各々に入射する。なお、マイクロレンズアレイ103に配置される他のマイクロレンズ201でも同様に、他のマイクロレンズ201を透過した各光束が当該他のマイクロレンズ201に対応付けされた受光素子群203に含まれる受光素子p11〜p66の各々に入射する。受光素子p11〜p66の各々で受光された各光束に基づいてリフォーカス画像の生成等に用いられるライトフィールドデータが生成される。
図5は、図1のライトフィールドカメラ100で実行されるライトフィールドデータ生成処理の手順を示すフローチャートである。
図5の処理は、CPU107が当該CPU107のROMに格納された各種制御プログラムを実行することによって行われる。
図5において、まず、CPU107は、ユーザのタッチパネル操作部119やスイッチ操作部122の操作によって撮影モードが設定されたか否かを判別する(ステップS501)。CPU107は、撮影モードが設定されると(ステップS501でYES)、タッチパネル操作部119やスイッチ操作部122で撮影を開始するための撮影ボタンが押下されたか否かを判別する(ステップS502)。CPU107は、撮影ボタンが押下されると(ステップS502でYES)、ライトフィールドデータを生成する(ステップS503)。次いで、CPU107は、生成されたライトフィールドデータをメモリ113に格納し(ステップS504)、本処理を終了する。
図6は、図1のライトフィールドカメラ100で実行されるOSD情報表示処理の手順を示すフローチャートである。
例えば、画像処理を行ってリフォーカス画像を生成した場合、OSD情報として重畳される被写体情報に対応する被写体が当該画像処理によって合焦されなくなったにもかかわらず、当該被写体に対応する被写体情報がそのまま表示される場合がある。この場合、合焦された被写体に対応する被写体情報及び合焦されない被写体に対応する被写体情報が重畳画像に混載してしまい、その結果、合焦された被写体の被写体情報が見づらくなる。
これに対応して、本実施の形態では、リフォーカス画像において合焦された被写体に対応する被写体情報のみが重畳された重畳画像が表示される。
図6の処理は、CPU107が格納された各種制御プログラムを実行することによって行われ、液晶パネル120に表示される画像のOSD情報として当該画像に含まれる被写体に対応する被写体情報が重畳されることを前提とする。
図6において、まず、CPU107は、ユーザのタッチパネル操作部119やスイッチ操作部122の操作によって再生モードが設定されたか否かを判別する(ステップS601)。CPU107は、再生モードが設定されると(ステップS601でYES)、メモリカード114に格納された各ライトフィールドデータのサムネイル表示を行う(ステップS602)。具体的に、CPU107は各ライトフィールドデータに対応する図7の縮小画像701〜706を液晶パネル120に表示する。縮小画像701〜706の各々を示すファイル名には、図7に示すように、ライトフィールドデータであることを示す拡張子「.lf」が付与される。CPU107は、メモリ113からライトフィールドデータを読み出し、デコーダ部116によって撮影時に設定されたフォーカス値に基づく画像をデコードし、当該画像が縮小された縮小画像701〜706を液晶パネル120に表示する。次いで、CPU107は、液晶パネル120に表示された縮小画像701〜706からいずれか1つの縮小画像がユーザによって選択されたか否かを判別する(ステップS603)。CPU107は、例えば、縮小画像706が選択されると(ステップS603でYES)、縮小画像706に対応する画像、つまり、撮影時に設定されたフォーカス値に基づく画像を再生する(ステップS604)。その後、CPU107は、再生された画像に含まれる被写体のうち合焦された被写体に対応する被写体情報が重畳された重畳画像を表示する。具体的に、図8(a)に示すように、合焦された被写体801の名前を示す「Bさん」が重畳された重畳画像が表示される。次いで、CPU107は、ユーザのタッチパネル操作部119の操作によってフォーカス値の変更指示が行われたか否かを判別する(ステップS605)。本実施の形態では、例えば、液晶パネル120に表示される複数の被写体のうちいずれか1つの被写体をユーザがタッチした場合、CPU107はフォーカス値の変更指示が行われたと判別する。一方、液晶パネル120に表示された複数の被写体のうちいずれの被写体もユーザがタッチしない場合、CPU107はフォーカス値の変更指示が行われないと判別する。CPU107は、例えば、図8(b)に示すように、ユーザが被写体802をタッチしてフォーカス値の変更指示が行われると(ステップS605でYES)、被写体802が合焦されたリフォーカス画像を生成する(ステップS606)(画像生成手段)。次いで、CPU107は、図8(b)に示すように、生成されたリフォーカス画像において合焦された被写体802に対応する被写体情報である「Aさん」のみが重畳された重畳画像を表示し(ステップS607)、本処理を終了する。
図6の処理によれば、リフォーカス画像において合焦された被写体802に対応する被写体情報である「Aさん」のみが重畳された重畳画像が表示される。これにより、重畳画像に合焦された被写体802以外の被写体の不要な被写体情報が表示されることなく、もって、合焦された被写体802の被写体情報が見易く表示される。
以上、本発明について実施の形態を用いて説明したが、本発明は上述した実施の形態に限定されるものではない。
例えば、各被写体の合焦の度合いに応じて透過度の異なる各被写体に関する被写体情報が重畳された重畳画像を表示してもよい。具体的に、図8(c)に示すように、被写体802が合焦され、被写体801,803が合焦されない場合、CPU107は被写体801〜803の各々に対応する被写体情報を取得する。その後、CPU107は合焦された被写体802の被写体情報(例えば、「Aさん」)の透過度を非透過に設定する。さらに、CPU107は、合焦されない被写体801,803の各々の被写体情報(例えば、「Bさん」や「Cさん」)の透過度を半透過に設定し、各設定された透過度の被写体情報を重畳された重畳画像を表示する。これにより、合焦された被写体に関する被写体情報(例えば、「Aさん」)と合焦されない被写体に関する被写体情報(例えば、「Bさん」や「Cさん」)を透過度に基づいて容易に見分けることができる。その結果、合焦された被写体の被写体情報がより見易く表示される。
また、図6の処理では、複数の合焦された被写体がリフォーカス画像に含まれる場合、上記複数の合焦された被写体に関する被写体情報から所望の被写体情報がユーザによって選択されてもよい。
図9は、図6のOSD情報表示処理の変形例の手順を示すフローチャートである。
図9の処理も、CPU107が当該CPU107のROMに格納された各種制御プログラムを実行することによって行われ、液晶パネル120に表示される画像のOSD情報として当該画像に含まれる被写体に対応する被写体情報が重畳されることを前提とする。
図9において、まず、CPU107は、図6のステップS601〜S604と同様の処理を行う。次いで、CPU107は、ユーザのタッチパネル操作部119の操作によってフォーカス値の変更指示が行われたか否かを判別する(ステップS901)。ステップS901では、液晶パネル120に表示された、フォーカス値を設定するための図10(a)に示すスライドバー1001をユーザが操作した場合、CPU107はフォーカス値の変更指示が行われたと判別する。一方、液晶パネル120に表示されたスライドバー1001をユーザが操作しない場合、CPU107はフォーカス値の変更指示が行われないと判別する。スライドバー1001は、フォーカス値を段階的に設定可能であり、タッチする位置が「手前」に近付くにつれて、ライトフィールドカメラ100に近い被写体が合焦されるようにフォーカス値が設定される。また、タッチする位置が「奥」に近付くにつれて、ライトフィールドカメラ100に遠い被写体が合焦されるようにフォーカス値が設定される。CPU107は、例えば、図10(b)に示すように、被写体1003,1004に合焦されるフォーカス値への変更指示が行われると(ステップS901でYES)、被写体1003,1004が合焦されるリフォーカス画像を生成する(ステップS902)。次いで、CPU107は、リフォーカス画像において合焦されている被写体が複数の被写体であるか否かを判別する(ステップS903)。
ステップS903の判別の結果、合焦されている被写体が複数の被写体でないとき、例えば、図10(a)に示すように、合焦されている被写体が被写体1002のみであるとき、CPU107は被写体1002の被写体情報である「Dさん」のみを重畳する。その後、CPU107は重畳された重畳画像を液晶パネル120に表示し(ステップS904)、本処理を終了する。
ステップS903の判別の結果、合焦されている被写体が複数の被写体であるとき、CPU107は、図10(c)に示すように、OSD情報として重畳される被写体情報を選択可能な選択メニュー1005を表示する。例えば、リフォーカス画像において被写体1003,1004が合焦される場合、選択メニュー1005には被写体1004の被写体情報であるEさんのみを表示する「Eさんのみ」が表示される。また、選択メニュー1005には被写体1003の被写体情報であるFさんのみを表示する「Fさんのみ」や、Eさん及びFさんの両方を表示する「EさんとFさん」が表示される。次いで、CPU107は、ユーザの選択メニュー1005の選択に基づく被写体情報(以下、「選択被写体情報」という。)のみが重畳された重畳画像を液晶パネル120に表示する(ステップS905)。例えば、ユーザが選択メニュー1005で「Eさんのみ」を選択した場合、図10(d)に示すように、Eさんのみが重畳された重畳画像が液晶パネル120に表示される。その後、CPU107はステップS905の処理を実行した後に本処理を終了する。
図9の処理によれば、リフォーカス画像に複数の合焦された被写体1003,1004が含まれる場合、上記被写体1003,1004に対応する被写体情報(例えば、「Eさん」や「Fさん」)から所望の被写体情報(「Eさん」)がユーザによって選択される。これにより、ユーザが所望する被写体情報のみを選択して表示することができ、もって、ユーザの利便性を向上することができる。
本発明は、上述の実施の形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読み出して実行する処理でも実現可能である。また、本発明は、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100 ライトフィールドカメラ
107 CPU
108 EEPROM
120 液晶パネル
801,802,1002〜1004 被写体
1005 選択メニュー

Claims (5)

  1. 取得された画像及び前記画像に関する情報に基づいて前記画像のフォーカス値を変更したフォーカス値変更画像を生成する画像生成手段と、
    前記画像に含まれる被写体に関する被写体情報を格納する格納手段と、
    前記変更されたフォーカス値に基づいて合焦された被写体に対応する前記被写体情報を前記フォーカス値変更画像に重畳し、前記重畳されたフォーカス値変更画像を表示する表示手段とを備えることを特徴とする画像処理装置。
  2. 前記表示手段は、
    各前記被写体の合焦の度合いに応じて透過度の異なる各前記被写体に関する前記被写体情報が重畳されたフォーカス値変更画像を表示することを特徴とする請求項1記載の画像処理装置。
  3. 複数の前記合焦された被写体がフォーカス値変更画像に含まれる場合、前記複数の合焦された被写体に関する被写体情報から所望の合焦された被写体に関する被写体情報をユーザが選択可能な選択手段を更に備えることを特徴とする請求項1又は2記載の画像処理装置。
  4. 取得された画像及び前記画像に関する情報に基づいて前記画像のフォーカス値を変更したフォーカス値変更画像を生成する画像生成ステップと、
    前記画像に含まれる被写体に関する被写体情報を格納する格納ステップと、
    前記変更されたフォーカス値に基づいて合焦された被写体に対応する前記被写体情報を前記フォーカス値変更画像に重畳し、前記重畳されたフォーカス値変更画像を表示する表示ステップとを有することを特徴とする画像処理装置の制御方法。
  5. 画像処理装置の制御方法をコンピュータに実行させるプログラムであって、
    前記画像処理装置の制御方法は、
    取得された画像及び前記画像に関する情報に基づいて前記画像のフォーカス値を変更したフォーカス値変更画像を生成する画像生成ステップと、
    前記画像に含まれる被写体に関する被写体情報を格納する格納ステップと、
    前記変更されたフォーカス値に基づいて合焦された被写体に対応する前記被写体情報を前記フォーカス値変更画像に重畳し、前記重畳されたフォーカス値変更画像を表示する表示ステップとを有することを特徴とするプログラム。
JP2015102004A 2015-05-19 2015-05-19 画像処理装置及びその制御方法、並びにプログラム Pending JP2016219991A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015102004A JP2016219991A (ja) 2015-05-19 2015-05-19 画像処理装置及びその制御方法、並びにプログラム
US15/158,112 US20160344937A1 (en) 2015-05-19 2016-05-18 Image processing apparatus capable of generating image with different focal point after shooting, control method therefor, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015102004A JP2016219991A (ja) 2015-05-19 2015-05-19 画像処理装置及びその制御方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2016219991A true JP2016219991A (ja) 2016-12-22

Family

ID=57325838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015102004A Pending JP2016219991A (ja) 2015-05-19 2015-05-19 画像処理装置及びその制御方法、並びにプログラム

Country Status (2)

Country Link
US (1) US20160344937A1 (ja)
JP (1) JP2016219991A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018062368A1 (ja) * 2016-09-30 2018-04-05 株式会社ニコン 撮像装置および撮像システム
JP6752681B2 (ja) 2016-10-19 2020-09-09 キヤノン株式会社 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体
WO2019110012A1 (en) * 2017-12-08 2019-06-13 Shanghaitech University Face detection and recognition method using light field camera system
JP2022051280A (ja) * 2020-09-18 2022-03-31 キヤノン株式会社 焦点調節装置及び方法、及び撮像装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130222633A1 (en) * 2012-02-28 2013-08-29 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
JP2014014071A (ja) * 2012-06-08 2014-01-23 Canon Inc 画像処理装置及び画像処理方法
JP2015023486A (ja) * 2013-07-22 2015-02-02 株式会社ニコン 画像処理装置、画像表示装置、及び撮像装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP3812824B2 (ja) * 2002-03-12 2006-08-23 カシオ計算機株式会社 撮像装置、合焦状況表示方法及びプログラム
KR101120027B1 (ko) * 2004-11-01 2012-03-23 삼성전자주식회사 셔터 반누름 시에 osd 처리 장치 및 방법
US7860385B2 (en) * 2008-03-19 2010-12-28 Fujinon Corporation Autofocus system
KR101599872B1 (ko) * 2009-02-25 2016-03-04 삼성전자주식회사 디지털 영상 처리 장치, 그 제어방법 및 이를 실행시키기 위한 프로그램을 저장한 기록매체
JP5401420B2 (ja) * 2009-09-09 2014-01-29 パナソニック株式会社 撮像装置
JP6080417B2 (ja) * 2011-08-19 2017-02-15 キヤノン株式会社 画像処理装置、及び画像処理方法
US9444990B2 (en) * 2014-07-16 2016-09-13 Sony Mobile Communications Inc. System and method for setting focus of digital image based on social relationship
KR102155093B1 (ko) * 2014-08-05 2020-09-11 엘지전자 주식회사 이동단말기 및 그 제어방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130222633A1 (en) * 2012-02-28 2013-08-29 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
JP2014014071A (ja) * 2012-06-08 2014-01-23 Canon Inc 画像処理装置及び画像処理方法
JP2015023486A (ja) * 2013-07-22 2015-02-02 株式会社ニコン 画像処理装置、画像表示装置、及び撮像装置

Also Published As

Publication number Publication date
US20160344937A1 (en) 2016-11-24

Similar Documents

Publication Publication Date Title
JP5681329B2 (ja) 撮像装置及び画像表示方法
JP4732303B2 (ja) 撮像装置
JP2014039125A (ja) 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム
US9065998B2 (en) Photographing apparatus provided with an object detection function
JP6752681B2 (ja) 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体
CN107040718B (zh) 显示控制装置及其控制方法
KR20130017629A (ko) 영상 처리 장치, 영상 처리 방법, 및 컴퓨터 판독가능 저장매체
JP2016219991A (ja) 画像処理装置及びその制御方法、並びにプログラム
JP7049163B2 (ja) 電子機器およびその制御方法、プログラム並びに記憶媒体
KR20120002834A (ko) 참조 영상을 제공하는 촬상장치 및 그의 참조 영상 제공방법
JP2007104248A (ja) 電子カメラおよびプログラム
JP6155471B2 (ja) 画像生成装置、撮像装置および画像生成方法
JP2009077090A (ja) 撮像装置、撮像システム及び画像読み出しシステム
CN103973972A (zh) 立体摄像装置
JP7380675B2 (ja) 画像処理装置、画像処理方法、プログラム、撮像装置
JP5328528B2 (ja) 撮像装置、撮像装置の制御方法、及びコンピュータプログラム
JP7435592B2 (ja) 画像処理装置、画像処理方法、プログラム、撮像装置
JP2017184007A (ja) 画像処理装置、撮像装置、制御方法およびプログラム
JP2015080169A (ja) 撮像装置及びその制御方法
JP2012134680A (ja) 撮像装置
JP2016036081A (ja) 画像処理装置、方法及びプログラム並びに記録媒体
JP7271316B2 (ja) 撮像装置及びその制御方法
JP6218615B2 (ja) 表示機器、表示方法、撮影装置及び撮影システム
JP2014062926A (ja) オートフォーカスシステム
JP2017184144A (ja) 画像処理装置、撮像装置、および画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001