JP2010044436A - 画像表示装置および方法、ならびにプログラム - Google Patents

画像表示装置および方法、ならびにプログラム Download PDF

Info

Publication number
JP2010044436A
JP2010044436A JP2008205977A JP2008205977A JP2010044436A JP 2010044436 A JP2010044436 A JP 2010044436A JP 2008205977 A JP2008205977 A JP 2008205977A JP 2008205977 A JP2008205977 A JP 2008205977A JP 2010044436 A JP2010044436 A JP 2010044436A
Authority
JP
Japan
Prior art keywords
face
area
image
display area
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008205977A
Other languages
English (en)
Inventor
Kiyoshi Ono
潔 大野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008205977A priority Critical patent/JP2010044436A/ja
Publication of JP2010044436A publication Critical patent/JP2010044436A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

【課題】本発明は、唇や額、頬などの顔の特定の構成物が表示領域から外れることなく、顔の構成物のピントや色味の確認を行いやすくする画像表示装置を提供する。
【解決手段】撮像装置100によれば、読み込んだ画像から人物の顔の構成物を検出し、各構成物の位置座標を取得すると共に、検出された顔の構成物から顔の特定の構成物を含む矩形の検出顔領域を設定する。そして、設定された検出顔領域と、検出された顔の構成物の位置座標と、顔の向きに基づいて、顔の特定の構成物を含む顔表示領域402を算出して表示する。
【選択図】図3

Description

本発明は、画像から人物の顔部分の画像を切り出して表示することができる画像表示装置および方法、ならびにプログラムに関する。
従来の撮像装置において、撮影画像の中から被写体の特定領域を任意の条件によって自動で検出し、検出した被写体の特定領域に対して様々な処理を行う技術が提案されている。入力された画像データの中から人物の顔を検出し、検出された人物の顔の少なくとも一部を測距エリアとして自動合焦制御を行う技術が開示されている(特許文献1参照)。
ここで、汎用の顔検出モジュールにおける代表的な顔検出方法を簡単に説明する。
まず、顔検出の対象となる画像データに対して、図17(a)に示すように垂直方向に、または図17(b)に示すように水平方向に、特定周波数帯域の信号を通すバンドパスフィルタをかけ、画像信号からエッジ成分を検出する。そして、検出されたエッジ成分に対してパターンマッチングを行い、目、二つの鼻孔(以下、「鼻孔対」という)、口、耳等の顔の特徴的な構成物の抽出を行う。抽出された目の候補群の中から、予め設定された条件(両目の距離、傾き等)を満たすものを、正しい目の組み合わせと判断し、目の組み合わせが存在するもののみ目の候補群として絞り込む。絞り込まれた目の候補群と、それに対応する顔を形成する他の構成物(鼻、口、耳等)を対応付け、予め設定した非顔条件フィルタを通すことで、顔を検出する。なお、ここでいう非顔条件フィルタとは、顔の候補と非顔条件フィルタとを比較し、所定の評価値を満たさなければ顔ではないと判断するためのフィルタである。
また、画像から検出した顔の領域の左右に顔の向きを判定する判定領域を設け、それぞれの色相を取得し、顔の領域の色相と差分の少ない方の判定領域から、被写体の顔が左向き、正面向き、右向きのいずれかを判定する技術が公開されている(特許文献2参照)。
また、検出した被写体の顔の向きを、顔の構成物の位置関係をもとに検出する技術が公開されている(特許文献3参照)。この特許文献3では、以下のように、顔の構成物の三次元座標と構成物間のベクトル距離情報を用いて顔の向きを求める方法が紹介されている。
図18に示すように、カメラのレンズの中心Οを三次元空間の原点とし、z軸がカメラの光軸方向、x軸が左右方向、y軸が上下方向とする。撮像平面(二次元平面)はxy平面に平行で、レンズからの距離を既知情報dとする。撮像平面上の右目座標をa’、左目座標をb’、鼻孔対座標をc’としたとき、a’,b’,c’は、三次元空間上の右目の座標a、左目の座標b、鼻孔対の座標cを、レンズから撮像面に中心投影した座標であると仮定できる。そこで、顔の構成物である右目、左目、鼻孔対の三次元座標について、ユークリッド距離を既知情報として与えることによって、a,b,cの三次元空間中の座標を算出することができる。顔の向きは、両目及び鼻孔対を含む平面の法線方向とすることで求められる。
特開2003−107335号公報 特開2006−338329号公報 特開平10−307923号公報
しかしながら、撮影画像の中から人物の顔部分の画像を切り出して表示する場合、上記顔検出方法により検出された両目や鼻孔や口を含む矩形を顔領域として表示すると、顔の向きによっては顔の見たい部分(唇や額、頬)が表示領域から外れてしまうことがある。
本発明は、上記問題に鑑みて成されたものであり、唇や額、頬などの顔の特定の構成物が表示領域から外れることなく、顔の構成物のピントや色味の確認を行いやすくする画像表示装置および方法、並びにプログラムを提供することを目的とする。
上記目的を達成するために、請求項1記載の画像表示装置は、画像を読み込む画像読込手段と、読み込んだ画像から人物の顔の構成物を検出する顔検出手段と、前記顔検出手段で検出された顔の構成物から顔の特定の構成物を含む矩形領域を設定する検出顔領域設定手段と、前記顔検出手段で検出された顔の構成物の位置座標を取得する顔の構成物位置取得手段と、前記人物の顔の向きを判定する顔の向き判定手段と、前記設定された矩形領域と、前記取得された顔の構成物の位置座標と、前記判定された顔の向きに基づいて、前記顔の特定の構成物を含む顔部分を表示するための表示領域を算出する表示領域算出手段と、前記表示領域算出手段で算出された表示領域を表示する顔領域表示手段とを有することを特徴とする。
上記目的を達成するために、請求項6記載の画像表示方法は、画像を読み込む画像読込ステップと、読み込んだ画像から人物の顔の構成物を検出する顔検出ステップと、前記顔検出ステップで検出された顔の構成物から顔の特定の構成物を含む矩形領域を設定する検出顔領域設定ステップと、前記顔検出ステップで検出された顔の構成物の位置座標を取得する顔の構成物位置取得ステップと、前記人物の顔の向きを判定する顔の向き判定ステップと、前記設定された矩形領域と、前記取得された顔の構成物の位置座標と、前記判定された顔の向きに基づいて、前記顔の特定の構成物を含む顔部分を表示するための表示領域を算出する表示領域算出ステップと、前記表示領域算出ステップで算出された表示領域を表示する顔領域表示ステップとを有することを特徴とする。
本発明によれば、読み込んだ画像から人物の顔の構成物を検出した後、検出された顔の構成物から顔の特定の構成物を含む矩形領域を設定し、検出された顔の構成物の位置座標を取得し、人物の顔の向きを判定する。そして、設定された矩形領域と、取得された顔の構成物の位置座標と、判定された顔の向きに基づいて、顔の特定の構成物を含む顔部分を表示するための表示領域を算出し、算出された表示領域を表示する。これにより、唇や額、頬などの顔の特定の構成物が表示領域から外れることなく、顔の構成物のピントや色味の確認を行いやすくするという効果がある。
以下、本発明の実施の形態を図面を参照して詳細に説明する。
[第1の実施形態]
図1は、本発明の第1の実施形態に係る画像表示装置が適用された撮像装置の構成例を示すブロック図である。
図1において、100は撮像装置である。10は撮影レンズ、12は絞り機能を備えるシャッター、14は光学像を電気信号に変換する撮像素子、16は撮像素子14のアナログ信号出力をディジタル信号に変換するA/D変換器である。18は撮像素子14、A/D変換器16、D/A変換器26にクロック信号や制御信号を供給するタイミング発生回路であり、メモリ制御回路22及びシステム制御回路50により制御される。
20は画像処理回路であり、A/D変換器16からの画像データ或いはメモリ制御回路22からの画像データに対して所定の画素補間処理や色変換処理を行う。画像処理回路20は、A/D変換器16からの画像データを用いて所定の演算処理を行う。
システム制御回路50は、画像処理回路20により得られた演算結果に基づき、露光制御回路40及び測距制御回路42を制御する。そして、TTL(スルー・ザ・レンズ)方式のAF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を行う。また、システム制御回路50は、画像処理回路20により得られた演算結果に基づき、TTL方式のAWB(オートホワイトバランス)処理を行う。
メモリ制御回路22は、A/D変換器16、タイミング発生回路18、画像処理回路20、画像表示メモリ24、D/A変換器26、メモリ30、及び圧縮・伸長回路32を制御する。A/D変換器16により変換された画像データが画像処理回路20、メモリ制御回路22を介して、或いはA/D変換器16により変換された画像データが直接メモリ制御回路22を介して、画像表示メモリ24或いはメモリ30に保存される。
28はTFT LCD等から成る画像表示部であり、画像表示メモリ24に保存された表示用の画像データはD/A変換器26を介して画像表示部28により表示される。撮像素子14からA/D変換器16及びメモリ制御回路22を介して出力された画像データを画像表示部28に逐次表示すれば、電子ファインダ機能を実現することが可能である。また、画像表示部28は、システム制御回路50の指示により任意に表示をON/OFFすることが可能であり、表示をOFFにした場合には撮像装置100の電力消費を大幅に低減することができる。
メモリ30は、撮影された静止画像や動画像のデータを格納するためのメモリであり、所定枚数の静止画像や所定時間の動画像のデータを格納するのに十分な記憶容量を備えている。これにより、複数枚の静止画像を連続して撮影する連射撮影やパノラマ撮影の場合にも、高速かつ大量の画像保存をメモリ30に対して行うことが可能となる。また、メモリ30は、システム制御回路50の作業領域としても使用することが可能である。
圧縮・伸長回路32は、適応離散コサイン変換(ADCT)等により画像データを圧縮伸長する回路であり、メモリ30に格納された画像データを読み込んで圧縮処理或いは伸長処理を行い、処理されたデータを再びメモリ30に格納する。
露光制御回路40は、絞り機能を備えるシャッター12を制御し、フラッシュ48と連携することによりフラッシュ調光機能も有するものである。測距制御回路42は、撮影レンズ10のフォーカシングを制御する。
44は撮影レンズ10のズーミングを制御するズーム制御回路、46は保護手段であるバリア102の動作を制御するバリア制御回路である。48はフラッシュであり、AF補助光の投光機能、フラッシュ調光機能も有する。露光制御回路40及び測距制御回路42は、画像処理回路20によって演算された演算結果に基づき、システム制御回路50により制御される。
システム制御回路50は撮像装置100全体を制御する。52はシステム制御回路50の動作用の定数、変数、プログラム等を記憶するメモリである。54はシステム制御回路50でのプログラムの実行に応じて、文字、画像、音声等を用いて動作状態やメッセージ等を表示する液晶表示装置、スピーカー等の表示部である。表示部54は、撮像装置100の操作部近辺の視認し易い位置に単数或いは複数個所設置され、例えばLCDやLED、発音素子等の組み合わせにより構成されている。また、表示部54は、その一部の機能が光学ファインダ104内に設置されている。
表示部54の表示内容のうち、LCD等に表示するものとしては、シングルショット/連写撮影表示、セルフタイマー表示、圧縮率表示、記録媒体180,190の着脱状態表示、通信I/F動作表示、日付・時刻表示等がある。また、表示部54の表示内容のうち、光学ファインダ104内に表示するものとしては、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示等がある。
56は電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。60,62,64,66,68及び70は、システム制御回路50の各種の動作指示を入力するための操作手段であり、スイッチやダイアル、タッチパネル、視線検知によるポインティング、音声認識装置等の単数或いは複数の組み合わせで構成される。ここで、これらの操作手段の具体的な説明を行う。
60はモードダイアルスイッチで、電源オフ、自動撮影モード、撮影モード、パノラマ撮影モード、再生モード、マルチ画面再生・消去モード、PC接続モード等の各機能モードを切り替え設定することができる。62はシャッタースイッチSW1で、不図示のシャッターボタンの操作途中でONとなり、AF(オートフォーカス)処理、AE(自動露出)処理、AWB(オートホワイトバランス)処理、EF(フラッシュプリ発光)処理等の動作開始を指示する。
64はシャッタースイッチSW2で、不図示のシャッターボタンの操作完了でONとなる。シャッタースイッチSW2_64が押下されると、システム制御回路50により、露光処理や現像処理、メモリ30から画像データを読み出して圧縮・伸長回路32で圧縮を行って記録媒体180等に保存する記録処理等の一連の動作が開始される。
66は顔領域表示スイッチであり、画像表示部28に表示する画像を、全体画像又は顔部分の画像(拡大画像)に切り替えるための切り替えスイッチである。画像中に複数の顔が検出された場合は、検出された複数の顔部分の画像がそれぞれ、顔領域表示スイッチ66が操作される度に切り替えて表示され、全て表示した後に全体画像の表示に戻る。
68はクイックレビューON/OFFスイッチで、撮影直後に撮影した画像データを自動再生するクイックレビュー機能を設定する。なお、本実施形態では、特に、画像表示部28をOFFとした場合におけるクイックレビュー機能の設定をする機能を備えるものとする。
70は各種ボタンやタッチパネル等からなる操作部で、メニューボタン、セットボタン、再生画像移動+(プラス)ボタン、再生画像−(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタン等がある。
80は電源制御回路で、電池検出回路、DC−DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成されている。電源制御回路80は、電池の装着の有無、電池の種類、電池残量の検出を行い、検出結果及びシステム制御回路50の指示に基づいてDC−DCコンバータを制御し、必要な電圧を必要な期間、記録媒体を含む各部へ供給する。
82,84はコネクタ、86はアルカリ電池やリチウム電池等の一次電池やNiCd電池やNiMH電池、Li電池等の二次電池、ACアダプター等からなる電源である。90,94はメモリカードやハードディスク等の記録媒体とのインターフェース(I/F)である。92,96はメモリカードやハードディスク等の記録媒体と接続を行うコネクタ、98はコネクタ92及び/又はコネクタ96に記録媒体が装着されているか否かを検知する記録媒体着脱検知回路である。
なお、本実施形態では、記録媒体180,190を取り付けるインターフェース及びコネクタを2系統持つものとして説明している。もちろん、記録媒体を取り付けるインターフェース及びコネクタは、単数或いは複数、いずれの系統数を備える構成としても構わない。また、異なる規格のインターフェース及びコネクタを組み合わせて備える構成としても構わない。また、インターフェース及びコネクタとしては、PCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成して構わない。さらに、インターフェース90,94、コネクタ92,96をPCMCIAカードやCF(コンパクトフラッシュ(登録商標))カード等の規格に準拠したものを用いて構成した場合、LANカードやモデムカード等の通信カード等の各種通信カードを接続してもよい。これにより、他のコンピュータやプリンタ等の周辺機器との間で画像データや画像データに付属した管理情報を転送し合うことができる。
バリア102は、撮像装置100の撮影レンズ10を含む撮像部を覆うことにより、撮像部の汚れや破損を防止する保護手段である。104は光学ファインダであり、画像表示部28による電子ファインダ機能を使用すること無しに、光学ファインダのみを用いて撮影を行うことが可能である。また、光学ファインダ104内には、表示部54の一部の機能、例えば、合焦表示、手振れ警告表示、フラッシュ充電表示、シャッタースピード表示、絞り値表示、露出補正表示などが設置されている。
110は通信回路で、RS232CやUSB、IEEE1394、P1284、SCSI、モデム、LAN、無線通信、等の各種通信機能を有する。112は通信回路110により撮像装置100を他の機器と接続するコネクタ、或いは無線通信の場合はアンテナである。
記録媒体180,190は、メモリカードやハードディスク等の記録媒体である。記録媒体180は、半導体メモリや磁気ディスク等から構成される記録部182、撮像装置100とのインターフェース184、撮像装置100と接続を行うコネクタ186を備えている。記録媒体190は、半導体メモリや磁気ディスク等から構成される記録部192、撮像装置100とのインターフェース194、撮像装置100と接続を行うコネクタ196を備えている。
顔検出部(顔検出手段)150は、画像データから両目、鼻孔や口といった顔の構成物を検出する。検出顔領域設定部(検出顔領域設定手段)152は、顔検出部150により検出された顔の構成物から特定の構成物を含む矩形の領域(検出顔領域)を設定して保存する。検出顔領域の保存とは、設定された矩形の検出顔領域の各頂点の座標位置が保存されることをいう。なお、保存される場所は、検出顔領域設定部152内であっても、メモリ30等であってもよい。
顔の構成物の位置取得部(顔の構成物位置取得手段)154は、顔検出部150により検出された顔の構成物の位置座標を取得して保存する。ここでいう座標とは、図4に示すように、画像の左下を原点0とし、縦方向をY軸、横方向をX軸としたときの画素の位置をいう。なお、口の位置座標については口の両端の座標とするが、これに限定されるものではなく、口の両端を結ぶ線上の中心位置の座標としてもよい。顔の向き判定部(顔の向き判定手段)156は、顔検出部150により検出された顔の構成物から顔の向きを判定する。
表示領域算出部(表示領域算出手段)158は、設定された検出顔領域と、顔の構成物の座標と、顔の向きに基づいて、顔部分を表示するための顔表示領域を求めてメモリ30に保存する。顔領域表示部(顔領域表示手段)160は、メモリ30に保存された顔表示領域を、顔領域表示スイッチ66の操作に応じたシステム制御回路50からの指示により、メモリ制御回路22及びD/A変換器26を介して画像表示部28に表示する。
次に、図1の撮像装置100で実行される画像データから人物の顔部分を含む顔表示領域を切り出して表示する顔領域表示処理について説明する。
図2は、図1の撮像装置100で実行される顔領域表示処理の流れを示すフローチャートである。
図2において、ステップS201では、システム制御回路50は、メモリ30から画像データを読み込む。次に、ステップS202では、顔検出部150は、ステップS201で読み込んだ画像データに対して顔検出を実施する。顔検出方法はどのような方法でもよいが、画像データから両目、鼻孔や口といった顔の構成物を検出する方法が望ましい。例えば、上述の特許文献1に記載された方法が挙げられる。なお、顔検出の精度を上げるために、両耳や眉毛、顔の輪郭といった構成物を検出してもよい。
次に、ステップS203では、検出顔領域設定部152は、ステップS202で検出された顔の構成物から特定の構成物(例えば、両目と口)を含む矩形領域(検出顔領域)を設定して保存する。検出顔領域については、両目、鼻孔や口等の顔の構成物からその中心位置を求め、この中心位置から特定の構成物を含むように設定される。次に、ステップS204では、顔の構成物の位置取得部154は、ステップS202で検出された顔の構成物の位置座標を取得して保存する。
次に、ステップS205では、ステップS204で取得した顔の構成物の座標に基づいて、顔の向き判定部156が顔の左右の向きを判定する。顔の向きの判定は、既存のどのような方法で行ってもよい。例えば、上述した特許文献2で開示されている方法では、検出顔領域の左右に顔向き判定領域を設け、それぞれの色相を取得し、検出顔領域の色相と差分の少ない方の顔向き判定領域を顔の頬部分と判断することで、顔の向きを判定する。
次に、ステップS206では、表示領域算出部158は、検出顔領域と、顔の構成物の座標と、顔の向きに基づき、切り出して表示する顔部分の領域(顔表示領域)を算出してメモリ30に保存する。
次に、ステップS207では、顔領域表示部160は、メモリ30に保存された顔表示領域を、顔領域表示スイッチ66の操作に応じたシステム制御回路50からの指示により、メモリ制御回路22及びD/A変換器26を介して画像表示部28に表示する。
なお、ステップS202において複数の顔が検出された場合、ステップS203以降の処理を、ステップS202で検出した顔の数だけ繰り返す。そして、検出した夫々の顔の顔表示領域をメモリ30に保持しておき、顔領域表示スイッチ66への操作に従って画像表示部28に顔表示領域を表示する。
次に、ステップS206における表示領域算出処理の詳細について説明する。
図3は、図2のステップS206における表示領域算出処理の詳細を示すフローチャートである。図4は、撮影により得られた画像の一例を示す図である。図5〜図7は、図4に示す画像301に対する表示領域算出処理の具体例を説明するための図である。なお、図4〜図7では、画像の左下が原点、図の左右方向がX軸、上下方向がY軸とする。
ステップS206における表示領域算出処理により画像301から切り出して顔部分画像として表示したい顔表示領域は、図5に示す402のように、額、唇、頬の色味が確認できる矩形である。一方、AFで用いられる顔検出では、目にピントを合わせることが目的であるため、額や唇、頬の色味が確認できる矩形としては、図5に示すように、右目404、左目405、口の右端407、口の左端406を含む検出顔領域401がある。
しかしながら、検出顔領域401をそのまま顔表示領域として使用する場合、画像上の人物の額や頬の部分がはみ出してしまうことがある。そこで、本実施形態では、検出顔領域401をそのまま顔表示領域として使用するのではなく、両目や唇はもとより、額や頬の部分が含まれるように検出顔領域401を拡張する。
本実施形態では、図5に示すように、右目404、左目405、口の左端406、口の右端407の各座標を結ぶ多角形420の重心を検出顔領域401の中心とする。そして、顔が正面を向いているときに両目や口がおよそ含まれる矩形を検出顔領域401として設定するものとする。
図3において、ステップS301では、表示領域算出部158は、検出顔領域401の縦方向(Y軸方向)の拡張量を算出する。顔における額部分の表示領域を確保するには、人物の顔の構成物の位置関係から、目と口の間の長さとほぼ同じ長さの領域を額方向(縦方向)に拡張する。本実施形態では、図6に示すように、両目(右目404,左目405)の座標のうちのY座標の高い点(左目405)から、口の両端の座標(口の左端406、口の右端407)のうちのY座標の低い点(口の右端407)までの長さ504を算出する。算出した長さ504を目と口の間の長さとして、両目の座標のうちのY座標の高い点から縦方向(Y軸方向)に、長さ504と同じ長さの表示領域を確保する。これにより、図6に示す顔表示領域402の上辺として511が求まる。
次に、ステップS302では、表示領域算出部158は、検出顔領域401の横方向(X軸方向)の拡張量を算出する。検出顔領域401の横方向に確保する領域には、両目と頬が含まれている必要がある。そこで、顔が正面を向いている場合、右目404のX座標から表示領域の左側の辺のX座標までの幅及び左目405のX座標から右側の辺のX座標までの幅がそれぞれ、検出顔領域401の横幅に対して一定の割合であれば、表示したい顔表示領域を確保できる。例えば、検出顔領域401の横幅に対して、右目404のX座標から検出顔領域401の左側の辺までの幅及び左目405のX座標から検出顔領域401の右側の辺までの幅をそれぞれ1/5程度に設定することで、統計的に、両目と頬を含む領域を確保できる。本実施形態では、検出顔領域401の横幅に対して、両目のX座標からそれぞれ外側に1/5の幅で表示領域が確保できるものとする。
一方、図5のように画像上の人物の顔が正面を向いておらず、左または右に向いている場合、上記方法であれば、手前側の頬が表示領域に含まれない状態となることがある。そこで、人物の顔が左または右に向いている場合に、手前側の頬を含む横方向(X軸方向)の表示領域を確保するために、顔の向き判定部156で判定された顔の向きを利用する。例えば、図示例のように顔が右側を向いている場合、図5に示す検出顔領域401の横幅423に対して、左目405のX座標から検出顔領域401の右側の辺までの幅608(図7)を1/2程度に設定する。この結果、統計的に、手前側の頬を含む顔部分の領域を確保できる。以上により、図7に示す顔表示領域402の手前側の頬を含む横方向の左辺として613が求まる。
なお、上述した縦及び横方向に拡張する表示領域の算出方法は、検出顔領域401の上下左右方向と画像の上下左右方向とが一致している前提で説明したが、被写体となる人物が寝ころんでいる場合など、顔の上下左右方向が画像の上下左右と一致しない場合がある。そこで、図17(a)、図17(b)に示すような90度単位のバンドパスフィルタによる顔検出方式により、検出顔領域401の傾きを検出するとよい。例えば、図17(b)に示すように顔が右に90度傾いている場合は、顔の縦方向の表示領域を算出するには、検出顔領域401のX軸方向に拡張する表示領域を計算する。同様に、両目と頬を含む顔の横方向の表示領域を算出するには、検出顔領域401のY軸方向に拡張する表示領域を計算する。
上記第1の実施形態によれば、読み込んだ画像から人物の顔の構成物を検出し、各構成物の位置座標を取得すると共に、検出された顔の構成物から顔の特定の構成物を含む矩形の検出顔領域を設定する。そして、設定された検出顔領域と、検出された顔の構成物の位置座標と、顔の向きに基づいて、顔の特定の構成物を含む顔表示領域402を算出して表示する。これにより、唇や額、頬などの顔の特定の構成物が表示領域から外れることなく、顔の構成物のピントや色味の確認を行いやすくする。
[第2の実施形態]
本発明の第2の実施形態では、撮像装置で撮影された画像データを情報処理装置に取り込み、画像データから人物の顔部分の画像を切り出し、顔画像表示ツール(画像の顔部分のみを表示するウィンドウアプリケーション)に表示するプログラムについて説明する。なお、不図示ではあるが、情報処理装置1102は、CPU、RAM、ROM、ハードディスク装置、マウスやキーボード等の操作装置、ディスプレイ装置等の一般的なPCの構成要素を有するものとする。
図8は、本発明の第2の実施形態に係る画像表示方法が適用された情報処理装置の機能的な構成例を示すブロック図である。
図8において、PC(パーソナルコンピュータ)等の情報処理装置1102は、撮像装置であるカメラ1101にUSBケーブル等で接続されている。情報処理装置1102には、顔画像表示ツールであるプログラム1103がインストールされている。
入力モジュール1104は、画像読込処理1110を実行することにより、カメラ1101や不図示のストレージとの通信で、若しくはメディアから不図示のカードリーダーを介して、画像データを情報処理装置1102内に読み込む。
画像データ解析モジュール1105は、顔検出処理1111を実行することにより、画像データから両目、鼻孔や口といった顔の構成物を検出する。そして、検出顔領域設定処理1112を実行することにより、検出された顔の構成物から特定の構成物を含む矩形の領域(検出顔領域)を設定して保存する。検出顔領域の保存とは、設定された矩形の検出顔領域の各頂点の座標位置がRAM等に保存されることをいう。
さらに、画像データ解析モジュール1105は、顔の構成物位置取得処理1113を実行することにより、検出された顔の構成物の位置座標を取得してRAM等に保存する。ここでいう座標とは、図4に示すように、画像の左下を原点0とし、縦方向をY軸、横方向をX軸としたときの画素の位置をいう。なお、口の位置座標については口の両端を結ぶ線上の中心位置の座標とするが、これに限定されるものではなく、口の両端の座標としてもよい。
また、画像データ解析モジュール1105は、顔の向き判定処理1114を実行することにより、検出された顔の構成物から顔の向きと角度を判定する。顔の向きと角度の判定は、既存のどのような方法で行ってもよい。本実施形態では、上記特許文献2,3に開示された方法を用いて、顔の向きと角度を求める。また、画像データ解析モジュール1105で取得した両目と口の座標をもとに、特許文献3に開示された方法を用いて顔の向きと角度を判定してもよい。
表示領域算出モジュール1106は、表示領域算出処理1115を実行することにより、画像データ解析モジュール1105が設定した検出顔領域と、顔の構成物の座標と、顔の角度に基づいて、表示したい顔部分の領域(顔表示領域)を算出する。出力モジュール1107は、顔領域表示処理1116を実行することにより、算出した顔表示領域を画像から切り出して顔画像表示ツールに表示する。
次に、図8の情報処理装置1102で実行される画像データから人物の顔部分を含む顔表示領域を切り出して表示する顔領域表示処理について説明する。
図9は、図8の情報処理装置1102で実行される顔領域表示処理の流れを示すフローチャートである。
図9において、ステップS1201では、入力モジュール1104が画像読込処理1110を行い、カメラ1101や不図示のストレージ、若しくは不図示のメディアから画像データを読み込む。次に、ステップS1202では、画像データ解析モジュール1105が顔検出処理1111により、ステップS1201で読み込んだ画像データに対して顔検出を実施する。顔検出方法はどのような方法でもよいが、画像データから両目、鼻孔や口といった顔の構成物を検出する方法が望ましい。例えば、上述の特許文献1に記載された方法が挙げられる。なお、顔検出の精度を上げるために、両耳や眉毛、鼻孔対、顔の輪郭といった構成物を検出してもよい。
次に、ステップS1203では、画像データ解析モジュール1105が検出顔領域設定処理1112により、ステップS1202で検出された顔の構成物から特定の構成物(例えば、両目と口)を含む矩形領域(検出顔領域)を設定してRAM等に保存する。本実施形態では、検出された両目と口の位置に基づいて、画像データにおける検出顔領域の矩形を設定する。また、画像データの付帯データとして検出顔情報(検出顔領域、個々の顔の構成物の座標)が保存されており、プログラム1103で読み込むことができる場合はこれを利用してもよい。
次に、ステップS1204では、画像データ解析モジュール1105が顔の構成物位置取得処理1113により、ステップS1202で検出された顔の構成物の位置座標を取得してRAM等に保存する。
次に、ステップS1205では、ステップS1204で取得した顔の構成物の座標に基づいて、画像データ解析モジュール1105が顔の向き判定処理1114により、顔の向きと大凡の角度を求める。例えば、図18に示すように、カメラのレンズの中心Οを三次元空間の原点とし、z軸がカメラの光軸方向、x軸が左右方向、y軸が上下方向とする。画像平面(撮像平面)はxy平面に平行で、レンズからの距離dはレンズの合焦位置情報から求まる。画像の右目の座標をa’、左目の座標をb’、口の座標を口の両端の点(407,406)の不図示の中間点座標をc’とする。このとき、三次元空間上の右目の座標a(x1,y1,z1)、左目の座標b(x2,y2,z2)、口の座標c(x3,y3,z3)を、レンズから画像平面に中心投影した座標であると仮定できる。そこで、顔の構成物である右目、左目、口の三次元座標について、ユークリッド距離を既知情報として与える。人物の顔の構成物間距離は個人差があるが、ここでは統計的に求めた右目と左目の距離s、右目と口及び左目と口の距離tを用いて、顔の大凡の角度が求まる。
次に、ステップS1206では、表示領域算出モジュール1106が表示領域算出処理1115により、検出顔領域と、顔の構成物の座標と、顔の角度に基づいて、顔画像表示ツールに表示する顔部分の領域(顔表示領域)を算出してRAM等に保存する。次に、ステップS1207では、出力モジュール1107が顔領域表示処理1116により、保存された顔表示領域の画像を顔画像表示ツールに表示する。
次に、ステップS1206における表示領域算出処理の詳細について説明する。
図10は、図9のステップS1206における表示領域算出処理の詳細を示すフローチャートである。図11〜図15は、図4に示す画像301に対する表示領域算出処理の具体例を説明するための図である。なお、図11〜図15では、画像の左下が原点、図の左右方向がX軸、上下方向がY軸とする。
ステップS1206における表示領域算出処理により画像301から切り出して顔部分画像として表示したい顔表示領域は、図11に示す1302ように、額、唇、頬の色味が確認できる矩形である。一方、AFで用いられる顔検出では、目にピントを合わせることが目的であるため、図11に示すように、右目1304、左目1305、口1306を含む検出顔領域1301がある。
しかしながら、検出顔領域1301をそのまま顔表示領域として使用する場合、画像上の人物の額や頬の部分がはみ出してしまうことがある。そこで、本実施形態では、検出顔領域1301をそのまま顔表示領域として使用するのではなく、両目や唇はもとより、額や頬の部分が含まれるように、検出顔領域1301を移動および拡張する。
本実施形態では、図11に示すように、両目と口の座標が含まれる最少の矩形1307を一定の倍率で広げた矩形を検出顔領域1301としている。具体的には、両目と口の座標が含まれる最少の矩形1307を、両目のX軸方向の幅の0.7倍の長さを上下左右に拡張した矩形を検出顔領域1301とする。
図10において、ステップS1210では、検出顔領域1301の縦方向(Y軸方向)の移動量が算出される。顔における額部分の表示領域を確保するには、人物の顔の構成物の位置関係から、目と口の間の長さとほぼ同じ長さの領域を額方向(縦方向)に確保する必要がある。そこで、本実施形態では、図12に示すように、両目(右目1304,左目1305)の座標のうちのY座標の高い点(左目1305)から、口のY座標までの長さ1403を算出する。算出した長さを目と口の間の長さとして、両目の座標のうちのY座標の高い点から額方向(Y軸方向)に、長さ1403と同じ長さの表示領域を確保する。これにより、表示したい顔部分の顔表示領域1302の上辺として1411が求まる。
そして、図14に示す検出顔領域1301の額方向への移動量1602は、以下の式で求めることができる。
座標が高い方の目のY座標+(高い方の目のY座標−口の座標)−検出顔領域1301の上辺の座標
なお、ここでいう座標は、画像の左下隅を原点とする水平方向の位置を表わす。
次に、ステップS1211では、検出顔領域1301の横方向(X軸方向)の移動量が算出される。顔表示領域の横方向に確保する領域には、両目と頬が含まれている必要がある。そこで、顔が正面を向いている場合、検出顔領域1301の横幅1323(図11)に対して、両目の座標からそれぞれ外側に十分な長さの領域を確保すれば、大凡表示したい顔表示領域を確保できる。
一方、図11のように画像上の人物の顔が正面を向いておらず、左または右に向いている場合、上記方法であれば、手前側の頬が検出顔領域1301に含まれない状態となることがある。そこで、人物の顔が左または右に向いている場合に、手前側の頬を含む横方向(X軸方向)の表示領域を確保するには、顔の向き判定処理1114による人物の顔の角度を利用する。ここでは、顔の角度と手前側の頬の長さを予め統計的に求めておき、手前側の頬を表示するのに必要な領域の長さを求める方法を示す。
例えば、顔が右側を向いている場合、図13に示すように、表示したい手前側の頬の横方向の長さを、顔の角度に応じて、手前側の目(左目1305)のX座標から横方向に確保する長さ1508と設定する。顔の角度毎に確保する手前側の頬の横方向の長さの比率を図16に示す。頬の長さは、検出顔領域1301のサイズに比例して変化するため、図16に示す表の第2カラムは、検出顔領域1301の横幅を100とした場合の頬の長さの比率で表している。例えば、検出顔領域1301の横幅が100ピクセルで、顔の角度が左右どちらかに10度傾いている場合、手前側の頬を表示するには、20ピクセル必要ということを意味する。
検出顔領域1301の右辺または左辺のX座標と手前側の目のX座標から、図14に示す検出顔領域1301を横方向(X軸方向)への移動量1601は、以下の式で求めることができる。
手前側の目のX座標+確保する頬の横方向の長さ−検出顔領域1301の右辺または左辺のX座標(手前側となる辺)
なお、ここでいう座標とは、画像の左下隅を原点とする水平方向の位置を表わす。
以上の手順で、検出顔領域1301のサイズを変えることなく、額と手前側の頬を表示できる位置に検出顔領域1301を移動することができる。しかし、検出顔領域1301のサイズが十分でない場合、表示領域から唇や奥側の目(右目1304)や頬がはみ出してしまう場合がある。
図14の検出顔領域1301を移動して得た表示領域1603では、唇と奥側の頬がはみ出してしまっている。このような場合、検出顔領域を縦方向および横方向に拡張する拡張量を求める(図10のステップS1212,S1213)。図15に示すように、縦方向には口のY座標から一定の長さ1705、横方向には奥側の目(右目1304)のX座標から一定の長さ1703を、検出顔領域1301を移動して得た表示領域1603に追加して表示領域を拡張する必要がある。例えば、横方向の拡張量は、奥側の目のX座標から検出顔領域1301の外側の辺までの幅を、検出顔領域1301の横幅の1/5と設定すればよい。また、縦方向の拡張量は、口のY座標から検出顔領域1301の外側の辺までの幅を、検出顔領域1301の縦幅の1/5と設定すればよい。
なお、上述した顔表示領域の算出は、検出顔領域1301の上下左右方向と画像の上下左右方向とが一致している前提で説明したが、被写体となる人物が寝ころんでいる場合など、顔の上下左右が画像の上下左右と一致しない場合がある。そこで、図17(a)、図17(b)に示すように90度単位のバンドパスフィルタによる顔検出方式により、検出顔領域1301の傾きを検出するとよい。例えば、図17(b)に示すように顔が右に90度傾いている場合は、顔の額方向の表示領域を算出するには、検出顔領域1301のX軸方向の移動量および拡張量を計算する。同様に、左右に傾いた顔の横方向の表示領域を算出するには、検出顔領域1301のY軸方向の移動量および拡張量を計算する。
上記第2の実施形態によれば、読み込んだ画像から人物の顔の構成物を検出し、各構成物の位置座標を取得すると共に、検出された顔の構成物から顔の特定の構成物を含む矩形の検出顔領域を設定する。そして、目と口の間の長さを求めて、検出顔領域1301を額方向に移動し、顔の角度を基に手前側の頬の長さを求めて、検出顔領域1301を横方向に移動する。さらに、検出顔領域1301を移動した結果、顔の構成物が表示領域からはみ出してしまった場合に、検出顔領域1301を縦方向及び横方向に拡張する拡張量を求める。そして、検出顔領域1301を移動及び拡張した表示領域を顔表示領域1302とする。これにより、上記第1の実施形態よりもさらにクローズアップした顔表示領域を得ることができる。
また、本発明の目的は、以下の処理を実行することによっても達成される。即ち、上述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)が記憶媒体に格納されたプログラムコードを読み出す処理である。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施の形態の機能を実現することになり、そのプログラムコード及び該プログラムコードを記憶した記憶媒体は本発明を構成することになる。
また、プログラムコードを供給するための記憶媒体としては、次のものを用いることができる。例えば、フロッピー(登録商標)ディスク、ハードディスク、光磁気ディスク、CD−ROM、CD−R、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、DVD+RW、磁気テープ、不揮発性のメモリカード、ROM等である。または、プログラムコードをネットワークを介してダウンロードしてもよい。
また、コンピュータが読み出したプログラムコードを実行することにより、上記実施の形態の機能が実現される場合も本発明に含まれる。加えて、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(オペレーティングシステム)等が実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれる。
更に、前述した実施形態の機能が以下の処理によって実現される場合も本発明に含まれる。即ち、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに保存される。その後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPU等が実際の処理の一部または全部を行う場合である。
本発明の第1の実施形態に係る画像表示装置が適用された撮像装置の構成例を示すブロック図である。 図1の撮像装置100で実行される顔領域表示処理の流れを示すフローチャートである。 図2のステップS206における表示領域算出処理の詳細を示すフローチャートである。 撮影により得られた画像の一例を示す図である。 第1の実施形態における表示領域算出処理の概要を説明するための図である(その1)。 第1の実施形態における表示領域算出処理の概要を説明するための図である(その2)。 第1の実施形態における表示領域算出処理の概要を説明するための図である(その3)。 本発明の第2の実施形態に係る画像表示方法が適用された情報処理装置の機能的な構成例を示すブロック図である。 図8の情報処理装置1102で実行される顔領域表示処理の流れを示すフローチャートである。 図9のステップS1206における表示領域算出処理の詳細を示すフローチャートである。 第2の実施形態における表示領域算出処理の概要を説明するための図である(その1)。 第2の実施形態における表示領域算出処理の概要を説明するための図である(その2)。 第2の実施形態における表示領域算出処理の概要を説明するための図である(その3)。 第2の実施形態における表示領域算出処理の概要を説明するための図である(その4)。 第2の実施形態における表示領域算出処理の概要を説明するための図である(その5)。 顔の角度毎に確保する手前側の頬の横方向の長さの比率の一例を示す図である。 従来のバンドパスフィルタによる顔検出方法の一例を示す図であり、(a)は垂直方向、(b)は水平方向を示す。 従来の三次元座標空間における顔の向きの判定方法を説明するための図である。
符号の説明
28 画像表示部
50 システム制御回路
66 顔領域表示スイッチ
100 撮像装置
150 顔検出部
152 検出顔領域設定部
154 顔の構成物の位置取得部
156 顔の向き判定部
158 表示領域算出部
160 顔領域表示部

Claims (11)

  1. 画像を読み込む画像読込手段と、
    読み込んだ画像から人物の顔の構成物を検出する顔検出手段と、
    前記顔検出手段で検出された顔の構成物から顔の特定の構成物を含む矩形領域を設定する検出顔領域設定手段と、
    前記顔検出手段で検出された顔の構成物の位置座標を取得する顔の構成物位置取得手段と、
    前記人物の顔の向きを判定する顔の向き判定手段と、
    前記設定された矩形領域と、前記取得された顔の構成物の位置座標と、前記判定された顔の向きに基づいて、前記顔の特定の構成物を含む顔部分を表示するための表示領域を算出する表示領域算出手段と、
    前記表示領域算出手段で算出された表示領域を表示する顔領域表示手段とを有することを特徴とする画像表示装置。
  2. 前記表示領域算出手段は、前記取得された顔の構成物の位置関係をもとに、前記矩形領域を縦方向及び/又は横方向に拡張することで前記表示領域を算出することを特徴とする請求項1記載の画像表示装置。
  3. 前記表示領域算出手段は、前記取得された顔の構成物の位置関係をもとに、前記矩形領域を縦方向及び/又は横方向に移動し、さらに、移動しただけでは前記顔の特定の構成物を含む顔部分の表示領域を得られない場合は、前記矩形領域を縦方向及び/又は横方向に拡張することを特徴とする請求項1記載の画像表示装置。
  4. 前記検出顔領域設定手段は、前記顔検出手段で検出された両目と口の座標を含む矩形を検出顔領域とすることを特徴とする請求項1乃至3のいずれか1項に記載の画像表示装置。
  5. 前記顔の向き判定手段は、前記人物の顔の角度を判定し、
    前記表示領域算出手段は、前記設定された矩形領域と、前記取得された顔の構成物の位置座標と、前記判定された顔の角度に基づいて、前記顔の特定の構成物を含む顔部分を表示するための表示領域を算出することを特徴とする請求項1記載の画像表示装置。
  6. 画像を読み込む画像読込ステップと、
    読み込んだ画像から人物の顔の構成物を検出する顔検出ステップと、
    前記顔検出ステップで検出された顔の構成物から顔の特定の構成物を含む矩形領域を設定する検出顔領域設定ステップと、
    前記顔検出ステップで検出された顔の構成物の位置座標を取得する顔の構成物位置取得ステップと、
    前記人物の顔の向きを判定する顔の向き判定ステップと、
    前記設定された矩形領域と、前記取得された顔の構成物の位置座標と、前記判定された顔の向きに基づいて、前記顔の特定の構成物を含む顔部分を表示するための表示領域を算出する表示領域算出ステップと、
    前記表示領域算出ステップで算出された表示領域を表示する顔領域表示ステップとを有することを特徴とする画像表示方法。
  7. 前記表示領域算出ステップは、前記取得された顔の構成物の位置関係をもとに、前記矩形領域を縦方向及び/又は横方向に拡張することで前記表示領域を算出することを特徴とする請求項6記載の画像表示方法。
  8. 前記表示領域算出ステップは、前記取得された顔の構成物の位置関係をもとに、前記矩形領域を縦方向及び/又は横方向に移動し、さらに、移動しただけでは前記顔の特定の構成物を含む顔部分の表示領域を得られない場合は、前記矩形領域を縦方向及び/又は横方向に拡張することを特徴とする請求項6記載の画像表示方法。
  9. 前記検出顔領域設定ステップは、前記顔検出ステップで検出された両目と口の座標を含む矩形を検出顔領域とすることを特徴とする請求項6乃至8のいずれか1項に記載の画像表示方法。
  10. 前記顔の向き判定ステップは、前記人物の顔の角度を判定し、
    前記表示領域算出ステップは、前記設定された矩形領域と、前記取得された顔の構成物の位置座標と、前記判定された顔の角度に基づいて、前記顔の特定の構成物を含む顔部分を表示するための表示領域を算出することを特徴とする請求項6記載の画像表示方法。
  11. 請求項6乃至10のいずれか1項に記載の画像表示方法をコンピュータに実行させるためのコンピュータに読み取り可能なプログラム。
JP2008205977A 2008-08-08 2008-08-08 画像表示装置および方法、ならびにプログラム Pending JP2010044436A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008205977A JP2010044436A (ja) 2008-08-08 2008-08-08 画像表示装置および方法、ならびにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008205977A JP2010044436A (ja) 2008-08-08 2008-08-08 画像表示装置および方法、ならびにプログラム

Publications (1)

Publication Number Publication Date
JP2010044436A true JP2010044436A (ja) 2010-02-25

Family

ID=42015794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008205977A Pending JP2010044436A (ja) 2008-08-08 2008-08-08 画像表示装置および方法、ならびにプログラム

Country Status (1)

Country Link
JP (1) JP2010044436A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032741A (ja) * 2015-07-31 2017-02-09 Necプラットフォームズ株式会社 表示装置、表示制御方法、及びそのためのプログラム
JP2018026768A (ja) * 2016-08-12 2018-02-15 キヤノン株式会社 撮像装置とその制御方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017032741A (ja) * 2015-07-31 2017-02-09 Necプラットフォームズ株式会社 表示装置、表示制御方法、及びそのためのプログラム
JP2018026768A (ja) * 2016-08-12 2018-02-15 キヤノン株式会社 撮像装置とその制御方法及びプログラム

Similar Documents

Publication Publication Date Title
US8704929B2 (en) System and method for user guidance of photographic composition in image acquisition systems
JP2010263439A (ja) 電子カメラ、画像処理装置及び画像処理方法
US9398222B2 (en) Image display device that displays image and display bodies specifying image's particular regions, control method and storage medium therefor, and image pickup apparatus
JP6472183B2 (ja) 画像処理装置、その制御方法、プログラム
US11496670B2 (en) Electronic device with display screen capable of reliable detection of a user selected displayed eye region in a scene to be captured, and region selection method
JP2014042230A (ja) 撮像装置、その制御方法、プログラム、記憶媒体
JP4916403B2 (ja) 画像処理装置及びその制御方法
JP2007081732A (ja) 撮像装置
JP2014228629A (ja) 撮像装置、その制御方法、およびプログラム、並びに記憶媒体
JP2014017665A (ja) 表示制御装置、表示制御装置の制御方法、プログラムおよび記録媒体
JP2021021857A (ja) 撮像装置およびその制御方法
JP4906632B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2010044436A (ja) 画像表示装置および方法、ならびにプログラム
JP2008005438A (ja) 撮像装置及び撮像方法
JP2009038749A (ja) 画像処理装置、画像処理装置の制御方法、および、これを実行させるためのプログラム
JP2007328694A (ja) 画像処理装置、及びデジタルカメラ
JP2015097322A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP4891163B2 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2009177358A (ja) 画像処理装置、画像処理方法及びプログラム
JP5067884B2 (ja) 撮像装置、その制御方法及びプログラム
JP2010016693A (ja) 電子カメラ
JP2012105016A (ja) 撮像装置及びその制御方法
JP2009043169A (ja) 画像処理装置、画像処理方法及びプログラム
JP2010041598A (ja) 撮像装置、撮像装置の制御方法及び制御プログラム
JP6245802B2 (ja) 画像処理装置、その制御方法、および制御プログラム