JP2009044463A - 電子カメラ及び被写界像再生装置 - Google Patents

電子カメラ及び被写界像再生装置 Download PDF

Info

Publication number
JP2009044463A
JP2009044463A JP2007207281A JP2007207281A JP2009044463A JP 2009044463 A JP2009044463 A JP 2009044463A JP 2007207281 A JP2007207281 A JP 2007207281A JP 2007207281 A JP2007207281 A JP 2007207281A JP 2009044463 A JP2009044463 A JP 2009044463A
Authority
JP
Japan
Prior art keywords
image
face
area
scene image
reproducing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007207281A
Other languages
English (en)
Other versions
JP2009044463A5 (ja
Inventor
Ryo Sakachi
亮 坂地
Nobuhiko Ichii
伸彦 市居
Yurie Sakai
有里江 堺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP2007207281A priority Critical patent/JP2009044463A/ja
Priority to US12/186,818 priority patent/US8081804B2/en
Priority to CN2008101298046A priority patent/CN101365063B/zh
Publication of JP2009044463A publication Critical patent/JP2009044463A/ja
Publication of JP2009044463A5 publication Critical patent/JP2009044463A5/ja
Priority to US13/298,509 priority patent/US20120133798A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Vascular Medicine (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】簡単な構成で撮影時に指定した位置に応じて被写界像を再生することができる、電子カメラや被写界像再生装置を提供すること。
【解決手段】被写界を捉える撮像面を有し、被写界像を生成する撮像手段、撮像手段によって生成される被写界像内の特定位置を指定する指定手段、撮像手段によって生成された被写界像を、指定手段によって指定された特定位置の位置情報と共に記録する記録手段、および記録手段によって記録された被写界像を記録手段によって記録された位置情報を用いて再生を行う再生手段を具える、電子カメラである。
【選択図】図1

Description

この発明は、電子カメラ及び被写界像再生装置に関し、特にたとえば被写界像内の特定位置に注目して再生する、電子カメラ及び被写界像再生装置に関する。
電子カメラであるデジタルスチルカメラを用いて撮影して得られた画像データを再生する際、当該画像データによって表される被写体像に含まれる顔画像を検出し、検出された顔画像を拡大し表示する画像再生装置が特許文献1に開示されている。
特開2005−318515号公報 特許文献1では、撮影時に注目したであろう顔画像を、他の部分よりも優先して拡大し表示することによって、顔画像部分のピントがあっているかどうかの確認を容易にしている。
しかし、特許文献1では、画像データによって表される被写体像に含まれる顔画像を、再生時に検出し拡大表示する部分を決めているため、拡大表示される部分が撮影時に指定した部分、すなわちピントをあわせようとした部分と一致しない可能性がある。また、特許文献1に開示された技術を応用し、撮影時にピントをあわせようとした部分を顔に限ることなく、例えば建物や背景でも可能にする場合、再生時に当該部分を再生装置が検出し拡大表示するようにするには、再生装置が具備する当該部分を検出する検出手段の構成が複雑になるという課題がある。
それゆえに、この発明の主たる目的は、簡単な構成で撮影時に指定した位置に応じて被写界像を再生することができる、電子カメラや被写界像再生装置を提供することである。
第1の発明は、被写界を捉える撮像面を有し、被写界像を生成する撮像手段、撮像手段によって生成される被写界像内の特定位置を指定する指定手段、撮像手段によって生成された被写界像を、指定手段によって指定された特定位置の位置情報と共に記録する記録手段、および記録手段によって記録された被写界像を記録手段によって記録された位置情報を用いて再生を行う再生手段を具える、電子カメラである。
さらに、撮像手段によって生成された被写界像に含まれる特徴画像を探索する探索手段を具え、指定手段は探索手段によって検知された特徴画像の位置に基づいて特定位置を指定することを特徴とする。
さらに、指定手段によって指定された特定位置の被写界像に基づいて前記撮像手段の撮影条件を調整する調整手段を具え、記録手段は調整手段によって調整された撮像条件で作成された被写界像を記録することを特徴とし、撮影条件は撮像手段の焦点距離であることを特徴とする。
さらに、再生手段は、記録手段によって記録された位置情報を用いて特定される位置を中心に被写界像を拡大再生することを特徴とする。
第2の発明は、被写界像内の特定位置を示す位置情報と当該被写界像と共に記録された記録媒体から被写界像を再生する被写界像再生装置であって、被写界像を前記位置情報を用いて再生を行う再生手段を具える、被写界像再生装置である。
さらに、再生手段は、当該位置情報を用いて特定される位置を中心に被写界像を拡大再生することを特徴とする。
第1及び第2の発明によれば、撮影時に指定した被写界像内の特定位置が再生時の再生機能に簡単且つ確実に反映される電子カメラや被写界像再生装置を提供することができる。
本願発明の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1を参照して、本発明の第1実施例であるディジタルカメラ10は、光学レンズ12を含む。被写界の光学像は、光学レンズ12を通してイメージセンサ14の撮像面14fに照射され、光電変換を施される。これによって、被写界を表す電荷つまり生画像信号が生成される。
電源が投入されると、CPU42は、スルー画像処理を実行するべく、プリ露光および間引き読み出しの繰り返しをTG/SG18に命令する。TG/SG18は、イメージセンサ14の撮像面14fのプリ露光と、これによって得られた電荷の間引き読み出しとを実行するべく、複数のタイミング信号をイメージセンサ14に与える。撮像面14fで生成された生画像信号は、1/30秒に1回の割合で発生する垂直同期信号Vsyncに応答して、ラスタ走査に従う順序で読み出される。
イメージセンサ14から出力された生画像信号は、CDS/AGC/AD回路16によって相関二重サンプリング、自動ゲイン調整およびA/D変換の一連の処理を施される。信号処理回路20は、CDS/AGC/AD回路16から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施し、YUV形式の画像データをメモリ制御回路26を通してSDRAM28の表示画像領域28aに書き込む。
ビデオエンコーダ30は、表示画像領域28aに格納された画像データをメモリ制御回路26を通して1/30秒毎に読み出し、読み出された画像データをコンポジットビデオ信号に変換する。この結果、被写界を表すリアルタイム動画像(スルー画像)がLCDモニタ32に表示される。
AE/AF評価回路24は、信号処理回路20から出力された画像データに基づいて、被写界の明るさを示す輝度評価値と被写界の合焦度を示すフォーカス評価値とを作成する。作成された輝度評価値およびフォーカス評価値は、CPU42に与えられる。
キー入力装置46に設けられたシャッタボタン46Sが操作されていないとき、CPU42は、スルー画像用AE処理とAF処理を実行する。TG/SG18に設定されたプリ露光時間は、AE/AF評価回路24からの輝度評価値に基づいて制御される。これによって、スルー画像の明るさが適度に調整される。AE/AF評価回路24からのフォーカス評価値に基づいたAF処理、所謂画像信号の高周波成分が最大となるように光学レンズ12を設定する山登りオートフォーカス処理に基づき、光学レンズ12はドライバ44によって駆動される。
図2を参照して、表示画像領域28aは、縦240画素、横320画素の画像データからなり、顔検出を行う探索領域として設定される。そして、図3(A)に示す最大サイズの顔判別領域が探索領域の左上に配置される。顔判別領域の左上座標は、探索領域の左上座標と一致する。
顔判別領域に属する部分画像の特徴量は、フラッシュメモリ48に記憶された辞書の特徴量と照合される。照合処理の結果、注目する部分画像が顔画像と判別されると、現時点の顔判別領域のサイズ、顔判別領域の中心位置および信頼度が記述された顔情報が作成され、SDRAM28の顔情報領域28dに格納される。信頼度とは、顔判別領域に属する部分画像の特徴量と、フラッシュメモリ48に記憶された辞書の特徴量との照合処理において両者が一致する割合を示すのもであり、一致する割合が高いと、顔と判別した信頼度が大きくなる。顔判別領域は、ラスタ方向に既定量(=1画素)ずつ移動される。顔判別領域は、図4に示す要領で探索領域を移動する。
なお、当該信頼度は、フラッシュメモリ48に記憶された辞書によって左右されるが、一般的に、正面を向いた顔の方が、斜めや下を向いた顔よりも高い信頼度で顔を検出することができる。
顔判別領域が探索領域の右下に到達すると、つまり顔判別領域の右下座標が探索領域の右下座標と一致すると、図3(A)に示す顔判別領域に代えて図3(B)に示すミドルサイズの顔判別領域が探索領域の左上に配置され、上述と同様の処理が再度実行される。ミドルサイズの顔判別領域が探索領域の右下に到達すると、図3(C)に示す最小サイズの顔判別領域が探索領域の左上に配置され、上述と同様の処理が繰り返される。
このように、特徴量の照合処理および顔判別領域の移動処理は、サイズの大きい順に最大サイズ、ミドルサイズ、最小サイズの3つの顔判別領域を順次用いることによって3回実行される。処理の途中で顔画像が発見されると、その時点の顔判別領域の中心の位置、サイズおよび信頼度が記述された顔情報が作成され、顔情報領域28dに格納された顔情報が更新される。
顔情報が得られると、CPU42は、この顔情報によって定義されるキャラクタC1のOSD表示をキャラクタジェネレータ34に命令する。キャラクタジェネレータ34は、顔情報に記述されたサイズを有するキャラクタC1を顔情報に記述された位置に表示するべく、キャラクタデータをLCDモニタ32に与える。キャラクタC1は、図5に示すように4人の人物P1、P2、P3、P4が入った被写界像であれば、顔検出の結果、図6に示す要領でスルー画像に多重表示される。
そして、得られた顔情報が1つであれば当該顔が検出された顔の位置に、複数の顔が検出されている場合は、画角中心位置から最も近い顔の位置に、フォーカス評価値を得る領域を設定し、当該設定が行われたことを表示するべく、キャラクタデータをLCDモニタ32に与える。キャラクタC2は、図5に示すように4人の人物P1、P2、P3、P4が入った被写界像であれば、画角中心位置から最も近い顔の位置は人物P3の顔の位置となり、図7に示す要領でスルー画像に多重表示される。
シャッタボタン46Sが半押しされると、CPU42は、顔情報の検出結果によって異なる態様でAF処理およびAE処理を実行する。顔情報が検出されなかったとき、CPU42は、撮像面の中央領域を基準としてAE処理およびAF処理を実行する。撮像面の中央領域とは、撮影しようとする被写体が含まれている可能性が高い領域として撮像面の中央に設けられたものであり、詳細な説明は割愛する。これに対して、顔情報が検出されたとき、CPU42は、この顔情報を用いて撮像面上に指定される指定領域を決定し、指定領域を表示するべく、キャラクタデータをLCDモニタ32に与える。キャラクタC3は、図5に示すように4人の人物P1、P2、P3、P4が写った被写界像であれば、たとえば図8に示す要領で、後述するAF処理によって光学レンズ12の合焦位置設定が完了した時点でスルー画像に多重表示される。キャラクタC3が表示されることによって、使用者はAF処理が完了したことを知ることができる。指定領域は、検出された顔情報が1つであれば顔判別処理において当該顔が検出された時の顔判別領域の位置に、複数の顔が検出されている場合は、顔判別処理において画角中心位置から最も近い顔が検出された時の顔判別領域の位置に設定する。そして、指定領域を重視してAE処理を実行し、指定領域を基準として、すなわち、指定領域から得られる画像信号を用いてAF処理を実行する。AE処理の結果、TG/SG18に設定された露光時間は最適値に設定される。また、AF処理の結果、光学レンズ12はドライバ44によって合焦位置に設定される。
図5に示すように4人の人物P1、P2、P3、P4が入った被写界像であれば、図6に示すように4つの顔判別領域で顔情報が検出される。画角中心位置から最も近い顔が検出された顔判別領域の位置は人物P3の顔を検出した判別領域であるため、図9に示すように、人物P1の顔を検出した判別領域に相当する領域を領域E1、人物P2の顔を検出した判別領域に相当する領域を領域E2、人物P3の顔を検出した判別領域に相当する領域を領域E3、人物P4の顔を検出した判別領域に相当する領域を領域E4とすると、指定領域は、人物P3の顔を検出した判別領域に相当する領域E3となる。AE処理は、指定領域となった領域E3から得られる輝度評価値を重視し、他の領域である領域E1、E2、E4から得られる輝度評価値と共に用いて行う。本実施例では、領域E3から得られる輝度評価値の寄与度を50%、領域E1、E2、E3から得られる輝度評価値全体の寄与度を50%として算出した輝度評価値を用いてAE処理を行う。
シャッタボタン46Sが全押しされると、CPU42は、記録処理を実行するべく、本露光および全画素読み出しをTG/SG18に命令し、JPEG圧縮をJPEGエンコーダ36に命令する。
なお、領域E1、E2、E3、E4の位置と大きさは、人物P1、P2、P3、P4の顔を検出した判別領域の位置と大きさに基づいて設定するが、両者は厳密に同じである必要はない。領域E1、E2、E3、E4の位置と大きさは、例えば撮像面14fに設定された縦16個、横16個、全256個の部分領域を組み合わせて設定される。
TG/SG18は、イメージセンサ14の撮像面14fの本露光と、これによって得られた全ての電荷の読み出しとを実行するべく、複数のタイミング信号をイメージセンサ14に与える。撮像面14fで生成された生画像信号は、ラスタ走査に従う順序で読み出される。イメージセンサ14から出力された生画像信号は、CDS/AGC/AD回路16によって相関二重サンプリング、自動ゲイン調整およびA/D変換の一連の処理を施される。信号処理回路20は、CDS/AGC/AD回路16から出力された生画像データに白バランス調整,色分離,YUV変換などの処理を施し、表示画像領域28aに格納される画像データよりも解像度の高いYUV形式の画像データ、ずなわち、イメージセンサ14の全画素で構成される画像データ、全画素の数は約500万個であり、縦1944画素、横2592画素の画像データに変換される。変換された画像データは、メモリ制御回路26を通してSDRAM28の非圧縮画像領域28bに書き込まれる。
JPEGエンコーダ36は、非圧縮画像領域28bに格納された画像データをメモリ制御回路26を通して読み出し、読み出された画像データをJPEG方式で圧縮し、そして圧縮画像データつまりJPEGデータをメモリ制御回路26を通して圧縮画像領域28cに書き込む。こうして得られたJPEGデータはその後、CPU42によって読み出され、顔情報が検出されたことによって決定された指定領域の位置を示す位置情報があれば、当該位置情報と共にI/F38を経てファイル形式で記録媒体40に記録される。記録媒体40には複数の画像ファイルが記録可能である。
次に再生動作について説明する。I/F38を介してファイル形式で記録媒体40に記録されているファイルの1つを選択してJPEGデータを読み出し、SDRAM28の圧縮画像領域28cに書き込む。JPEGデコーダ37は、圧縮画像領域28cに格納されたJPEGデータをメモリ制御回路26を通して読み出し、読み出されたJPEGデータを伸張し、得られた画像データをメモリ制御回路26を通して非圧縮画像領域28bに書き込む。非圧縮画像領域28bに書き込まれた画像データをメモリ制御回路26を通して読み出し、読み出された画像データから、当該画像データよりも解像度が低い表示用の画像データを作成し、SDRAM28の表示画像領域28aに書き込む。
ビデオエンコーダ30は、表示画像領域28aに格納された画像データをメモリ制御回路26を通して1/30秒毎に読み出し、読み出された画像データをコンポジットビデオ信号に変換する。この結果、再生画像がLCDモニタ32に表示される。
記録媒体40にJPEGデータと共に上述の位置情報が記録されており読み出し可能であれば、当該位置情報を基に再生ズーム処理の中心位置に設定し、ズーム表示を行う。当該位置情報が得られないJPEGデータであれば画像の中心を再生ズーム処理の中心位置に設定し、ズーム表示を行う。
ズーム表示は、非圧縮画像領域28bに書き込まれた画像データを、ズーム倍率とズーム中心位置に基づいてズーム処理することによって得られた画像データを表示画像領域28aに格納することによって行う。
なお、記録媒体40に記録されている当該位置情報は、表示画像領域28aに格納された画像データ上の画素数で表わした位置情報であるため、再生の際は、SDRAM28の非圧縮画像領域28bに書き込まれた画像データ上の画素数で表わす位置情報に換算して再生ズーム処理に用いられる。表示画像領域28aは、縦240画素、横320画素の画像データからなっている。JPEGデータを再生することによってSDRAM28の非圧縮画像領域28bに書き込まれた画像データが、縦1944画素、横2592画素であれば、1944を240で除算した値である「8.1」を表示画像領域28aに書き込まれた画像データの縦位置を表わす値に乗算し、2592を320で除算した値である「8.1」を表示画像領域28aに書き込まれた画像データの横位置を表わす値に乗算しすることによって、記録媒体40に記録されている当該位置情報を、JPEGデータを再生することによってSDRAM28の非圧縮画像領域28bに書き込まれた画像データ上での位置を示す位置情報に換算して再生ズーム処理に用いる。
なお、当該位置情報を再生ズーム処理の中心位置に設定した場合、当該中心位置を表示するべく、キャラクタデータをLCDモニタ32に与える。キャラクタC4は、たとえば図10に示す要領で再生画像に多重表示される。キャラクタC4は設定された中心位置を示すものであるが、JPEGデータに対応した位置情報を基に再生ズーム処理の中心位置が設定されたことを示すキャラクタデータをLCDモニタ32に与え、キャラクタC5を図11に示す要領で再生画像に多重表示してもよく、さらに、このようなキャラクタC4やキャラクタC5の表示はしなくてもよい。
仮に、記録媒体40から読み出したJPEGデータに付随した位置情報によって再生ズーム処理の中心が設定されなければ、図12の(A)から(B)(C)に示すように、画像の中心がズーム処理の中心位置となり拡大表示されるので、拡大表示操作の後に中心位置を変更する必要が生じるが、同じ再生画像であっても、当該位置情報によって再生ズーム処理の中心が設定されると、図13の(A)から(B)(C)に示すように、当該位置情報に対応した位置が中心位置となり拡大表示されるので、より簡単に撮影時にディジタルカメラ10が注目した位置に応じて拡大再生することができる。
CPU42は、撮影動作時、図14、図15に示す撮影メインタスクと図16、図17に示す顔検出タスクとを含む複数のタスクを並列的に実行する。なお、これらのタスクに対応する制御プログラムは、フラッシュメモリ48に記憶されている。
まず図14を参照して、ステップS1では顔検出タスクを起動し、ステップS3ではスルー画像処理を実行する。ステップS1の処理によって図16、図17に示す顔検出タスクの処理が開始される。ステップS3の処理によって、スルー画像がLCDモニタ32に表示される。
ステップS5では、キー入力装置46からキー状態信号を取り込む。ステップS7ではシャッタボタン46Sが半押しされたか否かを判別し、NOであれば、ステップS9でスルー画像用AE/AF処理を実行してからステップS5に戻る。
ステップS9で示したスルー画像用AE/AF処理は図15に示すフローチャートに従って行われる。ステップS911で後で述べる顔探索処理によって顔が検出されたことを示す顔検出フラグの値が1であるか否かを判別し、YESであれば、ステップS913で顔情報を用いて指定領域の決定を行う。指定領域は、検出された顔情報が1つであれば顔判別処理において当該顔が検出された時の顔判別領域の中心位置に、複数の顔が検出されている場合は、画角中心位置から最も近い顔が検出された時の顔判別領域の中心位置に設定する。
そして、ステップS915で指定領域を示すキャラクタ表示(キャラクタC2の表示)を行い、ステップS917で指定領域を重視するAE処理を行い、ステップS919で指定領域を基準とするAF処理を行い、上階層のルーチンに復帰する。
AE処理は、指定領域から得られる輝度評価値を重視し、他の顔判別領域に相当する領域から得られる輝度評価値を共に用いて行う。
一方、ステップS911でNOであれば、ステップS923で被写界像の中央領域を重視するAE処理を行い、ステップS925で被写界像の中央領域を基準とするAF処理を行い、上階層のルーチンに復帰する。
なお、ステップS9で示したスルー画像用AE/AF処理としては、顔探索処理によって顔が検出されたか否かに係らず、簡易なAE/AF処理として、被写界像の中央領域を重視するAE処理と、被写界像の中央領域を基準とするAF処理を行うようにしてもよい。
図14に戻って説明を続ける。ステップS7でYESであれば、ステップS11で顔探索処理によって顔が検出されたことを示す顔検出フラグの値が1であるか否かを判別し、YESであれば、ステップS13で顔情報を用いて指定領域の決定を行う。指定領域は、検出された顔情報が1つであれば顔判別処理において当該顔が検出された時の顔判別領域の位置に、複数の顔が検出されている場合は、顔判別処理において画角中心位置から最も近い顔が検出された時の顔判別領域の位置に設定する。
そして、ステップS15で指定領域を示すキャラクタ表示(キャラクタC3の表示)を行い、ステップS17で指定領域を重視するAE処理を行い、ステップS19で指定領域を基準とするAF処理を行い、ステップS21に進む。
AE処理は、指定領域となった顔判別領域から得られる輝度評価値を重視し、他の顔判別領域から得られる輝度評価値と共に用いて行う。例えば、図5に示すように4人の人物P1、P2、P3、P4が入った被写界像であれば、図6に示すように4つの顔判別領域で顔情報が検出される。画角中心位置から最も近い顔が検出された顔判別領域の位置は人物P3の顔を検出した判別領域であるため、図9に示すように、人物P1の顔を検出した判別領域に相当する領域を領域E1、人物P2の顔を検出した判別領域に相当する領域を領域E2、人物P3の顔を検出した判別領域に相当する領域を領域E3、人物P4の顔を検出した判別領域に相当する領域を領域E4とすると、指定領域は、人物P3の顔を検出した判別領域に相当する領域E3となる。そして、領域E3から得られる輝度評価値の寄与度を50%、領域E1、E2、E3から得られる輝度評価値全体の寄与度を50%として算出した輝度評価値を用いてAE処理を行う。
一方、ステップS11でNOであれば、ステップS23で被写界像の中央領域を重視するAE処理を行い、ステップS25で被写界像の中央領域を基準とするAF処理を行い、ステップS21に進む。
ステップS21では、ステップS5と同様にキー入力装置46からキー状態信号を取り込む。
ステップS27ではシャッタボタン46Sが半押しされた状態か否かを判別し、YESであれば、ステップS21に戻る。よって、シャッタボタン46Sの半押しが継続された状態では、ステップS15によるキャラクタ表示やステップS17、S19、又はステップS23、S25による撮影条件の調整値が固定される。
ステップS27でNOであれば、ステップS29でシャッタボタン46Sが全押しされたか否かを判別し、YESであれば、ステップS31で記録処理を実行し、終了する。ステップS29でNOであれば、シャッタボタン46sが全押しされることなく半押し状態が解除されたと判断し、ステップS15で表示した指定領域を示すキャラクタを消去するステップS33を実行しステップS9に進む。
ステップS31の処理によって、シャッタボタン46sが操作された時点の被写界像を表すJPEGデータがファイル形式で記録媒体40に記録される。詳細は後で説明する。
次に顔検出タスクについて説明する。図16を参照して、ステップS41では顔情報を初期化し、顔情報が全く得られていない状態に設定する。垂直同期信号Vsyncが発生するとステップS43でYESと判断し、ステップS45で顔探索処理を実行し、ステップS47では顔探索処理によって顔が検出されたことを示す顔検出フラグの値が1であるか否かを判別する。YESすなわち値が1で顔検出フラグの値が顔探索処理によって顔が検出された値を示していれば、顔情報に応じてキャラクタC1を表示し、NOであれば当該キャラクタC1を非表示とし、ステップS43に戻る。キャラクタC1は、図5に示すような4人の人物P1、P2、P3、P4が写った被写界像であれば、図6に示す要領でスルー画像に多重表示される。
ステップS45として示した顔探索処理は、図17に示すサブルーチンに従って実行される。まずステップS61で顔判別領域の設定を初期化する。これによって、最大サイズの顔判別領域が表示画像領域28aに設定された探索領域の左上に配置される。顔判別領域は、顔判別領域の左上座標が探索領域の左上座標と一致するように、図2に示す表示画像エリア28a上に設定される。
ステップS63では、顔探索処理において、顔が検出されたことを示す顔検出フラグの値を、顔が検出されていないことを示す値である「0」に初期化する。
ステップS65では設定された顔判別領域の特徴量を検出し、ステップS67では検出された特徴量を辞書の特徴量と比較する。ステップS69では、顔判別領域に属する部分画像が顔画像であるか否かをステップS67の照合結果に基づいて判別する。
ステップS69でYESであれば、ステップS71で顔情報を更新する。顔情報には、図18に示すように、顔画像であると判別された際の顔判別領域の中心の位置、サイズ、及び信頼度が含まれている。そして、ステップS73で顔検出フラッグの値を1に設定し、ステップS75に進む。信頼度とは、顔判別領域に属する部分画像の特徴量と、フラッシュメモリ48に記憶された辞書の特徴量との照合処理において両者が一致する割合を示すのもであり、一致する割合が高いと、顔と判別した信頼度が大きくなる。
ステップS69でNOであればステップS71、S73は行わずステップS75に進む。ステップS75では、顔判別領域の右下座標が探索領域の右下座標と一致するか否かを判別する。ここでNOであれば、ステップS77で顔判別領域をラスタ方向に既定量だけ移動させ、ステップS65に戻る。
ステップS75でYESであれば、顔判別領域のサイズが“最小”であるか否かをステップS79で判別する。顔判別領域のサイズが“最小”であれば、探索領域からの顔画像の探索が終了したとして上階層のルーチンに復帰する。顔判別領域のサイズが“最大”または“ミドル”であれば、ステップS81で顔判別領域のサイズを1ステップ縮小し、ステップS83で顔判別領域を探索領域の左上に配置し、その後にステップS65に戻る。
図14に戻り、ステップS31について説明する。ステップS31の処理によって、シャッタボタン46sが操作された時点の被写界像を表すJPEGデータが図19に示すファイル形式で記録媒体40に記録される。即ち、ヘッダーデータとしてJPEGデータの画素数と、ステップS13で設定された指定領域の位置を示す位置情報があれば、当該位置情報を付加し、1つのファイルとして記録媒体40に記録される。
なお、図6〜図7に示されたキャラクタC1、C2、C3は一例であって、色、柄、太さ、厳密な大きさ、枠内の透過度、等は自由に設定可能である。また、キャラクタC3の表示を、キャラクタC2の色、柄、太さ、枠内の透過度の何れか1つを変更することによって代用することも可能である。
CPU42は、再生動作時、図20に示す再生タスクを実行する。なお、再生タスクに対応する制御プログラムは、撮影動作時に実行されるタスクに対応する制御プログラムと同様に、フラッシュメモリ48に記憶されている。
ステップS101では、再生するファイルを選択する。ステップS103では、選択されたファイル内のJPEGデータを用いて表示画像を作成しLCDモニタ32に表示する。具体的には、I/F38を介してファイル形式で記録媒体40に記録されているJPEGデータの1つを選択して読み出し、SDRAM28の圧縮画像領域28cに書き込む。JPEGデコーダ37は、圧縮画像領域28cに格納されたJPEGデータをメモリ制御回路26を通して読み出し、読み出されたJPEGデータを伸張し、得られた画像データをメモリ制御回路26を通して非圧縮画像領域28bに書き込む。非圧縮画像領域28bに書き込まれた画像データをメモリ制御回路26を通して読み出し、読み出された画像データより、当該画像データよりも解像度が低い表示用として用いる画像データを作成し、SDRAM28の表示画像領域28aに書き込む。 ビデオエンコーダ30は、表示画像領域28aに格納された画像データをメモリ制御回路26を通して1/30秒毎に読み出し、読み出された画像データをコンポジットビデオ信号に変換する。この結果、再生画像がLCDモニタ32に表示される。
ステップS104では、CPU42が保持しているズーム倍率の値を初期値である1に設定する。
ステップS105によってJPEGデータと共に位置情報が記録媒体40に記録されていることが検出されれば、ステップS107で追って行われるズーム処理のズーム中心を当該位置情報を用いて設定し、ステップS109で当該ズーム中心として設定された位置を示すキャラクタを表示し、ステップS113に進む。
なお、記録媒体40に記録されている当該位置情報は、表示画像領域28aに格納された画像データ上の画素数で表わした位置情報であるため、再生の際は、SDRAM28の非圧縮画像領域28bに書き込まれた画像データ上の画素数で表わす位置情報に換算して再生ズーム処理に用いられる。表示画像領域28aは、縦240画素、横320画素の画像データからなっている。JPEGデータを再生することによってSDRAM28の非圧縮画像領域28bに書き込まれた画像データが、縦1944画素、横2592画素であれば、1944を240で除算した値である8.1を表示画像領域28aに書き込まれた画像データの縦位置を表わす値に乗算し、2592を320で除算した値である8.1を表示画像領域28aに書き込まれた画像データの横位置を表わす値に乗算しすることによって、記録媒体40に記録されている当該位置情報を、JPEGデータを再生することによってSDRAM28の非圧縮画像領域28bに書き込まれた画像データ上での位置を示す位置情報に換算して用いる。
また、ステップS109によるキャラクタ表示はしなくてもよく、又、表示されるキャラクタは所定時間表示後、又はその後に何らかの操作が行われた時点で非表示としてもよい。
一方、ステップS105でNOであれば、ステップS111で追って行われるズーム処理のズーム中心を非圧縮画像領域28bに書き込まれた画像データの中央に設定し、ステップS113に進む。
ステップS113では、キー入力装置46からキー状態信号を取り込み、ステップS115でテレボタン46Tが押され拡大操作が行われたか否か、ステップS117でワイドボタン46Wが押され縮小操作が行われたか否か、ステップS119で位置変更ボタン46Sが押されズーム中心位置の変更操作が行われたか否か、ステップS121で送りボタン46F、又は戻りボタン46Bが押されファイルの選択操作が行われたか否かを判別する。
ステップS115でYESであれば、ステップS123でズーム倍率の値が最大値であるか否かを検出し、YESであれば何もせずS113に戻るが、NOであればステップS125でズーム倍率の値を所定量増加させ、ステップS127で、更新されたズーム倍率とズーム中心位置を基に非圧縮画像領域28bに書き込まれた画像データの拡大処理を行い、表示画像領域28aに格納されている画像データを更新することによってLCDモニタ32に表示される画像を拡大し、ステップS113に戻る。
ステップS117でYESであれば、ステップS129でズーム倍率の値が初期値である1であるか否かを検出し、YESであればステップS135でマルチ画面表示を行いS113に戻る。ステップS129でNOであればステップS131でズーム倍率の値を所定量減少させ、ステップS131で、更新されたズーム倍率とズーム中心位置を基に非圧縮画像領域28bに書き込まれた画像データの縮小処理を行い、表示画像領域28aに格納されている画像データを更新することによってLCDモニタ32に表示される画像を縮小し、ステップS113に戻る。
ステップS135で示したマルチ画面表示は、図21に示すフローチャートに従って行われる。ステップS1351によってJPEGデータと共に位置情報が記録媒体40に記録されていることが検出されれば、ステップS1353によって、当該位置情報に応じて非圧縮画像領域28bに書き込まれた画像データのトリミング処理と縮小処理を行った画像データをマルチ画面の1つとして表示し、ステップS1351でNOであれば、非圧縮画像領域28bに書き込まれた画像データ全体の縮小処理を行った画像データをマルチ画面の1つとして表示し、上階層のルーチンに復帰する。
たとえば、図5に示すように4人の人物P1、P2、P3、P4が写った画像であれば、ステップS1353を実行した結果得られるマルチ表示は図22に示すようになり、ステップS1355を実行した結果得られるマルチ画面表示は図23に示すようになる。ステップS1353を実行した結果得られるマルチ表示の方が、重要な部分を含む画像の一部のみがマルチ画面表示されるので、画像の選択がしやすくなる。なお、マルチ画面表示の分割数は4に限るものではなく、ステップS135によってマルチ画面表示に変更された際に、それまでに表示されていた画像と他の領域に表示される画像との相対位置は、デジタルカメラとして任意に設定される。他の領域に表示される画像は、記録媒体40に記録されている別ファイルより得られる。なお、説明は割愛したが、ファイルには本画像であるJPEGデータの他に、それよりも解像度(画素数)の小さいサムネイル画像データが含まれている。よって、当該サムネイル画像データをマルチ画面表示に使用する画像データとしてもよい。その際、ステップS1353で使用する位置情報は、サムネイル画像データの画素数に応じて適宜変換して用いることになる。
図20に戻って説明を続ける。ステップS119でYESであれば、ステップS137で非圧縮画像領域28bに書き込まれた画像データを処理し表示画像領域28aに格納されている画像データをズーム中心位置を変更した画像データに更新することによってLCDモニタ32に表示される拡大画像の中心位置を更新しステップS113に戻る。
ステップS121でYESであれば、ステップS101に戻り再生の対象とするファイルを変更し、NOであればステップS113に戻る。
第1の実施例によれば、仮に、記録媒体40から読み出したJPEGデータに付随した位置情報によって再生ズーム処理の中心が設定されなければ、図12の(A)から(B)(C)に示すように、画像の中心がズーム処理の中心位置となり拡大表示されるので、拡大表示操作の後に中心位置を変更する必要が生じるが、同じ再生画像であっても、当該位置情報によって再生ズーム処理の中心が設定されると、図13の(A)から(B)(C)に示すように、当該位置情報に対応した位置が中心位置となり拡大表示されるので、より簡単に撮影時にディジタルカメラ10が注目した位置に応じて拡大再生することができる。
なお、第1の実施例における指定領域は、検出された顔情報が1つであれば顔判別処理において当該顔が検出された時の顔判別領域の中心位置に、複数の顔が検出されている場合は、画角中心位置から最も近い顔が検出された時の顔判別領域の中心位置に設定しているが、指定領域の指定、すなわち、撮像手段によって生成される被写界像内の特定位置を指定方法はこれに限らない。複数の顔が検出されている場合、例えば、最も大きな顔が検出された時の顔判別領域の中心位置に設定したり、信頼度が最も大きく顔が検出された時の顔判別領域の中心位置に設定したりするようにしてもよい。図5に示すように4人の人物P1、P2、P3、P4が入った被写界像であり、顔検出の結果、図6に示すように検出されたとすると、最も大きな顔が検出された時の顔判別領域の中心位置に設定すると、人物P4の顔の位置が設定され、信頼度が最も大きく顔が検出された時の顔判別領域の中心位置に設定すると、正面を向いている人物P1の顔の位置が設定される。
また、第1の実施例における顔検出は複数個の顔を検出することを可能としているが、検出処理の途中で1つでも顔画像が発見されると顔検出処理を終了し、当該検出結果に基づいて指定領域を決定するようにしてもよい。この場合、特徴量の照合処理および顔判別領域の移動処理は、サイズの大きい順に最大サイズ、ミドルサイズ、最小サイズの3つの顔判別領域を順次用いて実行されるので、被写界の中で大きな顔を優先して検出することになる。
次に、図24を参照して、本発明の第2実施例について説明する。本発明の第2実施例である画像再生装置は100は、本発明の第1実施例であるディジタルカメラ10によって得られるような、被写界像内の特定位置を示す位置情報と当該被写界像と共に記録された記録媒体から被写界像を再生するものである。
I/F138を介してファイル形式で記録媒体140に記録されているJPEGデータの1つを選択して読み出し、SDRAM128の圧縮画像領域128cに書き込む。JPEGデコーダ137は、圧縮画像領域128cに格納されたJPEGデータをメモリ制御回路126を通して読み出し、読み出されたJPEGデータを伸張し、得られた画像データをメモリ制御回路126を通して非圧縮画像領域128bに書き込む。非圧縮画像領域128bに書き込まれた画像データをメモリ制御回路126を通して読み出し、読み出された画像データより、当該画像データよりも解像度が低い表示用画像データを作成し、SDRAM128の表示画像領域128aに書き込む。
ビデオエンコーダ130は、表示画像領域128aに格納された画像データをメモリ制御回路126を通して1/30秒毎に読み出し、読み出された画像データをコンポジットビデオ信号に変換する。この結果、再生画像がLCDモニタ132に表示される。
記録媒体140にJPEGデータに撮影時に指定した位置の位置情報が記録されており読み出し可能であれば、当該位置情報を基に再生ズーム処理の中心位置に設定し、ズーム表示を行う。当該位置情報が得られないJPEGデータであれば画像の中心を再生ズーム処理の中心位置に設定し、ズーム表示を行う。
なお、当該位置情報は、第1の実施例とは異なり、JPEGデータの画素数に応じた値を有する位置情報であり、第1の実施例のように、値を換算する必要はない。
ズーム表示は非圧縮画像領域128bに書き込まれた画像データを、ズーム倍率とズーム中心位置に基づいてズーム処理することによって得られた画像データを表示画像領域28aに格納することによって行う。
なお、当該位置情報を再生ズーム処理の中心位置に設定した場合、指定領域を表示するべく、キャラクタジェネレータ134はキャラクタデータをLCDモニタ32に与える。このようなキャラクタ表示を省略してもよい。
CPU142は、再生動作時、図24に示す再生動作を実行する。なお、再生動作を実行する制御プログラムは、フラッシュメモリ148に記憶されている。 ステップS201では、再生するファイルを選択する。ステップS203では、選択されたファイル内のJPEGデータを用いて表示画像を作成しLCDモニタ132に表示する。具体的には、I/F138を介してファイル形式で記録媒体140に記録されているJPEGデータの1つを選択して読み出し、SDRAM128の圧縮画像領域128cに書き込む。JPEGデコーダ137は、圧縮画像領域128cに格納されたJPEGデータをメモリ制御回路126を通して読み出し、読み出されたJPEGデータを伸張し、得られた画像データをメモリ制御回路126を通して非圧縮画像領域128bに書き込む。非圧縮画像領域128bに書き込まれた画像データをメモリ制御回路26を通して読み出し、読み出された画像データより、当該画像データよりも解像度が低い表示用として用いる画像データを作成し、SDRAM128の表示画像領域28aに書き込む。 ビデオエンコーダ130は、表示画像領域128aに格納された画像データをメモリ制御回路126を通して1/30秒毎に読み出し、読み出された画像データをコンポジットビデオ信号に変換する。この結果、再生画像がLCDモニタ132に表示される。
ステップS204では、CPU142が保持しているズーム倍率の値を初期値である1に設定する。
ステップS205によってJPEGデータと共に位置情報が記録媒体140に記録されていることが検出されれば、ステップS207で追って行われるズーム処理のズーム中心を当該位置情報を用いて設定し、ステップS209で当該ズーム中心として設定された位置を示すキャラクタを表示し、ステップS213に進む。
なお、ステップS209によるキャラクタ表示は省略してもよく、又、表示されるキャラクタは所定時間表示後、又はその後に何らかの操作が行われた時点で非表示としてもよい。
一方、ステップS205でNOであれば、ステップS211で追って行われるズーム処理のズーム中心を非圧縮画像領域128bに書き込まれた画像データの中央に設定し、ステップS213に進む。
ステップS213では、キー入力装置146からキー状態信号を取り込み、ステップS215でテレボタン146Tが押され拡大操作が行われたか否か、ステップS217でワイドボタン146Wが押され縮小操作が行われたか否か、ステップS219で位置変更ボタン146Sが押されズーム中心位置の変更操作が行われたか否か、ステップS221で送りボタン146F、又は戻りボタン146Bが押されファイルの選択操作が行われたか否かを判別する。
ステップS215でYESであれば、ステップS223でズーム倍率の値が最大値であるか否かを検出し、YESであれば何もせずS213に戻るが、NOであればステップS225でズーム倍率の値を所定量増加させ、ステップS227で、更新されたズーム倍率とズーム中心位置を基に非圧縮画像領域128bに書き込まれた画像データの拡大処理を行い、表示画像領域128aに格納されている画像データを更新することによってLCDモニタ132に表示される画像を拡大し、ステップS213に戻る。
ステップS217でYESであれば、ステップS229でズーム倍率の値が初期値である1であるか否かを検出し、YESであれば何もせずS213に戻るが、ステップS229でNOであればステップS231でズーム倍率の値を所定量減少させ、ステップS231で、更新されたズーム倍率とズーム中心位置を基に非圧縮画像領域128bに書き込まれた画像データの縮小処理を行い、表示画像領域128aに格納されている画像データを更新することによってLCDモニタ132に表示される画像を縮小し、ステップS213に戻る。
ステップS219でYESであれば、ステップS237で、非圧縮画像領域128bに書き込まれた画像データを処理し表示画像領域128aに格納されている画像データをズーム中心位置を変更した画像データに更新することによって、LCDモニタ132に表示される拡大画像の中心位置を更新しステップS113に戻る。
ステップS221でYESであれば、ステップS201に戻り再生の対象とするファイルを変更し、NOであればステップS213に戻る。
本実施例によれば、仮に、記録媒体140から読み出したJPEGデータに付随した位置情報によって再生ズーム処理の中心が設定されなければ、図12の(A)から(B)(C)に示すように、画像の中心がズーム処理の中心位置となり拡大表示されるので、拡大表示操作の後に中心位置を変更する必要が生じるが、同じ再生画像であっても、当該位置情報によって再生ズーム処理の中心が設定されると、図13の(A)から(B)(C)に示すように、当該位置情報に対応した位置が中心位置となり拡大表示されるので、より簡単に撮影時に注目した位置に応じて拡大再生することができる。
以上、本願発明の実施例について説明したが、本願発明は上記実施例に限定されるものではない。
電子カメラとしては、図26に示すように、1つの被写界像に対し複数個の顔情報の位置、サイズ、信頼度を記録媒体に記録して利用するようにしてもよい。そして、再生時に、どの位置情報を用いて再生するかを選択するようにすればよい。選択に際し、サイズの値や信頼度の大きさに応じて選択する順位や優先度を決めるようにしてもよい。また、サイズの値を用いて、拡大表示のズーム倍率の初期値を決めるようにしてもよい。
特徴画像として顔画像を用いるのではなく、サッカーボールや小動物の画像を特徴画像として探索し、被写界像内の特定位置を指定するようにしてもよい。
特定位置の指定は顔検出等の画像認識処理を用いるのでなく、AF機能を用いて検出された最も近い被写体の位置、最も遠い被写体の位置、画角中央に最も近い被写体の位置や、撮影時にタッチパネル等のポインティングデバイスで使用者が直接指定した位置としてもよい。
電子カメラ、又は被写界像再生装置において、位置情報を用いた再生としては、拡大再生やトリミング再生に限らず、当該位置情報が示す位置から穴を広げるように被写界像を再生したり、当該位置情報が示す位置を中心に被写界像を回転させながら再生したりするようにしてもよい。
被写界像は圧縮して記録されている必要はなく、非圧縮で記録されていてもよい。
位置情報としては画素数を用いるのではなく、モニタ上での比率(縦方向にX%、横方向にY%の位置)で特定してもよい。
被写界像は静止画に限らず動画や動画の一部、例えばMPEG画像データ内のIピクチャ(フレーム内符号化画像)であってもよい。
図26に示すように、1つの被写界像に対し複数個の当該位置情報を、記録媒体に記録して利用するようにしてもよい。再生時に、どの位置情報を用いて再生するかを選択するようにすればよい。再生時に用いる位置情報は1つに限らず、複数の位置情報を用いての再生、例えば複数の位置情報によって囲まれた領域の拡大再生やトリミング再生をするようにしてもよい。
本発明の第1の実施例であるディジタルカメラを示したブロック図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の効果の説明に用いた説明図である。 本発明の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明するフローチャートである。 本発明の第1の実施例の動作を説明するフローチャートである。 本発明の第1の実施例の動作を説明するフローチャートである。 本発明の第1の実施例の動作を説明するフローチャートである。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の動作を説明するフローチャートである。 本発明の第1の実施例の動作を説明するフローチャートである。 本発明の第1の実施例の動作を説明する説明図である。 本発明の第1の実施例の効果の説明に用いた説明図である。 本発明の第2の実施例である画像再生装置を示したブロック図である。 本発明の第2の実施例の動作を説明するフローチャートである。 本発明の実施例を説明する説明図である。
符号の説明
10 ディジタルカメラ
12 光学レンズ
14 イメージセンサ
24 AE/AF評価回路
28 SDRAM
32 LCDモニタ
34 キャラクタジェネレータ
40 記録媒体
42 CPU
46 キー入力装置
48 フラッシュメモリ
100 画像再生装置
128 SDRAM
132 LCDモニタ
134 キャラクタジェネレータ
140 記録媒体
142 CPU
146 キー入力装置
148 フラッシュメモリ

Claims (7)

  1. 被写界を捉える撮像面を有し、被写界像を生成する撮像手段、
    前記撮像手段によって生成される被写界像内の特定位置を指定する指定手段、
    前記撮像手段によって生成された被写界像を、前記指定手段によって指定された特定位置の位置情報と共に記録する記録手段、および
    前記記録手段によって記録された被写界像を前記記録手段によって記録された位置情報を用いて再生を行う再生手段を具える、電子カメラ。
  2. 前記撮像手段によって生成された被写界像に含まれる特徴画像を探索する探索手段をさらに具え、前記指定手段は前記探索手段によって検知された特徴画像の位置に基づいて特定位置を指定することを特徴とする請求項1記載の電子カメラ。
  3. 前記指定手段によって指定された特定位置の被写界像に基づいて前記撮像手段の撮影条件を調整する調整手段をさらに具え、前記記録手段は前記調整手段によって調整された撮像条件で作成された被写界像を記録することを特徴とする請求項1記載の電子カメラ。
  4. 前記撮影条件は前記撮像手段の焦点距離であることを特徴とする請求項3記載の電子カメラ。
  5. 前記再生手段は、前記記録手段によって記録された位置情報を用いて特定される位置を中心に被写界像を拡大再生することを特徴とする請求項1記載の電子カメラ。
  6. 被写界像内の特定位置を示す位置情報と当該被写界像と共に記録された記録媒体から前記被写界像を再生する被写界像再生装置であって、前記被写界像を前記位置情報を用いて再生を行う再生手段を具える、被写界像再生装置。
  7. 前記再生手段は、前記位置情報を用いて特定される位置を中心に被写界像を拡大再生することを特徴とする請求項6記載の被写界像再生装置。
JP2007207281A 2007-08-08 2007-08-08 電子カメラ及び被写界像再生装置 Pending JP2009044463A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007207281A JP2009044463A (ja) 2007-08-08 2007-08-08 電子カメラ及び被写界像再生装置
US12/186,818 US8081804B2 (en) 2007-08-08 2008-08-06 Electronic camera and object scene image reproducing apparatus
CN2008101298046A CN101365063B (zh) 2007-08-08 2008-08-07 电子照相机以及视场图像再现装置
US13/298,509 US20120133798A1 (en) 2007-08-08 2011-11-17 Electronic camera and object scene image reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007207281A JP2009044463A (ja) 2007-08-08 2007-08-08 電子カメラ及び被写界像再生装置

Publications (2)

Publication Number Publication Date
JP2009044463A true JP2009044463A (ja) 2009-02-26
JP2009044463A5 JP2009044463A5 (ja) 2010-04-02

Family

ID=40346607

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007207281A Pending JP2009044463A (ja) 2007-08-08 2007-08-08 電子カメラ及び被写界像再生装置

Country Status (3)

Country Link
US (2) US8081804B2 (ja)
JP (1) JP2009044463A (ja)
CN (1) CN101365063B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012231415A (ja) * 2011-04-27 2012-11-22 Ricoh Co Ltd 撮像装置、画像表示装置および画像表示方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5187139B2 (ja) * 2008-10-30 2013-04-24 セイコーエプソン株式会社 画像処理装置およびプログラム
US8681236B2 (en) * 2009-06-18 2014-03-25 Samsung Electronics Co., Ltd. Apparatus and method for reducing shutter lag of a digital camera
JP2012095236A (ja) * 2010-10-28 2012-05-17 Sanyo Electric Co Ltd 撮像装置
US10127630B2 (en) * 2011-06-29 2018-11-13 Koninklijke Philips N.V. Zooming of medical images
JP6295534B2 (ja) * 2013-07-29 2018-03-20 オムロン株式会社 プログラマブル表示器、制御方法、およびプログラム
JP6512810B2 (ja) * 2014-12-11 2019-05-15 キヤノン株式会社 撮像装置および制御方法とプログラム
US10049273B2 (en) * 2015-02-24 2018-08-14 Kabushiki Kaisha Toshiba Image recognition apparatus, image recognition system, and image recognition method
KR20190094677A (ko) * 2018-02-05 2019-08-14 삼성전자주식회사 카메라 구동 방식 변경 기반의 음성 및 얼굴 인식 장치 및 방법

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318009A (ja) * 2004-04-26 2005-11-10 Nikon Corp 電子カメラおよび画像処理プログラム
JP2006109005A (ja) * 2004-10-04 2006-04-20 Canon Inc 画像出力装置および撮像装置
JP2006295888A (ja) * 2005-03-17 2006-10-26 Canon Inc 撮像装置およびディスプレイの制御方法
JP2007020029A (ja) * 2005-07-11 2007-01-25 Sony Corp 画像処理装置および方法、プログラム並びに記録媒体
JP2007041866A (ja) * 2005-08-03 2007-02-15 Canon Inc 情報処理装置及び情報処理方法並びにプログラム
JP2007067559A (ja) * 2005-08-29 2007-03-15 Canon Inc 画像処理方法、画像処理装置、及び撮像装置の制御方法
WO2007052572A1 (en) * 2005-11-02 2007-05-10 Olympus Corporation Electronic camera
JP2007174589A (ja) * 2005-12-26 2007-07-05 Hitachi Kokusai Electric Inc サムネイル作成プログラム
JP2007195099A (ja) * 2006-01-23 2007-08-02 Fujifilm Corp 撮影装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3649468B2 (ja) 1995-05-31 2005-05-18 株式会社日立製作所 撮影機能付き電子アルバムシステム
JP2000278578A (ja) 1999-03-24 2000-10-06 Matsushita Electric Ind Co Ltd 電子スチルカメラ
KR100547992B1 (ko) * 2003-01-16 2006-02-01 삼성테크윈 주식회사 디지털 카메라와 그의 제어 방법
JP4307301B2 (ja) * 2003-07-31 2009-08-05 キヤノン株式会社 画像処理装置およびその方法
JP4489608B2 (ja) * 2004-03-31 2010-06-23 富士フイルム株式会社 ディジタル・スチル・カメラ,画像再生装置および顔画像表示装置ならびにそれらの制御方法
JP2005354333A (ja) 2004-06-10 2005-12-22 Casio Comput Co Ltd 画像再生装置およびプログラム
US20070291104A1 (en) * 2006-06-07 2007-12-20 Wavetronex, Inc. Systems and methods of capturing high-resolution images of objects
JP4943769B2 (ja) * 2006-08-15 2012-05-30 富士フイルム株式会社 撮影装置および合焦位置探索方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005318009A (ja) * 2004-04-26 2005-11-10 Nikon Corp 電子カメラおよび画像処理プログラム
JP2006109005A (ja) * 2004-10-04 2006-04-20 Canon Inc 画像出力装置および撮像装置
JP2006295888A (ja) * 2005-03-17 2006-10-26 Canon Inc 撮像装置およびディスプレイの制御方法
JP2007020029A (ja) * 2005-07-11 2007-01-25 Sony Corp 画像処理装置および方法、プログラム並びに記録媒体
JP2007041866A (ja) * 2005-08-03 2007-02-15 Canon Inc 情報処理装置及び情報処理方法並びにプログラム
JP2007067559A (ja) * 2005-08-29 2007-03-15 Canon Inc 画像処理方法、画像処理装置、及び撮像装置の制御方法
WO2007052572A1 (en) * 2005-11-02 2007-05-10 Olympus Corporation Electronic camera
JP2007174589A (ja) * 2005-12-26 2007-07-05 Hitachi Kokusai Electric Inc サムネイル作成プログラム
JP2007195099A (ja) * 2006-01-23 2007-08-02 Fujifilm Corp 撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012231415A (ja) * 2011-04-27 2012-11-22 Ricoh Co Ltd 撮像装置、画像表示装置および画像表示方法
US9185294B2 (en) 2011-04-27 2015-11-10 Ricoh Company, Ltd. Image apparatus, image display apparatus and image display method

Also Published As

Publication number Publication date
US20090041355A1 (en) 2009-02-12
CN101365063B (zh) 2012-10-24
CN101365063A (zh) 2009-02-11
US8081804B2 (en) 2011-12-20
US20120133798A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
US9013604B2 (en) Video summary including a particular person
JP2009044463A (ja) 電子カメラ及び被写界像再生装置
US8599316B2 (en) Method for determining key video frames
TWI375917B (en) Image processing apparatus, imaging apparatus, image processing method, and computer program
EP2710594B1 (en) Video summary including a feature of interest
JP4930302B2 (ja) 撮像装置、その制御方法およびプログラム
JP4618166B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP4413235B2 (ja) 電子カメラ
US8582891B2 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
US20110293250A1 (en) Determining key video snippets using selection criteria
JP5821457B2 (ja) 画像処理装置、および、画像処理装置の制御方法ならびに当該方法をコンピュータに実行させるためのプログラム
CN106937051A (zh) 成像设备、成像方法和程序
US20120098946A1 (en) Image processing apparatus and methods of associating audio data with image data therein
JP5837922B2 (ja) カメラ位置に基づくキービデオフレームのランク付け
JP2007310813A (ja) 画像検索装置およびカメラ
JP2011164799A (ja) 画像検索装置、制御方法、プログラム及び記憶媒体
JP2008109338A (ja) 画像管理装置、カメラ、画像管理方法、プログラム
US20120229678A1 (en) Image reproducing control apparatus
JP2011119936A (ja) 撮影装置及び再生方法
JP2009081502A (ja) 撮影装置及び画像再生装置
JP2006039254A (ja) カメラ
JP2009077175A (ja) 電子カメラ
JP2009021893A (ja) 撮像装置及び撮像方法
JP2007267308A (ja) 画像再生装置
JP5356162B2 (ja) 物体像探索装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111024

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20111116

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20111130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120828