JP2010062853A - 情報処理装置、方法およびプログラム - Google Patents

情報処理装置、方法およびプログラム Download PDF

Info

Publication number
JP2010062853A
JP2010062853A JP2008226216A JP2008226216A JP2010062853A JP 2010062853 A JP2010062853 A JP 2010062853A JP 2008226216 A JP2008226216 A JP 2008226216A JP 2008226216 A JP2008226216 A JP 2008226216A JP 2010062853 A JP2010062853 A JP 2010062853A
Authority
JP
Japan
Prior art keywords
image
information
photographer
unit
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008226216A
Other languages
English (en)
Inventor
Ichigaku Mino
一学 三野
Naoaki Hatano
直明 秦野
Hiromichi Watanabe
啓倫 渡邊
Shinji Chiba
信二 千葉
Hisashi Obara
寿 小原
Hiroshi Yamaji
啓 山路
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008226216A priority Critical patent/JP2010062853A/ja
Priority to US12/553,746 priority patent/US8264583B2/en
Publication of JP2010062853A publication Critical patent/JP2010062853A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/673Focus control based on electronic image sensor signals based on contrast or high frequency components of image signals, e.g. hill climbing method

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 撮影者が画像撮影に際して取る動作に基づいて、より高精度に撮影者の意図を画像処理に反映可能にする。
【解決手段】ユーザ情報取得部141の取得したユーザ情報に基づいて、構図フラグのオンオフ、画像分類の付与などの付帯情報を画像に記録する。この付帯情報に基づいて、画像トリミング範囲の設定、エフェクトの付与、画像の台紙への配置などの各種画像処理を行う。
【選択図】 図1

Description

本発明は、撮影前に撮影者のとった動作に応じて各種画像処理内容を決定する装置、方法およびプログラムに関する。
特許文献1は、環境情報検出部を備えた画像記録装置に関し、周囲の温度・湿度・気圧などや撮影時のカメラの振動・シャッターボタンの押圧・撮影者の体温・脈拍・血圧などを記録し、これらの情報を基に画像の評価や検索を行う。
特許文献2では、撮影者の手ないし指の動きを検出し、これを基に撮影開始・ズーム・記録・再生の制御を行う。
特許文献3の画像出力システムは、画像の重要度を算出する重要度算出部と、重要度算出部が算出した重要度がより大きい画像を、より大きく表示又は印刷させる出力制御部とを備える。出力装置は、記録された画角の変化量が予め定められた変化量より大きい撮像画像をトリミングして出力する場合には、当該撮像画像のトリミングされて得られるトリミング画像が所定の大きさ以上となるよう、ユーザによるトリミング範囲を制限する。これにより、ユーザが意図的に広角で撮像した撮像画像を必要以上に小さくトリミングすることを未然に防ぐ。
特開2006−86823号公報 特開2000−138858号公報 特開2006−287911号公報
特許文献1は、画像の評価はされるが、これに応じた内容の画像処理が行われる訳ではない。特許文献2は、撮影者の動きを取得するが、これに応じた内容の画像処理が行われる訳ではない。
特許文献3のように、撮影時の条件をトリミング条件に反映させようとする従来技術は存在するが、特許文献3では、トリミング範囲が狭小化するのを単に防ぐだけである。逆に、ユーザが注目している領域を囲むトリミング範囲を小さとってもよい画像もあるであろうが、そのような場合の対応はできない。
本発明は、撮影者が画像撮影に際して取る動作に基づいて、より高精度に撮影者の意図を画像処理に反映可能にすることを目的とする。
本発明に係る情報処理装置は、画像の撮影開始以前における撮影者の動作に関する情報である撮影者情報を取得する撮影者情報取得部と、撮影者情報取得部の取得した撮影者情報に基づいて、画像に対する処理内容を決定する処理内容決定部と、を備え、撮影者情報は、構図確認の有無、撮影準備操作の有無、撮影装置の位置、撮影開始までの経過時間および撮影開始までの撮影装置の動きのうち少なくとも1つを含む。
処理内容決定部は、撮影者情報が構図確認はあったことを示す情報を含む場合、画像の所定位置を基準に所定のアスペクト比の画像処理範囲を設定し、撮影者情報が構図確認はなかったことを示す情報を含む場合、画像の主要被写体を基準に所定のアスペクト比の画像処理範囲を設定する。
画像処理範囲は、トリミング範囲または画像合成範囲を含む。
画像が撮影に失敗した画像であるか否かを判定する失敗画像判定部を備え、処理内容決定部は、撮影者情報が構図確認はあったことを示す情報を含み、かつ失敗画像判定部が失敗画像であると判定した場合、画像を処理内容の決定候補から除外する。
構図確認はあったことを示す情報は、撮影装置の表示画面への目線検知、撮影装置の近傍での人体検知、特定の内容の音声認識、撮像装置の特定の姿勢、またはズーム操作、合焦操作、輝度調整その他の撮影条件の入力操作検知を含む。
画像の注目部分を決定する注目部分決定部を備え、処理内容決定部は、注目部分決定部が決定した画像の注目部分に基づいて画像に対する処理内容を決定する。
画像の注目部分の指定を受け付ける注目部分指定部を備え、処理内容決定部は、注目部分指定部が指定を受け付けた画像の注目部分に基づいて画像に対する処理内容を決定する。
注目部分決定部は、合焦被写体および撮影装置から合焦被写体までの距離と同一距離にある被写体のうち少なくとも一方を注目部分に決定する。
撮影者が注目している被写体を識別する注目被写体識別部を備え、注目部分決定部は、注目被写体識別部が識別した被写体を注目部分に決定する。
撮影者情報取得部の取得した撮影者情報に基づいて、画像に対する分類を付与する分類部を備え、処理内容決定部は、分類部が画像に付与した分類に基づいて画像に対する処理内容を決定する。
処理内容決定部の決定した処理内容に従って画像を処理する処理部を備える。
処理は、トリミング、画像の台紙への配置、画像同士の合成および画像へのエフェクトの付与のうち少なくとも1つを含む。
本発明に係る情報処理方法は、コンピュータが、画像の撮影開始以前における撮影者の動作に関する情報である撮影者情報を取得するステップと、コンピュータが、撮影者情報取得部の取得した撮影者情報に基づいて、画像に対する処理内容を決定するステップと、を含み、撮影者情報は、構図確認の有無、撮影準備操作の有無、撮影装置の位置、撮影開始までの経過時間および撮影開始までの撮影装置の動きのうち少なくとも1つを含む。
この情報処理方法をコンピュータに実行させるための情報処理プログラムも本発明に含まれる。
この発明によると、構図確認の有無、撮影準備操作の有無、撮影装置の位置、撮影開始までの経過時間、撮影開始までの撮影装置の動きに基づいて、撮影者の想定する画像の重要度や注目点を把握し、それに応じて適切な画像処理を行うことができる。
<第1実施形態>
図1は本発明の好ましい実施形態に係るデジタルカメラ10の機能ブロック図である。まず、同図のデジタルカメラ10において、中央処理装置(CPU)112は、レリーズスイッチ、モードダイヤル等を含む操作部113の各種のボタンやキーからの入力に基づいてデジタルカメラ10内の各回路を統括制御する。CPU112の実行するプログラムは記憶部119のROMに記憶される。
撮像部102は、ズームレンズおよびフォーカスレンズを含む撮像レンズ、撮像レンズを駆動するモータ、CPU112の指令に従ってモータを駆動するモータドライバ、撮像レンズの結像した被写体像を受光して光電変換し、アナログ画像信号として出力する固体撮像素子を含む。
いま、モードダイヤルによって静止画撮影モードが設定されると、CPU112は、撮像部102から順次得られるコマ画像(スルー画)を表示部110に表示させ、撮影画角を確認可能にする。
撮像部102は、A/Dコンバータ、ゲイン調整回路、画像信号処理回路、ホワイトバランス補正回路、ガンマ補正回路、YC処理回路、輝度・色差信号生成回路、シャープネス補正回路、コントラスト補正回路、撮影画像に対する輪郭補正を含む画像処理を行う輪郭処理部、画像のノイズ低減処理を行うノイズ低減処理部等を含む画像処理手段を含み、CPU112からのコマンドに従って画像信号を処理し、デジタル画像データに変換する。
撮像部102から出力された画像データは、輝度信号(Y信号)及び色差信号(Cr、Cl信号)に変換されるとともに、ガンマ補正等の所定の処理が施された後、記憶部119のVRAMに格納される。
一方、画像データは、ハイパスフィルタ(HPF)125でG画素成分のみ抽出される。そして、積算部126で抽出されたG画素成分に積算処理が施されてCPU112に送られる。CPU112は、積算部126から送られた1画面分の分割領域(例えば64分割)の画像データの内、十字キーで任意に設定された被写体中心付近のエリア(例えば4エリア)の平均値を算出し、これをオートフォーカス(AF)評価値とする。AF評価値は、所定周期の経過毎に算出され、算出の度に記憶部119に更新記憶される。CPU112は、AF評価値に従って被写体の合焦するレンズ位置を判定する。その判断方法は任意であるが、例えばAF評価値が極大点の近傍に略到達しているか否かを判断し、極大点に略達している場合は合焦していると判断し、その他の場合は合焦していないと判断する(コントラストAF)。あるいは、AF評価値が所定の閾値を超えていれば合焦していると判断することもできる。
撮影画像を表示部110にモニタ出力する場合、VRAMからYC信号が読み出され、ビデオエンコーダ134に送られる。ビデオエンコーダ134は、入力されたYC信号を表示用の所定方式の信号(例えば、NTSC方式のカラー複合映像信号)に変換して表示部110に出力する。
所定のフレームレートで処理された各フレームのYC信号は、VRAMに順次書き込まれ、そのYC信号から生成される映像信号が表示部110に供給されることにより、撮像中の映像がリアルタイムに表示部110に表示される。ユーザは、表示部110に表示される映像(スルー)によって撮影画角を確認できる。
ここで、レリーズスイッチが半押しされると、AE及びAF処理が開始される。AE/AF処理が行われ、レリーズスイッチが全押しされることによって記録用の撮影動作がスタートする。レリーズスイッチの全押しに応動して取得された記録用の画像データは、画像記憶部132に格納される。
画像記憶部132に格納されたY/C信号は、CPU112によって所定のフォーマット(例えばExif(Exchangeable Image File Format))に従って圧縮された後、外部記録媒体にファイルとして記録される。画像はExifファイルのデータ部分に記録される。CPU112は上記Exifファイルのヘッダ部分の所定のタグ(Imagedescriptionタグなど)に撮影日時情報などを記録する。記録された画像は、通信インターフェース76を介して接続されたパソコン200aやプリンタ200bやPDAなどの各種電子機器200に送信することもできる。
プリンタ200bは、カメラ10やパソコン200aから受信した静止画像を普通紙や印画紙などの紙媒体で構成される台紙に所定の配置でプリントする。所定の配置で配列された静止画像は、アドビシステムズ社の「PDF」のような電子的媒体としてディスプレイや記録メディアやインターネット経由で接続されたパソコンなどに出力することもできる。要するに、作成された画像プリントの出力先は、特定のものに限定されない。本願明細書では、所望の画像が所望の位置に配置されうる電子的媒体の作成フォームも台紙と呼ぶ。
モードダイヤルによって動画撮影モードが設定されたときには、レリーズスイッチの全押し操作に連動して動画記録動作がスタートし、もう一度レリーズスイッチを押下すると動画記録動作が停止する。レリーズスイッチを押下継続している期間、録画動作を行い、押下解除によって録画を停止するようにしてもよい。動画データは、例えばMPEG4形式によって画像記憶部132に記憶される。
モードダイヤルにより再生モードが選択されると、画像記憶部に記憶されている最終の画像ファイル(最後に記録されたファイル)の圧縮データが読み出される。この読み出された画像圧縮データは、CPU112によって非圧縮のYC信号に伸長され、ビデオエンコーダ134に加えられる。ビデオエンコーダ134は、入力するYC信号からNTSC方式のRGBカラー複合映像信号を作成し、これを表示部110に出力する。これにより、表示部110に画像が表示される。
表示部110は、カメラ10に内蔵されたLCD、ファインダー又は映像出力端子等に接続された外部の表示装置に相当する。なお、CPU112は、OSD信号発生回路を含み、OSD信号発生回路はシャッター速度や絞り値、撮影可能枚数、撮影日時、警告指示等の文字及びアイコン等の記号を表示するための信号を発生させる。このOSD信号発生回路から出力される信号は、必要に応じて画像信号に混合されて、表示部110に供給される。これにより、スルー画像や再生画像に文字やアイコン等が合成された合成画像が表示される。
画像記憶部132は、撮影で得た画像データ(静止画、動画)を保持する手段であり、例えばスマートメディアと呼ばれるメモリカードが使用される。記録メディアの形態はこれに限定されず、PCカード、コンパクトフラッシュ(登録商標)、磁気ディスク、光ディスク、光磁気ディスク、メモリスティックなどでもよく、電子的、磁気的、もしくは光学的、又はこれらの組み合わせによる方式などに従って読み書き可能な媒体を用いることができる。異種・同種の記録メディアを問わず、複数の媒体を装着可能な構成にしてもよい。また、画像ファイルを保存する手段は、カメラ本体に着脱可能なリムーバブルメディアに限らず、カメラに内蔵された記録媒体(内蔵メモリ)であってもよい。
CPU112は、カメラ10の各回路を統括制御する制御回路であり、レリーズスイッチ、十字キー、電源スイッチ、モードダイヤル、情報位置指定キーあるいは図示しないストロボボタン、ズームキー、メニュー/実行ボタンその他を含む操作部113から受信する信号に基づき、対応する回路の動作を制御するとともに、表示部110における表示制御、ストロボ発光制御、AF補助光の発光制御、オートフォーカス(AF)制御及び自動露出(AE)制御等を行う。
カメラ10の電源が電源スイッチでオンされる度に、カメラボディ内部に装着される電池からなる図示しない主要電源から、デジタルカメラ10の各回路に電源が供給される。
通信インターフェース76は、パソコンンやプリンタなどの各種情報処理機器と接続可能であり、CPU112からのコマンドに従い、データの送受信を行う。
動き検出回路21は、加速度センサ、ポテンショメータ、重力サンサ、傾斜センサ、姿勢センサ、電子コンパス等からなる。具体的には、動き検出回路21は、操作部113、特にレリーズスイッチへの押圧力を検知する圧力検出部、カメラ100の左右の動き方向及びその動作量を示す左右動き情報を出力する左右動き検出部、カメラ100の上下の動き方向及びその動作量を示す上下動き情報を出力する上下動き検出部、カメラ100の筐体の水平方向に対する傾き方向及びその傾き量を示す傾き動き情報を出力する傾き動き検出部を備える。動き情報は、左右動き情報、上下動き情報、および傾き動き情報ならびに各動きの検知が開始した時刻、各動きの検知が終了した時刻、各動きの検知が持続した時間を含む。
サブ撮像部20は、カメラ10の筐体前面に設けられて被写体の撮影に用いられる撮像部102とは異なり、筐体前面に設けられて撮影者自身の撮影(以下、セルフ撮影と呼ぶ)を行なう。また、サブ撮像部20は、ユーザが表示部110の画面のどこを注視しているかを検出する装置であり、検出した情報はCPU112に入力される。被検眼の視線方向を検出するには、被検眼の前眼部に光線を投射し、角膜或いは水晶体による反射像を光電変換素子によって検出することで実現される。被検眼の視線方向を検出する装置は周知であり、例えば、特許第2872292号に開示された技術を適用できる。
測距部81は、例えば、撮像部102の撮影範囲にある被写体に対して発光部から光を発し、被写体に反射して戻ってきた光を受光し、発光部と受光部のなす角から被写体までの距離を算出する三角測距センサを採用できる。あるいはTOF(タイムオブフライト)原理を応用したセンサや、複眼カメラの距離画像(3D画像)を利用するなど、被写体の測距を行う手段であれば各種の公知技術を採用できる。
表示部110にはタッチパネル114が積層されている。ユーザが指やペンなどで表示部110の対応部分を押下すると、その押下位置を示す情報がCPU112に出力される。
CPU112には、音声処理回路84を介してスピーカ85が接続されている。音声処理回路84は、CPU112から送られた報知音データ(シャッタ音、警告音など)に基づき、スピーカ85を駆動させることで、報知音や、動画とともに記録された音声を出力する。
マイク17から取得されたアナログ音声信号は、動画撮影モードの場合、音声処理回路84によって増幅後デジタルデータに変換されるとともに、所定の圧縮記録形式(MPEG4など)で圧縮されるなどのデータ処理がなされ、取得した画像とともに画像記憶部132に記憶される。静止画撮影モードであっても、本撮影指示前後の音声を記録することは可能である。また、画像記憶部132に記憶された音声の他、記憶部119に予め記憶された操作音、シャッタ音、AFの合焦音などの各種報知音データは、音声処理回路84によってデコードやアナログ音声信号変換や増幅などのデータ処理がなされた後に、スピーカ35に出力される。スピーカ85は、音声処理回路84から出力されたアナログ音声信号に従って音声を出力する。
RTC(リアルタイムクロック)15は、現在日時情報を出力する。この現在時刻情報は、撮像部102による記録用画像の撮影日時情報として、画像とともに記録することができる。
音声認識回路54は、マイク17から直接取得された音声、あるいは画像記憶部132に記憶された音声データのうちCPU112から指定された音声データが表す音声に対して音声認識を行い、認識結果をテキストデータとして出力する音声認識処理を行う。音声認識回路54には、音声データベース74が接続されており、音声データベース74には、音声認識処理時にパターンマッチングのために参照されるパターンデータが記憶されている。音声認識回路54は、音声データベース74に記憶されているパターンデータを参照して音声認識を行う。音声データベース74には、例えば「はい、チーズ」や「はい、笑って!」や「撮りますよ」といった、撮影の開始を知らせる様々な音声パターンが登録されている。
GPS受信機120は、GPS衛星からの電波を受信して軌道からの距離を測定することにより、カメラ10の現在位置情報を得る。この現在位置情報は、撮像部102による記録用画像の撮影位置情報として、画像とともに(例えばメタ情報やヘッダ情報として)画像記憶部132に記憶することができる。
赤外線センサ150は、表示部110や操作部113の近傍に存在している物体の熱を感知し、発熱体の存在を検知すると、その旨をCPU112に通知する。検知の閾値はCPU112の指令に応じて任意に設定でき、例えば人の体温36°Cとすることができる。赤外線センサ150は、CCDのような赤外線帯域に感度を有する撮像素子を備えていてもよく、この場合、発熱体を被写体としたサーモグラフィーを作成してもよい。
図2は、カメラ筐体裏面におけるサブ撮像部20、赤外線センサ150、マイク17、通電部121の1対の電極121a・121bの設置位置の一例を示す。これらの各種装置は、表示部110の周辺に設けられている。
再び図1を参照すると、ユーザ情報取得部141は、画像処理の基礎となるユーザ情報を取得する。例えば、ユーザ情報は、GPS受信機120からの位置情報、赤外線センサ150の発熱体検知の有無、動き検出回路21の検出した動きを示す動き情報、通電部121による人体通電検知の有無、RTC15からの撮影日時情報、操作部113やタッチパネル114の操作内容情報、CPU112からの構図情報、被写体情報、画質情報、音声認識回路54からの認識音声情報、あるいはそれらをメタ情報やヘッダ情報として記録した画像ファイルなどが挙げられる。
通電部121は、カメラ筐体に設けられているが、カメラ筐体上では互いに絶縁された1対の電極の一方から、数百マイクロアンペア程度の微弱電流を出力する。もし、双方の電極がともに人体に触れていれば、電極の一方から出力された微弱電流は他方に到達する。通電部121は、微弱電流の通電の有無を検知し、これを通電情報としてCPU112に出力する。電極は、カメラ10で撮影を行うときに通常撮影者が把持する部分、例えば筐体左右側面に1つずつ(縦撮りの場合は上下側面に1つずつ)に設けられる。通電情報は、ユーザがカメラ10を両手で構えておりカメラ10が撮影準備状態にあるか、あるいは単に片手で持ち運んでいるだけかを判断する情報の1つとして用いられる。この情報は、画像の付帯情報として記録してもよい。
画像解析部145は、画像記憶部132の画像を解析し、その結果に応じて、構図情報、被写体情報、画質情報を作成し、出力する。構図情報は、人物の有無、主要被写体(典型的には合焦被写体のことを指すが、顔検出のあった被写体でも可)の位置を含む。被写体情報は、顔領域の位置、サイズ、人物名などを含む。なお、構図解析、被写体抽出、顔検出、画質解析については、各種の公知技術を用いればよい(例えば、本出願人による特開2007−97090号公報、特許公開2005−354606号公報)。これらの情報は、画像の付帯情報として記録してもよい。
画質情報は、ボケ・ブレの有無や、目瞑りの有無などを示す失敗画像情報を含む。ブレの検出については、従来の手ブレ検出と同様、動き検出回路21の検出した加速度ベクトルのサイズが所定の閾値を超えた場合に手ブレありと判断する。ボケの検出については、例えばエッジ検出に基づいて行うことができる(例えば、本出願人による特開2005−122721号公報)。目瞑りの有無の判定についても公知技術を用いることができる(例えば、本出願人による特開2007−49631号公報)。
操作内容情報は、撮影モード設定からシャッターボタン半押しまでの間に入力された操作の内容を含む。操作内容情報は、操作部113またはタッチパネル114への操作入力があるごとに、CPU112によって記憶部119に記憶される。これらの情報は、画像の付帯情報として記録してもよい。
画像分類部142は、ユーザ情報取得部141の取得した情報に基づいて、画像記憶部132の画像を分類し、その結果を示す分類情報を各画像に対応づけて画像記憶部132に記憶する。画像処理条件決定部143は、各画像に対応づけられた付帯情報、例えば構図情報、操作情報、カメラ10の位置情報、撮影までの経過時間情報、カメラ10の動き情報、カメラ10の姿勢情報、画像の分類情報に基づいて、各画像の画像処理条件を決定する。画像処理部144は、画像処理条件決定部143の決定した画像の画像処理条件に基づいて、当該画像に画像処理を施す。画像処理とは、トリミング、テンプレート合成、テキスト合成を含む。
なお、デジタルカメラ10とは、要するに被写体光を画像データとして取得可能な機器であれば何でもよく、カメラ付き携帯電話、カメラ付きパソコン、デジタルビデオカメラ、デジタルスチルカメラなども含みうる。
記憶部132には、画像データに合成される文字情報やテンプレートデータが格納されており、画像処理部144は、操作部113からの選択操作に応じて所望の画像に所望のデータを合成する。
図3は第1実施形態に係る撮像処理の概略を示すフローチャートである。この処理は撮影モードの設定に応じて開始する。この処理をCPU112に実行させるプログラムは記憶部119に記憶されている。
S1では、撮像前に構図を確認する動作が検知されたか否かを判断する。Yesの場合はS2、Noの場合はS3に進む。ここでYesの判断が下される場合とは、例えば、サブ撮像部20から出力された撮像信号から顔画像(特に、記憶部119に予め記憶された撮影者の顔特徴量と同一の顔特徴量を有する顔画像を検出したこと)、赤外線センサ150が発熱体を検知したこと、通電情報が出力されたこと、あるいはそれらのうちの2つ以上を組み合わせた条件のいずれか1つを満たした場合、もしくは全てを満たした場合である。
S2では、記憶部119の「構図フラグ」をオンに設定する。撮影時にユーザが表示部110の前に顔を近づけてスルー画をチェックしたり、設定操作を行おうとして指を表示部110に近づければ、構図を重視した撮影を行おうとしていると推測される。この場合は、「構図フラグ」をオンにする。逆に、構図を確認する動作が何も検知されなければ、構図を重視しない撮影を行おうとしていると推測されるから、「構図フラグ」をオフのままにする。
S3では、撮像前に構図を確認する旨を示す操作が入力されたか否かを判断する。Yesの場合はS2、Noの場合はS5に進む。ここでYesの判断が下される場合とは、例えば、メニューから撮像前に構図を確認する旨の項目が操作部113から選択されたことの他、構図の確認に関係がある所定の操作、例えばズームレンズの駆動、合焦評価値算出領域の指定、顔検出AFのオンオフ設定、画面明るさ調整などが操作部113から入力されたこと、あるいはその2つ以上を組み合わせた条件のいずれか1つを満たした場合、もしくは全てを満たした場合である。
S4では、記憶部119の「構図フラグ」をオンに設定する。撮影時にユーザが、ズーム、ピント、輝度調整などの各種撮影条件の設定操作をしていれば、構図を重視した撮影を行おうとしていると推測される。この場合、「構図フラグ」をオンにする。逆に、撮影条件の設定操作が何もなければ、構図を重視しない撮影(非常に急いでいるか、あるいは何気ない撮影)を行おうとしていると推測されるから、「構図フラグ」をオフのままにする。
構図フラグは、当該画像を記録した画像ファイルの付帯情報(ヘッダ情報やタグ情報やメタ情報)として記録しておけば、画像とともに電子機器200に出力できる。
カメラ10あるいは電子機器200は、画像ファイルの付帯情報に記録された構図フラグのステータスに応じて、当該画像ファイルに記録された画像に対する画像処理を実行する。
例えば、図4(a)(b)のような画像データI1、I2が、ある画像ファイルに記録されているとする。
図5に示すように、パソコン200a(あるいはカメラ10やプリンタ200b)は、画像データI1に対応する構図フラグがオフの場合、エッジ検出などで主要被写体を検出した上、主要被写体を包含しかつプリンタ200bのプリントアスペクト比に合致した縦横比の画像トリミング領域を当該画像データI1に設定する。そして、図6のように、その画像トリミング領域内の部分画像を切り出し、ハードディスクなどの記憶媒体にプリント用画像として保存する。これは、構図フラグがオフなら、撮影者は構図を重視しておらず、オリジナルの画像の構図を必ずしも保持しないままトリミングしてもユーザの希望に沿うと考えられるからである。
一方、図示は省略するが、パソコン200aは、画像データI1に対応する構図フラグがオンの場合、画像データI1の所定部分(典型的には中央部分)を包含しかつプリンタ200bのプリントアスペクト比に合致した縦横比の画像トリミング領域を設定し、その画像トリミング領域内の部分画像を切り出し、ハードディスクなどの記憶媒体にプリント用画像として保存する。これは、構図フラグがオンなら、撮影者は構図を重視しており、オリジナルの画像の構図をなるべく保持したトリミングがユーザの希望に沿うと考えられるからである。
あるいは、カメラ10、パソコン200a、プリンタ200bが、画像I1とI2を同一の台紙に配置した際、両画像に重複が生じたとする。この場合、重複部分においてどちらの画像を優先的に出力するかを決定する必要があるが、この決定に際して「構図フラグ」を用いる。例えば、画像I1の構図フラグが「オン」であり、画像I2の構図フラグが「オフ」であれば、両画像の重複部分において、画像I1の出力を画像I2よりも優先させる(図7参照)。
画像I1の構図フラグ=画像I2の構図フラグ=「オフ」である場合、どちらも構図が重視されておらず両画像の優劣がつかないので、重複部分において、画像I1・I2のうち任意の一方の画像の出力を他方よりも優先させる。
画像I1の構図フラグ=画像I2の構図フラグ=「オン」である場合、どちらも構図が重視されており両画像の優劣がつかないので、重複部分を解消させるよう警告を表示部110に表示するか、強制的に画像I1・I2の位置を引き離して重複部分を解消させる。あるいは、重複部分において、画像I1・I2のうち任意の一方の画像の出力を他方よりも優先させてもよい。
あるいは、カメラ10、パソコン100aあるいはプリンタ200bは、画像の構図フラグに応じて、プリント注文画像の候補から、失敗画像情報のある画像を除外する。
例えば、カメラ10は、画像I1の構図フラグ=「オフ」である場合、画角外れ(例えば図4(b)の犬の体が半分しか写っていないような場合)や、画像解析部145による画像解析の結果、ボケやブレや被写体の目つぶりなどのいわゆる失敗撮影の発生が失敗画像情報に基づいて判定されても、候補から除外せず、この画像をプリンタ200bへ出力するプリント画像として、操作部113からの選択を許容する。
一方、カメラ10は、画像I1の構図フラグ=「オン」であり、失敗撮影の状態が生じていると判定された場合、候補から除外し、この画像をプリンタ200bへ出力するプリント画像として、操作部113からの選択を無効化するか、選択されても無視する。
これは、構図フラグ=「オン」で構図を重視しているのに失敗画像を撮ってしまった場合、その画像はプリントする価値に乏しいと考えられるからである。逆に、構図フラグ=「オフ」で構図を重視していなければ、失敗画像と判定された場合であっても、その画像は撮影時の雰囲気を確認するのに十分であり、プリントする価値はあると考えられるからである。プリント以外にも、CD−Rへの出力候補や、スライドショーの構成画像から外すなど、失敗画像情報のある画像の取扱を構図フラグに応じて決めることもできる。
<第2実施形態>
図8は第2実施形態に係る撮像処理の概略を示すフローチャートである。この処理をCPU112に指令させるプログラムは記憶部119に記憶されている。
S11では、撮像前に構図を確認する動作が検知されたか否かを判断する。Yesの場合はS12、Noの場合はS13に進む。この処理はS1と同様である。
S12では、構図フラグ=「オン」を設定する。次に、表示部110に表示されたスルー画から所望の撮影対象の注目点の指定を促すメッセージを表示部110に表示し、タッチパネル114から、撮影対象の注目点の指定を受け付ける。指定があった場合はS13、所定時間が経過しても指定がない場合あるいは指定を行わない旨の操作があった場合はS14に進む。撮影対象の注目点は単数でも複数でもよい。注目点の指定を受け付ける代わりに、撮影対象を包含する領域あるいはその領域の縁の描画操作を受け付けてもよい。例えば、被写体を囲む円を入力する操作、被写体の周りをなぞる操作を受け付けてもよい。
S13では、指定のあった注目点を中心とした所定の形状・所定の大きさの領域(トリミングテンプレート領域)を、画像トリミング領域に設定し、設定された画像トリミング領域の座標情報を記憶部119に記憶する。トリミングテンプレート領域は記憶部119に記憶されているが、画像の付帯情報にしてもよい。その形状と大きさは任意であり、円形、楕円形、矩形、星型などとできるが、撮像処理の前に予め操作部113から任意に指定できてもよい。注目点の指定があれば、「注目点フラグ」=オンを記憶部119に設定する。このフラグは画像ファイルの付帯情報として記録される。
なお、S13で撮影対象を包含する領域あるいはその領域の縁の描画操作がされていれば、その領域を画像トリミング領域に設定し、設定された画像トリミング領域の座標情報を記憶部119に記憶する。画像トリミング領域の座標情報は、当該画像を記録した画像ファイルのヘッダ情報やタグ情報やメタ情報として記録しておけば、画像とともに電子機器200に出力できる。
ユーザからの明示的な操作部113への注目点の指定操作に依存せず注目領域や画像トリミング領域を設定することも可能である。例えば、操作部113への操作以外のユーザの動作を検知し、それに基づいて注目領域や画像トリミング領域を設定してもよい。具体的には、CPU112は、ユーザの視線方向をサブ撮像部20によって検知し、その視線方向の先にあるスルー画上の被写体像ないし部分領域(注目領域)を特定し、特定した注目領域を包含する所定サイズ・所定形状のトリミングテンプレート領域を画像トリミング領域に設定する。あるいは、カメラ10で画像トリミング領域の設定は行わず、注目点の座標情報を、画像の付帯情報として記録しておき、これを電子機器200で読み取り、画像トリミング領域の設定を行ってもよい。あるいは、カメラ10の傾きが鉛直上方であることが動き検出回路21により検出され、かつ、画像解析部145が顔検出をした場合、撮影者は人物よりも背景を重視しているとみなし、顔検出領域の上方領域を注目領域に設定する。これと同様に、チルト方向が鉛直下方であれば顔検出領域の下方領域を、パン方向が左であれば顔検出領域の左側領域を、パン方向が右であれば顔検出領域の右側領域を、それぞれ注目領域に設定するとよい。
あるいは、CPU112は、ユーザの視線方向をサブ撮像部20によって検知し、その視線方向の先にある被写体(注目被写体)を特定し、特定した被写体をスルー画上で包含する所定サイズ・所定形状の領域を注目領域に設定する。視線を向けている被写体の検知は、公知技術を用いればよい。例えば、特開2001−350171号公報のように、撮影者がカメラのファインダ視野のどこを見ているかを検出するとよい。
あるいは、被写体距離情報と焦点距離情報に基づいて画像トリミング領域を設定してもよい。これは例えば、焦点距離情報を合焦被写体の距離情報に換算した上、別途測距部81から取得した、各被写体(主要被写体以外の被写体も含む)に対応する被写体距離情報と合焦被写体の距離情報とを比較する。そして、測距部81から取得した各被写体の位置から、合焦被写体の距離情報と同一の被写体距離情報に対応する被写体の位置を特定し、合焦被写体および/またはこれと同一距離の他の被写体をスルー画上で包含する所定サイズ・所定形状の領域を注目領域に設定する。なお、各被写体の位置情報は、立体的な座標情報であれば3D画像から取得することができる。
S14では、画像全体を包含する領域を画像トリミング領域に指定する。これは、構図確認をしているが特別な注目点が指定されない場合は、画像全体が重要であり、特定の一部分を切り出すのは適当でないからである。あるいは、カメラ10で画像トリミング領域の設定は行わず、注目点の座標情報を、画像の付帯情報として記録しておき、これを電子機器200で読み取り、画像トリミング領域の設定を行ってもよい。また「注目点フラグ」=オフを記憶部119に設定する。このフラグは画像ファイルの付帯情報として記録される。
S15では、構図フラグ=「オフ」を設定する。そして、任意の画像トリミング領域の指定を操作部113から受け付ける。ただし画像トリミング領域は必ずしも指定されなくてもよい。あるいは、カメラ10で画像トリミング領域の設定は行わず、画像トリミング領域は「なし」である旨を画像の付帯情報として記録しておき、これを電子機器200で読み取り、ユーザ操作による画像トリミング領域の自由な設定を許可してもよい。
図9はスルー画および注目点の一例を示す。図9(a)では、構図確認がなく(S11でNo)、特にユーザが注目しているポイントはないとみなし、トリミング領域も設定しない(S15)。図9(b)では、構図確認があり(S11でYes)、かつ、画面中央の人物被写体および画面右側部に注目点が指定されている。そのため、それらに対応した2つの画像トリミング領域A・Bが設定されている。図9(b)では、構図確認があるが(S11でYes)、注目点が指定されていない(S12でNo)。つまり、ユーザは画面全体を注目点と考えており、画像全体を包含する領域が画像トリミング領域Cに指定され、画像の一部がトリミングされるのを防ぐ。
カメラ10、パソコン200a、あるいはプリンタ200b(以下、「カメラ等」と表記)は、構図確認の有無、注目点の有無に応じて画像トリミング領域を設定し、その画像トリミング領域に従って、画像データをトリミングする。
具体的には、図10に示すような、各処理ステップS3、4、5の実行結果に対応した商材ごとの画像処理の内容を規定してた処理内容テーブルを記憶部119その他のカメラ等の有する記憶媒体に記憶しておき、S1・2の判断の結果進んだ処理および所望のプリントの種類に対応する処理内容を特定して、それを実行する。なお、このテーブルにはトリミング領域の設定内容が規定されているから、必ずしもステップS13・14・15でカメラ10自身がトリミング領域を設定したり動画再生制御する必要はなく、電子機器200が画像ファイルの構図フラグや注目フラグを参照して決定できる。
例えば、プリントの種類として「通常プリント」が選択され、かつ、ステップS15に進んだ場合(すなわち画像ファイルの付帯情報が「構図フラグ」=オフを記録する場合)、カメラ等は、当該画像ファイルに記録された画像に関して、通常プリントのアスペクト比を有した矩形領域の中心を画像の中心に合わせて(センタリング)、当該矩形領域に包含される部分画像を切り出す。これは、撮影前に、背景と人物のバランスなど細かい構図の確認がされていなければ、ある程度背景を切り抜いてトリミングを行っても問題ないと考えられるからである。
あるいは、プリントの種類として「フォトアルバム等(フォトアルバム、カレンダー、ポストカード)」が選択され、かつ、ステップS15に進んだ場合、カメラ等は、当該画像ファイルに記録された画像に関して、操作部113その他のユーザ操作部材を介した自由な画像トリミング領域の設定を受け付け、受け付けた領域に包含される部分画像を切り出す。
あるいは、プリントの種類として「通常プリント」が選択され、かつ、ステップS13に進んだ場合(すなわち画像ファイルの付帯情報が「構図フラグ」=オンかつ「注目点フラグ」=オンを記録する場合)、カメラ等は、当該画像ファイルに記録された画像に関して、注目点の近傍領域、例えば上述の注目領域に包含される部分画像を切り出す。なお、日付などの付帯情報の合成位置は、注目点から外れた位置にするとよい。
あるいは、プリントの種類として「フォトアルバム等(フォトアルバム、カレンダー、ポストカード)」が選択され、かつ、ステップS13に進んだ場合、カメラ等は、当該画像ファイルに記録された画像に関して、上述の注目領域に包含される部分画像を切り出す。あるいは、同一の台紙上である画像の注目領域が別の画像と重なる場合、注目領域を優先して出力する。図11では、画像I3の注目領域Rが他の画像I4と重なっているが、注目領域Rは画像I4よりも優先して前面に出力されて、画像I4は注目領域Rに関して画像I3の背後になる。これらの画像I3・I4でスライドショーを表示する場合は、画面上でフェードイン・フェードアウトさせてもよいが、その際に両者が重なった場合は、重複部分について上記のような出力の優先制御をする。
あるいは、プリントの種類として「通常プリント」が選択され、かつ、ステップS14に進んだ場合(すなわち画像ファイルの付帯情報が「構図フラグ」=オンかつ「注目点フラグ」=オフを記録する場合)、カメラ等は、操作部113の操作部材から、当該画像ファイルに記録された画像に関して、任意の画像トリミング範囲の指定を受け付ける。ただし、受け付けた画像トリミング範囲が、画像全体の面積のうちの所定以上の割合を失う場合(例えば画像全体の面積の30%以上を喪失するような画像トリミング範囲が指定された場合)は、切り出し範囲が小さい旨の警告を表示部110などの表示装置に出力し、なるべく多くの領域が切り出されるようにする。これは、撮影前にどのような画像が撮影されるかを撮影者がよく確認しているから、大幅な切り出しは好ましくないと考えられるからである。なお、撮影日付など画像とともに出力する付帯情報は、注目点から外れたの位置に合成するとよい。
あるいは、プリントの種類として「フォトアルバム」が選択され、かつ、ステップS14に進んだ場合、カメラ等は、画像全体をそのまま台紙に配置する指示を受け付け、画像全体が保たれるようにする。なお、この画像全体を台紙や表紙や見開きページに配置すると、画像全体が目立ってよい。
この画像出力の優先順位の制御は、レイヤ(仮想的な画像の層)に各画像を割り当てることで行うことができる。従って、実際のプリント出力以外にも、画面表示における優先順位の制御基準として注目点を用いることもできる。
例えば、画像ファイルの付帯情報に、「構図フラグ」=オフが記録されている場合、当該動画ファイルに記録されている画像データの再生が指定されたとする。この場合、CPU112は、表示部110に画像データに従った映像を表示するが、その際、画像中の必要部分の切り出しを許容し、また、画面上に表示された他の画像との重ね合わせも許容する。この結果、再生される動画の一部分のみが切り出された状態で再生されたり、他の画像の下に隠れて動画が再生される。この切り出し領域を、あるいは切り出し領域以外を隠す(マスキング)ようにしたり、切り出し領域を強調するような画像を合成したり(合成枠)、切り出し領域を回転させるなど、元画像に動き(エフェクト)を与えてもよい。エフェクトの種類は操作部113から自由に選択できてもよい。また、エフェクトにに同期して音声処理回路84からスピーカ85に出力されて再生される「バックグラウンドミュージック(BGM)」の曲名を操作部113から自由に選択できてもよい。
画像ファイルの付帯情報で「構図フラグ」=オンかつ「注目点フラグ」=オンの場合、当該画像ファイルの画像の注目領域を所定の速度で水平・垂直移動(パン・チルト)するよう表示させたり、拡縮(ズームイン/ズームアウト)したり、あるいは注目領域以外を隠す(マスキング)ようにしたり、注目領域を強調するような画像を合成したり(合成枠)、注目領域を回転させるなど、元画像に動き(エフェクト)を与えてもよい。注目点が複数の場合は、スライドショーのようにある注目領域から他の注目領域へ表示を切り替えてもよい。エフェクトの種類は操作部113から自由に選択できてもよい。また、エフェクトにに同期して再生される「バックグラウンドミュージック(BGM)」の曲名を操作部113から自由に選択できてもよい。
画像ファイルの付帯情報で「構図フラグ」=オンかつ「注目点フラグ」=オフの場合、「バックグラウンドミュージック(BGM)」の特定の楽曲構成部分、例えば特定のメロディやサビ部分の再生に同期して、当該画像ファイルの画像を再生する。当該画像以外の他の画像は表示せず、全体が注目されている画像だけが独占的に表示部110に表示される。画像全体を見せるため、マスキングや合成枠の表示といった画像表示を妨げるエフェクトは行わない方が好ましい。
画像ファイルが複数ある場合は、まず、記憶部119に記憶されている複数のBGMのの中から、所望のBGMの選択を操作部113により受け付ける。また、画像記憶部132に記憶されている画像の中から、BGMに同期して再生したい画像の選択を操作部113により受け付ける。
そして、画像の再生が指示されると、選択されたBGMの再生に同期して、選択された画像の再生を開始する。BGMのどの構成部分にどの画像を対応づけて再生するかは任意であり、例えば特開2008−65153号公報のようにすることができる。なお、特定のメロディやサビ部分の抽出も公知技術で行えるから、「構図フラグ」=オンかつ「注目点フラグ」=オフの画像を特定の楽曲部分、特にサビと同時に再生させることもできる。
また、図10には示していないが、動画から静止画を抽出して(キャプチャ)その静止画をプリントアウトしたり保存したりする場合、そのキャプチャ画像についてS11〜S15を実施できる。例えば、S11で撮像前に表示部110を見るなど構図を確認する動作が検知されていれば、動画の付帯情報として「構図フラグ」=オンが記録される。この場合、画像処理部144(あるいはCPU112)は、主要被写体を中心に、キャプチャ画像へトリミング範囲を設定する。「構図フラグ」=オンが記録され、かつ/または撮影時の動きが所定の閾値未満の場合(後述のS26で“Yes”)にこのようなトリミング範囲を設定してもよい。
<第3実施形態>
撮影までの時間や撮影までにカメラ10の動き検出回路で検出された動きに応じて画像を分類し、その分類に応じた画像処理をカメラ10や電子機器200で行ってもよい。
例えば、図12に示すような分類テーブルを、記憶部119あるいは電子機器200に記憶しておき、画像記憶部132に記憶された各画像の撮影指示操作までにユーザ情報取得部141が取得したユーザ情報を参照し、これに合致する条件に対応する分類を行う。
図13は、第2実施形態に係る画像分類処理のフローチャートである。この処理をCPU112に実行させるプログラムは記憶部119に記憶されている。
S21では、操作部113の電源ボタンがオンされたことに応じて各ブロックへの電力供給を開始する。
S22では、動き検出回路21による動き検出を開始するとともに、RTC15から出力された現在時刻情報を取得し、これを動き検出開始時刻として記憶部119に記憶する。ただし、GPS受信機120が出力する位置情報が変動している間や通電情報がない場合は、動き検出を休止してもよい。この場合は、撮影者が構図を決めるためでなく徘徊することによる動きが検知されてしまったり、撮影者がカメラ10を構えておらず撮影意思がないのに無駄な動き検知がされるからである。
S23では、操作部113のレリーズスイッチの半押しに応じてAF/AEなどの撮影準備動作を行い、またレリーズスイッチの全押しに応じて画像を画像記憶部132に記憶する。
S24では、動き検出回路21による動き検出を終了するとともに、RTC15から出力された現在時刻情報を取得し、これを動き検出終了時刻として記憶部119に記憶する。あるいは、動き検出開始時刻、動き検出終了時刻、検出された動きの内容を含んだユーザ情報を、画像ファイルの付帯情報として画像データとともに画像記憶部132に記憶する。
S25では、検出開始時刻から動き検出終了時刻までの時間間隔が、所定の閾値所定の閾値T1(例えば10分)より長いか否かを判断する。Yesの場合はS26、Noの場合はS29に進む。
S26では、S22〜24までに動き検出、例えば回転、振動がなかったか否かを判断する。Yesの場合はS27、Noの場合はS28に進む。なお、動きが検出されなくても、通電情報がない場合は、撮影者は構図調整を綿密に行う意思はなく適当に撮影したか誤操作で撮影したとみなし、S28に進んでもよい。
S27では、S23で撮影された画像の付帯情報として分類情報「分類A」を記録する。
S28では、S23で撮影された画像の付帯情報として分類情報「分類C」を記録する。
S29では、S23で撮影された画像の付帯情報として分類情報「分類B」を記録する。
なお、分類の仕方は上記に限らない。例えば、撮影モード設定後に「はい、チーズ」といった特定の内容の音声が音声認識回路54により認識された場合や、その音声に被写体が反応して特定の表情(笑顔など)が保たれた状態で撮影された画像の付帯情報として分類情報「分類A」を記録する。なお、特定の表情の検出は公知の技術で実現できる(例えば、本出願人による特開2007−288382号公報)。
あるいは、S25でNoと判断され、かつ、レリーズスイッチに対する押圧力が所定の閾値以上であるか、または縦横方向の動きが所定の閾値以上である場合に限り分類Bとし、そうでない場合はS28に進んで「分類C」を記録してもよい。押圧力が強い、あるいはカメラ10の動きが大きいと、構図調整をする間もなく非常に急いで撮影していると考えられるからである。また、マニュアル操作で、あるいは連写モードで連続して撮影された画像には「分類B」を記録してもよい。
分類Aは、撮影者が比較的長い時間をかけて、ほとんど動かずにじっくり構図を決めて撮影した画像を想定している。分類Bは、撮影者がほとんど時間をかけずに構図を決めて即座に撮影した画像を想定している。分類Cは、分類Aほどではないが比較的時間をかけて構図を決めて撮影した画像を想定している。
ただし、全てのステップをカメラ10で行う必要はなく、S25以降は、カメラ10から受け取った画像ごとの付帯情報を参照して電子機器200で行うこともできる。つまりこの場合、電子機器200が画像ファイルのユーザ情報を参照して、S25以降を実行する。
また、カメラ10でS21〜S24だけを行う場合、S24の終了後、S22に戻り、前回の撮影が終わった時刻を、次回の撮影の動き検出開始時刻として記憶部119に記憶し、S22〜S24を撮影の度に繰り返してもよい。
カメラ10には、分類された画像を記憶部119から検索して抽出し、表示部110にその画像の映像を出力する画像抽出・選択手段を設けてもよい。例えば、画像抽出・選択手段は、操作部113から「構図重視」、「一瞬のタイミング」、「その他」の分類選択肢のうち1つ(またはそれ以上)の選択を受け付ける。画像抽出・選択手段は、「構図重視」の選択肢が選択されれば分類A、「一瞬のタイミング」の選択肢が選択されれば分類B、「その他」の選択肢が選択されれば分類Cに分類された画像を表示部110に出力する。画像抽出・選択手段は、複数の選択肢が選択されれば、その各々に対応する分類の画像を合わせて表示部110に出力する。さらに、画像抽出・選択手段は、表示された画像から所望のものを操作部113を介して選択させ、選択された画像を電子機器200に出力させることもできる。つまり、利用する画像を分類に応じて絞ることができる。
また、図13には示していないが、動画から静止画を抽出して(キャプチャ)その静止画をプリントアウトしたり保存したりする場合、そのキャプチャ画像についてS21〜S28を実施できる。例えば、動画の付帯情報として「カメラの動き」=有りが記録されていれば、主要被写体を中心に、キャプチャ画像へトリミング範囲を設定する。あるいは、「カメラの動き」=有りで、かつ/または、撮影者が撮影準備動作までに直接被写体を目視していることがサブ撮像部20で検出された場合、そのようなトリミング範囲を設定してもよい。これは、構図を決めるのに時間がかかり、かつ/または、被写体に注目して撮影を行っているから、キャプチャ画像を利用する際には背景を省略するのが好ましいと思われるからである。
図14は画像の一例を示す。図14(a)のように、被写体に並んでもらって、最適なタイミング(「はい、チーズ」のような掛け声があったときや、被写体が笑顔になったりしたとき)で撮影される画像は、構図が重視される。このような画像を撮る際には、カメラ10大きく動かさないまま撮影開始までに相当の時間が経過したり、撮影タイミングを知らせる掛け声があるのが通常であるから、S25で“Yes”、S26で“Yes”となり、分類Aが付与されるであろう。
図14(b)のような走っているペット、あるいは子供が転んだり、レース中の車や、イルカショーでイルカがジャンプしたなど、何かが起こった瞬間を撮影した画像は、構図は重要でないか構図を確認する暇もなく、被写体が多少左右にずれていたり、ボケやブレや画角外れが生じることが通常であり、撮影者も重要な被写体がそれなりに写っていれば、多少の構図の悪さは許容すると考えられる。このような画像は、S25で“No”となり、分類Bが付与されるであろう。
図14(c)のように、撮影者が被写体も場所も気にすることなく何気なく撮った画像は、S25で“Yes”、S26で“No”となり、分類Cが付与されるであろう。
図14(d)および図14(e)の画像は同じ被写体を捉えているが、どちらも同じ分類が付与されるとは限らない。図14(d)のように、被写体を大きく中央に捉えている画像は、撮影者が時間をかけて構図を決めていると考えられるから、S25で“Yes”、S26で“Yes”となり、分類Aが付与されるであろう。図14(e)のように、撮影者が被写体を遠景から何気なく撮った画像は、S25で“Yes”、S26で“No”となり、分類Cが付与されるであろう。
分類Aの画像は、撮影者にとって重要と考えられるから、例えば、画像ファイルの付帯情報が「構図フラグ」=オンかつ「注目点フラグ」=オンである画像と同様の処理を行い、過小なトリミング範囲の設定がされたら警告を出したり、あるいはトリミングなどを特に行わずプリントしたり再生したりする。
分類Cの画像は、撮影者にとってはそれほど重要ではないと考えられるから、例えば、プリント出力その他の処理候補から除外したり、テンプレート合成、フォトアルバム、動画再生などにおいては、主要な位置(中央付近など)から外れた周辺位置に配置する。あるいは、画像トリミング範囲の設定に関して制限を設けず、どこでも自由に切り出せるようにする。
分類Bの画像については、カメラ10から同一被写体を継続的に撮影することを繰り返していれば、得られた複数の画像で被写体を定点観測したようなプリントや合成映像を作ることもできる。
例えば図15に示すように、カメラ10の撮影者が、定点Oから、同一の被写体が、それぞれV1〜V5の位置に移動するするごとに連続的に撮影し、画像I1〜I5(静止画または動画のコマ画像)を得たとする。
カメラ10のCPU112は、各位置V1〜V5での撮影の際、定点Oを原点とした基準座標、例えば、地表面をXY軸(X軸は緯度方向に、Y軸は経度方向に平行)のなす平面、地表面から鉛直上方をZ軸としたXYZ座標を基準とした、カメラのパン方向およびチルト方向の傾きと、定点Oから合焦被写体までの距離(上述のように焦点距離情報を距離情報に換算することで得られる)に基づいて、合焦被写体のXYZ座標における位置(注視点)を算出する。
図16は注視点の一例を示す。ここでは、被写体が平面的なトラックを周回しており、Z軸方向の変動はないため、Z軸の図示は省略している。ただし、被写体が空間的な移動をしていれば、この情報は当然に注視点に反映される。
CPU112は、各注視点を各位置V1〜V5の撮影画像(ないしその代替物。例えばファイル名などの識別情報)および各撮影時点でRTC15の出力した現在時刻情報と対応づけ、これをユーザ取得情報の1つである被写体撮影時刻・位置情報として、記憶部119に記憶する。被写体撮影時刻・位置情報は、各画像の付帯情報として記録してもよい。
画像処理部144は、被写体撮影時刻・位置情報に従って、各注視点に対応する画像を台紙に配置する。例えば、図17に示すように、XY平面上の各注視点V1〜V5の位置関係が、そのまま1枚の台紙上において各注視点に対応する画像I1〜I5の空間的配置に反映される。これは、各注視点を台紙という平面座標系に正投影することで得られる。
レンチキュラープリントのような擬似的な3次元座標系が導入された台紙であれば、注視点を視差画像に変換し、擬似的な3Dプリントを実現できる。
あるいは、CPU112や画像処理部144は、台紙に配置された画像をプリンタ200bに出力する他、映像信号に変換して表示部110に出力してもよい。
<第4実施形態>
分類Aあるいは分類Bの付与された各画像を撮影した時点でのカメラ10の現在位置情報を、台紙での画像配置に反映してもよい。
CPU112は、レリーズボタン全押し時にGPS受信機120から得られた位置情報(撮影位置情報)を、その時の撮影画像(ないしその代替物。例えばファイル名などの識別情報)および各撮影時点でRTC15の出力した現在時刻情報と対応づけ、これをユーザ取得情報の1つである撮影者撮影時刻・位置情報として、記憶部119に記憶する。撮影者撮影時刻・位置情報は、各画像の付帯情報として記録してもよい。
例えば図18に示すように、カメラ10の撮影者が、それぞれP1〜P4の位置に移動するごとに撮影を行い、それぞれ画像I1〜I4(静止画または動画のコマ画像)を得たとすると、P1〜P4が撮影位置情報となる。
画像処理部144は、撮影者撮影時刻・位置情報に従って、各撮影位置情報に対応する画像を台紙に配置する。例えば、図19に示すように、P1〜P4の位置関係が、そのまま1枚の台紙上において各撮影位置情報注視点に対応する画像I1〜I4の空間的配置に反映される。これは、各撮影者撮影時刻・位置情報を台紙という平面座標系に正投影することで得られる。
レンチキュラープリントのような擬似的な3次元座標系が導入された台紙であれば、撮影位置情報を視差画像に変換し、擬似的な3Dプリントを実現できる。
あるいは、画像処理部144は、台紙に配置された画像をプリンタ200bに出力する他、映像信号に変換して表示部110に出力してもよい。また、撮影を行った場所が特定のスポット(城郭や遊園地などのような閉じた空間)であれば、そのスポットの全景を示す背景テンプレートを台紙に合成してもよい。
<その他の実施形態>
第1・2実施形態の構図フラグ、注目点フラグ、注目点の座標情報、本実施形態の分類情報の双方とも画像データに対応づけて記録することもでき、この場合、図3、図8、図12のいずれの処理も行える。さらに、これらの処理を実施する対象の画像はデジタル画像データでなく、フィルムに記録されたアナログ画像でも可能である。付帯情報は、ASPフィルムのように、各画像コマに対応して磁気的または光学的に付帯情報を記録する付帯情報記録部に記録するとよい。電子機器200で図3、図8、図12の処理を行う場合は、処理の対象である画像としてデジタル画像とアナログ画像が混在してもよい。
図20に示すように、これらの処理を行うため、電子機器200は、入力部210、表示部110b、記憶部217、画像記憶部132b、画像処理部144b、画像処理方法決定部213、分類条件取得部214、出力部215を備える。表示部110b、画像記憶部132b、画像処理部144bは、図1のカメラ10と同等の構成である。分類条件取得部214は、第1・2実施形態の構図フラグ、注目点フラグ、注目点の座標情報を、可搬性記録媒体(画像記憶部132)に記録された画像ファイルの中から、あるいはASPフィルムの付帯情報記録部から取得する。可搬性記録媒体(画像記憶部132b)はカメラ10の付属品である必要はなく、その他の電子機器、例えばカメラ付き携帯電話、カメラ付きパソコン、カメラ付きPDAの取得した画像を記録するものでもよい。
また、図10の処理内容テーブル、図12の分類テーブルを記憶部217に記憶しておく。入力部210からこれらのテーブルを入力して記憶してもよい。記憶部217には、上記処理を規定するプログラムが記憶されている。
画像処理方法決定部213は、このプログラムを解釈して実行し、入力部210に入力された各画像について、画像トリミング領域の設定や分類情報の付与など、カメラ10と同等の処理を行う。
このように電子機器200を構成することで、カメラ10以外でも画像トリミング領域の設定や分類情報の付与が可能である。
デジタルカメラの機能ブロック図 カメラ筐体の背面図 第1実施形態の撮像処理のフローチャート 画像の一例を示す図 画像トリミング領域の一例を示す図 切り出し画像の一例を示す図 重ね合わせられた画像の一例を示す図 第2実施形態の撮像処理のフローチャート スルー画および注目点の一例を示す図 処理内容テーブルの一例を示す図 注目領域を避けるように重ね合わせられた画像の一例を示す図 分類テーブルの一例を示す図 第2実施形態に係る画像分類処理のフローチャート 撮影画像の一例を示す図 カメラの撮影者が同一地点から同一被写体を撮影した様子を示す図 座標に配置された注視点の一例を示す図 注視点の座標に応じて台紙に配置された画像の一例を示す図 撮影位置情報の一例を示す図 撮影位置情報に応じて台紙に配置された画像の一例を示す図 電子機器の構成の一例を示す図
符号の説明
10:カメラ、141:ユーザ情報取得部、142:画像分類部、143:画像処理条件決定部、200:電子機器

Claims (14)

  1. 画像の撮影開始以前における撮影者の動作に関する情報である撮影者情報を取得する撮影者情報取得部と、
    前記撮影者情報取得部の取得した撮影者情報に基づいて、前記画像に対する処理内容を決定する処理内容決定部と、
    を備え、
    前記撮影者情報は、構図確認の有無、撮影準備操作の有無、撮影装置の位置、撮影開始までの経過時間および撮影開始までの撮影装置の動きのうち少なくとも1つを含む情報処理装置。
  2. 前記処理内容決定部は、前記撮影者情報が構図確認はあったことを示す情報を含む場合、画像の所定位置を基準に所定のアスペクト比の画像処理範囲を設定し、前記撮影者情報が構図確認はなかったことを示す情報を含む場合、画像の主要被写体を基準に所定のアスペクト比の画像処理範囲を設定する請求項1に記載の情報処理装置。
  3. 前記画像処理範囲は、トリミング範囲または画像合成範囲を含む請求項2に記載の情報処理装置。
  4. 前記画像が撮影に失敗した画像であるか否かを判定する失敗画像判定部を備え、
    前記処理内容決定部は、前記撮影者情報が構図確認はあったことを示す情報を含み、かつ前記失敗画像判定部が失敗画像であると判定した場合、前記画像を処理内容の決定候補から除外する請求項2または3に記載の情報処理装置。
  5. 前記構図確認はあったことを示す情報は、撮影装置の表示画面への目線検知、撮影装置の近傍での人体検知、特定の内容の音声認識、撮像装置の特定の姿勢、またはズーム操作、合焦操作、輝度調整その他の撮影条件の入力操作検知を含む請求項2〜4のいずれかに記載の情報処理装置。
  6. 画像の注目部分を決定する注目部分決定部を備え、
    前記処理内容決定部は、前記注目部分決定部が決定した画像の注目部分に基づいて前記画像に対する処理内容を決定する請求項1に記載の情報処理装置。
  7. 画像の注目部分の指定を受け付ける注目部分指定部を備え、
    前記処理内容決定部は、前記注目部分指定部が指定を受け付けた画像の注目部分に基づいて前記画像に対する処理内容を決定する請求項6に記載の情報処理装置。
  8. 前記注目部分決定部は、合焦被写体および撮影装置から前記合焦被写体までの距離と同一距離にある被写体のうち少なくとも一方を注目部分に決定する請求項6に記載の情報処理装置。
  9. 撮影者が注目している被写体を識別する注目被写体識別部を備え、
    前記注目部分決定部は、前記注目被写体識別部が識別した被写体を注目部分に決定する請求項6に記載の情報処理装置。
  10. 前記撮影者情報取得部の取得した撮影者情報に基づいて、前記画像に対する分類を付与する分類部を備え、
    前記処理内容決定部は、前記分類部が前記画像に付与した分類に基づいて前記画像に対する処理内容を決定する請求項1に記載の情報処理装置。
  11. 前記処理内容決定部の決定した処理内容に従って前記画像を処理する処理部を備える請求項1〜10のいずれかに記載の情報処理装置。
  12. 前記処理は、トリミング、画像の台紙への配置、画像同士の合成および画像へのエフェクトの付与のうち少なくとも1つを含む請求項11に記載の情報処理装置。
  13. コンピュータが、画像の撮影開始以前における撮影者の動作に関する情報である撮影者情報を取得するステップと、
    コンピュータが、前記撮影者情報取得部の取得した撮影者情報に基づいて、前記画像に対する処理内容を決定するステップと、
    を含み、
    前記撮影者情報は、構図確認の有無、撮影準備操作の有無、撮影装置の位置、撮影開始までの経過時間および撮影開始までの撮影装置の動きのうち少なくとも1つを含む情報処理方法。
  14. 請求項13に記載の情報処理方法をコンピュータに実行させるための情報処理プログラム。
JP2008226216A 2008-09-03 2008-09-03 情報処理装置、方法およびプログラム Pending JP2010062853A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008226216A JP2010062853A (ja) 2008-09-03 2008-09-03 情報処理装置、方法およびプログラム
US12/553,746 US8264583B2 (en) 2008-09-03 2009-09-03 Information processing apparatus, method and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008226216A JP2010062853A (ja) 2008-09-03 2008-09-03 情報処理装置、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2010062853A true JP2010062853A (ja) 2010-03-18

Family

ID=41724806

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008226216A Pending JP2010062853A (ja) 2008-09-03 2008-09-03 情報処理装置、方法およびプログラム

Country Status (2)

Country Link
US (1) US8264583B2 (ja)
JP (1) JP2010062853A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094116A (ja) * 2010-09-28 2012-05-17 Fujifilm Corp 立体画像貼り付けシステムならびにその動作制御方法およびその制御プログラム
WO2014132816A1 (ja) * 2013-02-27 2014-09-04 ソニー株式会社 画像処理装置および方法、並びにプログラム
WO2014155961A1 (ja) * 2013-03-26 2014-10-02 パナソニック株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
JPWO2013073197A1 (ja) * 2011-11-18 2015-04-02 株式会社ニコン 撮像装置及び撮像制御プログラム
JPWO2014155963A1 (ja) * 2013-03-26 2017-02-16 パナソニックIpマネジメント株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
WO2018189971A1 (ja) * 2017-04-13 2018-10-18 シャープ株式会社 画像処理装置、撮像装置、端末装置、画像補正方法および画像処理プログラム
US11244187B2 (en) 2019-09-17 2022-02-08 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100070057A (ko) * 2008-12-17 2010-06-25 삼성전자주식회사 디지털 촬영 장치, 디지털 촬영 장치 제어 방법, 및 컴퓨터판독가능 저장매체
US8311364B2 (en) * 2009-09-25 2012-11-13 Eastman Kodak Company Estimating aesthetic quality of digital images
JP5436367B2 (ja) * 2009-09-29 2014-03-05 富士フイルム株式会社 グラフィック配置決定方法ならびにそのプログラムおよび情報処理装置
WO2011039947A1 (ja) * 2009-10-01 2011-04-07 日本電気株式会社 撮像装置、その制御方法、撮像システム、及びプログラムが格納された非一時的なコンピュータ可読媒体
JP5383576B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 撮像装置、撮像方法およびプログラム
JP5621421B2 (ja) * 2010-09-06 2014-11-12 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
JP2012058838A (ja) * 2010-09-06 2012-03-22 Sony Corp 画像処理装置、プログラム及び画像処理方法
US20130088602A1 (en) * 2011-10-07 2013-04-11 Howard Unger Infrared locator camera with thermal information display
JP5855454B2 (ja) * 2011-12-28 2016-02-09 オリンパス株式会社 撮像装置
KR101231469B1 (ko) 2012-02-23 2013-02-07 인텔 코오퍼레이션 이미지 처리 지원 방법, 장치, 및 이 방법을 실행하기 위한 컴퓨터 판독 가능한 기록 매체
JP5941736B2 (ja) * 2012-04-10 2016-06-29 オリンパス株式会社 撮影機器
JP6178048B2 (ja) * 2012-06-06 2017-08-09 ソニー株式会社 画像処理装置、画像処理方法、及びプログラム
JP2014067310A (ja) * 2012-09-26 2014-04-17 Olympus Imaging Corp 画像編集装置、画像編集方法、およびプログラム
US10178298B2 (en) * 2012-12-20 2019-01-08 Sony Corporation Image processing device, image processing method, and recording medium for optimal trimming of a captured image
WO2015079702A1 (ja) * 2013-11-27 2015-06-04 京セラ株式会社 撮像設定変更装置、撮像システム、および撮像設定変更方法
JP7074052B2 (ja) * 2016-03-11 2022-05-24 ソニーグループ株式会社 画像処理装置および方法
JP2021015345A (ja) * 2019-07-10 2021-02-12 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、および表示制御装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4006856B2 (ja) 1998-11-02 2007-11-14 富士フイルム株式会社 電子カメラシステム及びその制御方法
JP3863327B2 (ja) * 1999-03-15 2006-12-27 富士フイルムホールディングス株式会社 構図アドバイス機能付きディジタル・スチル・カメラおよびその動作制御方法
US7397500B2 (en) * 2003-04-30 2008-07-08 Hewlett-Packard Development Company, L.P. Camera shake warning and feedback system that teaches the photographer
US20050030388A1 (en) * 2003-08-06 2005-02-10 Stavely Donald J. System and method for improving image capture ability
JP4352332B2 (ja) 2004-09-16 2009-10-28 富士フイルム株式会社 画像採点方法及び画像採点システム
GB2419488B (en) * 2004-10-23 2010-10-27 Hewlett Packard Development Co Image processing
JP2006287911A (ja) * 2005-03-07 2006-10-19 Fuji Photo Film Co Ltd 画像出力システム、撮像装置、出力装置、画像出力方法、撮像方法、出力方法、及びプログラム
US7668454B2 (en) * 2006-08-29 2010-02-23 Hewlett-Packard Development Company, L.P. Photography advice based on captured image attributes and camera settings

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012094116A (ja) * 2010-09-28 2012-05-17 Fujifilm Corp 立体画像貼り付けシステムならびにその動作制御方法およびその制御プログラム
JPWO2013073197A1 (ja) * 2011-11-18 2015-04-02 株式会社ニコン 撮像装置及び撮像制御プログラム
WO2014132816A1 (ja) * 2013-02-27 2014-09-04 ソニー株式会社 画像処理装置および方法、並びにプログラム
US9727993B2 (en) 2013-02-27 2017-08-08 Sony Corporation Image processing apparatus, image processing method, and program
WO2014155961A1 (ja) * 2013-03-26 2014-10-02 パナソニック株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
JPWO2014155963A1 (ja) * 2013-03-26 2017-02-16 パナソニックIpマネジメント株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
JPWO2014155961A1 (ja) * 2013-03-26 2017-02-16 パナソニックIpマネジメント株式会社 画像生成装置、撮影装置、画像生成方法及びプログラム
US9762811B2 (en) 2013-03-26 2017-09-12 Panasonic Intellectual Property Management Co., Ltd. Image generation device, imaging device, image generation method, and program for generating a new image from a captured image
WO2018189971A1 (ja) * 2017-04-13 2018-10-18 シャープ株式会社 画像処理装置、撮像装置、端末装置、画像補正方法および画像処理プログラム
CN110506292A (zh) * 2017-04-13 2019-11-26 夏普株式会社 图像处理装置、摄像装置、终端装置、图像校正方法及图像处理程序
US11244187B2 (en) 2019-09-17 2022-02-08 Fujifilm Business Innovation Corp. Information processing apparatus and non-transitory computer readable medium

Also Published As

Publication number Publication date
US20100053364A1 (en) 2010-03-04
US8264583B2 (en) 2012-09-11

Similar Documents

Publication Publication Date Title
JP2010062853A (ja) 情報処理装置、方法およびプログラム
JP5624034B2 (ja) デジタルカメラ及び関連する方法
JP5056061B2 (ja) 撮像装置
JP4640456B2 (ja) 画像記録装置、画像記録方法、画像処理装置、画像処理方法、プログラム
US7483061B2 (en) Image and audio capture with mode selection
WO2016016984A1 (ja) 撮像装置およびその被写体追尾方法
JP2005128156A (ja) 焦点調節装置及び焦点調節方法
JP2010183317A (ja) 撮像装置、画像合成表示装置、画像合成表示方法、およびプログラム
JP2008271132A (ja) 撮像装置及び撮像方法
JP2009077026A (ja) 撮影装置および方法並びにプログラム
JP2016189544A (ja) 画像撮影装置、画像撮影方法、プログラムおよび記録媒体
JP2010081528A (ja) 画像処理装置、方法およびプログラム
JP2010081012A (ja) 撮像装置、撮像制御方法及びプログラム
JP2010081562A (ja) 撮像装置、方法およびプログラム
JP6355333B2 (ja) 撮像装置、画像処理装置、画像処理方法、プログラム
JP4553134B2 (ja) 画像生成装置及びそのプログラム
JP2007259004A (ja) デジタルカメラ、画像処理装置及び画像処理プログラム
JP2004180181A (ja) 撮像装置
JP4760497B2 (ja) 画像データ生成装置、画像データ生成方法
JP4885084B2 (ja) 撮像装置、撮像方法、撮像プログラム
JP2006270488A (ja) 撮像装置、及び、画像処理方法
JP2010183216A (ja) 撮影装置、画像再生装置、及び撮影結果報知方法
JP6289037B2 (ja) 撮像装置及び撮像装置の制御方法
JP2010034838A (ja) 電子カメラ
JP2010178177A (ja) カメラ及び表示装置並びに電子機器