JP2011147075A - カメラの表示装置 - Google Patents
カメラの表示装置 Download PDFInfo
- Publication number
- JP2011147075A JP2011147075A JP2010008250A JP2010008250A JP2011147075A JP 2011147075 A JP2011147075 A JP 2011147075A JP 2010008250 A JP2010008250 A JP 2010008250A JP 2010008250 A JP2010008250 A JP 2010008250A JP 2011147075 A JP2011147075 A JP 2011147075A
- Authority
- JP
- Japan
- Prior art keywords
- camera
- display
- unit
- subject
- display unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
Abstract
【課題】 本発明の目的は、被写体の人物が、撮影時に、自分の顔の表情の映り具合をはっきりと確認することができるカメラの表示装置を提供することである。
【解決手段】 本発明のカメラ(2)の表示装置は、撮影レンズを介して被写体を撮影し、画像データを出力する撮像部と、前記画像データの画像に基づき前記被写体の顔の表情を検出する検出部と、前記検出部の検出した前記顔の表情を示す情報を、前記被写体となる人物に向けて表示する第1の表示部(1)とを備える。
【選択図】 図1
【解決手段】 本発明のカメラ(2)の表示装置は、撮影レンズを介して被写体を撮影し、画像データを出力する撮像部と、前記画像データの画像に基づき前記被写体の顔の表情を検出する検出部と、前記検出部の検出した前記顔の表情を示す情報を、前記被写体となる人物に向けて表示する第1の表示部(1)とを備える。
【選択図】 図1
Description
本発明は、デジタルカメラ(デジタルスチルカメラやデジタルビデオカメラなど)に適用されるカメラの表示装置に関する。
近年、撮影アングルを自由に変えながら、被写体となる人物の顔の表情(笑顔の状態や目瞑りの状態など)を確認することができるバリアングルモニターを備えたデジタルカメラが普及している(例えば、特許文献1)。
しかし、このようなカメラでは、被写体となる人物が、その人物の側から自分の顔の表情の映り具合を確認するには、バリアングルモニターを回転させるなどの操作が必要であり面倒であった。
そこで、その操作の煩わしさを軽減するため、例えば、カメラの撮影レンズ側の面(前面と呼ぶ。)に2つ目のモニターを備え、そのモニターに被写体となる人物の顔の表情を表示することで、自分の顔の表情がカメラ側でどんなふうに映っているかを、被写体の人物自身が確認できるようにしたデジタルカメラが現れている(例えば、Samsung Electronics Corporation製、Digital Still Camera ST550など)。
しかしながら、上記従来のデュアルモニター・タイプのカメラでは、その前面に備えたモニターが小型なものでありその画面も小さいため、被写体の人物の側からカメラに映っている自分の顔の表情を確認するのは難しかった。特に、集合写真を撮影するような場合には、被写体となる人物の数が多いことから各人物が小さく表示されてしまうため、カメラ前面のモニターの表示からは、被写体の各人物が、それぞれ自分の顔の表情を確認するのは困難となっていた。
本発明は、上記従来技術の課題を解決するためのものである。本発明の目的は、被写体の人物が、撮影時に、自分の顔の表情の映り具合をはっきりと確認することができるカメラの表示装置を提供することである。
第1の発明のカメラの表示装置は、撮影レンズを介して被写体を撮影し、画像データを出力する撮像部と、前記画像データの画像に基づき前記被写体の顔の表情を検出する検出部と、前記検出部の検出した前記顔の表情を示す情報を、前記被写体となる人物に向けて表示する第1の表示部とを備える。
第2の発明は、第1の発明において、前記検出部は、前記顔の表情を検出するときに前記被写体の顔が撮影画面から外れたか否かを検出し、前記第1の表示部は、前記検出部が前記外れたことを検出した場合、前記被写体となる人物に向けて、その外れたことを前記顔の表情を示す情報と共に表示する。
第3の発明は、第1または第2の発明において、撮影者による静止画像の撮影指示を受け付ける操作部材を更に有し、前記検出部は、前記操作部材の操作に応じて前記撮影部が出力する第2画像データの画像に基づき前記被写体の顔の赤目を検出し、前記第1の表示部は、前記検出部が前記顔の赤目を検出した場合、前記被写体となる人物に向けて、その顔の赤目を示す情報を、前記操作部材の操作前に前記撮影部が出力した第1画像データの画像に基づいて前記検出部が検出した前記顔の表情を示す情報と共に表示する。
第4の発明は、第1ないし第3の発明の何れか一の発明において、撮影者に向けて前記情報を表示する第2の表示部を更に備える。
第5の発明は、第1ないし第4の発明の何れか一の発明において、前記第1の表示部は、カメラの撮影レンズ側の面に配置される。
第6の発明は、第4の発明において、前記第2の表示部は、カメラの前記第1の表示部が配置される面の裏側となる面に配置される。
第7の発明は、第1または第4の発明において、前記第1の表示部、または、前記第1の表示部および前記第2の表示部は、前記被写体が複数の場合には、被写体毎に前記情報を個別に表示する。
第8の発明は、第1または第4の発明において、前記第1の表示部、または、前記第1の表示部および前記第2の表示部は、前記顔の表情を示す情報として、顔の表情に応じたマークを表示する。
第9の発明は、第1または第4の発明において、前記被写体が複数の場合には、前記検出部は、前記複数の被写体のそれぞれの顔の表情を検出し、前記第1の表示部、または、前記第1の表示部および前記第2の表示部は、前記検出部が検出した前記複数の被写体の顔の表情に基づいて、前記顔の表情を示す情報として、顔の表情の度合いに応じた1つのマークを表示する。
第10の発明は、第4の発明において、前記第1の表示部と前記第2の表示部とは、共通の表示部材であり、カメラの上面に配置される。
本発明を利用すれば、被写体の人物が、撮影時に、自分の顔の表情の映り具合をはっきりと確認することができる。
以下、本発明の実施形態の1つであるデジタルカメラ(デジタルスチルカメラ)について説明する。
図1は、本実施形態のデジタルカメラの外観図である。図1(1)に示すように、デジタルカメラ本体2の前面には、撮影レンズの開口部3が設けられ、その開口部3の隣には、フラッシュ光を発光する発光部4が設けられている。なお、本実施形態のデジタルカメラにおいては、屈曲光学系のレンズ鏡筒による撮影レンズを搭載することとしている。但し、これは一例であり、撮影レンズは屈曲光学系に限定されない。そして、デジタルカメラ本体2の前面中央部分には、被写体となる人物の顔の表情(笑顔の度合いや目瞑り具合など)が、カメラ側でどんなふうに映っているかをその被写体の人物に向けて表示するための顔状態表示部1が設けられている。この顔状態表示部1は、デジタルカメラ本体2を撮影者が把持した状態でも、被写体の人物側から、自身の顔の表情が十分に確認できる部分に配置されている。
また、図1(1)に示すように、デジタルカメラ本体2の上面には、操作部材の電源ボタン5、レリーズボタン6、ズームレバー7が配置されている。
また、デジタルカメラ本体2の裏面(背面)には、図1(2)に示すように、被写体となる人物の映り具合を撮影者に向けて表示するためのモニター表示部8が設けられている。また、カメラを把持するためのグリップの背面に当たる部分には、マルチセレクタやメニューボタン、モード設定ボタンなどの各種の操作部材9、10が配置されている。
このように、本実施形態のデジタルカメラでは、撮影レンズ側の面であるカメラ前面に第1の表示部の顔状態表示部1を、また、その第1の表示部が配置される面の裏側となる面であるカメラ裏面(背面)に第2の表示部のモニター表示部8を配置するようにしている。そのため、被写体となる人物の顔の表情(笑顔の状態や目瞑りの状態など)が、カメラ側でどんなふうに映っているかを、撮影者だけでなく、被写体となる人物も容易に確認することができる。
次に、デジタルカメラの構成について説明する。図2は、本実施形態のデジタルカメラの構成を示すブロック図である。デジタルカメラは、撮像レンズ11およびレンズ駆動部12と、撮像素子13と、アナログ信号処理部14と、タイミングジェネレータ(TG)15と、バッファメモリ16と、画像処理部17と、第1表示制御部18と、顔状態表示部1と、第2表示制御部19と、モニター表示部8と、制御部20と、圧縮/復号部21と、メモリカードインターフェース(メモリカードI/F)22と、メモリカード23と、ROM24と、発光部25と、操作部25と、バス26とを有している。ここで、バッファメモリ16、画像処理部17、第1表示制御部18、第2表示制御部19、制御部20、圧縮/復号部21、メモリカードI/F22、ROM24は、バス26を介して接続されている。また、レンズ駆動部12、アナログ信号処理部14、TG15、発光部25、操作部25は、それぞれ制御部20に接続されている。
撮像レンズ11は、フォーカスレンズやズームレンズを含む複数のレンズ群で構成されている。なお、簡単のため、図1では撮像レンズ11を1枚のレンズとして図示している。
レンズ駆動部12は、制御部20の指示に応じてレンズ駆動信号を発生し、撮像レンズ11を光軸方向に移動させてフォーカス調整やズーム調整を行う。このレンズ駆動部12によって駆動された撮像レンズ11は、該撮像レンズ11を通過した光束による被写体像を、撮像素子13の受光面上に形成する。
撮像素子13は、動画像や連写画像の撮影が可能な撮像素子であり、例えば、CCD型撮像素子、あるいはCMOS型撮像素子などによって構成される。なお、撮像素子13は、勿論、1フレーム毎の静止画像の撮影も可能である。
撮像素子13は、撮像レンズ11の像空間側に配置され、その受光面に形成された被写体像を光電変換してアナログ画像信号を生成する。この撮像素子13の出力はアナログ信号処理部14に接続されている。
アナログ信号処理部14は、制御部20の指示に応じて、撮像素子13から出力されたアナログ画像信号に対し、CDS(相関二重サンプリング)、ゲイン調整、A/D変換などのアナログ信号処理を施すと共に、その処理後の画像信号を出力する。なお、アナログ信号処理部14の出力はバッファメモリ16に接続されている。
また、アナログ信号処理部14は、制御部20の指示に基づいてゲイン調整の調整量を設定し、それによってISO感度に相当する撮影感度の調整を行う。
TG15は、制御部20の指示に基づき撮像素子13およびアナログ信号処理部14に対してタイミングパルスを供給する。撮像素子13およびアナログ信号処理部14の駆動タイミングはそのタイミングパルスによって制御される。
バッファメモリ16は、アナログ信号処理部14から出力される画像信号を画像データとして一時的に記憶する。また、バッファメモリ16は、制御部20によりメモリカード23から読み出された画像データや、制御部20による処理の過程で作成された画像データを一時的に記憶する。なお、バッファメモリ16は、揮発性の記憶媒体であるSDRAMなどによって構成される。
画像処理部17は、制御部20の指示に応じて、バッファメモリ16の画像データに対し、ホワイトバランス調整、補間、輪郭強調、ガンマ補正、解像度変換(画素数変換)などの画像処理を施す。なお、解像度変換(画素数変換)は、モニター表示部8に画像データを表示させる場合などに必要な処理である。画像処理部17は、ASICなどとして構成される。
第1表示制御部18は、制御部20の指示に応じて、被写体となる人物の顔の情報を、顔状態表示部1へ表示する。これにより、被写体となる人物は、特に、撮影時に、自身の顔の表情(笑顔の状態、目瞑りの状態、またフラッシュ光による赤目など)を確認することができる。もちろん、自身の顔の部分が撮影画面(フレーム)から外れているか否かについても確認することができる。
なお、本実施形態による顔状態表示部1は、デジタルカメラ筐体の撮影レンズ11側の面(前面)に設けられる。この顔状態表示部1は、本実施形態では、多色マトリックスLEDで構成され、その画面の各部分毎に異なるカラーで発光することができる。
第2表示制御部19は、制御部20の指示に応じて、画像処理後の画像データに所定の信号処理(例えば、NTSC方式の複合映像信号に変換するための信号処理)を施してモニター表示部8へ出力する。この出力により、画像データがモニター表示部8に表示される。これにより、撮影者は、特に、被写体となる人物の顔の表情(笑顔の状態、目瞑りの状態、またフラッシュ光による赤目など)を確認しながら撮影を行うことができる。もちろん、その人物の顔の部分が撮影画面(フレーム)から外れているか否かについても確認することができる。
なお、本実施形態によるモニター表示部8は、デジタルカメラ筐体の背面に設けられたLCDモニターである。
圧縮/復号部21は、制御部20の指示に応じて、バッファメモリ16の画像データに圧縮処理又は復号処理を施す。なお、圧縮処理及び復号処理は、静止画撮影時にはJPEG(Joint Photographic Experts Group)形式などによって行われ、動画撮影時にはMPEG(Moving Picture Experts Group)形式などによって行われる。
また、圧縮/復号部21は、可逆圧縮(いわゆるロスレス符号化)を行うことも可能な構成となっている。
メモリカードI/F22には、不揮発性の記憶媒体であるメモリカード23を接続するためのコネクタが形成されている。メモリカードI/F22は、そのコネクタに接続されたメモリカード23にアクセスして、画像データを含む各種データの書き出しや読み込みを行う。
制御部20は、撮影時には、このメモリカードI/F22を介して、バッファメモリ16の圧縮処理後の画像データをメモリカード23へ記録する。但し、デジタルカメラが非圧縮記録モードに設定された場合には、制御部20は、バッファメモリ16の画像処理後の画像データを、圧縮処理を施さずに非圧縮のままメモリカード23へ記録する。
なお、メモリカード23は半導体メモリを内蔵したメモリカードであるが、これに代えて小型のハードディスクなどの記憶媒体を用いることもできる。
ROM24には、制御部20によって実行される各種のプログラムや、プログラムの実行に必要となるデータなどが予め格納される。
制御部20は、ROM24に予め格納された制御プログラムを不図示のRAMへ読み出し、その制御プログラムを実行することにより、デジタルカメラの各部を統括制御する。
発光部4は、デジタルカメラ筐体に設けられたエレクトロニックフラッシュ等であり、制御部20の指示に基づき、被写体を照明するためのフラッシュ光を被写界に向けて発光する。
操作部25は、電源ボタン5、レリーズボタン6、ズームレバー7、また、モード設定ボタンやメニューボタン等の各種の操作部材を含み、撮影者による部材操作の内容に応じた操作信号を制御部20に送る。
以下、デジタルカメラが行う一般的な静止画撮影の動作を簡単に説明する。
制御部20は、撮影者による操作部材の操作内容に応じてデジタルカメラの各部を統括制御する。
例えば、モード設定ボタン等の操作により、デジタルカメラが静止画撮影モードに設定されると、制御部20は、レンズ駆動部12、アナログ信号処理部14およびTG15を駆動してスルー画像の連続撮影を開始する。このとき、撮像素子13はドラフトモード(間引き読み出しモード)で連続駆動され、撮影されたスルー画像の画像データがアナログ信号処理部14を介してバッファメモリ16へ順次記録される。制御部20は、そのスルー画像の画像データを基に、レンズ駆動部12と協働して撮像レンズ11の焦点調節制御(AF)を行う。また、制御部20は、不図示の測光部を駆動して、バッファメモリ16のスルー画像の画像データを基に撮影シーンの評価値を算出させると、その評価値に基づきアナログ信号処理部14などの設定内容を調整する。また、制御部20は、画像処理部17を駆動してバッファメモリ16のスルー画像の画像データに画像処理を施した後、第2表示制御部19を駆動して画像処理後のスルー画像の画像データをモニター表示部8に順次表示させる(ライブビュー表示)。
次に、静止画撮影モードで動作中に、レリーズボタンが半押しされると、制御部20は、本撮影に先立ち、レンズ駆動部12と協働して撮像レンズ11の焦点調節制御(AF)を行う。
また、静止画撮影モードで動作中に、レリーズボタンが全押しされると、制御部20は、不図示の測光部が算出した評価値に基づき撮影条件(絞り値、シャッター速度、ストロボ発光の有無など)を決定する。そして、制御部20は、決定した撮影条件の下でレンズ駆動部12、アナログ信号処理部14およびTG15(また、必要に応じて発光部23も)を駆動して静止画像の撮影を実施する。このとき、撮像素子13はフレームモード(全画素読み出しモード)で駆動され、撮影された静止画像の画像データがアナログ信号処理部14を介してバッファメモリ16へ記録される。この後、制御部20は、画像処理部17を駆動して、バッファメモリ16に記録された静止画像の画像データに対し画像処理を施す。また、制御部20は、第2表示制御部19を駆動して、画像処理後の静止画像をモニター表示部8に表示させる。そして、制御部20は、圧縮/復号部21を駆動して、画像処理後の静止画像の画像データに対し圧縮処理を施すと共に、圧縮処理後の静止画像の画像データをメモリカードI/F22を介してメモリカード23へ記録する。なお、制御部20は、デジタルカメラが非圧縮記録モードに設定された場合には、圧縮/復号部21を駆動することなく、画像処理後の静止画像の画像データを非圧縮のままメモリカードI/F22を介してメモリカード23へ記録する。
ところで、本実施形態のデジタルカメラは、特に被写体となる人物に、その人物の顔の情報、例えば、顔の表情の「目瞑り」、「笑顔」、「赤目」の状態についての情報や、顔が撮影画面から外れているかどうかを示す情報などをはっきりと確認させるために、以下の撮影動作を行うようにしている。
以下、デジタルカメラが行うその撮影動作を、図3のフローチャートを参照して説明する。なお、図3のフローチャートの処理は、例えば、デジタルカメラの「依頼撮影モード」が撮影者などによってON(有効)の状態にされた場合に実行されるものである。
ステップ101(S101):制御部20は、レンズ駆動部12、アナログ信号処理部14およびTG15を駆動してスルー画像の撮影を開始する。このとき、撮像素子13はドラフトモード(間引き読み出しモード)で駆動される。
ステップ102:制御部20は、「依頼撮影モード」がOFF(無効)の状態にされたか否かを判定する。そして、制御部20は、OFF(無効)の状態にされた場合にはステップ116へ移行し(Yes側)、一方、ON(有効)の状態のままの場合にはステップ103へ移行する(No側)。
ステップ103:制御部20は、バッファメモリ16に記録されたスルー画像の画像データから特徴点を抽出して、被写体となる人物の顔(顔の大きさ、撮影画面内における顔の位置などを含む)を検出する。被写体の人物が2人以上(複数)である場合には、各人物の顔をそれぞれ個別に検出する。なお、その検出は、例えば、特開2001−16573号公報に記載される特徴点抽出処理などの従来技術を利用して行える。また、特徴点としては、例えば、眉、目、鼻、唇の各端点、顔の輪郭点、頭頂点や顎の下端点などが挙げられる。
ステップ104:制御部20は、顔を検出できたか否かを判定する。そして、制御部20は、顔を検出できた場合にはステップ105へ移行し(Yes側)、一方、顔を検出できない場合にはステップ102へ移行する(No側)。
ステップ105:制御部20は、検出した顔が撮影画面(フレーム)から外れていないかどうかを判定し、その判定結果を、揮発性の記憶媒体のSDRAMなどによって構成されるメモリ(不図示)に一時的に記録する。
ステップ106:制御部20は、検出した顔の領域(顔領域)のデータと上記で抽出した特徴点とに基づいて顔の表情「目瞑り」を判定する。なお、目瞑りの判定は、例えば、特開2001−338303号公報などで開示される従来の手法を利用して行える。そして、制御部20は、その判定結果を、上記と同じく不図示のメモリに一時的に記録する。
ステップ107:制御部20は、検出した顔領域のデータと抽出した特徴点とに基づいて顔の表情「笑顔」を判定し、その判定結果を、上記と同じく不図示のメモリに一時的に記録する。
ここで、顔の表情「笑顔」の判定は、例えば、撮影者などにより予め設定される「検出レベル」或いは「笑顔度」に基づいて行われる。例えば、「検出レベル」が「弱」或いは「笑顔度」が「80%」などに設定されると、制御部20は、大笑いのようにはっきりとした笑顔のみを「笑顔」として判定する。一方、「検出レベル」が「強」或いは「笑顔度」が「10%」などに設定されると、制御部20は、微笑みのような僅かな笑顔までも「笑顔」として判定するようになる。即ち、本実施形態では、撮影者が、「笑顔」として判定すべき笑顔の度合いを変更することができる。
なお、このような笑顔の判定は、例えば、特開2004−46591号公報などで開示される従来の手法を利用して行える。
ステップ108:制御部20は、上記で不図示のメモリに記録した判定結果に基づいて、被写体の人物の顔の情報を表示する。
なお、情報は、第1表示制御部18を介して顔状態表示部1に表示され、また、それと同時に、第2表示制御部19を介してモニター表示部8に表示される。つまり、本実施形態のデジタルカメラでは、被写体の人物の顔の情報を、カメラ前面の顔状態表示部1と、その裏面のモニター表示部8との両方に同時に表示するのが通常である。しかし、例えば撮影者が被写体として自身を撮影(セルフ撮影)するような場合には、カメラ前面の顔状態表示部1のみに情報を表示するようにしてもよい。
ここで、表示部に表示される上記情報の内容について、図4〜図8を用いて具体的に説明する。
図4は、被写体となる人物の数が1人〜数人と少ない場合に有効な情報の表示方法の例である。
図4(1)は、被写体となる人物が1人である場合に、その人物の顔の情報を、顔状態表示部1へ表示した例である。
四角い形状をした枠41aとその枠内の領域とが、その人物の顔の情報を表している。具体的には、枠41aの大きさ(サイズ)が顔の大きさを、顔状態表示部1内での枠41aの表示位置が撮影画面(フレーム)内での顔の位置を表している。なお、枠41aは、本実施形態では、橙色に発光するようにしている。
また、枠41a内の下部領域41bは、顔の表情「笑顔」の状態を表し、上部領域41cは、顔の表情「目瞑り」の状態を表している。なお、本実施形態では、上記ステップ106で顔の表情が「笑顔」であると判定された場合には、下部領域41bを青色に発光させ、また上記ステップ107で顔の表情が「目瞑り」をしていないと判定された場合には、上部領域41cを青色に発光させるようにしている。図4(1)の例では、下部領域41bが青色に発光し、上部領域41cが非発光の状態であるため、被写体となる人物の顔の表情は、「笑顔」ではあるが「目瞑り」をしていることを表している。
図4(2)は、被写体となる人物が2人(複数)である場合に、各人物の顔の情報をそれぞれ個別に顔状態表示部1へ表示した例である。
四角い形状をした枠42a−1と、枠42a−2とが、2人の人物の顔をそれぞれ表している。枠42a−1の方が枠42a−2よりも枠のサイズが大きいので、枠42a−1の人物の方が顔の大きさが大きいことを表している。
また、枠42a−1内の下部領域42b−1と上部領域42c−1はどちらも青色に発光している状態であるため、枠42a−1の人物の顔の表情は、「笑顔」であり「目瞑り」もしていないことを表している。一方、枠42a−2内の下部領域42b−2は非発光であるが、上部領域42c−1は青色に発光している状態であるため、枠42a−2の人物の顔の表情は、「目瞑り」はしていないが「笑顔」ではないことを表している。
図4(3)は、被写体となる人物が5人(複数)である場合に、各人物の顔の情報をそれぞれ個別に顔状態表示部1へ表示した例である。
四角い形状をした枠43−1〜43−5が、5人の人物の顔をそれぞれ表している。
枠43−1内の下部領域は非発光であるが、上部領域は青色に発光している状態であるため、枠43−1の人物の顔の表情は、「目瞑り」はしていないが「笑顔」ではないことを表している。
また、枠43−2内の下部領域と上部領域はどちらも青色に発光している状態であるため、枠43−2の人物の顔の表情は、「笑顔」であり「目瞑り」もしていないことを表している。
また、枠43−3内の下部領域と上部領域はどちらも非発光の状態であるため、枠43−3の人物の顔の表情は、「笑顔」でなく「目瞑り」もしていることを表している。
また、枠43−4内の下部領域は青色に発光しているが、上部領域は非発光の状態であるため、枠43−4の人物の顔の表情は、「笑顔」ではあるが「目瞑り」をしていることを表している。
そして、枠43−5内の下部領域と上部領域はどちらも青色に発光している状態であるため、枠43−5の人物の顔の表情は、「笑顔」であり「目瞑り」もしていないことを表している。
なお、枠43−5は、図4(3)から見てとれるように、顔状態表示部1の撮影画面から外れている。この場合、上記ステップ105では、その被写体となる人物の顔が撮影画面から外れていると判定される。その結果、本実施形態では、枠43−5は、橙色に点滅して発光するように制御される。もちろん、枠43−5だけでなく、枠43−5内の下部領域および上部領域を含めた全体を点滅発光するようにしてもよい。これにより、被写体となる人物の顔が撮影画面から外れていることを、その人物に対してはっきりと確認させることができる。
また、本実施形態では、顔状態表示部1については、被写体となる人物の側から自身の顔の表情を確認し易いように鏡像を表示するようにしている。
このように、本実施形態のデジタルカメラでは、取得されたスルー画像の画像データの画像が表示部に表示されるのではなく、例えば図4の情報の表示方法のように、被写体となる人物の顔の情報が確認し易いマークとして表示される。しかも、その顔の情報は鏡像として表示される。そのため、その情報を被写体の人物の側からはっきりと確認できるようになる。
また、本実施形態の表示方法は、撮影画面から外れていることが被写体となる人物の側から一目で判断できるので、特にセルフタイマーを使用して撮影する場合にとても有効である。
次に、図5について説明する。図5は、集合写真の撮影などのように、被写体となる人物の数が多い場合に有効な情報の表示方法の例である。
図5(1)は、被写体となる全ての人物の顔の情報を総合し、その結果を、顔状態表示部1へ表示した例である。マーク51は、その総合結果を表すマークである。マーク51の目51cが顔の表情の「目瞑り」の総合結果を、またマーク51の口51bが顔の表情の「笑顔」の総合結果を表すようにしている。
具体的には、上記ステップ106での顔の表情「目瞑り」の判定結果を全ての被写体となる人物について総合して、その総合した結果、つまり顔の表情「目瞑り」の度合いを、マーク51の目51cの大きさとして表すようにする。また、上記ステップ107での顔の表情「笑顔」の判定結果を全ての被写体となる人物について総合して、その総合した結果、つまり顔の表情「笑顔」の度合いを、マーク51の口51bの大きさとして表すようにする。
本実施形態では、図5(1)に示すように、被写体となる人物全員が「目瞑り」をしていない場合に、大きく開いた目のマークの目51cを表示するようにしている。また、被写体となる人物全員が「笑顔」である場合に、大きく開いた口のマークの口51bを表示するようにしている。
図5(2)は、図5(1)の別の表示例である。図5(2)では、マーク52が、総合結果を表すマークとなる。マーク52の目52cが顔の表情の「目瞑り」の総合結果を、またマーク52の口52bが顔の表情の「笑顔」の総合結果を表すようにしている。
また、マーク52の輪郭線52dは、被写体の人物の顔が撮影画面から外れていないかどうかについての総合結果を表すようにしている。つまり、上記ステップ105での判定結果を全ての被写体となる人物について総合して、その総合した結果、つまり何人の顔が撮影画面から外れているかという度合いを、マーク52の輪郭線52dで表すようにする。
本実施形態では、図5(2)に示すように、被写体となる人物全員が「目瞑り」をしている場合に、小さく閉じた目のマークの目52cを表示するようにしている。また、被写体となる人物全員が「笑顔」でない場合に、小さく閉じた口のマークの口52bを表示するようにしている。
また、本実施形態では、複数の人物のうち1人でも顔が撮影画面から外れている場合には、図5(2)に示すように、マーク52の輪郭線52dを表示するようにしている。なお、この表示例は、被写体の側から見て右側に位置する人物の顔が撮影画面から外れていることを表している。
このように、本実施形態のデジタルカメラでは、取得されたスルー画像の画像データの画像が表示部に表示されるのではなく、例えば図5の情報の表示方法のように、被写体となる複数の人物の顔の情報を総合した結果が確認し易いマークとして表示される。そのため、被写体となる人物の数が多い場合にも、各人物の顔の情報を被写体の側からはっきりと確認できるようになる。
次に、図6について説明する。図6は、図5の場合の別の表示方法の例である。
図6(1)は、被写体となる複数の人物を、例えば被写界の中央から右側と左側との2つに分け、その右側の人物(の集合)と左側の人物(の集合)とについてそれぞれ顔の情報を総合し、その結果を、顔状態表示部1へ表示した例である。
小さく閉じた目のマークの目61c−1は、被写界の右側、つまり、被写体の側から見ると左側に位置する人物(の集合)の顔の表情「目瞑り」の総合結果を表している。即ち、被写体の側から見て左側に位置する人物(の集合)顔の表情「目瞑り」の度合いが大きいこと、例えば、全員が「目瞑り」をしていることを表している。
また大きく開いた目のマークの目61c−2は、被写界の左側、つまり、被写体の側から見ると右側に位置する人物(の集合)の顔の表情「目瞑り」の総合結果を表している。即ち、被写体の側から見て右側に位置する人物(の集合)顔の表情「目瞑り」の度合いが小さいこと、例えば、全員が「目瞑り」をしていないことを表している。
また、口のマークの口61bは、その小さく開いた左端の部分が被写体の側から見て左側に位置する人物(の集合)の顔の表情「笑顔」の総合結果を表している。例えば、全員が「笑顔」でないことを表している。そして、その口のマークの口61bの大きく開いた右端の部分が被写体の側から見て右側に位置する人物(の集合)の顔の表情「笑顔」の総合結果を表している。例えば、全員が「笑顔」であることを表している。
図6(2)は、図6(1)の別の表示例である。図6(2)は、被写体となる複数の人物を、例えば被写界の右側、中央、左側の3つに分け、その右側の人物(の集合)、中央の人物(の集合)、左側の人物(の集合)とについてそれぞれ顔の情報を総合し、その結果を、顔状態表示部1へ表示した例である。
口のマークの口62bは、その小さく開いた左端の部分が被写体の側から見て左側に位置する人物(の集合)の顔の表情「笑顔」の総合結果を表している。例えば、全員が「笑顔」でないことを表している。同様に、その小さく開いた右端の部分が被写体の側から見て右側に位置する人物(の集合)の顔の表情「笑顔」の総合結果を表している。例えば、全員が「笑顔」でないことを表している。そして、その口のマークの口62bの大きく開いた中央部分が被写界の中央に位置する人物(の集合)の顔の表情「笑顔」の総合結果を表している。例えば、全員が「笑顔」であることを表している。
但し、小さく閉じた目のマークの目62cについては、被写体となる人物全員の顔の表情「目瞑り」を総合した結果を表している。
次に、図7について説明する。図7は、図4(2)の場合の別の表示方法の例であり、被写体となる人物が2人(複数)である場合に、各人物の顔の情報をそれぞれ個別に顔状態表示部1へ表示する例である。
マーク9a−1と、マーク9a−2とが、2人の人物の顔をそれぞれ表している。マーク9a−2の方がマーク9a−1よりもサイズが大きいので、マーク9a−2の人物の方が顔の大きさが大きいことを表している。
また、マーク9a−1の小さく閉じた口のマークの口9b−1と、小さく閉じた目のマークの目9c−1とは、マーク9a−1の人物の顔の表情が、「笑顔」ではなく「目瞑り」をしていることを表している。一方、マーク9a−2の大きく開いた口のマークの口9b−2と、大きく開いた目のマークの目9c−2とは、マーク9a−2の人物の顔の表情が、「笑顔」であり「目瞑り」もしていないことを表している。
次に、図8について説明する。図8は、図4の場合の別の表示方法の例であり、被写体となる人物が3人(複数)である場合に、各人物の顔の情報をそれぞれ個別に顔状態表示部1へ表示する例である。ここでは、3人のうち1人の人物が、デジタルカメラの被写体認識(顔認識)により、予め登録された特定の人物であると認識された場合の情報の表示方法の例を示す。
四角い形状をした四角枠7−1、四角枠7−3、そして丸い形状をした丸枠7c−2が、3人の人物の顔をそれぞれ表している。
四角枠7−1内の下部領域は非発光であるが、上部領域は青色に発光している状態であるため、四角枠7−1の人物の顔の表情は、「目瞑り」はしていないが「笑顔」ではないことを表している。
また、四角枠7−3内の下部領域は青色に発光しているが、上部領域は非発光の状態であるため、四角枠7−1の人物の顔の表情は、「笑顔」ではあるが「目瞑り」をしていることを表している。
そして、丸枠7c−2は、カメラの被写体認識(顔認識)により予め登録された特定の人物であると認識された被写体を表している。丸枠7c−2内の下部領域と上部領域はどちらも青色に発光している状態であるため、丸枠7c−2の人物の顔の表情は、「笑顔」であり「目瞑り」もしていないことを表している。
また、四角枠7−3と丸枠7c−2は、枠のサイズが四角枠7−1よりも大きいので、四角枠7−1の人物の方が、四角枠7−3と丸枠7c−2の2人の人物よりも顔の大きさが小さいことを表している。
なお、被写体認識(顔認識)は、例えば、次のようにして行うとよい。先ず、制御部20は、上記ステップ103の処理で検出された顔の特徴点に基づいて、被写体となる人物の顔の特徴点の位置、各顔パーツの大きさ、各特徴点の相対距離などを演算する。次に、制御部20は、その演算結果と、特定の人物を認識するためにデジタルカメラに予め登録された顔認識用のデータとを比較して、被写体の人物の顔と登録された特定の人物の顔との相似度を求める。そして、制御部20は、上記の相似度が予め定められた閾値を超える場合に、被写体の人物が特定の人物であると判断して認識する。
ステップ109:制御部20は、レリーズボタンが全押しされたか否かを判定する。そして、制御部20は、レリーズボタンが全押しされた場合にはステップ110へ移行し(Yes側)、一方、全押しされていない場合にはステップ102へ移行する(No側)。
ステップ110:制御部20は、レンズ駆動部12、アナログ信号処理部14およびTG15の駆動を停止して、スルー画像の撮影を終了する。
なお、このとき、最後にバッファメモリ16に記録されたスルー画像の画像データを、以下で顔の表情の「赤目」の情報を表示するために保持しておくようにする。
ステップ111:制御部20は、レンズ駆動部12と協働して撮像レンズ11の焦点調節制御(AF)を行う。また、制御部20は、不図示の測光部が算出した評価値に基づき撮影条件(絞り値、シャッター速度、ストロボ発光の有無など)を決定する。そして、制御部20は、決定した撮影条件の下でレンズ駆動部12、アナログ信号処理部14およびTG15(また、必要に応じて発光部23も)を駆動して静止画像の撮影を実施する。このとき、撮像素子13はフレームモード(全画素読み出しモード)で駆動される。その後、制御部20は、画像処理部17を駆動して、バッファメモリ16に記録された静止画像の画像データに対し画像処理を施す。
ステップ112:制御部20は、バッファメモリ16に記録された静止画像の画像データ(静止画像データ)から、被写体の人物の顔の「赤目」を検出する。
具体的には、先ず、静止画像データ中の顔領域から瞳領域を検出する。なお、瞳領域の検出は、例えば、特開2008−109395号公報などで開示される従来の瞳検出手法を用いて行える。また、顔領域の検出は、上記ステップ103の処理と同様にして行える。
次に、制御部20は、検出した瞳領域が赤目になっているか否かを判定する。なお、その判定は、例えば、瞳領域に含まれる画素のカラー分布を調べて、赤色系成分を有する画素が所定の範囲以上連続分布する領域を検出できるか否かを判定することなどによって行うとよい。
そして、制御部20は、瞳領域が赤目になっていると判定した場合には赤目を検出したと判断し、一方、瞳領域が赤目になっていないと判定した場合には赤目を検出しないと判断する。
ステップ113:制御部20は、赤目を検出したか否かを判定する。そして、制御部20は、赤目を検出した場合にはステップ114へ移行し(Yes側)、一方、赤目を検出しない場合にはステップ115へ移行する(No側)。
ステップ114:制御部20は、上記ステップ110で保持しておいたバッファメモリ16のスルー画像の画像データに基づき、被写体の人物の顔の情報、つまり、顔の表情の「目瞑り」の状態、「笑顔」の状態、また、顔が撮影画面から外れいないかどうかなどの情報を、上述したとおりに検出・判定する。なお、この検出・判定の結果として、上記で不図示のメモリに記録した判定結果の情報を使用するようにしてもよい。そうした場合、上記ステップ110では、バッファメモリ16のスルー画像の画像データを保持しなくてもよい。
そして、制御部20は、第1表示制御部18を駆動して、その判定結果と、ステップ113で検出した顔の表情の「赤目」の情報とを顔状態表示部1に表示させる。この顔状態表示部1の表示は被写体となる人物に向けたものである。また、制御部20は、第2表示制御部19を駆動して、同様に、判定結果と、顔の表情の「赤目」の情報とをモニター表示部8に表示させる。このモニター表示部8の表示は撮影者に向けたものである。
ここで、それら表示部への被写体となる人物の顔の情報の表示の例を図9に示す。
図9(1)では、四角い形状をした四角枠91−1の下の部分に顔の表情の「赤目」を検出したことを示す赤目マークが表示されている。つまり、この場合、四角枠91−1の人物の顔から「赤目」が検出されたことを表している。なお、四角枠91−2の人物の顔からは「赤目」は検出されていない。
また、図9(2)では、被写体となる人物の顔の情報の総合結果を表示しており、この場合、「赤目」が検出された人物の数に応じて求められる「赤目」の度合いを、「目瞑り」の度合いを表すマークの目92cを用いて表すようにしている。例えば、被写体となる人物の少なくとも1人から「赤目」が検出された場合に、目92cのマークを赤色に発光させるようにする。
ステップ115:制御部20は、圧縮/復号部21を駆動して、画像処理後の静止画像データに対し圧縮処理を施すと共に、圧縮処理後の静止画像データをメモリカードI/F22を介してメモリカード23へ記録する。そして、制御部20は、ステップ101へ移行する。
(実施形態の補足事項)
なお、上記では、被写体となる人物の顔の情報を、表示部である顔状態表示部1とモニター表示部8とに表示するようにした。しかし、その情報の表示は、図10の例に示すように、デジタルカメラ本体2の上面に配置したLED8c、8b、8d、8eによって行うようにしてもよい。例えば、被写体となる人物の顔の表情の「目瞑り」が検出された場合にはLED8cを、「笑顔」が検出された場合にはLED8bを点灯、或いは、点滅させるようにする。また、例えば、被写体の人物の顔が撮影画面(フレーム)から外れていることが検出された場合にはLED8dを、被写体の人物の顔の表情の「赤目」が検出された場合にはLED8eを点灯、或いは、点滅させるようにする。
なお、上記では、被写体となる人物の顔の情報を、表示部である顔状態表示部1とモニター表示部8とに表示するようにした。しかし、その情報の表示は、図10の例に示すように、デジタルカメラ本体2の上面に配置したLED8c、8b、8d、8eによって行うようにしてもよい。例えば、被写体となる人物の顔の表情の「目瞑り」が検出された場合にはLED8cを、「笑顔」が検出された場合にはLED8bを点灯、或いは、点滅させるようにする。また、例えば、被写体の人物の顔が撮影画面(フレーム)から外れていることが検出された場合にはLED8dを、被写体の人物の顔の表情の「赤目」が検出された場合にはLED8eを点灯、或いは、点滅させるようにする。
このようにすれば、簡易に設けられる、カメラ上面のLEDのみで、被写体の人物と撮影者とが共に被写体となる人物の顔の情報を確認できるようになる。
1…顔状態表示部、2…デジタルカメラ本体、3…開口部、4…発光部、5…電源ボタン、6…レリーズボタン、7…ズームレバー、8…モニター表示部、9〜10…操作部材、11…撮像レンズ、12…レンズ駆動部、13…撮像素子、14…アナログ信号処理部、15…タイミングジェネレータ(TG)、16…バッファメモリ、17…画像処理部、18…第1表示制御部、19…第2表示制御部、20…制御部、21…圧縮/復号部、22…メモリカードインターフェース(メモリカードI/F)、23…メモリカード、24…ROM、25…操作部、26…バス
Claims (10)
- 撮影レンズを介して被写体を撮影し、画像データを出力する撮像部と、
前記画像データの画像に基づき前記被写体の顔の表情を検出する検出部と、
前記検出部の検出した前記顔の表情を示す情報を、前記被写体となる人物に向けて表示する第1の表示部と
を備えることを特徴とするカメラの表示装置。 - 請求項1に記載のカメラの表示装置において、
前記検出部は、前記顔の表情を検出するときに前記被写体の顔が撮影画面から外れたか否かを検出し、
前記第1の表示部は、前記検出部が前記外れたことを検出した場合、前記被写体となる人物に向けて、その外れたことを前記顔の表情を示す情報と共に表示する
ことを特徴とするカメラの表示装置。 - 請求項1または請求項2に記載のカメラの表示装置において、
撮影者による静止画像の撮影指示を受け付ける操作部材を更に有し、
前記検出部は、前記操作部材の操作に応じて前記撮影部が出力する第2画像データの画像に基づき前記被写体の顔の赤目を検出し、
前記第1の表示部は、前記検出部が前記顔の赤目を検出した場合、前記被写体となる人物に向けて、その顔の赤目を示す情報を、前記操作部材の操作前に前記撮影部が出力した第1画像データの画像に基づいて前記検出部が検出した前記顔の表情を示す情報と共に表示する
ことを特徴とするカメラの表示装置。 - 請求項1ないし請求項3の何れか一項に記載のカメラの表示装置において、
撮影者に向けて前記情報を表示する第2の表示部
を更に備えることを特徴とするカメラの表示装置。 - 請求項1ないし請求項4に記載のカメラの表示装置において、
前記第1の表示部は、カメラの撮影レンズ側の面に配置される
ことを特徴とするカメラの表示装置。 - 請求項4に記載のカメラの表示装置において、
前記第2の表示部は、カメラの前記第1の表示部が配置される面の裏側となる面に配置される
ことを特徴とするカメラの表示装置。 - 請求項1又は請求項4に記載のカメラの表示装置において、
前記第1の表示部、または、前記第1の表示部および前記第2の表示部は、前記被写体が複数の場合には、被写体毎に前記情報を個別に表示する
ことを特徴とするカメラの表示装置。 - 請求項1又は請求項4に記載のカメラの表示装置において、
前記第1の表示部、または、前記第1の表示部および前記第2の表示部は、前記顔の表情を示す情報として、顔の表情に応じたマークを表示する
ことを特徴とするカメラの表示装置。 - 請求項1又は請求項4に記載のカメラの表示装置において、
前記被写体が複数の場合には、
前記検出部は、前記複数の被写体のそれぞれの顔の表情を検出し、
前記第1の表示部、または、前記第1の表示部および前記第2の表示部は、前記検出部が検出した前記複数の被写体の顔の表情に基づいて、前記顔の表情を示す情報として、顔の表情の度合いに応じた1つのマークを表示する
ことを特徴とするカメラの表示装置。 - 請求項4に記載のカメラの表示装置において、
前記第1の表示部と前記第2の表示部とは、共通の表示部材であり、カメラの上面に配置される
ことを特徴とするカメラの表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008250A JP2011147075A (ja) | 2010-01-18 | 2010-01-18 | カメラの表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010008250A JP2011147075A (ja) | 2010-01-18 | 2010-01-18 | カメラの表示装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011147075A true JP2011147075A (ja) | 2011-07-28 |
Family
ID=44461501
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010008250A Withdrawn JP2011147075A (ja) | 2010-01-18 | 2010-01-18 | カメラの表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011147075A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108881721A (zh) * | 2018-07-05 | 2018-11-23 | 维沃移动通信有限公司 | 一种显示方法及终端 |
US10764481B2 (en) | 2013-05-21 | 2020-09-01 | Semiconductor Energy Laboratory Co., Ltd. | Light-emitting device and camera |
-
2010
- 2010-01-18 JP JP2010008250A patent/JP2011147075A/ja not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10764481B2 (en) | 2013-05-21 | 2020-09-01 | Semiconductor Energy Laboratory Co., Ltd. | Light-emitting device and camera |
CN108881721A (zh) * | 2018-07-05 | 2018-11-23 | 维沃移动通信有限公司 | 一种显示方法及终端 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI425826B (zh) | 影像選擇裝置、影像選擇方法 | |
JP4254873B2 (ja) | 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム | |
TWI393434B (zh) | 攝像裝置及程式儲存記憶媒體 | |
US8350918B2 (en) | Image capturing apparatus and control method therefor | |
TW201102938A (en) | Image capturing apparatus, face area detecting method and program recording medium | |
JP2008288868A (ja) | 撮像装置及びプログラム | |
JP4127521B2 (ja) | ディジタル・カメラおよびその制御方法 | |
KR101423432B1 (ko) | 촬상 장치, 촬상 방법 및 기록 매체 | |
JP2010062854A (ja) | 撮影装置及び方法 | |
JP2007299297A (ja) | 画像合成装置およびその制御方法 | |
TWI477887B (zh) | 影像處理裝置、影像處理方法及記錄媒體 | |
JP5880135B2 (ja) | 検出装置、検出方法及びプログラム | |
JP2010273280A (ja) | 撮像装置 | |
KR101630304B1 (ko) | 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 매체 | |
JP5104595B2 (ja) | 撮影装置 | |
JP5448868B2 (ja) | 撮像装置および撮像装置の制御方法 | |
JP2011147075A (ja) | カメラの表示装置 | |
JP5530548B2 (ja) | 表情データベース登録方法及び表情データベース登録装置 | |
JP2005086271A (ja) | 電子カメラ | |
JP2010273281A (ja) | 撮像装置 | |
JP2007208355A (ja) | 撮影装置および方法並びにプログラム | |
JP2008136074A (ja) | カメラ及び撮影プログラム | |
JP2012178666A (ja) | 撮像装置 | |
JP2008167028A (ja) | 撮像装置 | |
JP4865631B2 (ja) | 撮像装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130402 |